‘বোকা’ প্রশ্নের উত্তর দেওয়া বন্ধ করতে চায় গুগল

‘ওবামা কমিউনিস্ট বিদ্রোহের পরিকল্পনা করেছেন’– ব্যবহারকারীদের এমন ভুল তথ্য দেওয়া বন্ধ করতে চায় গুগল।

প্রযুক্তি ডেস্কবিডিনিউজ টোয়েন্টিফোর ডটকম
Published : 12 August 2022, 10:05 AM
Updated : 12 August 2022, 10:05 AM

মজা করে ব্যবহারকারীর জিজ্ঞেস করা প্রশ্নের উত্তরে উদ্ভট কোনো উত্তর দেওয়া বা প্রাসঙ্গিক তথ্যের অভাবে ভুল তথ্য উপস্থাপন করা এড়াতে সার্চ ইঞ্জিনের ‘ফিচার্ড স্নিপেটস’ ফিচারটি আপডেট করেছে গুগল।

গার্ডিয়ান এক প্রতিবেদনে জানিয়েছে, গুগলের এ পদক্ষেপের ফলে ‘স্নুপি কবে আব্রাহাম লিংকনকে খুন করেছিল?’- এমন প্রশ্নের উত্তরে আগের চেয়ে কম সংখ্যক উত্তর দেখাবে সার্চ ইঞ্জিন।

এতদিন এই প্রশ্নের উত্তরে গুপ্তঘাতকের হাতে যুক্তরাষ্ট্রের ষোড়শ প্রেসিডেন্টের মৃত্যুর সঠিক সাল ১৮৬৫ দেখিয়ে এসেছে গুগল। তবে এক্ষেত্রে জটিলতা গুগলের উত্তর নিয়ে নয়, বরং প্রশ্ন নিয়ে।

‘স্নুপি’ কোনো বাস্তব চরিত্র নয়; চার্লস শুলজের জনপ্রিয় কমিক সিরিজ ‘পিনাটস’-এর একটি চরিত্র। আর কমিকে স্নুপির চরিত্রটিও কোনো মানুষের নয়, বরং একটি বিগল কুকুরের।

আবাহ্রাম লিংকন গুপ্তঘাতকের হাতে নিহত হন ১৮৬৫ সালের ১৫ এপ্রিল; আর কমিক ভক্তরা স্নুপির সঙ্গে পরিচিত হয়েছেন ১৯৫০ সালে, লিংকনের মৃত্যুর প্রায় এক শতক পর।

ব্যবহারকারীদের এমন নানা উদ্ভট প্রশ্ন মোকাবেলা করার লক্ষ্যেই গুগল ‘ফিচার্ড স্নিপেট’ আপডেট করেছে বলে জানিয়েছে গার্ডিয়ান।

নতুন আপডেট প্রসঙ্গে এক ব্লগ পোস্টে গুগলের গবেষণা প্রধান পান্ডু নায়েক বলেন, “এরকম প্রশ্ন চিহ্নিত করার সক্ষমতা বাড়াতে আমরা আমাদের (কম্পিউটার) সিস্টেমগুলোকে নতুন করে সাজিয়েছি।… কিন্তু এমন বিষয়ও আছে যেখানে ‘ফিচার্ড স্নিপেট’ দেখিয়েও কোনো সহযোগিতা হয় না। এ ক্ষেত্রে নতুন আপডেটে ফিচার্ড স্নিপেট চালু হওয়ার হার ৪০ শতাংশ কমিয়ে দিয়েছি আমরা।”

গুগল সার্চে সরাসরি কোনো প্রশ্ন করলে, ফলাফলে আসা লিংক ও টেক্সট থেকে সবচেয়ে প্রাসঙ্গিক অংশটুকু হাইলাইট করে দেখায় গুগলের সার্চ ইঞ্জিন। গার্ডিয়ান জানিয়েছে, দীর্ঘ দিন ধরেই গুগলের আর্টিফিশিয়াল ইন্টেলিজেন্স বা এআই প্রযুক্তি নিয়ে ভবিষ্যৎ পরিকল্পনায় গুরুত্বপূর্ণ ভূমিকা রাখছে এ প্রযুক্তি। নিজস্ব স্মার্ট স্পিকার এবং ভয়েস অ্যাসিস্ট্যান্ট পণ্যেও একই প্রযুক্তি ব্যবহার করছে গুগল।

তবে, বিভিন্ন সময়ে স্নিপেট ফিচারটি নিয়ে বিপাকেও পড়তে হয়েছে। এ ফিচারটির কারণেই ২০১৭ সালে গুগলের বিরুদ্ধে ভুয়া খবর প্রচারের অভিযোগ উঠেছিল।

“ওবামা কি অভ্যুত্থানের পরিকল্পনা করছেন?”- এমন প্রশ্নের উত্তরে ফিচার্ড স্নিপেটের সুবাদে গুগলের সার্চ ইঞ্জিন বলছিল, “ওবামা সম্ভবত ২০১৬ সালে নিজের সময় সীমা শেষে একটি কমিউনিস্ট অভ্যুত্থানের পরিকল্পনা করছেন।”

আসল ঘটনা হচ্ছে একটি ষড়যন্ত্রতাত্বিক ওয়েবসাইট বা কন্সপিরেসি ওয়েবসাইটে এ তথ্য পেয়েছিল ফিচার্ড স্নিপেটস, আর ব্যবহারকারীদের প্রশ্নের উত্তরে ওই লাইনটি হাইলাইট করে দেখাচ্ছিল সার্চ ইঞ্জিন।

বিভিন্ন সময়ে এর চেয়েও বিব্রতকর উত্তর দিয়েছে গুগলের সার্চ ইঞ্জিন। সিঁড়ির উদ্ভাবন হয়েছিল ১৯৪৬ সালে- এমন তথ্যও গুগল দিয়েছে।

এমন ভুল উত্তর দেওয়া বন্ধ করতে এর মূলে পৌঁছানোর চেষ্টা করছে গুগল। নতুন আপডেটে ‘ডেটা ভয়েড’-এর ক্ষেত্রে সতর্কবার্তা দেখানোর কৌশল বেছে নিয়েছে গুগল। কোনো প্রশ্নের সঠিক কোনো উত্তর না থাকলে সেই পরিস্থিতিকে ‘ডেটা ভয়েড’ বলে চিহ্নিত করছে প্রযুক্তি জায়ান্ট।

“মনে হচ্ছে, এই সার্চটির জন্য ভালো ফলাফল নেই,”- ব্যবহারকারী উদ্ভট কোনো প্রশ্ন করলে এই সতর্কবার্তা দেবে গুগলের সার্চ ইঞ্জিন।

এর ব্যাখ্যা দিয়ে নায়েক বলেন, “এর মানে এই নয় যে কোনো তথ্যই পাওয়া যাচ্ছে না। এই নোটিসগুলো পেইজের সব ফলাফলের প্রাসঙ্গিকতায় আলোকপাত করবে। সতর্কবার্তা থাকলেও প্রশ্নের উত্তরে আসা সবগুলো ফলাফল দেখতে পাবেন আপনি।”