এ গবেষণার সঙ্গে সম্পৃক্ত নন, এমন একজন গবেষক এ কাজটিকে ব্যাখ্যা করেছেন ‘আগুনের সঙ্গে আগুনের যুদ্ধ’ বলে।
Published : 21 Jun 2024, 01:30 PM
বিজ্ঞানীরা সম্ভবত এমন এক উপায় খুঁজে পেয়েছেন, যার মাধ্যমে জনপ্রিয় কৃত্রিম বুদ্ধিমত্তা ব্যবস্থাগুলোর ‘হ্যালুসিনেশন’-এর সমস্যা কাটিয়ে তোলা সম্ভব।
চ্যাটজিপিটি বা একই ধরনের চ্যাটবটগুলোয় যেসব এলএলএম ব্যবহার করা হয়, সেগুলো মূলত ভাষা তৈরির উদ্দেশ্যে তৈরি, তথ্য নয়। ফলে, এইসব চ্যাটবট আত্মবিশ্বাসের সঙ্গে এমন দাবি করে বসে, যা বিশ্বাসযোগ্য মনে হলেও মূল সত্যের সঙ্গে এর আদৌ কোনো সম্পর্ক থাকে না। একেই বলা হচ্ছে এআইয়ের ‘হ্যালুসিনেশন’।
নতুন এক টুলের সহায়তায় বিভিন্ন চ্যাটবট কখন ‘হ্যালুসিনেট করছে’ বা কখন আসল তথ্য তুলে ধরছে, সে বিষয়টি শনাক্ত করা যায়। তথ্য পাওয়ার ক্ষেত্রে বিভিন্ন ‘লার্জ ল্যাঙ্গুয়েজ মডেল’ বা ‘এলএলএম’-এর ওপর নির্ভর করাও বিপজ্জনক।
এআই ‘হ্যালুসিনেশনে’র সমাধান করা এখন পর্যন্ত সম্ভব হয়ে ওঠেনি। যদিও বিভিন্ন ক্ষেত্রে এ প্রযুক্তির বহুল ব্যবহার নিশ্চিত করার ক্ষেত্রে এই সমাধান খুবই গুরুত্বপূর্ণ। কারণ, এইসব চ্যাটবট থেকে তৈরি করা টেক্সট যেন সত্য ও বিশ্বাসযোগ্য হয়, সে ভরসা তৈরি করা জরুরী।
নতুন এক প্রক্রিয়ায় বিজ্ঞানীরা এমন একটি উপায় খুঁজে পেয়েছেন, যাকে তারা ডাকছেন ‘কনফ্যাবুলেশনস’ বলে, যা বিভিন্ন এলএলএম ভুল ও অপ্রাসঙ্গিক টেক্সট তৈরি করছে কি না, তা শনাক্ত করতে পারে।
এ ক্ষেত্রে আরেকটি এলএলএম ব্যবহার করে মূল কাজটির সত্যতা যাচাই করা হয়, যা পরবর্তীতে মূল্যায়ন করে তৃতীয় একটি এলএলএম। এ গবেষণার সঙ্গে সম্পৃক্ত নন, এমন একজন গবেষক এ কাজটিকে ব্যাখ্যা করেছেন ‘আগুনের সঙ্গে আগুনের যুদ্ধ’ বলে। এর থেকে ইঙ্গিত মেলে, এমন হ্যালুসিনেশনের ঘটনা নিয়ন্ত্রণ করার ক্ষেত্রে এলএলএম বড় ভূমিকা রাখতে পারে।
এ গবেষণাটির বিস্তারিত উঠে এসেছে ‘ডিটেক্টিং হ্যালুসিনেশনস ইন লার্জ ল্যাঙ্গুয়েজ মডেলস ইউজিং সিমেটিক এন্ট্রপি’ শীর্ষক নতুন নিবন্ধে, যা প্রকাশ পেয়েছে বিজ্ঞানভিত্তিক জার্নাল ‘নেচার’-এ।