ওপেনএআই, মাইক্রোসফটের এআই টুলে নির্বাচনকেন্দ্রিক ভুয়া ছবি ‘সম্ভব’

“এআইয়ের তৈরি ছবিগুলো এমন ‘প্রমাণ’ হিসেবে দেখানো যেতে পারে, যা ভুল তথ্য ছড়ানোর প্রবণতা বাড়িয়ে দেবে। আর এতে করে নির্বাচনের গ্রহণযোগ্যতাও বড় চ্যালেঞ্জের মুখে পড়বে।”

প্রযুক্তি ডেস্কবিডিনিউজ টোয়েন্টিফোর ডটকম
Published : 7 March 2024, 08:42 AM
Updated : 7 March 2024, 08:42 AM

ওপেনএআই ও মাইক্রোসফটসহ বিভিন্ন কোম্পানির ইমেজ ক্রিয়েশন টুলে যে ধরনের কৃত্রিম বুদ্ধিমত্তা প্রযুক্তি ব্যবহার করা হয়, তা থেকে নির্বাচন বা ভোট সংশ্লিষ্ট ভুল তথ্য প্রচারের ঝুঁকি রয়েছে।

বুধবার প্রকাশিত এক প্রতিবেদনে গবেষকরা বলেছেন, বিভ্রান্তিকর কনটেন্ট তৈরির বিরুদ্ধে বিভিন্ন কোম্পানির নিজস্ব নীতিমালা থাকলেও এমন শঙ্কার কথা উড়িয়ে দেওয়া যায় না।

অনলাইনে ঘৃণামূলক বক্তব্য মনিটরিং করা অলাভজনক সংস্থা ‘সেন্টার ফর কাউন্টারিং ডিজিটাল হেইট (সিসিডিএইচ)’ বিভিন্ন এআই টুল ব্যবহার করে এমন ছবি বানিয়েছে, যেখানে যুক্তরাষ্ট্রের প্রেসিডেন্ট জো বাইডেনকে একটি হসপিটালের বিছানায় শুয়ে থাকতে দেখা গেছে বা নির্বাচনের কর্মীরা ভোটিং মেশিন ভেঙে ফেলছেন। ফলে, নভেম্বরে হতে যাওয়া মার্কিন প্রেসিডেন্ট নির্বাচনের গ্রহণযোগ্যতা নিয়ে শঙ্কাও বাড়ছে।

“এআইয়ের তৈরি ছবিগুলো এমন ‘প্রমাণ’ হিসেবে দেখানো যেতে পারে, যা ভুল তথ্য ছড়ানোর প্রবণতা বাড়িয়ে দেবে। আর এতে করে নির্বাচনের গ্রহণযোগ্যতাও বড় চ্যালেঞ্জের মুখে পড়বে,” প্রতিবেদনে বলেন সিসিডিএইচ-এর গবেষকরা।

এর প্রমাণ হিসেবে ওপেনএআইয়ের তৈরি ‘চ্যাটজিপিটি প্লাস’, মাইক্রোসফটের ‘ইমেজ ক্রিয়েটর’, ‘মিডজার্নি; ও স্ট্যাবিলিটি এআইয়ের ‘ড্রিম স্টুডিও’ পরীক্ষা করেছে সিসিডিএইচ, যেগুলোতে সাধারণ টেক্সট প্রম্পট থেকেই ছবি তৈরির সুবিধা পাওয়া যায়।

প্রতিবেদনটি প্রকাশের আগে এ বছর গোটা বিশ্বে হতে যাওয়া নির্বাচনগুলোয় এআইয়ের অনৈতিক ব্যবহার ঠেকানোর লক্ষ্যে গত মাসে একজোট হয়ে কাজ করার ঘোষণা দিয়েছিল ওপেনএআই, মাইক্রোসফট ও স্ট্যাবিলিটি এআই’সহ ২০টি প্রযুক্তি কোম্পানি। তবে, এ চুক্তিপত্রের প্রাথমিক স্বাক্ষরদাতাদের মধ্যে মিডজার্নি ছিল না।

সিসিডিএইচ বলেছে, গবেষকদের পরীক্ষায় এআই টুলগুলো ৪১ শতাংশ এমন ছবি বানিয়েছে, যেখানে বিভিন্ন প্রম্পটের জবাবে বাইডেন বা সাবেক মার্কিন প্রেসিডেন্ট ডনাল্ড ট্রাম্পের ছবির পরিবর্তে ভোট দেওয়া ব্যালট ময়লার বাক্সে ফেলে দেওয়ার মতো নির্বাচনী জালিয়াতির স্পর্শকাতর ছবি উঠে এসেছে।

প্রতিবেদনে বলা হয়, এর মধ্যে নির্বাচনী প্রার্থীদের সকল প্রম্পট ঠেকানোর ক্ষেত্রে সফল ছিল কেবল চ্যাটজিপিটি প্লাস ও ইমেজ ক্রিয়েটর।

তবে, গবেষকদের পরীক্ষায় সবচেয়ে বাজে ফলাফল দেখিয়েছে মিডজার্নি, যার মাধ্যমে তৈরি ৬৫ শতাংশ ছবিতেই ভুল তথ্য দেখা গিয়েছে।

এদিকে, মিডজার্নির কয়েকটি ছবি ব্যবহারকারীদের জন্য প্রকাশ্যেই পাওয়া যাচ্ছে। সিসিডিএইচ বলেছে, এরইমধ্যে কেউ কেউ এআই টুলটি ব্যবহার করে বিভিন্ন ভুলতথ্যওয়ালা রাজনৈতিক কনটেন্ট বানাচ্ছে, এমন প্রমাণ মিলেছে।

এর মধ্যে একটি প্রম্পট সফলভাবে ব্যবহার করতে পেরেছেন মিডজার্নির এক ব্যবহারকারী। এতে লেখা, ‘ডনাল্ড ট্রাম্প গেটিং অ্যারেস্টেড, হাই কোয়ালিটি, পাপারাজ্জি ফটো।’

এ বিষয়ে মিডজার্নির প্রতিষ্ঠাতা ডেভিড হলজ রয়টার্সকে এক ইমেইল বার্তায় বলেছেন, “আসন্ন মার্কিন নির্বাচন সংশ্লিষ্ট বিশেষ আপডেট শিগগিরই আসছে।”

তিনি আরও যোগ করেন, গত বছর বানানো ছবিগুলো কোম্পানির এখনকার মডারেশন ব্যবস্থার প্রতিনিধিত্ব করে না।

স্ট্যাবিলিটি এআইয়ের এক মুখপাত্র বলেছেন, ‘জালিয়াতি বা ভুল তথ্যওয়ালা ছবি তৈরি বা এর প্রচারণা’ ঠেকাতে শুক্রবার নিজেদের নীতিমালায় আপডেট এনেছে স্টার্টআপ কোম্পানিটি।

ওপেএআইয়ের এক মুখপাত্র বলেন, নিজস্ব টুলের অপব্যবহার ঠেকাতে কাজ করে যাচ্ছে কোম্পানিটি। অন্যদিকে, এ প্রসঙ্গে রয়টার্স মাইক্রোসফটের মন্তব্য জানতে চাইলেও কোনও সাড়া মেলেনি।