“২০২৪ সালে গোটা বিশ্বে অনেকগুলো নির্বাচন হবে, যেখানে ডিপফেইকের মতো প্রযুক্তি ব্যবহৃত হবে না, এমন সম্ভাবনা কম বা একেবারে শূন্যের কাছাকাছি।”
Published : 09 Nov 2023, 03:32 PM
কৃত্রিম বুদ্ধিমত্তা প্রযুক্তির দ্রুত অগ্রগতি নির্বাচনের মতো গণতান্ত্রিক প্রক্রিয়ায় ব্যাঘাত ঘটাতে পারে, এমনকি মানবতার অস্তিত্বে হুমকির কারণও হয়ে উঠতে পারে --এমনই দাবি বিশেষজ্ঞদের।
৮ ও ৯ নভেম্বর আয়োজিত ‘রয়টার্স নেক্সট’ সম্মেলনে এই সতর্কবার্তা দিয়েছেন এআই বিশেষজ্ঞরা।
সাম্প্রতিক মাসগুলোয় জেনারেটিভ এআইয়ের বিস্তার নিয়ে আগ্রহ ও শঙ্কা উভয়ই বেড়েছে, যেখানে শুধু প্রম্পটের মাধ্যমেই বিভিন্ন টেক্সট, ছবি ও ভিডিও তৈরি করা যায়। এর সম্ভাব্য শঙ্কাগুলোর মধ্যে রয়েছে চাকরির বাজারে ধাক্কা, নির্বাচনের ফলাফল প্রভাবিত করা এমনকি মানুষের সক্ষমতাকে ছাড়িয়ে দেওয়ার মতো ঝুঁকিও।
“বর্তমানে সবচেয়ে বড় ঝুঁকি হলো গণতন্ত্রে হুমকি…২০২৪ সালে গোটা বিশ্বে অনেকগুলো নির্বাচন হবে, যেখানে ডিপফেইকের মতো প্রযুক্তি ব্যবহৃত হবে না, এমন সম্ভাবনা কম বা একেবারে শূন্যের কাছাকাছি।” --বুধবার সম্মেলনের প্যানেল আলোচনায় বলেন নিউ ইয়র্ক ইউনিভার্সিটি’র অধ্যাপক গ্যারি মার্কাস।
ডিপফেইক হচ্ছে অসংখ্য ভিডিও থেকে প্রশিক্ষিত জেনারেটিভ এআই প্রযুক্তির মাধ্যমে বাস্তবের মতো তবে নকল এমন ডিপফেইক ভিডিও তৈরি করা, যে ঘটনা আসলে বাস্তবে ঘটেইনি। আর এগুলো সামাজিক মাধ্যমে চলে আসায় রাজনীতির বাস্তব ও বানোয়াট ঘটনার মধ্যে তফাৎ করাও জটিল হয়ে পড়ে।
মার্কাস বলেন, বেশ কয়েক বছর ধরে ‘সিন্থেটিক মিডিয়ার’ উপস্থিতি দেখা গেলেও একসময় যে প্রযুক্তি ব্যবহারের জন্য লাখ লাখ ডলার খরচ হতো, সেটা এখন কেবল তিনশ ডলার খরচ করেই বানানো সম্ভব।
অলাভজনক সংস্থা ‘কনজিউমার রিপোর্টস’-এর সিইও মার্টা টেলাডো বলেন, তদন্তে উঠে এসেছে, গাড়ির প্রিমিয়াম বীমা সেবার বেলায়, সিংহভাগ কৃষ্ণাঙ্গ বা বাদামী চামড়ার প্রতিবেশী থাকা গাড়ির মালিককে শ্বেতাঙ্গ প্রতিবেশী থাকা গাড়ির মালিকের তুলনায় গড়ে ৩০ শতাংশ বেশি আর্থিক ফি দিতে হয়।
“গ্রাহকদের জন্য কোনো স্বচ্ছতা রাখা হয়নি।” --প্যানেলে দেওয়া সাক্ষাৎকারে বলেন তিনি।
সম্মেলনে দেওয়া এক সাক্ষাৎকারে অলাভজনক সংস্থা ‘ফিউচার অফ লাইফ ইনস্টিটিউট’-এর সহ-প্রতিষ্ঠাতা ও নির্বাহী পরিচালক অ্যান্টনি আগুয়েরে বলেন, আইনপ্রণেতা ও শীর্ষ প্রযুক্তি উদ্যোক্তাদের জন্য কৃত্রিম বুদ্ধিমত্তার আরেকটি সম্ভাব্য ঝুঁকি হল, এটি মানবতার জন্য হুমকি হয়ে দাঁড়াতে পারে।
“আমাদের এইসব মডেলের ক্ষমতাবান হয়ে ওঠা ও দ্রুত অগ্রগতির বিষয়টিকে ছোট করে দেখা উচিৎ নয়।” --বলেন তিনি।
গেল মার্চে শিরোনামে উঠে এসেছিল কৃত্রিম বুদ্ধিমত্তার সম্ভাব্য ঝুঁকি কমানোর লক্ষ্যে কাজ করা অলাভজনক সংস্থা ফিউচার অফ লাইফ ইনস্টিটিউট, যেখানে ওপেনএআইয়ের জিপিটি ৪-এর বিকাশ থামানোর জন্য এক খোলা চিঠি প্রকাশ করেছিল সংস্থাটি। এতে স্বাক্ষর করেছিলেন সামাজিক মাধ্যম এক্স-এর মালিক ইলন মাস্কও।
ওই চিঠিতে সতর্কবার্তা দেওয়া হয়, বিভিন্ন এআই ল্যাব ‘ক্ষমতাশালী ডিজিটাল মস্তিষ্ক’ নিয়ে কাজ করতে গিয়ে ‘নিয়ন্ত্রণের এমন বেড়াজালে আটকে গেছে’, যা নির্মাতাদের পক্ষেও ‘বোঝা, অনুমান করা বা বিশ্বাসযোগ্য উপায়ে নিয়ন্ত্রণ করা’ সম্ভব নয়।
এর চেয়ে শক্তিশালী এআই প্রযুক্তি বিকাশ চাকরির খাতে এমন পরিস্থিতি তৈরি করতে পারে, যেখানে মানুষের পক্ষে সহজেই নতুন কোনো দক্ষতা শিখে অন্য কোনো শিল্পে প্রবেশ করা সম্ভব হবে না।
“সেটা যদি হয়, এআইকে সম্ভবত কেবল টুল হিসেবে ব্যবহার করে মানুষের সহায়ক হিসেবে কাজ করার প্রেক্ষাপটে সহজেই ফেরানো যাবে না। এমনকি আমার ভয় হচ্ছে, মানুষের চাকরির দখল নেওয়া প্রযুক্তিতে রূপান্তরিত হতে পারে এটি।”