Published : 19 Oct 2024, 02:22 PM
কৃত্রিম বুদ্ধিমত্তা ব্যবস্থায় বড় এক নিরাপত্তা দুর্বলতা মানুষের জীবনের জন্য হুমকিস্বরূপ, এমনই উঠে এসেছে নতুন এক গবেষণায়।
গবেষকরা সতর্ক করেছেন, যেসব রোবটিক সিস্টেমে এআই ব্যবহার করে সিদ্ধান্ত নেওয়া হয়, সেগুলো ভেঙে পড়তে পারে আর সেগুলো নিরাপদও নয়।
নতুন এই গবেষণায় বিভিন্ন লার্জ ল্যাঙ্গুয়েজ মডেল অথবা ‘এলএলএম’ খতিয়ে দেখেছেন গবেষকরা। এই এলএলএম প্রযুক্তির সাহায্যেই চ্যাটজিপিটি’র মতো এআই ব্যবস্থা কাজ করে। এমনকি রোবটিক্সের বেলাতেও একই ধরনের প্রযুক্তির ব্যবহার দেখা গেছে, যেখানে বাস্তব-জগতে নেওয়া সিদ্ধান্ত মেশিনের মাধ্যমে প্রয়োগ করে এটি।
ইউনিভার্সিটি অফ পেনসিলভানিয়া পরিচালিত নতুন এ গবেষণা অনুসারে, ওই প্রযুক্তিতে এমন নিরাপত্তা ত্রুটি ও দুর্বলতা আছে, যার সুযোগ নিয়ে হ্যাকারদের পক্ষে এইসব সিস্টেমে প্রবেশ করা সম্ভব।
“আমাদের কাজে দেখা গেছে, এ মুহূর্তে বিভিন্ন লার্জ ল্যাঙ্গুয়েজ মডেল বাস্তব জগতে ব্যবহারের মতো যথেষ্ট নিরাপদ নয়,” বলেন ইউনিভার্সিটি’র অধ্যাপক জর্জ পাপাস।
এতে অধ্যাপক পাপাস ও তার সহকর্মীরা পরীক্ষা করে দেখেন, বর্তমানে ব্যবহার করা বেশ কিছু সিস্টেমের নিরাপত্তা ব্যবস্থা এড়িয়ে এতে প্রবেশ করা সম্ভব। এর মধ্যে রয়েছে ‘সেলফ-ড্রাইভিং’ বা স্বচালিত গাড়ির ব্যবস্থা, যাকে দিয়ে গাড়িকে চৌরাস্তার মধ্য দিয়ে কোনো দিকে ভ্রক্ষেপ না করেই চালানোর ঝুঁকি রয়েছে।
গবেষকরা এখন এই সিস্টেমগুলোর নির্মাতাদের সঙ্গে কাজ করছেন যাতে সে দুর্বলতাগুলো শনাক্ত করে সে অনুযায়ী ব্যবস্থা নেওয়া যায়। তবে তারা সতর্ক করেছেন, এতে সুনির্দিষ্ট দুর্বলতার ‘প্যাচ’ তৈরির চেয়ে বরং এইসব সিস্টেম কীভাবে তৈরি হয়েছে, তা নিয়ে নতুন করে চিন্তা করা উচিৎ।
“এ গবেষণাপত্রের ফলাফল থেকে এটা পরিষ্কার যে, এমন গুরুদায়িত্ব পালন করা সিস্টেম চালু করার বেলায় ‘সেইফটি-ফার্স্ট’ পন্থা অবলম্বণ করা খুবই গুরুত্বপূর্ণ। আর এআই-চালিত রোবটকে বাস্তব জগতে ছেড়ে দেওয়ার আগে আমাদের অবশ্যই এইসব দুর্বলতা নিয়ে কথা বলা উচিৎ,” বলেছেন এ গবেষণার সহ-লেখক বিজয় কুমার।
”আমাদের গবেষণা যাচাইকরণ ও বৈধতা নিয়ে এমন একটি কাঠামো বানাচ্ছে, যা বিভিন্ন রোবটিক সিস্টেম সংশ্লিষ্ট সামাজিক নীতিমালার সঙ্গে সঙ্গতিপূর্ণ।”