মানবতাবিরোধী এআই ব্যবহারে গুগলের “না”

অস্ত্রে কৃত্রিম বুদ্ধিমত্তা (এআই) ব্যবহার না করার অঙ্গীকার করেছে গুগল। মার্কিন সেনাবাহিনীর সঙ্গে প্রযুক্তি জায়ান্ট প্রতিষ্ঠানটির অংশীদারিত্বের বিরুদ্ধে প্রতিবাদের মধ্যে এমন সিদ্ধান্ত জানানো হলো।

প্রযুক্তি ডেস্কবিডিনিউজ টোয়েন্টিফোর ডটকম
Published : 9 June 2018, 12:26 PM
Updated : 9 June 2018, 12:26 PM

মার্কিন সেনাবাহিনীকে ড্রোন ফুটেজ বিশ্লেষণায় মেশিন লার্নিং টুল সরবরাহে গুগলের সিদ্ধান্তের কারণে পদত্যাগ করেন প্রতিষ্ঠানের কয়েকজন কর্মী। আগের সপ্তাহে প্রতিষ্ঠানটির পক্ষ থেকে কর্মীদের জানানো হয় ২০১৯ সালে চুক্তির মেয়াদ শেষ হলে মার্কিন ডিপার্টমেন্ট অফ ডিফেন্স-এর সঙ্গে চুক্তি নবায়ন করা হবে না।

এবার গুগল জানিয়েছে, মানুষকে আহত করে এমন কোনো প্রযুক্তিতে এআই ব্যবহার করা হবে না-- খবর বিবিসি’র।

এক ব্লগ পোস্টে এআই ব্যবহারে গুগলের নতুন নীতিমালা প্রকাশ করেছেন প্রতিষ্ঠান প্রধান সুন্দার পিচাই।

পিচাই বলেন, প্রতিষ্ঠানটি যে সব প্রযুক্তির জন্য এআই নকশা করবে না তার মধ্যে রয়েছে-

যে প্রযুক্তি সামগ্রিক ক্ষতি করবে বা করতে পারে।

অস্ত্র বা অন্যান্য প্রযুক্তি যেগুলোর মূল উদ্দেশ্য মানুষের ক্ষতি বা সরাসরি আঘাত করা।

আন্তর্জাতিকভাবে অনুমোদিত নীতিমালার বাইরে যে প্রযুক্তি নজরদারির তথ্য সংগ্রহ বা ব্যবহার করে।

যে প্রযুক্তির উদ্দেশ্য আন্তর্জাতিক আইন এবং মানবাধিকার লঙ্ঘন করে।

ভবিষ্যতে এআই ব্যবস্থা নকশায় আরও সাতটি নীতির কথা জানিয়েছেন পিচাই:

এআই সামাজিকভাবে উপকারী হতে হবে।

পক্ষপাত তৈরি বা পুনর্বহাল এড়িয়ে যাবে এটি।

বিশ্বাসযোগ্য হতে হবে।

গোপনীয়তার নীতিমালা মেনে চলবে।

বৈজ্ঞানিক শ্রেষ্ঠ্যত্বের উচ্চ মান ধারণ করবে।

ব্যবহারের জন্য নাগালে পাওয়া যাবে।

মার্কিন সেনাবাহিনীর জন্য মেশিন লার্নিং ব্যবহার করে ড্রোন ভিডিওতে মানুষ এবং বস্তু আলাদা করে আসছিলো গুগলের ‘প্রজেক্ট ম্যাভেন’।

গুগলের নীতিমালা পরিবর্তনের এই ঘোষণাকে সাধুবাদ জানিয়েছে ইলেক্ট্রনিক ফ্রন্টিয়ার ফাউন্ডেশন। এটিকে ‘নৈতিক এআই নীতিমালার বড় জয়’ হিসেবে দেখছে সংস্থাটি।