এআই’র তৈরি ডিপফেইকনির্ভর যৌন নিপীড়ন বেড়েছে: এফবিআই

“ভুক্তভোগীদের মধ্যে রয়েছে শিশু, সম্মতি না দেওয়া প্রাপ্তবয়স্ক ব্যক্তি ও যাদের বিভিন্ন ছবি বা ভিডিও স্পর্শকাতর কনটেন্টে রূপান্তরিত হয়েছে, এমন ব্যক্তিরা।”

প্রযুক্তি ডেস্কবিডিনিউজ টোয়েন্টিফোর ডটকম
Published : 9 June 2023, 11:09 AM
Updated : 9 June 2023, 11:09 AM

কৃত্রিম বুদ্ধিমত্তা ব্যবস্থার মাধ্যমে নকল ভিডিও তৈরি করে যৌন নিপীড়ন সংশ্লিষ্ট জালিয়াতির প্রবণতা বেড়েছে, এমনই সতর্কবার্তা দিয়েছে মার্কিন গোয়েন্দা সংস্থা এফবিআই।

সোমবার এফবিআই বলেছে, এই ধরনের জালিয়াতি অপ্রাপ্তবয়স্ক বা সতর্কতা অবলম্বন না করা প্রাপ্তবয়স্কদের যৌন হয়রানির চেষ্টা করে অথবা তাদের মুক্তিপণ দিতে বা অন্যান্য দাবি মেনে চলতে বাধ্য করে।

বেশ কয়েক দশক ধরেই অনলাইননির্ভর যৌন নিপীড়নের আতঙ্ক রয়েছে। এর মধ্যে রয়েছে অনলাইনে পরিচিত বা অপরিচিত ব্যক্তিকে অর্থ পরিশোধ, সুস্পষ্ট বা যৌনতার উপাদানযুক্ত ছবি বা মানুষের বিভিন্ন স্পর্শকাতর ছবি শেয়ারের হুমকি দিয়ে অর্থ আত্মসাৎ করার মতো বিষয়।

কিছু ক্ষেত্রে প্রতারকের দখলে থাকা ছবিগুলো সত্যিকারের। আর এগুলো সাধারণত আসে ভুক্তভোগীর পরিচিত ব্যক্তির কাছ থেকে বা বেহাত হওয়া অ্যাকাউন্ট থেকে।

আবার কিছু ক্ষেত্রে কোনো প্রমাণ না দেখিয়েই জালিয়াত স্পর্শকাতর উপাদান হাতিয়ে নেওয়ার দাবি করে বলে প্রতিবেদনে লিখেছে প্রযুক্তিবিষয়ক সাইট আর্স টেকনিকা।

ভুক্তভোগীর স্পর্শকাতর ছবি স্ক্যামারের দখলে আছে- এমন হুমকি দিয়ে তার পরিবারের সদস্য, বন্ধু বা নিয়োগকর্তাদের কাছে নতুন কনটেন্ট না পাঠানোর বিপরীতে মুক্তিপণ দাবি করে জালিয়াতরা। ঘটনাপ্রবাহে অর্থ পরিশোধের উপায় হিসেবে ‘যৌনতা সংশ্লিষ্ট’ ছবি পাঠান ভুক্তভোগীরা। আর এই নতুন কনটেন্ট ব্যবহার করে প্রতারকরা এই আর্থিক জালিয়াতি যতদূর সম্ভব টানার চেষ্টা করে।

সোমবার প্রকাশিত সতর্কবার্তায় এফবিআই বলেছে, সাম্প্রতিক মাসগুলোয় এআই’র মাধ্যমে বিভিন্ন এমন নকল ভিডিও তৈরির প্রবণতা বেড়েছে, যেখানে সত্যিকারের মানুষকে ভিডিওতে দেখা যায়।

“এফবিআই ক্রমাগত ভুক্তভোগীদের অভিযোগ পাচ্ছে। এর মধ্যে রয়েছে শিশু, সম্মতি না দেওয়া প্রাপ্তবয়স্ক ব্যক্তি ও যাদের বিভিন্ন ছবি বা ভিডিও স্পর্শকাতর কনটেন্টে রূপান্তরিত হয়েছে, এমন ব্যক্তিরা।” --লিখেন সংস্থাটির কর্মকর্তারা।

ভুক্তভোগীকে হয়রানি বা যৌন নিপীড়নের উদ্দেশ্যে পরবর্তীতে সেইসব ছবি সামাজিক মাধ্যম বা বিভিন্ন পর্নোগ্রাফিক সাইটে ছড়িয়ে দেওয়ার বিষয়টিও বক্তব্যে উল্লেখ করে গোয়েন্দা সংস্থাটি।

“২০২৩ সালের এপ্রিল পর্যন্ত যৌন নিপীড়নে শিকার ব্যক্তিদের অভিযোগ বাড়তে দেখেছে এফবিআই। তারা নিজস্ব সামাজিক মাধ্যম বা ওয়েবসাইটে পোস্ট করা কনটেন্ট থেকে তৈরি নকল ছবি বা ভিডিও’র ব্যবহার সম্পর্কে অভিযোগ জানিয়েছে। আর এগুলো অনুরোধের ভিত্তিতে বিভিন্ন ক্ষতিকারক ব্যবস্থা বা ভিডিও চ্যাটিংয়ের মাধ্যমে ধারণ করা হয়।” --লিখেছে এফবিআই।

তথাকথিত ডিপফেইক ভিডিও তৈরির উদ্দেশ্যে অনলাইনে প্রচুর সফটওয়্যার ও ক্লাউড-ভিত্তিক পরিষেবা রয়েছে। আর বিনামূল্যের বিভিন্ন ওপেন সোর্স ব্যবস্থা বা গ্রাহক সেবাভিত্তিক অ্যাকাউন্টের মাধ্যমে এগুলো পরিচালিত হয়।

সাম্প্রতিক বছরগুলোয় এআই’র অগ্রগতির পাশাপাশি এই ধরনের প্রলোভনের গুণমানও ব্যপক উন্নত হয়েছে। আর এমন বাস্তবসম্মত জাল ভিডিও তৈরির জন্য কোনো ব্যক্তির চেহারার একটি ছবিই যথেষ্ট।

ডিপফেইক হিসেবে এই ধরনের ছবি ব্যবহারের ঝুঁকি এড়াতে প্রতিরক্ষামূলক ব্যবস্থা গ্রহণের আহ্বান জানিয়েছে মার্কিন এই তদন্ত সংস্থা।

“আপাতদৃষ্টিতে পোস্ট বা শেয়ারের সময় ঝুঁকিহীন মনে হলেও ছবি ও ভিডিও’তে এই ধরনের ক্ষতিকারক ব্যবস্থা অপরাধমূলক কার্যক্রম পরিচালনার পাশাপাশি এমন অসংখ্য কনটেন্ট তৈরি করতে পারে।” --বলেন কর্মকর্তারা।

“কনটেন্ট তৈরির প্রযুক্তিতে অগ্রগতি ও অনলাইনে প্রবেশযোগ্য ব্যক্তিগত ছবির মাধ্যমে এই ধরনের ক্ষতিকারক ব্যবস্থা নতুন শিকার বানানোর সুযোগ পায়। এর ফলে, বিব্রতকর পরিস্থিতি তৈরির পাশাপাশি হয়রানি, চাঁদাবাজি, আর্থিক ক্ষতি এমনকি ভুক্তভোগী ব্যক্তিকে দীর্ঘমেয়াদে প্রতারণার ঝুঁকি থাকে।”

এই ধরনের হুমকি পাওয়া ব্যক্তিদের বিভিন্ন প্রমাণ সংরক্ষণ করে রাখার পরামর্শ দিয়েছে আর্স টেকনিকা। বিশেষ করে স্ক্রিনশট, টেক্সট, অডিও রেকর্ড, ইমেইল বার্তা, যেখানে ব্যবহারকারীর নাম, ইমেইল ঠিকানা, ওয়েবসাইট বা যোগাযোগের জন্য ব্যবহৃত প্ল্যাটফর্মের নাম ও আইপি ঠিকানা রয়েছে।