তারকাদের ‘গলাকাটা’ পর্ন সরাচ্ছে পর্নহাব-টুইটার

তারকাদের চেহারা বসিয়ে বানানো ‘ডিপফেইক’ নামের ভুয়া পর্নোগ্রাফিক ভিডিওগুলো নিজেদের প্লাটফর্মে নিষিদ্ধ করেছে টুইটার ও পর্নহাব, এ খবর প্রকাশ করেছে প্রযুক্তি সাইট দ্য নেক্সট ওয়েব।

প্রযুক্তি ডেস্কবিডিনিউজ টোয়েন্টিফোর ডটকম
Published : 7 Feb 2018, 01:51 PM
Updated : 7 Feb 2018, 01:51 PM

মঙ্গলবার পর্নহাব প্রযুক্তি সাইট মাদারবোর্ড-কে বলে, “কারও সম্মতি ছাড়া কোনো কনটেন্ট আমাদের সাইটে আমরা মেনে নেই না আর আমরা জানার পর যত জলদি সম্ভব সবগুলো এমন ভিডিও সরাচ্ছি। সম্মতি ছাড়া কনটেন্ট সরাসরি আমাদের নীতিমালা ও শর্তাবলী লঙ্ঘন করে। এক্ষেত্রে রিভেঞ্জ পর্ন, ডিপফেইক বা কারও অনুমতি বা ইচ্ছা ছাড়া রা যে কোনো কিছু প্রকাশ নিয়ে বলা হয়েছে।”

মাইক্রোব্লগিং সাইট টুইটার-এর পক্ষ থেকে বলা হয়, তারা এ ধরনের কনটেন্টের মূল পোস্টদাতা হিসেবে শনাক্ত আর ডিপফেইক ছড়াতে ব্যবহৃত অ্যাকাউন্টগুলো বাতিল করবে।

চলতি মাসের শুরুতে আসা বিনামূল্যের নতুন এক টুল পর্নোগ্রাফিক ভিডিওতে চেহারা বদলে দেওয়ার এই প্রক্রিয়া সহজ করে দেয়। নির্মাতাদের দাবি ফেইকঅ্যাপ নামের এই সফটওয়্যার ১০ হাজারেরও বেশি বার ডাউনলোড করা হয়েছে। একটি মেশিন-লার্নিং অ্যালগরিদম ব্যবহার করে অ্যাপটি কারও চেহারার কম্পিউটারে বানানো একটি সংস্করণ তৈরি করে।

এটি করতে বিশ্লেষণার জন্য যার চেহারা বসানো হবে তার কয়েকশ’ ছবি আর যে ভিডিওতে চেহারা বদলানো হবে সেটি দরকার হয়। এর ফলে যে নতুন ভিডিও তৈরি হয় তা ‘ডিপফেইক’ নামে পরিচিত। চেহারা বদলে দিলেও এই ভিডিও’র মান মূল ভিডিও’র তুলনায় ভিন্ন হয়। কিন্তু কিছু ক্ষেত্রে যার চেহারা বদলানো হবে আর যার চেহারা বসানো হবে তাদের গঠনে যদি মিল থাকে তবে পার্থক্যটা বোঝা যায় না।

এই অ্যাপের সবচেয়ে বেশি ব্যবহার দেখা যায় পর্নোগ্রাফিক কনটেন্টে কোনো তারকা অভিনেত্রী বা গায়িকার চেহারা বসিয়ে দেওয়ার ক্ষেত্রে। এমন অনেক ক্লিপ ইতোমধ্যে অনলাইনে ছড়িয়ে দেওয়া হয়েছে বলেও খবর বের হয়।