img

DeepFake – ধর্ষণ/খুন না করেও আপনি যখন ধর্ষক/খুনি!

/
/
/
643 Views

ডিপ ফেইক (DeepFake): নিজের চোখকে কি আর পারবেন করতে বিশ্বাস? ~

[রাগিব হাসান]

আদালতে আসামীর কাঠগড়ায় দাঁড়িয়ে আপনি। দিনে দুপুরে নাকি খুন করেছেন একজনকে। আপনি নির্দোষ, খুনের সময়ে ধারে কাছেও ছিলেন না। কিন্তু প্রতিপক্ষের উকিল তুরুপের তাসটা ছাড়লেন
— “মহামান্য আদালত, আমাদের কাছে ভিডিও আছে খুনের”।
অবাক বিষ্ময়ে আপনি দেখলেন, স্পষ্ট একটি ভিডিও — আপনি নিজে নৃশংসভাবে খুন করলেন মানুষটাকে, স্পষ্টভাবে দেখা যাচ্ছে আপনার চেহারা, খুন করে ক্যামেরার দিকে তাকিয়ে রক্তমাখা ছুরি হাতে দিচ্ছেন অট্টহাসি।

আর কি কোনো প্রমাণ লাগে?

 

অথবা আরেকদিন। ফেইসবুকে ঢুকতেই আঁতকে উঠলেন। আপনার বন্ধুরা সবাই শেয়ার করছে একটি ভিডিও। আপনার প্রিয়জন কারো পরকীয়ার ভিডিও, স্পষ্ট দেখা যাচ্ছে ঝকঝকে ভিডিওতে আপনার সেই প্রিয়জনটির চেহারা অন্য মানুষের সাথে অন্তরঙ্গ সময়ে।

সন্দেহ করার অবকাশ কি আছে? ভিডিও কি আর মিথ্যা বলে?

জ্বী, বলে। খুব ভালো করেই বলে।

আর সচক্ষে দেখা জিনিষের উপরে আস্থা টলিয়ে দেয়া এই প্রযুক্তির নাম হলো ডিপ ফেইক (DeepFake)। ফটোশপ দিয়ে যেমন নকল ছবি বানানো যায় অবিকল আসল ছবির মতো, ডিপফেইক দিয়ে একই ভাবে বানানো সম্ভব নকল ভিডিও। চোখে দেখে আদৌ বুঝতেও পারবেন না।

একটা সময় ছিলো যখন ছবি কথা বলতো। যে কোনো ঘটনার ফটো থাকলে সেটা অকাট্য প্রমাণ হিসাবে সর্বত্র সবাই মেনে নিতো। এর পরে এলো ফটোশপের যুগ। চেহারা পাল্টে বা একজনের শরীরে আরেকজনের মাথা লাগিয়ে যেকোনো রকমের ছবি বানানো সম্ভব — এক্সপার্ট হতে হয় না, ফটোশপে মাঝারি দক্ষতা থাকলেই এটা সম্ভব।

 

ছবি তাই আজ আর কথা বলে না — নকল ছবি বানানোটা আজ দুধভাত।

 

কিন্তু এই ২০১৮ সালেও ভিডিওকে ধরা হয় আসল প্রমাণ। যেকোনো ঘটনার যদি ভিডিও দেখানো যায়, সবাই অবশেষে সেটাকে বিশ্বাস করে। কারণ সবার ধারণা ভিডিওকে নকল বানানো সম্ভব না। একজন মানুষের মুখের উপরে আরেকজন মানুষের মুখকে বসিয়ে দেয়া অনেক কঠিন, কাজেই ভিডিও থাকলে সেটাই সম্পূর্ণ অকাট্য প্রমাণ।

 

Graphic Design makes your business alive! Our Great Graphic Design makes your business memorable. Learn More

 

 

কিন্তু, না। এই কথাটাই আর সত্যি না।

আর্টিফিশিয়াল ইন্টেলিজেন্স (এআই) এবং ডিপ লার্নিং এর এই আমলে ভেঙে পড়ছে সব প্রতিষ্ঠিত ধ্যান ধারণা। এই এআই ও ডিপ লার্নিং কে কাজে লাগিয়ে নকল ভিডিও বানানোর প্রযুক্তি এখন এসে গেছে সবার হাতের নাগালে। বছর খানেক আগে জনপ্রিয় সাইট রেডিট এ ডিপফেইক নামের একজন অজ্ঞাতনামা ইউজার বেশ কিছু ভিডিও পোস্ট করেন। খ্যাতনামা কয়েকজন হলিউডি অভিনেত্রীর পর্নোগ্রাফিক ভিডিও। বলাই বাহুল্য, এসব ভিডিও ছিলো নকল — এসব অভিনেত্রীর চেহারাকে অন্য ভিডিওর কারো মুখে বসিয়ে দিয়ে বানানো। কিন্তু এই কাজটা করা হয়েছে দারুণ দক্ষতায় — খালি চোখে দেখে বুঝতেই পারবেন না যে ভিডিওটা নকল।

সেই থেকে শুরু। গত এক বছরে এই প্রযুক্তিকে আরো সহজব্যবহারযোগ্য করে সবার হাতের নাগালে এনে দিয়েছে কে বা কারা। আগে এগুলো বানাতে প্রচণ্ড দক্ষতার দরকার হতো, লাগতো শক্তিশালী সুপারকম্পিউটারের মতো ক্ষমতাময় যন্ত্র। কিন্তু এখন? পুরো কাজটা করা যায় ডেস্কটপে। আর কাজটাকে সহজ করার জন্য ফেইকঅ্যাপ নামের ডেস্কটপ অ্যাপও বের হয়ে গেছে। লাগবে কেবল যার নকল ভিডিও বানানো হবে, তার অনেকগুলো ছবি। সেই ছবিটা সিস্টেমে ঢুকিয়ে দিলে মানুষটার চেহারাটা কেমন তা শিখে যায় এআই ও ডিপ লার্নিং ভিত্তিক সিস্টেমটা। এর পরে যে ভিডিওতেই চান, সেখানেই যে কারো মুখটা পাল্টে এই চেহারাটা বসিয়ে দেয়া যায়, অবিকলভাবে, যেন আসলেই সেই মানুষটিকে দেখা যাচ্ছে স্পষ্টভাবে।

এই প্রযুক্তিতে বানানো ভিডিও এখন ইন্টারনেটের সর্বত্র। পর্নোগ্রাফিতে তো আছেই, রাজনীতিবিদ বা অন্যান্য মানুষদের ফাঁসাতে নকল ভিডিও কেলেংকারি, কারো উপরে প্রতিশোধ নিতে বা হেনস্তা করতে বানানো ভুয়া ভিডিও — এরকম নানা কাজে ব্যবহার করা হচ্ছে এই ডিপফেইক প্রযুক্তি। গত এক বছরে এতো উন্নতি হয়েছে যে, বোঝাই সম্ভব না যে একটি ভিডিও আসল না নকল ডিপফেইক দিয়ে বানানো। ভিকটিমের কয়েকটি ফটো জোগাড় করা গেলেই এই ডিপফেইক ভিডিও বানানো সম্ভব। ফেইসবুকের কল্যাণে যেভাবে সবার ছবি সবখানে আছে, তাতে করে আপনি আমি আমরা যে কেউই আসলে ডিপফেইকের শিকার হতে পারে, কাল নয়, আজই।

ব্যাপারটা আসলে যুগান্তকারী — এক সময়ে যেমন ছবিকে অকাট্য প্রমাণ ধরা হতো, ফটোশপের যুগে সেটা আর হয় না। একইভাবে আমরা এখন যেমন ভিডিওকে অকাট্য প্রমাণ ধরি কোনো ঘটনার, তা হয়তো আর ধরার উপায় থাকবে না। যেকোনো আসল ঘটনাকেও উড়িয়ে দেয়া যাবে নকল ভিডিওর অভিযোগ এনে। আমাদের সংবাদ মাধ্যম ও ফেইক নিউজের উপরে অনাস্থা বাড়বে আরো। আবার আসল ভিডিওকেও যে কেউ উড়িয়ে দিতে পারে সবই নকল, সবই ডিপফেইক ভিডিও বলে।

মনে আছে সেই ভণ্ড ধর্মব্যবসায়ীর কথা? ভিডিওতে তার কুকর্ম ধরার পরে বলেছিলো, “ইগুলা ইডিট করা যায় ভাই”। তাকে নিয়ে আমরা সবাই হেসেছিলাম সেসময়। কিন্তু আজ অট্টহাসিটা মনে হয় সেই হাসবে। অথবা ভবিষ্যতে তার মতো লোকজনেরা বলার মতো আর অজুহাত পেয়ে যে গেলো।

ডিপফেইক প্রযুক্তিকে ঠেকানোর কোনো উপায় নেই, যেমনটা ঠেকানো যায়নি ফটোশপের নকল ছবিকে। কিন্তু আজ থেকে আপনি নিজের চোখকে আর সেভাবে বিশ্বাস করতে পারবেন না, সেই কথাটাই রাখুন জেনে। কোনটা বাস্তব, কোনটা বানোয়াট — তা ধরার উপায় যে আর নেই।

এলো ডিপফেইকের যুগ। আপনি আমি আমরা, কেউই কি আর নিরাপদ নকল ভিডিওর হাত থেকে?

 

(নিচে এইটার উপরে একটা রিপোর্টের ভিডিও দিলাম, যাতে অনেকগুলা এরকম ভিডিওর নমুনা আছে – SFW। আর বিভিন্ন বিখ্যাত ব্যক্তির ডিপফেইক ভিডিও অনলাইনে এখন আছে সর্বত্র।).

ওয়াল স্ট্রিট জার্নালের রিপোর্ট – নিরাপদে দেখতে পারেন।

 

জর্ডান পীলের একটা ডেমোন্স্ট্রেশন আছে এইটা নিয়ে।

 

 

সুখবর হচ্ছেঃ  The Defense Department has produced the first tools for catching deepfakes

 

#কম্পিউটারসিকিউরিটি #ডিপফেইক #মাহবুবওসমানী #বিডিএম #ডিএম #এআই #আইওটি

Modern Web Design Services Developed to Grow Your Business. Learn More

এখনো আপনার মনে কোন প্রশ্ন আছে? অথবা আমাদের থেকে কল পেতে চান?

তাহলে নিচের ফরমটি পুরন করুন, আমরা আপনার সাথে যোগাযোগ করবো, ইংশাআল্লাহ! আপনি আমাদেরকে ০১৭১৬ ৯৮৮ ৯৫৩ / ০১৯১২ ৯৬৬ ৪৪৮ এই নাম্বারে কল করতে পারেন, অথবা ইমেল করতে পারেন hi@mahbubosmane.com এই ইমেলে, আমরা আপনাকে কোনভাবে সাহায্য করতে পারলে খুশি হব, ধন্যবাদ ।

মাহবুবওসমানী.কম এর সার্ভিস সমূহঃ

 

  • Facebook
  • Twitter
  • Google+
  • Linkedin
  • Pinterest

Leave a Reply

This site uses Akismet to reduce spam. Learn how your comment data is processed.

It is main inner container footer text