একুশ শতকের দ্বিতীয় যুগকে বলা হচ্ছে প্রযুক্তির যুগ। বিশ্বের প্রতিটি দেশ প্রযুক্তিতে এগিয়েছে এবং যে দেশ যত বেশি অত্যাধুনিক প্রযুক্তিতে সমৃদ্ধ, সে দেশকে তত বেশি শক্তিশালী হিসেবে ধরা হচ্ছে। প্রযুক্তি যেমন মানুষের উপকার করছে, তেমনি কিছু প্রযুক্তি মানুষের চিন্তার কারণ হয়ে দাঁড়িয়েছে। এর মধ্যে অন্যতম একটি প্রযুক্তি হলো ডিপফেক প্রযুক্তি বা ডিপফেক ইন্টেলিজেন্সি।
গত এক বছর বহুল আলোচিত বিষয় ছিল ডিপফেক প্রযুক্তি। ডিপফেক প্রযুক্তি হলো এমন এক প্রযুক্তি, যার মাধ্যমে নকল ভিডিও তৈরি হয়, অর্থাৎ কৃত্রিম বুদ্ধিমত্তা প্রয়োগ করে আপনার মুখের সঙ্গে অন্য কোনো ব্যক্তির শরীর জুড়ে দিয়ে ভিডিও বানানো হয়। এ প্রযুক্তি দিয়ে হুবহু নকল ভিডিও বানানো সম্ভব। মেশিন লার্নিং প্রয়োগের মাধ্যমে দিন দিন প্রযুক্তিটি আরও উন্নত হচ্ছে এবং নিখুঁতভাবে নকল ভিডিও বানানো হচ্ছে।
প্রথম প্রথম বিশ্বের নামকরা সেলিব্রিটি ও রাজনৈতিক ব্যক্তিরা ডিপফেক ইন্টেলিজেন্সি দিয়ে তৈরি নকল ভিডিও দ্বারা হেনস্তার শিকার হন।
উদাহরণ হিসেবে বলা যায়, ২০১৮ সালের মে মাসে সাবেক মার্কিন প্রেসিডেন্ট ডোনাল্ড ট্রাম্পের একটি ডিপফেক ভিডিও ইন্টারনেটে ছড়িয়ে পড়ে।
ভিডিওতে তিনি বেলজিয়ামের জলবায়ু পরিবর্তন নিয়ে সে দেশের মানুষকে উপদেশ দেন, তবে তাঁর মুখের ভাষা ছিল অনেক কুরুচিপূর্ণ। এর জন্য বেলজিয়ামের মানুষ ট্রাম্প ও যুক্তরাষ্ট্রের উদ্দেশে নানা রকম কটু কথা বলতে থাকেন। এ ছাড়া আমাদের পাশের দেশ ভারতের নামকরা বেশ কয়েকজন অভিনেত্রীর ডিপফেক অ্যাডাল্ট ভিডিও ভাইরাল হয়।
সম্প্রতি দেশের মধ্যেও ডিপফেক প্রযুক্তির শিকার হচ্ছেন অনেকেই। বিশেষ করে নারীরা এ প্রযুক্তির শিকার হচ্ছেন বেশি। নারীদের মুখের ছবি নিয়ে বানানো হচ্ছে অ্যাডাল্ট ভিডিও এবং তা অনলাইনে ছড়িয়ে দেওয়া হচ্ছে।
সবচেয়ে বড় শঙ্কার কারণ হলো, এ প্রযুক্তি দিয়ে তৈরি ভিডিওর সত্য–মিথ্যা সাধারণ মানুষের চোখে ধরা পড়ে না।
এমন বাস্তবতায় যদি কোনো নারীর ডিপফেক ইন্টেলিজেন্সি দিয়ে বানানো ভিডিও ভাইরাল হয়, দেশের মানুষ সেটার সত্য–মিথ্যা কখনো যাচাই করবেন না, তা অনুমেয়।
ভুক্তভোগীর পক্ষে এই ভিডিও যে মিথ্যা ও ডিপফেক, তা–ও প্রমাণ করা সম্ভব নয়, যদি না এ বিষয়ে বিশেষজ্ঞ হন। ডিপফেক ভিডিও এতটা নিখুঁত হয় যে ভুক্তভোগীর পক্ষে সমাজকে বোঝানো তো দূরের কথা, নিজের পরিবারকেও বোঝানো কষ্টসাধ্য হয়ে পড়বে। এ অবস্থায় একজন ভুক্তভোগী নারীর নিজেকে আত্মহত্যার দিকে ঠেলে দেওয়া ছাড়া কোনো উপায় থাকবে না।
ডিপফেক ভিডিও শনাক্ত করার জন্য এরই মধ্যে উঠেপড়ে লেগেছেন গবেষকেরা, তবে বলার মতো কোনো সাফল্য এখনো আসেনি। এমন কোনো প্রযুক্তি এখনো আবিষ্কৃত হয়নি, যা দিয়ে সাধারণ মানুষ ডিপফেক ও অরজিনাল ভিডিওর পার্থক্য বুঝবেন। কাজেই আপাতত দেশের প্রশাসনকে এ বিষয়ে তীক্ষ্ণ নজর রাখতে হবে এবং দুষ্ট লোকদের শাস্তির আওতায় আনতে হবে, না হলে এটি মহামারির আকার ধারণ করবে, তা বলার অপেক্ষা রাখে না।
ইসরাত জাহান ইশা
শিক্ষার্থী
ইস্ট ডেলটা বিশ্ববিদ্যালয়, চট্টগ্রাম