এআই দিয়ে তৈরি নিজের ছেলের নকল কণ্ঠ চিনতে পারলেন না পিতা

যেকোনো ব্যক্তির কণ্ঠস্বর হুবহু নকল করতে পারে এআইরয়টার্স

ইন্টারনেট ব্যবহারকারীদের বোকা বানিয়ে নানা কৌশলে অনলাইনে প্রতারণা করে থাকেন প্রতারকেরা। সাম্প্রতিক সময়ে কৃত্রিম বুদ্ধিমত্তা (এআই) প্রযুক্তির সাহায্যে নির্দিষ্ট ব্যক্তির কণ্ঠস্বর নকল করে সেই ব্যক্তির আত্মীয় বা পরিচিতজনের কাছ থেকে বিভিন্ন কৌশলে অর্থ হাতিয়ে নিচ্ছেন তাঁরা। এমনই এক ঘটনা ঘটেছে যুক্তরাষ্ট্রের ফ্লোরিডায়। প্রতারকেরা এআইয়ের মাধ্যমে জে শুস্টার নামের এক ব্যক্তির কণ্ঠস্বর নকল করে তাঁর বাবাকে ফোন করেন। জে শুস্টার গাড়ি দুর্ঘটনায় পড়েছে বলে দ্রুত ৩০ হাজার মার্কিন ডলার পাঠাতে বলেন প্রতারকেরা। এআইয়ের মাধ্যমে তৈরি জে শুস্টারের কণ্ঠস্বর এতটাই নিখুঁত ছিল যে তাঁর বাবা নিজের ছেলের নকল কণ্ঠ চিনতে না পেরে ৩০ হাজার মার্কিন ডলার অনলাইনে পাঠানোর সিদ্ধান্ত নিয়েছিলেন। তবে ভাগ্য ভালো, শেষ পর্যন্ত প্রতারকদের কাছে ডলার পাঠাননি তিনি।

এ বিষয়ে জে শুস্টার খুদে ব্লগ লেখার সাইট এক্সে (সাবেক টুইটার) এক বার্তায় জানান, ‘আজ আমার বাবা এমন একটি ফোন কল পেয়েছেন, যা কোনো অভিভাবক কখনো পেতে চান না। সেই ফোন কলে আমার মা–বাবা আমাকে বলতে শোনেন যে আমি একটি গুরুতর গাড়ি দুর্ঘটনায় পড়েছি। আহত হয়ে আমি গ্রেপ্তার হয়েছি। জেল থেকে জামিন পেতে আমার ৩০ হাজার ডলার দরকার। আসলে সেই কণ্ঠ আমার ছিল না। কোনো দুর্ঘটনা ঘটেনি। এটি একটি এআই প্রতারণা। টেলিভিশনে আমার কণ্ঠস্বর শোনা যাওয়ার কিছুদিনের মধ্যেই এ ঘটনা ঘটেছে। আমার পনেরো সেকেন্ডের কথা এআই ক্লোন কণ্ঠস্বর তৈরির জন্য যথেষ্ট।’

আরও পড়ুন

এআই দিয়ে তৈরি নকল কণ্ঠস্বরের মাধ্যমে প্রতারণা থেকে সবাইকে সতর্ক করে জে শুস্টার এক্স পোস্টে আরও জানান, ‘এআইয়ের ভয়েস-ক্লোনিং প্রযুক্তির অত্যন্ত দুঃখজনক পার্শ্বপ্রতিক্রিয়া আছে। এখন সত্যিকারের জরুরি পরিস্থিতিতে হয়তো প্রিয়জনের কাছে পাসওয়ার্ড চাওয়ার মাধ্যমে পরিচয় প্রমাণ করতে হবে। দয়া করে আপনার বন্ধু ও পরিবারকে এ ধরনের প্রতারণার কথা জানিয়ে রাখুন।’

সূত্র: টাইমস অব ইন্ডিয়া

আরও পড়ুন