আলোচিত চ্যাটবট চ্যাটজিপিটির নির্মাতা ওপেনএআইয়ের তৈরি কৃত্রিম বুদ্ধিমত্তা (এআই) প্রযুক্তির ট্রান্সক্রিপশন টুল ‘হুইস্পার’-এ বড় ধরনের ত্রুটি পাওয়া গেছে। এ ত্রুটির কারণে কল্পিত বা ভুল তথ্যনির্ভর বাক্য তৈরি করছে এআই টুলটি। আর তাই হাসপাতালে এই টুলের ব্যবহার ঝুঁকিপূর্ণ বলে মত দিয়েছেন বিশেষজ্ঞরা।
গবেষকদের তথ্যমতে, বিশ্বজুড়ে সাধারণত সাক্ষাৎকারের অনুবাদ, সাধারণ ট্রান্সক্রিপশন এবং ভিডিওর সাবটাইটেল তৈরিতে হুইস্পার ব্যবহার করা হয়ে থাকে। এমনকি হাসপাতালগুলোর চিকিৎসাপত্রের ট্রান্সক্রিপশন কাজেও এই প্রযুক্তির ব্যবহার করা হচ্ছে। কিন্তু হুইস্পার এমন কিছু তথ্য তৈরি করছে, যেখানে কখনো কখনো বর্ণবৈষম্যমূলক মন্তব্য, সহিংসতাপূর্ণ বাক্য বা কাল্পনিক চিকিৎসাপদ্ধতির কথা প্রকাশ পেয়েছে। টুলটির কৃত্রিম ভুলের জন্য হাসপাতালে এর ব্যবহার উদ্বেগ বাড়াচ্ছে।
এক গবেষণায় দেখা গেছে, হুইস্পারের ট্রান্সক্রিপশনগুলিতে প্রায় ৮০ শতাংশ ক্ষেত্রে ভুল তথ্য পাওয়া গেছে। শুধু তা–ই নয়, ১৩ হাজারের বেশি নির্ভুল অডিও ক্লিপে ১৮৭টি ভুল তথ্য পাওয়া গেছে। এভাবে লাখ লাখ রেকর্ডিংয়ে ক্ষেত্রে অসংখ্য ভুল তথ্য প্রচার করতে পারে ট্রান্সক্রিপশন টুল।
হুইস্পার ব্যবহার করে শ্রবণপ্রতিবন্ধী ব্যক্তিদের জন্য সাবটাইটেল তৈরির কাজও করা হয়ে থাকে। এ বিষয়ে গ্যালাডেট বিশ্ববিদ্যালয়ের প্রযুক্তি অ্যাকসেস প্রোগ্রামের পরিচালক ক্রিশ্চিয়ান ভোগলার জানিয়েছেন, শ্রবণপ্রতিবন্ধীদের পক্ষে সঠিক ও ভুল তথ্যের মধ্যে পার্থক্য বোঝা সম্ভব নয়, ফলে তাঁরা আরও ঝুঁকিতে থাকবেন।
সূত্র: টাইমস অব ইন্ডিয়া