ভবিষ্যতের যুদ্ধে কি অস্ত্র নিয়ন্ত্রণ করবে এআই

এআই চ্যাটবটের প্রতীকী ছবিরয়টার্স

তথ্যপ্রযুক্তিতে এগিয়ে যাওয়ার বছর ছিল ২০২৪। কৃত্রিম আর্টিফিশিয়াল ইন্টেলিজেন্স বা বুদ্ধিমত্তা (এআই) নিয়ে এ বছর ব্যাপক আলোচনা হয়েছে। একই সঙ্গে এআই ব্যবহার করে তৈরি করা স্বয়ংক্রিয় অস্ত্রের নিয়ন্ত্রণ নিয়ে বিশ্বজুড়ে দুশ্চিন্তাও বেড়েছে। সরকার, নীতিনির্ধারক থেকে শুরু করে বিশেষজ্ঞরা স্বয়ংক্রিয় অস্ত্র নিয়ন্ত্রণে চেষ্টা করছেন। কিন্তু প্রশ্ন উঠছে, মানুষ কি এআই অস্ত্র নিয়ন্ত্রণ করতে পারবে? এ প্রশ্নের উত্তর খুঁজে ফিরেছেন বিশ্লেষকেরা।

বৈজ্ঞানিক কল্পকাহিনিনির্ভর চলচ্চিত্র ‘দ্য টার্মিনেটর’–এর অভিনেতা আরনল্ড শোয়ার্জনেগার। ১৯৮৪ সালের জনপ্রিয় এ চলচ্চিত্রে তাঁর বিখ্যাত একটি সংলাপ ছিল ‘আই’ উইল বি ব্যাক। অর্থাৎ আমি ফিরে আসব। তিনি কিন্তু মজা করে এ সংলাপ বলেননি। ২০২৩ সালে এক সাক্ষাৎকারে অভিনেতা থেকে ক্যালিফোর্নিয়ার গভর্নর বনে যাওয়া এ তারকা বলেছিলেন, ওই চলচ্চিত্রে দেখানো স্বয়ংক্রিয় অস্ত্রের যে দৃষ্টিভঙ্গি ছিল, তা এখন বাস্তবে রূপ নিয়েছে। ওই চলচ্চিত্রের পরিচালক জেমস ক্যামেরন বলেন, ‘১৯৮৪ সালেই আমি তোমাদের সতর্ক করে দিয়েছিলাম, কিন্তু তোমরা তা শোনোনি।’

ছবির কাহিনিতে দেখা যায়, ভবিষ্যতের জন্য কৃত্রিম বুদ্ধিমত্তাযুক্ত সামরিক সরঞ্জামের নকশা করছে মানুষ। কিন্তু একসময় ওই অস্ত্র নিয়ন্ত্রণের বাইরে চলে যায় ও দুর্বৃত্তে পরিণত হয়, যা মানবজাতিকে ধ্বংসের পরিস্থিতি তৈরি করে। তবে শেষ পর্যন্ত তা ঘটেনি। ‘দ্য টার্মিনেটর’ চলচ্চিত্রটি মুক্তির চার দশক পার হয়েছে। এ সময়ে যুদ্ধক্ষেত্রের পরিস্থিতি অনেকটাই বদলেছে। কৃত্রিম বুদ্ধিমত্তাসম্পন্ন অস্ত্র ইউক্রেন ও গাজার মতো যুদ্ধক্ষেত্রে সক্রিয়ভাবে মোতায়েন করতে দেখা গেছে। ভবিষ্যতে যদি কখনো যুক্তরাষ্ট্র ও চীনের লড়াই বাধে—এ ধরনের যুদ্ধে কৃত্রিম বুদ্ধিমত্তা ফল নির্ধারক ভূমিকা পালন করবে।

টার্মিনেটর সতর্ক করে দিয়েছিল, কাকে কখন গুলি করতে হবে, এ ধরনের গুরুত্বপূর্ণ সিদ্ধান্তের ক্ষেত্রে যন্ত্রকে বিশ্বাস করা যাবে না। মানুষের সামষ্টিক মানসিকতায় এটা গেঁথে রয়েছে। প্রকৃত বিপদ হচ্ছে, এসব যন্ত্রের ওপর মানুষের নিয়ন্ত্রণ খুব কম হবে বা এগুলোর ওপর পুরোপুরি নিয়ন্ত্রণ রাখা যাবে না। অবশ্য এ নিয়ে বিভ্রমও আছে। এ কারণে গণতান্ত্রিক সরকার, সামরিক বাহিনী এবং সমাজ মিথ্যা সান্ত্বনা খুঁজে পায় যে তারা আরও ভালো সিস্টেম নকশা করতে পারবে।

তা সত্ত্বেও, যখন এআই-সক্ষম অস্ত্র ব্যবস্থায় মানব নিয়ন্ত্রণের কথা আসে, তখন প্রচলিত দৃষ্টিভঙ্গি আরও ভালোভাবে বোঝা যায়। উদাহরণ হিসেবে মার্কিন সরকারের নীতির কথা বলা যায়। এতে স্পষ্ট করা প্রয়োজন, যাতে প্রাণঘাতী স্বায়ত্তশাসিত অস্ত্রগুলো উপযুক্ত মানব হস্তক্ষেপের ক্ষমতাসহ নকশা করা উচিত। দেশটির ঊর্ধ্বতন কর্মকর্তারা প্রতিনিয়ত এ বিষয়টিকে গুরুত্ব দিচ্ছেন।

যুক্তরাষ্ট্রের প্রতিরক্ষা দপ্তর ২০২৫ সালের আগস্টের মধ্যে সব সামরিক সেবায় স্বয়ংক্রিয় সিস্টেম চালু করতে চায়। এ উদ্দেশ্যে ২০২৩ সালের শেষ দিকে প্রতিরক্ষা দপ্তর রেপলিকেটর ইনিশিয়েটিভ নামের একটি উদ্যোগ গ্রহণ করেছে। এ প্রসঙ্গে উপপ্রতিরক্ষামন্ত্রী ক্যাথলিন হিকস বলেন, ‘সবকিছু পুরোপুরি থামানোর জন্য ও সেনা ব্যবহারের জন্য একজন ব্যক্তিকে দায়ী থাকতে হবে।’

জাতিসংঘের পক্ষ থেকে পুরোপুরি স্বয়ংক্রিয় অস্ত্রের নিষেধাজ্ঞা চাওয়া হচ্ছে এবং এ নিয়ে আন্তর্জাতিক আইন করার প্রস্তাব দেওয়া হচ্ছে। প্রস্তাবে এ ধরনের কোনো সিস্টেম তৈরিতে মানুষকে যুক্ত রাখার কথা বলা হচ্ছে। এর বাইরে স্টপ কিলার রোবটস, ফিউচার অব লাইফ ইনস্টিটিউট, অ্যামনেস্টি ইন্টারন্যাশনালের মতো অনেক বেসরকারি প্রতিষ্ঠান স্বয়ংক্রিয় অস্ত্রের ব্যাপারে মানুষের নিয়ন্ত্রণ রাখার পক্ষে কথা বলে যাচ্ছে।

যদিও এটা কল্পনা করা সান্ত্বনাদায়ক যে মানুষ নির্বিচারে হত্যা করা থেকে বুদ্ধিহীন অ্যালগরিদমকে বাধা দেবে, এই ঐক্যমত্য প্রযুক্তিগত বাস্তবতার বাইরে। সমসাময়িক স্বয়ংক্রিয় অস্ত্র চালনাকারী এআই মডেলগুলো এত উন্নত যে সবচেয়ে প্রশিক্ষিত অপারেটরদের তাদের তত্ত্বাবধানে রাখতে হয়। এর বাইরে স্বয়ংক্রিয়া অস্ত্রের বড় ধরনের ব্যবহারের কথা পরিকল্পনা করা হলে তাতে বিস্তর তথ্য, গতি ও আরও জটিল পদ্ধতি প্রয়োগ করা হবে—যা সত্যিকার অর্থে মানুষের নিয়ন্ত্রণ অসম্ভব করে তুলতে পারে।

স্বাভাবিক পরিস্থিতিতে এআই সিস্টেমের বিশ্লেষণের আশা করা ও তার গতিপথ নির্দেশের জন্য কাজ করা চ্যালেঞ্জিং। যুদ্ধ পরিস্থিতিতে মারাত্মক ক্লান্তি, সীমিত সময় ও জনবল, ইউনিট এবং উচ্চতর কর্তৃপক্ষের মধ্যে যোগাযোগে বাধার মতো অবস্থায় মানুষের পক্ষে একে নিয়ন্ত্রণ করা আরও কঠিন। যুদ্ধকালে স্বায়ত্তশাসিত অস্ত্র নিয়ন্ত্রণ করার ক্ষমতা মানুষের থাকবে এই বিভ্রমকে প্রশ্রয় দেওয়ার পরিবর্তে সামরিক বাহিনীকে এখন স্বায়ত্তশাসিত অস্ত্রের জন্য তাদের মডেলের প্রতি আস্থা তৈরি করতে হবে।

যুদ্ধবিগ্রহ বাড়ছে

যুক্তরাষ্ট্র ও চীনের মধ্যে সামরিক প্রতিযোগিতা বেড়ে চলেছে। এতে স্বয়ংক্রিয় অস্ত্র বৃদ্ধি ও মোতায়েনের বিষয়টি অনিবার্য হয়ে উঠতে যাচ্ছে। রাশিয়া–ইউক্রেন যুদ্ধে ইতিমধ্যে এ ধরনের লড়াইয়ের দিকে ঝুঁকে গেছে দুই দেশ। অন্যদিকে যুক্তরাষ্ট্র সরকার বিভিন্ন নিরাপত্তার উদ্দেশে ব্যাপকহারে কৃত্রিম বুদ্ধিমত্তার ব্যবহার শুরু করেছে। এর মধ্যে গোয়েন্দা তথ্য বিশ্লেষণ, জৈবনিরাপত্তা, সাইবারনিরাপত্তার মতো নানা বিষয় রয়েছে।

দীর্ঘদিন ধরে পূর্ব এশিয়ায় যুক্তরাষ্ট্রের ক্ষমতার সঙ্গে ভারসাম্য রাখতে চীন তাদের সক্ষমতায় বিনিয়োগ বাড়িয়েছে। যুক্তরাষ্ট্র সম্প্রতি পূর্ব এশিয়ায় বড় আকারের যুদ্ধ সরঞ্জাম রাখার উদ্যোগ থেকে সরে এসেছে। কারণ, এ ধরনের পদক্ষেপ আর টেকসই নয়। কারণ, চীন সেখানে আরও সাশ্রয়ী অস্ত্রব্যবস্থা গড়ে তুলেছে। এর মধ্যে রয়েছে যুদ্ধজাহাজ বিধ্বংসী ব্যালিস্টিক ক্ষেপণাস্ত্র, ডিজেল–ইলেকট্রিক সাবমেরিন। এ ধরনের সরঞ্জাম ব্যবহার করে যুক্তরাষ্ট্রের বড় সামরিক প্ল্যাটফর্মকে মোকাবিলা করতে পারবে তারা। চীনের এ কৌশলের নাম ‘ডেনিয়াল’।

পূর্ব এশিয়ায় যুক্তরাষ্ট্রের আধিপত্য ধরে রাখতে নতুন উদ্যোগ হিসেবে চীনের ‘ডেনিয়াল’ ব্যবস্থাকে অকার্যকর করতে মনুষ্যবিহীন ড্রোন সিস্টেম মোতায়েন করছে। তাদের এ কৌশলে স্বয়ংক্রিয়, এআই ও ড্রোন ব্যবহার করা হচ্ছে। মার্কিন প্রতিরক্ষা দপ্তরের তথ্য অনুযায়ী, যুক্তরাষ্ট্রের কর্মসূচিতে প্রত্যেক সেন্সর, প্রত্যেক অস্ত্র আশপাশের সব ধরনের তথ্য সংগ্রহ করবে যাকে একত্রিত করে ‘ডেটা ফেব্রিক’ সিস্টেম গড়ে তোলা হবে।

এ ক্ষেত্রে চালকহীন সিস্টেমগুলো সবচেয়ে গুরুত্বপূর্ণ ভূমিকা পালন করবে। ভূমিতে তারা মারাত্মক আক্রমণ চালাতে পারবে আবার বেসামরিক মৃত্যু ঠেকাতে পারবে। আকাশে ওড়ার সময়েও স্বাচ্ছন্দ্যে যেকোনো দিকে যেতে পারবে।

আধুনিক যুগের যুদ্ধপরিস্থিতি বিবেচনায় যুক্তরাষ্ট্র, চীন এবং রাশিয়া সেই অনুযায়ী প্রতিরক্ষা ব্যবস্থায় বিলিয়ন ডলার ব্যয় করেছে।

যুদ্ধে কৌশল ও পরিচালনা একমাত্র বিবেচ্য বিষয় নয়। নৈতিক দৃষ্টিকোণ থেকে, অনেক পর্যবেক্ষক আশঙ্কা করেন, তদারকি ছাড়া, বোধহীন যন্ত্রগুলো দীর্ঘকাল ধরে চলে আসা যুদ্ধের মূলনীতি লঙ্ঘন করতে পারে, তা ছাড়া এ ধরনের অস্ত্রের প্রশিক্ষণে যদি পক্ষপাতদুষ্ট তথ্য দেওয়া থাকে, তবে ঝুঁকিতে থাকা লোকজন এর শিকারে পরিণত হতে পারে। এর বাইরে এ যন্ত্র হ্যাক হওয়ার বা চুরি করে এর অপব্যবহার করার আশঙ্কাও থেকে যায়।

এ ছাড়া অদূরদর্শিতার কারণে কৌশলগত ফলাফল উল্টো হতে পারে। স্বয়ংক্রিয় অস্ত্রের সমালোচকেরা যুক্তি দিয়েছেন, মানুষ তাদের সিদ্ধান্তের মধ্যে একটি বিস্তৃত প্রেক্ষাপটকে একীভূত করে। এতে বিশৃঙ্খলা সামলানোর ক্ষেত্রে তারা ভালো ফল করে। যন্ত্র কেবল নির্দিষ্ট স্ক্রিপ্ট মেনে চলতে পারে। তবে কিছু ক্ষেত্রে মানুষ কিছু নির্দিষ্ট কম্পিউটারের ভুলের কথাই তুলে ধরে থাকে। মানুষ এ ক্ষেত্রে কম ভুল করে বলেই তাঁদের ধারণা। মনে রাখতে হবে, মানুষ মাত্রই ভুল করে। তবে নৈতিক ও ব্যবহারিক দিক বিবেচনায় দেখা যায় এআইসহ সবচেয়ে উন্নত স্বয়ংক্রিয় সিস্টেমও ভুল করে থাকে। তারপরও এখন এটাই বাস্তবতা যে এআই এমন পর্যায়ে এগিয়েছে, যেখানে মানুষের নিয়ন্ত্রণ সেখানে নামমাত্র। মানুষ এআইকে নিয়ন্ত্রণ করবে এমন ভুল ধারণার ওপর এখনো অনেকেই রয়েছেন। এতে মানুষের ঝুঁকি আরও বাড়ছে।

বিশেষজ্ঞরা মনে করছেন, ভবিষ্যৎ যুদ্ধ হবে এআইনির্ভর ও দ্রুত। সেখানে তথ্যের সর্বোচ্চ ব্যবহার হবে। কারণ, এআই সক্ষম অস্ত্র (যেমন, ড্রোনের ঝাঁক) দ্রুত ও ব্যাপকভাবে মোতায়েন করা যেতে পারে। এ থেকে স্বাধীনভাবে সেই তথ্য মূল্যায়ন করতে মানুষের সময় বা জ্ঞানের সক্ষমতা থাকবে না। উদাহরণস্বরূপ, গাজা যুদ্ধের সময় ইসরায়েল এআই ব্যবহারের কথা বলা যায়।

বর্তমান পরিস্থিতিতে নীতিনির্ধারকেরা এবং সামরিক নেতাদের তাই যথাযথ ব্যবস্থা নিতে হবে। যুক্তরাষ্ট্রের ঊর্ধ্বতন প্রতিরক্ষা কর্মকর্তারা বলেন, এআইকে সরাসরি পদক্ষেপ নেওয়ার পরিবর্তে শুধু পরামর্শ দেওয়ার সক্ষমতা দেওয়া উচিত।

কেউ কেউ বলেন, শুধু আত্মরক্ষার জন্য এসব অস্ত্রের অনুমতি দেওয়া উচিত। তবে সরকারকে অবশ্যই স্বীকার করতে হবে, সবচেয়ে পরিশীলিত এআই সিস্টেমও সব সময় সঠিক হবে না। তাই এর নৈতিক ব্যবহারের দিকটিতেই বেশি জোর দিতে হবে।

তথ্যসূত্র : এএফপি, রয়টার্স, ফরেন অ্যাফেয়ার্স