কল করুন

কারেন্ট অ্যাফেয়ার্স

কৃত্রিম বুদ্ধিমত্তার সামরিকায়ন– কতটুকু ঝুঁকিতে আমরা

মোহাম্মদ তারিকুল ইসলাম । সূত্র : সমকাল, ০৪ জানুয়ারি ২০২৫

কৃত্রিম বুদ্ধিমত্তার সামরিকায়ন– কতটুকু ঝুঁকিতে আমরা

আর্টিফিশিয়াল ইন্টেলিজেন্স (এআই) বা কৃত্রিম বুদ্ধিমত্তা একুশ শতকের বহুল আলোচিত ও অন্যতম চর্চিত বিষয়। ১৯৫৬ সালে আর্টিফিশিয়াল ইন্টেলিজেন্স শব্দটি প্রথমবারের মতো উচ্চারিত হলেও গত শতাব্দীর শেষ দিকের আগ পর্যন্ত তা খুব একটা পরিচিতি পায়নি। কিন্তু ২০১০-পরবর্তী সময়ে এই প্রযুক্তি শুধু জনপ্রিয়তাই নয়, বরং নানা পরীক্ষা-নিরীক্ষার মাধ্যমে দারুণ উৎকর্ষ লাভ করেছে। এক কথায় বলা যায়, বর্তমান যুগটি হচ্ছে কৃত্রিম বুদ্ধিমত্তার যুগ, যা প্রতিনিয়ত নিত্যনতুন আবিষ্কারের মাধ্যমে চমক উপহার দিয়ে চলেছে। সকালে ঘুম ভাঙা থেকে শুরু করে রাতে ঘুমিয়ে যাওয়া পর্যন্ত কৃত্রিম বুদ্ধিমত্তা মানুষের নিত্যসঙ্গী।

 

মানুষের ওপর কাজের যে চাপ, তা কৃত্রিম বুদ্ধিমত্তার মাধ্যমে অনেকাংশে কমানো সম্ভব। আগে যেখানে অনেক বেশি শ্রমঘণ্টার প্রয়োজন হতো, সেখানে কৃত্রিম বুদ্ধিমত্তার মাধ্যমে তৈরি মেশিন বেশির ভাগ কাজটুকু করে মানুষকে সৃজনশীল ও সিদ্ধান্ত নির্ধারণী কাজে মনোনিবেশের সুযোগ করে দিচ্ছে। ফলে আগের তুলনায় উৎপাদনশীলতা ও কর্মদক্ষতা বাড়ছে। আগে বিপুল পরিমাণ ডেটা বা তথ্য বিশ্লেষণ কাজে মানুষকে জড়িত থাকতে হতো। ‘মানুষের ভুল’ বা হিউম্যান এররের কারণে এই ডেটা বিশ্লেষণ ক্ষেত্রবিশেষে শতভাগ ত্রুটিমুক্ত হতো না। কিন্তু কৃত্রিম বুদ্ধিমত্তার নির্ভুলভাবে ডেটা বিশ্লেষণী সক্ষমতার কারণে আগের চেয়ে কাজ অনেক সহজ ও ত্রুটিবিহীন হয়েছে। এ ছাড়া এই প্রযুক্তি (কৃত্রিম বুদ্ধিমত্তা) ২৪ ঘণ্টাই ব্যবহার করা যায়। মানুষের মতো এর কোনো ক্লান্তি বা বিরতি নেওয়ার প্রয়োজন পড়ছে না।
কৃত্রিম বুদ্ধিমত্তার রয়েছে মানুষের তুলনায় অনেক দ্রুত সিদ্ধান্ত নেওয়ার ক্ষমতা। এই সক্ষমতা ‘জরুরি সেবা’ প্রদানের ক্ষেত্রে বিশেষভাবে গুরুত্বপূর্ণ, যেখানে সময় একটি বড় বিষয়। এ ছাড়াও গবেষকদের ক্ষেত্রে গবেষণালব্ধ ডেটাকে দ্রুত প্রয়োজনীয় তথ্যে রূপান্তর করতে কৃত্রিম বুদ্ধিমত্তা কার্যকর ভূমিকা পালন করতে পারে। পাশাপাশি চিকিৎসাক্ষেত্রে এই প্রযুক্তি দারুণ ভূমিকা রেখে চলেছে। শুধু রোগ নির্ণয় নয়; শল্য চিকিৎসা বা সার্জারির মতো জটিল কাজে এ প্রযুক্তি আজ অসাধারণ ভূমিকা পালন করে চলেছে। সর্বোপরি বলা যায়, কৃত্রিম বুদ্ধিমত্তা মানুষের জীবনধারার অনেক কিছুই পাল্টে দিয়েছে। জীবনকে করে তুলেছে সহজ ও উপভোগ্য। উড়ন্ত বা মনুষ্যবিহীন ট্যাক্সি, যা এই শতাব্দীর গোড়ার দিকেও মানুষের জন্য ছিল স্রেফ কল্পনা, কৃত্রিম বুদ্ধিমত্তা তাকে আজ বাস্তবে রূপ দিয়েছে। কিন্তু এই প্রযুক্তি কি শুধুই কল্যাণকর?


কৃত্রিম বুদ্ধিমত্তা মূলত ডেটা ইনপুটের ওপর নির্ভরশীল। কিন্তু এই ডেটা বা তথ্য অনেক ক্ষেত্রে পক্ষপাতদুষ্ট হতে পারে। উদাহরণস্বরূপ, কিছু সাবান বা সোপ ডিসপেন্সার রয়েছে, যা গায়ের রং দেখে সাবান বিতরণ বা ডিসপেন্স করে। আধুনিক সমাজে গায়ের রং বা বর্ণের ওপর নির্ভর করে এ ধরনের কাজ একেবারেই অগ্রহণযোগ্য। একইভাবে কৃত্রিম বুদ্ধিমত্তায় তৈরি মেশিন কীভাবে কাজ করে বা মেশিনটির অভ্যন্তরীণ গঠন কেমন, এটি সম্পর্কে অনেকেরই সুস্পষ্ট ধারণা নেই। ফলে যন্ত্রের কার্য প্রক্রিয়া সম্পর্কে না জেনেই মেশিনটি ব্যবহার করা হচ্ছে।
 পাশাপাশি এ প্রযুক্তি এমন কিছু ফল দিতে পারে, যা অনেকটাই অনভিপ্রেত বা অপ্রত্যাশিত। উদাহরণস্বরূপ, একবার খোদ যুক্তরাষ্ট্রে উবারের একটি চালকবিহীন পরীক্ষামূলক গাড়ি একজন পথচারীকে চাপা দিয়েছিল। কারণ সাধারণ মানুষ যে জেব্রা ক্রসিং ছাড়াও রাস্তা অতিক্রম করতে পারে– এ রকম তথ্য ওই গাড়ির সিস্টেমে সংরক্ষিত ছিল না। কৃত্রিম বুদ্ধিমত্তার কারণে যদি কোনো দুর্ঘটনা ঘটে তাহলে কে দায়ী হবে– এ সম্পর্কে কোনো সুস্পষ্ট ধারণায় এখনও বিশ্ববাসী একমত হতে পারেনি। এ ছাড়াও রয়েছে কৃত্রিম বুদ্ধিমত্তায় তৈরি রোবটের কারণে কর্মক্ষেত্রে মানুষের চাহিদা কমে যাওয়ার বিষয়টি। এতে বেকারত্ব বাড়ার আশঙ্কা দেখা দিয়েছে। 

 

তবে এত কিছুর পরেও কৃত্রিম বুদ্ধিমত্তার বিষয়ে মানুষের আগ্রহের শেষ নেই। বিশেষ করে সামরিক সরঞ্জাম তৈরিতে কৃত্রিম বুদ্ধিমত্তার সংযোজনে সামরিকভাবে শক্তিশালী দেশগুলো যেন পরস্পর প্রতিযোগিতায় নেমেছে। এর পেছনে অবশ্য কিছু সুনির্দিষ্ট কারণও রয়েছে। প্রথমত, এর গতি। কৃত্রিম বুদ্ধিমত্তা যুদ্ধক্ষেত্রে লক্ষ্যবস্তু নির্ধারণ ও তাতে আঘাত হানার সময় উল্লেখযোগ্য হারে কমিয়ে নিয়ে এসেছে। ফলে যুদ্ধক্ষেত্রে আগে যে কাজটি করতে ২০ মিনিট সময় প্রয়োজন হতো, এখন কৃত্রিম বুদ্ধিমত্তা ব্যবহার করে সেই কাজ অনেক ক্ষেত্রে ২০ সেকেন্ডেই সম্পন্ন করা যাচ্ছে। দ্বিতীয়ত, কৃত্রিম বুদ্ধিমত্তার মাধ্যমে অনেক সামরিক কাজই স্বয়ংক্রিয়ভাবে যেমন বিমান বা ড্রোন উড্ডয়ন, অবতরণ কিংবা যুদ্ধক্ষেত্রে রসদ ও গোলাবারুদ স্থানান্তরে নিজস্ব সৈন্য দলকে কোনো ঝুঁকির মুখে না ফেলে যথাস্থানে সরবরাহ করা সম্ভব হচ্ছে। তৃতীয়ত, যুদ্ধক্ষেত্রে বিভিন্ন মাধ্যমে যে প্রচুর তথ্য আসে তা যথাযথভাবে নিরীক্ষার ক্ষেত্রে কৃত্রিম বুদ্ধিমত্তা দারুণ কার্যকর। ফলে দ্রুততম সময়ে সিদ্ধান্ত গ্রহণ সম্ভব হয়। চতুর্থত, যুদ্ধরত বা প্রতিযোগিতাপূর্ণ এলাকাতেও কৃত্রিম বুদ্ধিমত্তা ব্যবহার করে শত্রুকে ঘায়েল করা সম্ভব হচ্ছে। তাই তো এআই শিশুর সহ-প্রতিষ্ঠাতা ব্রেন্ডন সেং বলেছিলেন, যদি একটি মানবহীন বিমান জিপিএস ও যোগাযোগ ছাড়া কাজ করতে না পারে, তাহলে ভবিষ্যতের সংঘাতে এটি প্রায় অকার্যকর হয়ে যাবে। এ ছাড়াও কৃত্রিম বুদ্ধিমত্তা ব্যবহার করে সামরিক প্রশিক্ষণ, সিমুলেশন ও যুদ্ধক্ষেত্রে যোগাযোগ ব্যবস্থার উন্নতি হয়েছে। ফলে বিশ্বব্যাপী কৃত্রিম বুদ্ধিমত্তার সামরিকায়নের ক্ষেত্রে এক ধরনের উন্মাদনার সৃষ্টি হয়েছে।

 

সামরিক সরঞ্জামে কৃত্রিম বুদ্ধিমত্তা প্রয়োগের সর্বপ্রথম নজির পাওয়া যায় ২০২০ সালে আর্মেনিয়া ও আজারবাইজানের মধ্যে সংঘটিত নাগারনো কারাবাখ যুদ্ধের সময়। সারাবিশ্ব বিস্ময়ের চোখে দেখেছে, কৃত্রিম বুদ্ধিমত্তা প্রয়োগে তৈরি ইসরায়েলের আত্মঘাতী হারোপ ও অরবিটার এবং তুরস্কের বাইরাকতার টিবি-২ ড্রোন কীভাবে আর্মেনিয়াকে বেসামাল করে দিয়েছিল। ফলে যুদ্ধে আজারবাইজান নিরঙ্কুশ বিজয় লাভ করে। আর্মেনিয়া-আজারবাইজান যুদ্ধের মাধ্যমে যদি সামরিক সরঞ্জামে কৃত্রিম বুদ্ধিমত্তা প্রয়োগের সূচনা-মুহূর্ত হয়, তাহলে চলমান রাশিয়া-ইউক্রেন সংঘাত হচ্ছে তার পরিপূর্ণ রূপ। আড়াই বছরের বেশি সময় ধরে চলতে থাকা এ যুদ্ধক্ষেত্র হচ্ছে কৃত্রিম বুদ্ধিমত্তাসম্পন্ন মারণাস্ত্রের সবচেয়ে বড় পরীক্ষাগার। বর্তমানে স্বয়ংক্রিয় যান (অটোনমাস ভেহিক্যাল), স্বয়ংক্রিয় ড্রোন (অটোনমাস ড্রোন), পর্যবেক্ষণ (রেকোনাইসেন্স), সাইবার যুদ্ধ, পূর্ণ স্বয়ংক্রিয় অস্ত্র (অটোনমাস উইপন), রক্ষণাবেক্ষণ ও রসদ ব্যবস্থাপনা, ঝাঁক প্রযুক্তি (স্বারমিং টেকনিক), সরবরাহ শৃঙ্খল ব্যবস্থাপনা (সাপ্লাই চেইন ম্যানেজমেন্ট) ইত্যাদির মতো জটিল ও সময়সাপেক্ষ কাজে কৃত্রিম বুদ্ধিমত্তার ব্যবহার লক্ষ্য করা যাচ্ছে।

 

তবে কৃত্রিম বুদ্ধিমত্তার সামরিকায়ন নানা রকম বিতর্কেরও কারণ হয়ে দাঁড়িয়েছে। প্রথমত, নৈতিক দুর্বলতা। আন্তর্জাতিক মানবাধিকার আইনের মানদণ্ড অনুযায়ী যে কোনো আক্রমণ পরিকল্পনা, সিদ্ধান্ত ও পরিচালনাকারীদের কিছু সুনির্দিষ্ট আইনি বাধ্যবাধকতা মেনে চলতে হয়। কিন্তু কৃত্রিম বুদ্ধিমত্তার মাধ্যমে তৈরি পূর্ণ স্বয়ংক্রিয় অস্ত্র ক্ষেত্রবিশেষে মানুষের সিদ্ধান্ত ছাড়াই আক্রমণ রচনা করতে পারে। তবে এ ক্ষেত্রে যেহেতু কোনো মানুষের সংশ্লিষ্টতা নেই, তাই কোনো মানবাধিকার লঙ্ঘিত হলে কে দায়ী হবে– তা পরিষ্কার নয়। দ্বিতীয়ত, প্রত্যেক মানুষেরই তাঁর ব্যক্তিগত জীবনের গোপনীয়তা রক্ষার অধিকার রয়েছে। কিন্তু কৃত্রিম বুদ্ধিমত্তার মাধ্যমে এমনভাবে মানুষের পরিলেখ বা প্রোফাইলিং করা হচ্ছে, যা তার ব্যক্তিগত গোপনীয়তার সুস্পষ্ট লঙ্ঘন। শুধু তাই নয়, এ রকম প্রোফাইলিং যান্ত্রিকভাবে তৈরি হওয়ার কারণে তাতে অযাচিত ভুল হওয়ার আশঙ্কা প্রবল। ফলে যান্ত্রিক ত্রুটির কারণে একজন মানুষের জায়গায় আরেকজন মানুষ আক্রান্ত হতে পারে। তৃতীয়ত, যুদ্ধ কারও কাম্য না হলেও এতে কিছু বীরত্বের বিষয়ও আছে। কিন্তু কৃত্রিম বুদ্ধিমত্তার ব্যবহার যেন যুদ্ধক্ষেত্রকে বিবেকবর্জিত এক বদ্ধভূমিতে পরিণত করেছে। ফলে সাহসিকতা, বীরত্ব, যোদ্ধার নৈতিকতা, চতুরতা, আকস্মিকতা ইত্যাদির মতো ঐতিহ্যবাহী সামরিক বৈশিষ্ট্য যেন আজ হারিয়ে যেতে বসেছে।

 

চতুর্থত, কৃত্রিম বুদ্ধিমত্তায় তৈরি সমরাস্ত্র মূলত তথ্য বা ডেটা ইনপুটের ওপর নির্ভরশীল। কিন্তু যুদ্ধক্ষেত্রে সঠিক ডেটা পাওয়া শুধু কঠিনই নয়, বরং অনেক ক্ষেত্রেই দুরূহ। ফলে অসম্পূর্ণ বা ত্রুটিপূর্ণ ডেটার মাধ্যমে সমরাস্ত্র তৈরি হতে পারে। উল্লেখ্য, কৃত্রিম বুদ্ধিমত্তায় তৈরি সমরাস্ত্রের কিছু সহজাত দুর্বলতা রয়েছে। যেমন– নিজস্ব সমরাস্ত্রে যে ডেটা প্রবেশ করানো হয়, তা শত্রুর পক্ষে বিষাক্ত করে তোলা সম্ভব।
উদাহরণস্বরূপ, কোনো একটি কৃত্রিম বুদ্ধিমত্তাসম্পন্ন সমরাস্ত্রের জন্য শত্রুর ট্যাঙ্ক সম্পর্কে ডেটা প্রবেশ করানো প্রয়োজন। শত্রু যদি এই ডেটা সংগ্রহের স্থান এবং সময় সম্পর্কে জানতে পারে তাহলে সে ডেটা সংগ্রহের স্থানের ট্যাঙ্কের রং বা অবয়ব এমনভাবে পরিবর্তন করবে, যাতে কৃত্রিম বুদ্ধিমত্তাসম্পন্ন সমরাস্ত্র ভুল ডেটার ওপরে প্রশিক্ষিত হয়। এটাকে বলা হয় ডেটা বিষাক্তকরণ বা ডেটা পয়জনিং। ফলে যুদ্ধক্ষেত্রে সমরাস্ত্র সঠিকভাবে লক্ষ্যবস্তু চিহ্নিত করতে বা লক্ষ্যবস্তুর বিরুদ্ধে কার্যকরভাবে মোতায়েন হতে পারবে না। এ ছাড়া নিজস্ব অস্ত্রে কী ডেটা প্রবেশ করানো হয়েছে, শত্রু যদি তা জানতে পারে তাহলে তার পক্ষে কৃত্রিম বুদ্ধিমত্তার সমরাস্ত্রকে ফাঁকি দেওয়া সম্ভব। উদাহরণস্বরূপ, এ ধরনের কোনো একটি সমরাস্ত্রকে প্রশিক্ষণ দেওয়া হয়েছে যে শত্রুর ট্যাঙ্কের রং হালকা সবুজাভ।  এই তথ্য জেনে শত্রু তার ট্যাঙ্কের রং এমনভাবে পরিবর্তন করতে পারে, যাতে ওই কৃত্রিম বুদ্ধিমত্তার সমরাস্ত্র তা চিহ্নিত করতে পারবে না। এ পদ্ধতিকে বলা হয় ইভেশন বা পালিয়ে যাওয়া, যার মাধ্যমে এই সমরাস্ত্রের চোখ ফাঁকি দেওয়া যায়। উল্টো প্রযুক্তি (রিভার্স ইঞ্জিনিয়ারিং) পদ্ধতিতেও শত্রু কৃত্রিম বুদ্ধিমত্তায় তৈরি সমরাস্ত্রের অভ্যন্তরীণ গঠন জেনে প্রয়োজনীয় ব্যবস্থা নিতে পারে। কৃত্রিম বুদ্ধিমত্তায় তৈরি সমরাস্ত্রের এই দুর্বলতা পুরো ডেটা প্রশিক্ষণের বিষয়কেই ঝুঁকিপূর্ণ করে তুলেছে। পঞ্চমত, এই সমরাস্ত্র ব্যবহারের কারণে যুদ্ধের মাত্রা বহুগুণ বেড়ে যেতে পারে, এমনকি তা চলে যেতে পারে নিয়ন্ত্রণের বাইরে। ষষ্ঠত, কৃত্রিম বুদ্ধিমত্তার মাধ্যমে তৈরি সমরাস্ত্রের বহুমাত্রিক উন্নয়ন ও চাহিদার কারণে বিশ্বের বিভিন্ন দেশ এর উৎপাদন ও বিপণনের সঙ্গে সংশ্লিষ্ট হয়ে পড়েছে। অস্ত্র ব্যবসার এই বিপজ্জনক মানসিকতার কারণে এই সমরাস্ত্রকে নিয়ন্ত্রণ করা ক্রমশ দুরূহ হয়ে পড়েছে। ফলে রাষ্ট্রীয় বাহিনী ছাড়াও অরাষ্ট্রীয় প্রভাবশালী গোষ্ঠীর (নন-স্টেট অ্যাক্টর) হাতে এ অস্ত্র পড়ার আশঙ্কা আছে, যাদের বিরুদ্ধে (দায়িত্বহীন ব্যবহারের ক্ষেত্রে) আন্তর্জাতিক আইন বা নিয়ম অনুযায়ী ব্যবস্থা গ্রহণ করা অনেকটাই কঠিন। এতে রাষ্ট্রের স্থিতিশীলতা নষ্ট হওয়ার সমূহ আশঙ্কা রয়েছে।

 

সপ্তমত, কৃত্রিম বুদ্ধিমত্তার মাধ্যমে তৈরি সমরাস্ত্রের অভ্যন্তরীণ গঠন অত্যন্ত জটিল। তাই অনেক ক্ষেত্রেই কৃত্রিম বুদ্ধিমত্তাকে ‘ব্ল‍্যাক বক্স’ হিসেবে নামকরণ করা হয়। কেননা, ব্যবহারকারী অনেক ক্ষেত্রে নিজেই জানে না কখন মেশিনটি কার্যকর হয়ে উঠবে। ফলে এমন পরিস্থিতির সৃষ্টি হতে পারে যখন অপারেটরের ইচ্ছার বিরুদ্ধে কৃত্রিম বুদ্ধিমত্তার সমরাস্ত্র আক্রমণ পরিচালনা করছে। অষ্টমত, এই অস্ত্রের কারণে যুদ্ধের গতি অনেক বেড়ে গেছে। বিবদমান সব পক্ষই এখন অতি দ্রুত আক্রমণ ও পাল্টা আক্রমণ রচনা করতে পারে, যা আক্ষরিক অর্থে মানুষের নিয়ন্ত্রণের বাইরে চলে যেতে পারে। বর্তমান যুগে বেশির ভাগ যুদ্ধই বসতি এলাকায় (শহর বা নগর) হয়ে থাকে। ফলে আগের তুলনায় বর্তমান যুগের যুদ্ধে বেসামরিক লোকজনের হতাহতের সংখ্যা অনেক বেশি।
এ বিষয়টি দিনের আলোর মতোই পরিষ্কার– কৃত্রিম বুদ্ধিমত্তার মাধ্যমে তৈরি সমরাস্ত্র বিশ্ববাসীর জন্য একটি বড় মাথাব্যথার কারণ হয়ে দাঁড়িয়েছে। কোনো কোনো বিশেষজ্ঞ কৃত্রিম বুদ্ধিমত্তার এই অনিয়ন্ত্রিত বেড়ে চলাকে ‘ওপেনহাইমার মুহূর্ত’ বলে নামকরণ করছেন। ‘পারমাণবিক বোমার জনক’ জে. রবার্ট ওপেনহাইমার ম্যানহাটান প্রকল্পের সময় যেমন পারমাণবিক অস্ত্রের ধ্বংসাত্মক শক্তি সম্পর্কে গভীরভাবে সচেতন হযেছিলেন, তেমনি কৃত্রিম বুদ্ধিমত্তার মতো শক্তিশালী প্রযুক্তির সম্ভাব্য বিপদ ও নৈতিক দ্বিধার বিষয়ে সারাবিশ্বই আজ গভীরভাবে উদ্বিগ্ন। জাতিসংঘসহ বিভিন্ন আন্তর্জাতিক ফোরামে এই উদ্বেগের বিষয়টি নানাভাবে ফুটে উঠেছে। 

 

কৃত্রিম বুদ্ধিমত্তার এই মানব সভ্যতা ধ্বংসকারী ভূমিকা থেকে পরিত্রাণের কিছু উপায় আছে। এ জন্য এসব সমরাস্ত্রের দায়িত্বশীল ব্যবহার নিশ্চিত করার পাশাপাশি আরও কিছু পদক্ষেপ নেওয়া প্রয়োজন। প্রথমত, জবাবদিহি যে কোনো আইনি কাঠামোর মূল উপাদান এবং তা কোনো অবস্থাতেই মেশিনে স্থানান্তর করা যাবে না। দ্বিতীয়ত, যে কোনো প্রকার বল প্রয়োগের ক্ষেত্রে মানুষের সংশ্লিষ্টতা থাকতে হবে। তৃতীয়ত, ব্যবহারকারীকে নিশ্চিত হতে হবে– অস্ত্রটি কীভাবে কাজ করে এবং এটি যে পরিবেশে ব্যবহৃত হবে সেখানে কীভাবে আচরণ করতে পারে। চতুর্থত, কোনো একটি নির্দিষ্ট গোষ্ঠী বা গায়ের রং বা ধর্মের মানুষের বিরুদ্ধে কাজ করে এমন অস্ত্রের ব্যবহার নিষিদ্ধ করতে হবে। এ ছাড়া ব্যক্তি মানুষকে লক্ষ্যবস্তু বানানো কৃত্রিম বুদ্ধিমত্তার জরুরি নৈতিক উদ্বেগের মধ্যে একটি। পঞ্চমত, পূর্ণাঙ্গ স্বয়ংক্রিয় অস্ত্র, যা যুদ্ধক্ষেত্রে নিজে নিজেই আক্রমণ চালানোর সিদ্ধান্ত গ্রহণ করতে সক্ষম, তা নিষিদ্ধ করতে হবে। ষষ্ঠত, যেসব অস্ত্র অপ্রত্যাশিত আচরণ করতে পারে, অর্থাৎ যে অস্ত্রের সম্ভাব্য আচরণ বিষয়ে অস্ত্রের ব্যবহারকারী নিশ্চিত নন, তাও নিষিদ্ধ করতে হবে। অ্যান্টি-পার্সোনেল ল্যান্ড মাইন, লেজার অস্ত্র, যা মানুষকে অন্ধ করে দিত, এবং ক্লাস্টার বোমা এর আগে যেভাবে নিষিদ্ধ করা হয়েছিল, তেমনি সাধারণ মানুষ ও এমনকি যোদ্ধাদের রক্ষা করতে এবং যুদ্ধে কিছুটা হলেও মানবতাবোধ বজায় রাখতে একটি নতুন আইনি কাঠামো প্রতিষ্ঠা একান্ত জরুরি হয়ে পড়েছে। মানব সভ্যতা রক্ষার্থে এখন এটি সময়ের দাবি। 

কর্নেল মোহাম্মদ তারিকুল ইসলাম, 
এএফডব্লিউসি, পিএসসি: সেনা কর্মকর্তা