মানবজাতির জন্য ‘মারাত্মক হুমকি’ খুনি রোবট!
আমাদের নারায়ণগঞ্জ
প্রকাশিত : ০১:১৪ পিএম, ২২ ফেব্রুয়ারি ২০১৯ শুক্রবার

কৃত্রিম বুদ্ধিমত্তা দ্বারা নিয়ন্ত্রিত অস্ত্র বা খুনি রোবট নিষিদ্ধ করার আহ্বান জানিয়েছেন বিশ্বের নেতৃস্থানীয় বিজ্ঞানীরা। তারা বলছেন এসব রোবট বিভিন্ন কারনে আকস্মিকভাবে নিয়ন্ত্রণের বাইরে চলে যেতে পারে এবং নিরীহ মানুষকে হত্যা করতে পারে।
নীতিশাস্ত্রবিদরা মনে করছেন কোনও মানুষের মধ্যবর্তিতা ছাড়া স্বয়ংক্রিয় অস্ত্র বা রোবটকে মানুষ হত্যার ক্ষমতা দেয়াটা নৈতিক ভাবে অনুচিত।
ব্রিটিশ গণমাধ্যম বিবিসি শুক্রবার জানায় যুক্তরাষ্ট্রের ওয়াশিংটনে আমেরিকান অ্যাসোসিয়েশন ফর দ্য অ্যাডভানসমেন্ট অফ সাইন্সের এক সভায় বিজ্ঞানী ও মানবাধিকার কর্মীরা এসব মন্তব্য করেন।
বিশ্বের বিজ্ঞানীদের সবচেয়ে বড় এই সম্মেলনে বলা হয়, খুনি রোবট ‘মানবজাতির জন্য ভয়ংকর এক হুমকি’ এবং এটি নিষিদ্ধ করা উচিৎ।
বিজ্ঞানী ও মানবাধিকার কর্মীরা সম্মেলনে জানান বারুদ ও পরমাণু অস্ত্রের পর যুদ্ধ কৌশলে ‘তৃতীয় বৈপ্লবিক পরিবর্তন’ এনেছে স্বয়ংক্রিয় অস্ত্র বা রোবট।
যুদ্ধে মাইনের ব্যবহার যেমন আন্তর্জাতিকভাবে নিষিদ্ধ করা হয়েছে একই ভাবে রোবটের ব্যবহার নিসিদ্ধ করা উচিৎ বলে মনে করেন বিজ্ঞানী ও মানবাধিকার কর্মীরা।
হিউম্যান রাইটস ওয়াচ বা এইচআরডব্লিউসহ ৫০টি দেশের ৮৯টি সংস্থা খুনি রোবটেদের থামানোর জন্য ‘স্টপ কিলার রোবটস’ নামের একটি প্রচারণা শুরু করেছে। সংস্থাগুলোর জোটটি এই লক্ষ্যে সবাইকে আন্তর্জাতিক একটি চুক্তিতে সম্মত করার চেষ্টা চালাচ্ছে।
রোবটের বিষয়ে বিশ্বব্যাপী এই নিষেধাজ্ঞা জারী করার উদ্যোগের একজন নেতা হচ্ছেন এইচআরডব্লিউ’র ম্যারি ওয়্যারহ্যাম।
বিবিসিকে তিনি বলেন, ‘টার্মিনেটরের মতো হাঁটা চলা করা, কথা বলা রোবট পৃথিবী দখল করে ফেলবে আমরা সেটা বলছি না; আমরা উদ্বিগ্ন আরও তাৎক্ষণিক সমস্যা নিয়ে, যেটা হচ্ছে স্বয়ংক্রিয় গতানুগতিক অস্ত্র ব্যবস্থা।’
‘আস্তে আস্তে এগুলোর ব্যবহার বাড়ছে। ড্রোন এর সবচেয়ে সুস্পষ্ট উদাহরণ। কিন্তু এমন সামরিক উড়োজাহাজও রয়েছে যেগুলো নিজে নিজে উড্ডয়ন করতে, উড়তে এবং অবতরণ করতে পারে; নড়াচড়া লক্ষ্য করতে পারে এমন রোবট সৈন্য রয়েছে,’ যোগ করেন ওয়্যারহ্যাম।
ক্লিয়ারপাথ রোবটিক্সের প্রধান প্রযুক্তি কর্মকর্তা রায়ান গ্যারিপাই রোবট নিষিদ্ধ করার এই প্রস্তাব সমর্থন করেন। তার প্রতিষ্ঠান মিলিটারির জন্য সরঞ্জাম তৈরি করে, কিন্তু তারা যুদ্ধের জন্য কৃত্রিম বুদ্ধিমত্তার প্রযুক্তি ব্যবহারের বিপক্ষে। এধরনের যন্ত্র তারা তৈরি না করার ঘোষণা দিয়েছে।
‘এরা ভুল করলে কী ধরনের ভুল করবে সেটা অনুমান করার উপায় নেই,’ বিবিসিকে বলেন তিনি।
‘আমরা এত উন্নতি করেছি কিন্তু কৃত্রিম বুদ্ধিমত্তা এখনও ছবি শনাক্ত করার ভিতরেই সীমাবদ্ধ। এটা ভাল হলেও যুদ্ধক্ষেত্রের পরিস্থিতি বিচার করে কাউকে হত্যা করার সিদ্ধান্ত নেয়ার উপযুক্ত নয়,’ বলেন তিনি।
নিউ ইয়র্কের নিউ স্কুলের পিটার আসারো বলেন, স্বয়ংক্রিয় অস্ত্র বেআইনি ভাবে কাউকে হত্যা করলে তার জন্য দায়ী কে হবে সেটা নিয়ে ভাবতে হবে। তিনি মনে করেন এমন ঘটনা ঘটলে এসব অস্ত্রের নির্মাতাদেরকেই এসব হত্যাকাণ্ডের জন্য দায়ী করতে হবে।