মঙ্গলবার, ০৩ ডিসেম্বর ২০২৪, ০১:০৮ পূর্বাহ্ন
বদলে যাচ্ছে পৃথিবী। কৃত্রিম বুদ্ধিমত্তা দখল করে নিচ্ছে অনেক কিছু। ড্রোন পরিণত হতে পারে ক্ষেপণাস্ত্রে, ভুয়া ভিডিও দিয়ে বিভ্রান্ত করা হতে পারে জনমত, হতে পারে হ্যাকিং’র মতো ঘটনাও। এ সবই হতে পারে কৃত্রিম বুদ্ধিমত্তার সাহায্যে, যদি সেটা চলে যায় ভুল জায়গা বা খারাপ মানুষের হাতে। ড্রোন কিম্বা রোবট দিয়ে সুনির্দিষ্ট ব্যক্তি কিম্বা এলাকায় চালানো হতে পারে সন্ত্রাসী হামলা, চালকবিহীন গাড়ি ছিনতাই করে সেটিকে নিক্ষিপ্ত করা হতে পারে দুর্ঘটনায়। আর্টিফিশিয়াল ইন্টেলিজেন্স বা কৃত্রিম বুদ্ধিমত্তা সংক্ষেপে এআই’র ওপর একটি প্রতিবেদনে এই আশঙ্কা প্রকাশ করছেন আন্তর্জাতিক নিরাপত্তা বিশেষজ্ঞরা।
তারা হুঁশিয়ার করে দিয়ে বলছেন, এই প্রযুক্তি যদি ভ্রষ্ট-নীতির কোনো রাষ্ট্র, যারা আন্তর্জাতিক আইন কানুনের তোয়াক্কা করে না, তাদের কাছে অথবা অপরাধীসহ সন্ত্রাসীদের হাতে চলে যায় তাহলে তার বড় ধরনের অপব্যবহার হতে পারে। আর একারণে এই কৃত্রিম বুদ্ধিমত্তা যখন তৈরি করা হচ্ছে তখন এর উদ্ভাবকদের একই সাথে এমন জিনিসও তৈরি করতে হবে যাতে এর অপব্যবহার না হয়, আর হলেও সেটা মোকাবিলা করা যায়- বলছেন গবেষকরা।
এই লক্ষ্যে ২৬ জন গবেষকের একটি দল কিছু আইন কানুন তৈরি করার ওপরেও জোর দিচ্ছেন। তারা বলছেন, নীতি-নির্ধারক ও প্রযুক্তিবিদ ও গবেষকদের এক সাথে কাজ করতে হবে কৃত্রিম বুদ্ধিমত্তা প্রযুক্তির অপব্যবহার সম্পর্কে ধারণা পেতে এবং সেটা মোকাবিলা করতে। কৃত্রিম বুদ্ধিমত্তার যে শুধু ভালো প্রয়োগ নেই, এটিকে খারাপ কাজেও প্রয়োগ করা হতে পারে, সেটি উপলব্ধি করতে হবে।
কম্পিউটার নিরাপত্তার মতো বিষয়, যেখানে ভালো ও খারাপ দুটো দিকই আছে, সেটা থেকে শিক্ষা নিতে হবে। কৃত্রিম বুদ্ধিমত্তার অপব্যবহার বন্ধ ও প্রতিরোধের লক্ষ্যে সব পক্ষকে একসাথে সক্রিয় হতে হবে। সূত্র: বিবিসি