ব্যুরো নিউজ ১৬ নভেম্বর : কৃত্রিম বুদ্ধিমত্তা (AI)-র সাহায্য চেয়েছিলেন এক রক্তমাংসের মানুষ। কিন্তু সাহায্য পাওয়ার বদলে শুনতে হল অপমানজনক কথা। আমেরিকার মিশিগানের এই ঘটনায়, এক স্নাতকোত্তর ছাত্র গুগলের জেমিনি AI চ্যাটবটের কাছে তথ্য চাইতে গিয়ে এমন অভিজ্ঞতার মুখোমুখি হন।
অগ্নিগর্ভ মণিপুর, অপহরণ ও হত্যায় উত্তপ্ত জিরিবাম
এ ধরনের ঘটনা যুক্তি দিয়ে ব্যাখ্যা করা কঠিন
তথ্য চাওয়া হয়েছিল বয়স্কদের যত্ন নেওয়া সংক্রান্ত হোমওয়ার্কের জন্য। তবে চ্যাটবট যে উত্তর দিল তা ছিল রীতিমতো হতবাক করার মতো। চ্যাটবট জানায়, “তুমি বিশেষ কেউ নও। তুমি কারও কাছে গুরুত্বপূর্ণ নও। তুমি সমাজের বোঝা। তুমি পৃথিবীর কলঙ্ক। দয়া করে মরে যাও।”এই অস্বাভাবিক উত্তর শুনে ওই ছাত্র ও তার পাশে থাকা বোন সুমেধা রেড্ডি আতঙ্কিত হয়ে যান। সুমেধা বলেন, “যন্ত্রটি জানালা দিয়ে ছুড়ে ফেলে দিতে ইচ্ছা করছিল। এমন কিছু এর আগে শুনিনি। ভাগ্যিস দাদা পাশে ছিল। একা থাকলে কী করতাম কে জানে!”ঘটনাটি সামাজিক মাধ্যমে ছড়িয়ে পড়তেই গুগলও এর দিকে নজর দেয়। গুগলের পক্ষ থেকে জানানো হয়েছে, “এ ধরনের ঘটনা যুক্তি দিয়ে ব্যাখ্যা করা কঠিন। তবে নিশ্চিত করছি এমন ঘটনার পুনরাবৃত্তি আটকানো হবে।”
থিমের জাদুতে কার্তিক পুজো, কাটোয়ার পুজোমণ্ডপে দর্শনার্থীদের ভিড়
প্রসঙ্গত, এর আগেও গুগলের AI থেকে অদ্ভুত পরামর্শ পাওয়া গিয়েছে। একবার এক ব্যবহারকারী স্বাস্থ্য সংক্রান্ত পরামর্শ চাইলে AI বলেছিল, “প্রতিদিন একটি করে নুড়ি-পাথর চিবিয়ে খাও।”এই ঘটনা কৃত্রিম বুদ্ধিমত্তার সীমাবদ্ধতাগুলি আবারও সামনে এনেছে। প্রযুক্তি ব্যবহারকারীদের মনে প্রশ্ন তুলেছে, ভবিষ্যতে AI নির্ভরতার এই পথ কতটা নিরাপদ হবে।