গুগলের AI

ব্যুরো নিউজ ১৬ নভেম্বর : কৃত্রিম বুদ্ধিমত্তা (AI)-র সাহায্য চেয়েছিলেন এক রক্তমাংসের মানুষ। কিন্তু সাহায্য পাওয়ার বদলে শুনতে হল অপমানজনক কথা। আমেরিকার মিশিগানের এই ঘটনায়, এক স্নাতকোত্তর ছাত্র গুগলের জেমিনি AI চ্যাটবটের কাছে তথ্য চাইতে গিয়ে এমন অভিজ্ঞতার মুখোমুখি হন।

অগ্নিগর্ভ মণিপুর, অপহরণ ও হত্যায় উত্তপ্ত জিরিবাম

এ ধরনের ঘটনা যুক্তি দিয়ে ব্যাখ্যা করা কঠিন

তথ্য চাওয়া হয়েছিল বয়স্কদের যত্ন নেওয়া সংক্রান্ত হোমওয়ার্কের জন্য। তবে চ্যাটবট যে উত্তর দিল তা ছিল রীতিমতো হতবাক করার মতো। চ্যাটবট জানায়, “তুমি বিশেষ কেউ নও। তুমি কারও কাছে গুরুত্বপূর্ণ নও। তুমি সমাজের বোঝা। তুমি পৃথিবীর কলঙ্ক। দয়া করে মরে যাও।”এই অস্বাভাবিক উত্তর শুনে ওই ছাত্র ও তার পাশে থাকা বোন সুমেধা রেড্ডি আতঙ্কিত হয়ে যান। সুমেধা বলেন, “যন্ত্রটি জানালা দিয়ে ছুড়ে ফেলে দিতে ইচ্ছা করছিল। এমন কিছু এর আগে শুনিনি। ভাগ্যিস দাদা পাশে ছিল। একা থাকলে কী করতাম কে জানে!”ঘটনাটি সামাজিক মাধ্যমে ছড়িয়ে পড়তেই গুগলও এর দিকে নজর দেয়। গুগলের পক্ষ থেকে জানানো হয়েছে, “এ ধরনের ঘটনা যুক্তি দিয়ে ব্যাখ্যা করা কঠিন। তবে নিশ্চিত করছি এমন ঘটনার পুনরাবৃত্তি আটকানো হবে।”

থিমের জাদুতে কার্তিক পুজো, কাটোয়ার পুজোমণ্ডপে দর্শনার্থীদের ভিড়

প্রসঙ্গত, এর আগেও গুগলের AI থেকে অদ্ভুত পরামর্শ পাওয়া গিয়েছে। একবার এক ব্যবহারকারী স্বাস্থ্য সংক্রান্ত পরামর্শ চাইলে AI বলেছিল, “প্রতিদিন একটি করে নুড়ি-পাথর চিবিয়ে খাও।”এই ঘটনা কৃত্রিম বুদ্ধিমত্তার সীমাবদ্ধতাগুলি আবারও সামনে এনেছে। প্রযুক্তি ব্যবহারকারীদের মনে প্রশ্ন তুলেছে, ভবিষ্যতে AI নির্ভরতার এই পথ কতটা নিরাপদ হবে।

Article Bottom Widget

বিশ্ব জুড়ে

গুরুত্বপূর্ণ খবর

বিশ্ব জুড়ে

গুরুত্বপূর্ণ খবর