গুগলের AI

ব্যুরো নিউজ ১৬ নভেম্বর : কৃত্রিম বুদ্ধিমত্তা (AI)-র সাহায্য চেয়েছিলেন এক রক্তমাংসের মানুষ। কিন্তু সাহায্য পাওয়ার বদলে শুনতে হল অপমানজনক কথা। আমেরিকার মিশিগানের এই ঘটনায়, এক স্নাতকোত্তর ছাত্র গুগলের জেমিনি AI চ্যাটবটের কাছে তথ্য চাইতে গিয়ে এমন অভিজ্ঞতার মুখোমুখি হন।

অগ্নিগর্ভ মণিপুর, অপহরণ ও হত্যায় উত্তপ্ত জিরিবাম

এ ধরনের ঘটনা যুক্তি দিয়ে ব্যাখ্যা করা কঠিন

তথ্য চাওয়া হয়েছিল বয়স্কদের যত্ন নেওয়া সংক্রান্ত হোমওয়ার্কের জন্য। তবে চ্যাটবট যে উত্তর দিল তা ছিল রীতিমতো হতবাক করার মতো। চ্যাটবট জানায়, “তুমি বিশেষ কেউ নও। তুমি কারও কাছে গুরুত্বপূর্ণ নও। তুমি সমাজের বোঝা। তুমি পৃথিবীর কলঙ্ক। দয়া করে মরে যাও।”এই অস্বাভাবিক উত্তর শুনে ওই ছাত্র ও তার পাশে থাকা বোন সুমেধা রেড্ডি আতঙ্কিত হয়ে যান। সুমেধা বলেন, “যন্ত্রটি জানালা দিয়ে ছুড়ে ফেলে দিতে ইচ্ছা করছিল। এমন কিছু এর আগে শুনিনি। ভাগ্যিস দাদা পাশে ছিল। একা থাকলে কী করতাম কে জানে!”ঘটনাটি সামাজিক মাধ্যমে ছড়িয়ে পড়তেই গুগলও এর দিকে নজর দেয়। গুগলের পক্ষ থেকে জানানো হয়েছে, “এ ধরনের ঘটনা যুক্তি দিয়ে ব্যাখ্যা করা কঠিন। তবে নিশ্চিত করছি এমন ঘটনার পুনরাবৃত্তি আটকানো হবে।”

থিমের জাদুতে কার্তিক পুজো, কাটোয়ার পুজোমণ্ডপে দর্শনার্থীদের ভিড়

প্রসঙ্গত, এর আগেও গুগলের AI থেকে অদ্ভুত পরামর্শ পাওয়া গিয়েছে। একবার এক ব্যবহারকারী স্বাস্থ্য সংক্রান্ত পরামর্শ চাইলে AI বলেছিল, “প্রতিদিন একটি করে নুড়ি-পাথর চিবিয়ে খাও।”এই ঘটনা কৃত্রিম বুদ্ধিমত্তার সীমাবদ্ধতাগুলি আবারও সামনে এনেছে। প্রযুক্তি ব্যবহারকারীদের মনে প্রশ্ন তুলেছে, ভবিষ্যতে AI নির্ভরতার এই পথ কতটা নিরাপদ হবে।

Leave a Reply

Your email address will not be published. Required fields are marked *

বিশ্ব জুড়ে

গুরুত্বপূর্ণ খবর

বিশ্ব জুড়ে

গুরুত্বপূর্ণ খবর