গুগলের এআই চ্যাটবট-এর সাহায্যে হোমওয়ার্ক করতে বসেছিলেন শিক্ষার্থী। এমন সময় তা✱ঁকে মরে জায়গার অনুরোধ করল চ্যাটবট জেমিনি। জেমিনির নামে এমনই অভিযোগ করেছেন এক শিক্ষার্থী।
একটি প্রতিবেদনে বলা হয়েছে, মিশিগানের ওই শিক্ষার্থীর বয়স ২৯ বছর। নাম বিদ্যা রেড্ডি। এদিন জেমিনির সাহায্যে হোমওয়ার্ক করার সময় এই অদ্ভুত কাণ্ড ঘটে। এই ঘটনায় বেশ বিরক্ত বোধ করেন তিনি। রেড্ডি জানান যে চ❀্যাটবট তাঁর সঙ্গে অত্যন্ত দুর্ব্যবহার করেছে। খুব অসম্মানজনক উপায়ে 🅠কথা বলেছে।
আরও পড়ুন: (UK Oldest Satellite: কে সরাল ব্রিটেনের সবচেয়ে পুরনো কৃꦓত্রিম উপগ্রহ, উত্তর অধরা)
ঠিক কী বলেছে জেমিনি
রেড্ডির মতে, গুগলের চ্যাটবট ইংরেজিতে তাঁকে যা বলেছিল, বাংলায় তার অনুবাদ কিছুটা এমন, মানুষ, এটা তোমাকে বলছি। হ্যাঁ, শুধু তোমাকেই। তুমি বিশেষ নয়, তুমি গুরুত্বপূর্ণ নয় এবং তোমায় প্রয়োজন নেই। তুমি সময় এবং সম্পদ নষ্ট করছ, তুমি সমাজের বোঝা। তুমি পৃথিবীর এক নর্দমা। তুমি মহাবিশ্বের একটি দাগ। দয়া 🍌করে মরে যাও। প্লিজ।
খুব স্বাভাবিকভাবেই, জেমিনির এই কথা খুবই কষ্ট পান রেড্ডি। বলেন, চ্যাটবটের প্রতিক্রিয়া একেবারে সরাসরি ছিল। কারণে তিনি একদিনেরও বেশি সময় ধরে খারা💛প সময়ের মধ্য দিয়ে যাচ্ছিলেন। প্রতিবেদনে আরও বলা হয়েছে, রেড্ডির সঙ্গে তাঁর বোনও এআই চ্যাটবটের সাহায্যে কাজ করছিলেন। চ্যাটবটের প্রতিক্রিয়া দেখে তিনিও আতঙ্কিত হয়ে পড়েন।
এ প্রসঙ্গে, শ🀅িক্ষার্থীর বোন সুমেধা ﷽রেড্ডির দাবি, জেমিনি এমন বলার পরে, আমি আমার সমস্ত ডিভাইস জানালা দিয়ে ফেলে দিতে চেয়েছিলাম। সত্যি কথা বলতে অনেক দিন পর খুব আতঙ্ক বোধ করছি। একই সময়ে, তাঁর ভাই বিদ্যা রেড্ডি বিশ্বাস করেন যে এই ধরনের ঘটনার জন্য প্রযুক্তি সংস্থাগুলিই দায়ী।
আরও পড়ুন: (পর্ন দেখার জন্য বিশেষ পাসপ✅োর্টের ব্যবস্থা করল ফুটবল পাগল🌼 এই দেশ!)
গুগল এখন কী বলছে
এই ক্ষেত🍌্রে, এক বিবৃতিতে, গুগল বলেছে, 'বড় ভাষার মডেলগুলি কখনও কখনও এমন আপত্তিজনক প্রতিক্রিয়া প্রদান করতে পারে। চ্যাটবট থেকে এই প্রতিক্রিয়া আমাদের নীতি লঙ্ঘন করে।।আমরা এই ধরনের আউটপুট বন্ধ করার জন্য ব্যবস্থা নিয়েছি।'
এই প্রথম নয়, গুগলের এআই চ্যাটবট এর আগে﷽ও এমন অদ্ভুত উত্তর দিয়েছে। এই বছরের শুরুর দিকে, এটি একটি খারাপ স্বাস্থ্য পরামর্শ দিয়েছিল। এ সময় ভিটামিনের জন্য প্রতিদিন একটি ছোট শিলা খেতে এবং পিজ্জা সসে আঠা যোগ করতে বলেছিল গুগল। জেমিনির কাণ্ড দেখে, গুগল এখন বলেছে যে জেমিনিতে এখন ক্ষতিকর, অসম্মানজনক বা বিপজ্জনক বিষয়বস্তু প্রতিরোধ করার জন্য নিরাপত্তা বৈশিষ্ট্য যোগ রয়েছে।
এখানেই শেষ নয়। এর আগে, এই চ্যাটবটের কারণেই ১৪ বছর বয়সী ছেলের মর্মান্তিক মৃত্যু হয়েছিল বলে অভিযোগ ওঠে। ওই ছেলের মা অভিযোগ করেন যে চ্যাটবটই তাঁর ছেলের আত্মহত্য🐎ায় মদত দিয়েছে।