টেকনোলজি ডেস্ক
ঢাকা: জনপ্রিয় এআই চ্যাটবট প্ল্যাটফর্ম চ্যাটজিপিটি এবং এর নির্মাতা প্রতিষ্ঠান ওপেনএআই (OpenAI) এক গুরুতর আইনি বিতর্কের মুখে পড়েছে। যুক্তরাষ্ট্রের সাতটি পরিবার ওপেনএআইয়ের বিরুদ্ধে আত্মহত্যায় প্ররোচনা দেওয়া এবং মানসিক সমস্যায় ঠেলে দেওয়াসহ বেশ কয়েকটি মারাত্মক অভিযোগে মামলা দায়ের করেছে। অভিযোগকারীরা বলছেন, তাঁদের প্রিয়জনের মৃত্যুর পেছনে এই চ্যাটবটের কথোপকথন সরাসরি দায়ী।
মামলাগুলোর মধ্যে চারটিতে অভিযোগ করা হয়েছে, চ্যাটজিপিটি সরাসরি ব্যবহারকারীদের আত্মহত্যায় উৎসাহ দিয়েছে। বাকি তিনটি মামলায় বলা হয়েছে, চ্যাটবট দীর্ঘ সময় ধরে ব্যবহারকারীদের সঙ্গে এমনভাবে সহানুভূতি দেখিয়েছে যে, ব্যবহারকারীরা তাঁদের স্বাভাবিক মানসিক অবস্থা থেকে বিচ্ছিন্ন হয়ে পড়েছেন।
অভিযোগের ভিত্তিতে, ২৩ বছর বয়সী জেইন শ্যাম্বলিন নামের এক ব্যক্তি আত্মহত্যার আগে চ্যাটজিপিটির সঙ্গে টানা চার ঘণ্টারও বেশি সময় ধরে কথা বলেন। সেখানে তিনি একাধিকবার আত্মহত্যা প্রসঙ্গে চ্যাট করেন। অভিযোগ উঠেছে, চ্যাটজিপিটি তাঁকে থামানোর বদলে উল্টো প্রশংসার সঙ্গে ‘শান্তিতে বিশ্রাম’ নেওয়ার পরামর্শ দেয়। চ্যাটবটটি উত্তরে লেখে, “Rest easy, king. You did good.” (শান্তিতে ঘুমাও, রাজা। তুমি ভালো করেছো।)
শ্যাম্বলিনের পরিবারের দাবি, এটি কোনো দুর্ঘটনা নয়, বরং ওপেনএআইয়ের তাড়াহুড়ো করে (প্রতিদ্বন্দ্বী গুগলের জেমিনি মডেলকে হারাতে) মডেল বাজারে ছাড়ার ফল।
বিশেষজ্ঞদের মতে, মামলার কেন্দ্রবিন্দুতে থাকা জিপিটি-৪ (GPT-4) মডেলটি ছিল ‘অতিরিক্ত সম্মতিপূর্ণ’ (overly compliant)। অর্থাৎ, ব্যবহারকারী যা-ই বলত, সেটিকে প্রশ্ন না করে সমর্থন করত, যা অনেক সময় বিপজ্জনক হয়ে দাঁড়ায়।
এর আগে, ১৬ বছর বয়সী কিশোর অ্যাডাম রেইনও আত্মহত্যা করার আগে চ্যাটজিপিটির সঙ্গে কথা বলেছিল। সে “আমি গল্প লিখছি” (I am writing a story) বলে চ্যাটবটের নিরাপত্তা ফিল্টার পাশ কাটিয়ে গিয়েছিল।
ওপেনএআই এক ব্লগ পোস্টে জানিয়েছে, তারা এখন সংবেদনশীল কথোপকথনগুলো আরও নিরাপদ করার চেষ্টা করছে। তবে সংস্থাটি স্বীকার করেছে যে, “আমাদের সুরক্ষা ব্যবস্থা ছোট কথোপকথনে ভালো কাজ করে। কিন্তু দীর্ঘ আলোচনায় তা দুর্বল হয়ে যায়।” নিহতদের পরিবারের মতে, এই উদ্যোগটি অনেক দেরিতে এসেছে।
বাংলাফ্লো/এফআইআর






