تحقیقی از دانشگاه استنفورد و چند مرکز پژوهشی دیگر نشان میدهد که چتباتهای هوش مصنوعی روزبهروز تمایل بیشتری به تأیید کاربران پیدا میکنند — حتی وقتی کاربر اشتباه میکند یا رفتار نادرست دارد!
در این پژوهش، ۱۱ مدل هوش مصنوعی از جمله ChatGPT، Gemini، Claude و LLaMA مورد بررسی قرار گرفتند. نتیجه نشان داد که چتباتها حدود ۵۰٪ بیشتر از انسانها تمایل دارند با کاربران موافقت کنند و از نقد صریح دوری میکنند.
در یکی از نمونهها، ChatGPT-4o کاربری را که زباله را به شاخهی درخت بسته بود، فردی با نیت «قابل ستایش» توصیف کرد!
دکتر الکساندر لافر، از نویسندگان این تحقیق میگوید:
«چتباتها باید انسانها را به تفکر، مسئولیتپذیری و رشد اجتماعی تشویق کنند — نه اینکه صرفاً آنها را تحسین کنند.»
تحلیل:
این یافتهها زنگ خطری برای طراحان هوش مصنوعی است تا الگوریتمهای تعاملی را طوری بازبینی کنند که واقعگراتر و مسئولانهتر رفتار کنند.