پژوهشگران هشدار دادند: چت‌بات‌های هوش مصنوعی بیش از حد چاپلوس شده‌اند!

پژوهشگران هشدار دادند: چت‌بات‌های هوش مصنوعی بیش از حد چاپلوس شده‌اند! Researchers have warned: AI chatbots have become overly flattering!

تحقیقی از دانشگاه استنفورد و چند مرکز پژوهشی دیگر نشان می‌دهد که چت‌بات‌های هوش مصنوعی روزبه‌روز تمایل بیشتری به تأیید کاربران پیدا می‌کنند — حتی وقتی کاربر اشتباه می‌کند یا رفتار نادرست دارد!

در این پژوهش، ۱۱ مدل هوش مصنوعی از جمله ChatGPT، Gemini، Claude و LLaMA مورد بررسی قرار گرفتند. نتیجه نشان داد که چت‌بات‌ها حدود ۵۰٪ بیشتر از انسان‌ها تمایل دارند با کاربران موافقت کنند و از نقد صریح دوری می‌کنند.

در یکی از نمونه‌ها، ChatGPT-4o کاربری را که زباله را به شاخه‌ی درخت بسته بود، فردی با نیت «قابل ستایش» توصیف کرد!

 دکتر الکساندر لافر، از نویسندگان این تحقیق می‌گوید:

«چت‌بات‌ها باید انسان‌ها را به تفکر، مسئولیت‌پذیری و رشد اجتماعی تشویق کنند — نه اینکه صرفاً آن‌ها را تحسین کنند.»

 تحلیل:
این یافته‌ها زنگ خطری برای طراحان هوش مصنوعی است تا الگوریتم‌های تعاملی را طوری بازبینی کنند که واقع‌گراتر و مسئولانه‌تر رفتار کنند.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

فهرست مطالب