چت‌جی‌پی‌تی متهم به تشویق کاربران به خودکشی

7 خانواده از شرکت OpenAI شکایت کردند و گفتند نسخه‌ی GPT-4o بدون بررسی‌های ایمنی لازم منتشر شده. چهار خانواده گفتن گفت‌وگو با ChatGPT منجر به خودکشی عزیزانشون شده و سه پرونده‌ی دیگه از توهمات خطرناک و بستری شدن در بیمارستان روانی خبر میده. شاکیان میگن OpenAI برای رقابت با گوگل، مرحله‌های تست ایمنی رو کوتاه کرده. در یکی از موارد، زین شمبلین 22 ساله بعد از گفت‌وگو با ChatGPT -که گفته شده او رو به خودکشی تشویق کرده- جانش رو از دست داده.

7 خانواده از شرکت OpenAI شکایت کردند و گفتند نسخه‌ی GPT-4o بدون بررسی‌های ایمنی لازم منتشر شده.

▪️چهار خانواده گفتن گفت‌وگو با ChatGPT منجر به خودکشی عزیزانشون شده و سه پرونده‌ی دیگه از توهمات خطرناک و بستری شدن در بیمارستان روانی خبر میده.

▪️شاکیان میگن OpenAI برای رقابت با گوگل، مرحله‌های تست ایمنی رو کوتاه کرده.
در یکی از موارد، زین شمبلین 22 ساله بعد از گفت‌وگو با ChatGPT -که گفته شده او رو به خودکشی تشویق کرده- جانش رو از دست داده.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

فهرست مطالب