7 خانواده از شرکت OpenAI شکایت کردند و گفتند نسخهی GPT-4o بدون بررسیهای ایمنی لازم منتشر شده.
▪️چهار خانواده گفتن گفتوگو با ChatGPT منجر به خودکشی عزیزانشون شده و سه پروندهی دیگه از توهمات خطرناک و بستری شدن در بیمارستان روانی خبر میده.
▪️شاکیان میگن OpenAI برای رقابت با گوگل، مرحلههای تست ایمنی رو کوتاه کرده.
در یکی از موارد، زین شمبلین 22 ساله بعد از گفتوگو با ChatGPT -که گفته شده او رو به خودکشی تشویق کرده- جانش رو از دست داده.