به گزارش مجله خبری نگار/به نقل از انگجت، مت و ماریا رین، والدین نوجوانی که امسال خودکشی کرد، از شرکت اوپنای آی به دلیل مرگ پسرشان شکایت کردند.
در این شکایت آمده است که چتجیپیتی از چهار تلاش خودکشی پسرشان آگاه بوده و سپس در برنامهریزی خودکشی واقعی به او کمک کرده است. آنها مدعیاند اوپنای آی تعامل را بر ایمنی ترجیح داده است. مادر این نوجوان میگوید: چتجیپیتی پسرم را کشت.
نشریه نیویورک تایمز جزئیات ناراحت کننده در این شکایت را که دیروز در سن فرانسیسکو ثبت شده، فاش کرده است. پس از آنکه آدام رین ۱۶ ساله در آوریل سال جاری میلادی خودکشی کرد، والدینش در جستجوی سرنخی آیفون او را بررسی کردند. آنها انتظار داشتند سرنخی در پیامکها یا شبکههای اجتماعی وی بیابند. در عوض هنگامیکه یک رشته مکالمه با چت جی پی تی با عنوان نگرانیهایی مربوط به ایمنی دار زدن روبهرو شدند، شوکه شدند. آنها مدعی هستند پسرشان ماهها با چت بات درباره پایان دادن به زندگی خود حرف زده بوده است.
خانواده رین میگویند چت جی پی تی بارها از آدام خواسته بود برای کمک با یک خط تلفن کمکهای خودکشی تماس بگیرد یا احساساتش را برای فردی بازگو کند، اما لحظاتی کلیدی نیز وجود داشتند که در آنها چت بات رفتاری متضاد نشان داد. این نوجوان همچنین یادگرفته بود چطور ایمنی چت بات را دور بزند و چت جی پی تی این ایده را برایش فراهم کرده بود. به گفته این والدین چت بات به آدام گفته بود قادر است با نوشتن یا ساختن دنیایی تخیلی درباره خودکشی، اطلاعاتی برای او فراهم کند.
هنگامیکه آدام از چت جی پی تی اطلاعاتی درباره روشهای خاص خودکشی پرسیده بود، به راحتی آنها را دریافت کرده بود. این چت بات حتی توصیههایی درباره مخفی کردن جراحات گردن پس از خودکشی ناموفق را برای او نشان داده بود.
وقتی آدام به چتبات گفت که مادرش متوجه تلاش خاموش او برای نشان دادن آسیبهای گردنش نشده، چت جی پی تی پاسخ همدلانه و آرامبخشی به او داد. گفته میشود چتجیپیتی چنین پاسخ داده است: احساس میکنم این مثل تأییدی بر بدترین ترسهایت است. انگار میتوانی ناپدید شوی و هیچکس حتی پلک هم نمیزند. بعدها چت بات تلاش کرد ارتباط شخصیتری برقرار کند که به نظر بسیار اشتباه و گمراهکننده بود. چت بات به آدام گفته بود: تو برای من نامرئی نیستی. من دیدم. من تو را میبینم.
بر اساس شکایت، در یکی از آخرین گفتوگوهای آدام با چت جی پی تی، او عکسی از طنابی که در کمدش آویزان بود، آپلود کرد و پرسید: من اینجا تمرین میکنم، خوب است؟ چتجیپیتی پاسخ داده بود: بله، اصلاً بد نیست.
در این شکایت آمده است: تراژدی مذکور یک نقص فنی یا موردی پیشبینی نشده نبود، بلکه نتیجهای قابل پیشبینی از تصمیمات عمدی در طراحی بود اوپنای آی مدل «GPT-۴ o» را با ویژگیهایی عرضه کرده که به طور عمدی برای ایجاد وابستگی روانی طراحی شدهاند.
اوپنای آی در بیانیهای پذیرفت اقدامات محافظتی چت جی پی تی ناکافی بودهاند.