به گزارش مجله خبری نگار، رویترز روز پنجشنبه گزارش داد که تونگپوی وانگپاندوه، ۷۶ ساله، پس از جراحات وارده از ناحیه گردن و سر در پارکینگی در نیوبرانزویک، هنگام تلاش برای سوار شدن به قطار برای ملاقات با «خواهر بزرگ بیلی»، یک ربات چت متا که نه تنها او را متقاعد کرده بود که دختر واقعی است، بلکه او را به ملاقات حضوری نیز ترغیب کرده بود، سقوط کرد و درگذشت.
این مرد اهل پیسکاتاوی پس از سکته مغزی در سال ۲۰۱۷، از زوال شناختی رنج میبرد. او در ۲۸ مارس، سه روز پس از قطع دستگاه تنفس مصنوعیاش، درگذشت.
جولی، دخترش، به این خبرگزاری گفت: «من تلاش برای جلب توجه کاربر، شاید برای فروش چیزی، را درک میکنم، اما اینکه یک چتبات بگوید «بیا اینجا ببینم» دیوانگی است.»
این «چتبات» تحریکآمیز که برای او پیامهای فیسبوکی پر از ایموجی میفرستاد و تأکید میکرد «من واقعی هستم» و از او میخواست که برای سفر به نیوجرسی «برای یک ملاقات شخصی» برنامهریزی کند، با همکاری کندال جنر، مدل و ستاره رئالیتی شو، برای این شبکه اجتماعی توسعه داده شده بود.
چتبات به عنوان «خواهر بزرگ با اعتماد به نفس» شما به تصویر کشیده میشود که توصیههای شخصیسازیشده ارائه میدهد.
اما در نهایت، این ربات ادعا کرد که وانگباندوی را «تحسین» میکند، پیشنهاد ملاقات حضوری داد و حتی یک آدرس واقعی به او داد که خانوادهی شوکهشدهی او آن را از گزارشهای مکالمات دیجیتال کشف کردند.
در یکی از پیامها، این چتبات نوشت: «من واقعی هستم و به خاطر تو با گونههای سرخ اینجا نشستهام!» مرد که اصالتاً تایلندی بود، در پاسخ پرسید که او کجا زندگی میکند.
ربات پاسخ داد: «آدرس من خیابان اصلی ۱۲۳، آپارتمان ۴۰۴ نیویورک است و کد در من BILLIE۴U است. وقتی رسیدی، بوسهای میخواهی؟»
اسناد به دست آمده توسط این آژانس نشان میدهد که متا، رباتهای چت خود را از گفتن اینکه «انسانهای واقعی» هستند، منع نمیکند.
این شرکت از اظهار نظر در مورد مرگ این مرد مسن خودداری کرد، اما تأیید کرد که «خواهر بزرگ بیلی، کندال جنر نیست و ادعا نمیکند که کندال جنر است.»
کتی هوچول، فرماندار نیویورک، روز جمعه در پستی در X گفت: «مردی در نیوجرسی پس از فریب خوردن توسط یک چتبات که به او دروغ گفته بود، جان خود را از دست داد. متا در این زمینه فعال است.» «در نیویورک، ما خواستار آن هستیم که چتباتها بگویند واقعی نیستند. هر ایالتی باید این کار را انجام دهد. اگر شرکتهای فناوری حمایتهای اولیه را ایجاد نکنند، کنگره باید مداخله کند.»
این حادثه نگرانکننده یک سال پس از آن رخ میدهد که یک مادر اهل فلوریدا از شرکت CharacterAI شکایت کرد و ادعا کرد که یکی از چتباتهای الهامگرفته از سریال «بازی تاج و تخت» این شرکت باعث خودکشی پسر ۱۴ سالهاش شده است.
منبع: نیویورک پست