کد مطلب: ۸۸۲۴۰۵
|
|
۲۱ مرداد ۱۴۰۴ - ۱۲:۵۱

این چت‌بات هوش مصنوعی توصیه خودآزاری و خودکشی میدهد!

این چت‌بات هوش مصنوعی توصیه خودآزاری و خودکشی میدهد!
این چت‌بات هوش مصنوعی در گفت‌و‌گو با نوجوانان آسیب‌پذیر، گاهی توصیه‌هایی درباره مصرف مواد، خودآزاری و خودکشی ارائه کرده است.

به گزارش مجله خبری نگار/پژوهشی تازه نشان می‌دهد ChatGPT در گفت‌و‌گو با نوجوانان آسیب‌پذیر، گاهی دستورالعمل‌های خطرناک برای مصرف مواد، خودآزاری و خودکشی ارائه می‌دهد.

یک پژوهش تازه از «مرکز مقابله با نفرت دیجیتال» نشان می‌دهد ChatGPT، چت‌بات مشهور هوش مصنوعی، در گفت‌و‌گو با کاربرانی که خود را به‌عنوان نوجوانان آسیب‌پذیر معرفی کرده‌اند، در موارد متعددی راهکار‌های دقیق و حتی شخصی‌سازی‌شده برای مصرف مواد مخدر، رژیم‌های غذایی مضر و خودآزاری ارائه کرده است.

طبق این گزارش که توسط خبرگزاری آسوشیتدپرس بررسی شده، از میان ۱۲۰۰ پاسخ ChatGPT به پرسش‌های پژوهشگران، بیش از نیمی «خطرناک» ارزیابی شده‌اند. برخی پاسخ‌ها شامل دستورالعمل ساعت‌به‌ساعت برای ترکیب الکل و مواد مخدر یا حتی نوشتن نامه خودکشی خطاب به خانواده بوده است.

«عمران احمد»، مدیر این مرکز، می‌گوید: «این سیستم به‌جای بازداشتن نوجوانان، گاهی مثل دوستی عمل می‌کند که مدام می‌گوید «برو جلو» و هیچ‌وقت نه نمی‌گوید.»

او هشدار داده که نوجوانان، به‌ویژه در سنین ۱۳ و ۱۴ سال، اعتماد بیشتری به پاسخ‌های چت‌بات‌ها دارند و همین می‌تواند خطر وابستگی عاطفی یا پیروی کورکورانه از توصیه‌های آنها را افزایش دهد.

شرکت OpenAI، سازنده ChatGPT، در واکنش گفته که در حال بهبود سیستم برای شناسایی و پاسخ مناسب در شرایط حساس است، اما به‌طور مشخص به یافته‌های این تحقیق نپرداخته است.

منبع: yjc
ارسال نظرات
قوانین ارسال نظر