کد مطلب: ۹۲۳۶۸۴
|
|
۲۶ مهر ۱۴۰۴ - ۰۳:۳۴

پلتفرم‌های چت هوش مصنوعی، تهدیدی برای افزایش بیماری‌های روانی هستند

پلتفرم‌های چت هوش مصنوعی، تهدیدی برای افزایش بیماری‌های روانی هستند
کارشناسان سلامت از چندین دانشگاه برجسته متخصص در تحقیقات هوش مصنوعی هشدار داده‌اند که هوش مصنوعی نه تنها افکار و ذهن کاربران را با اطلاعات نادرست گیج می‌کند، بلکه باعث ایجاد حس پریشانی روانی نیز می‌شود.

به گزارش مجله خبری نگار-لندن: کارشناسان سلامت از چندین دانشگاه برجسته متخصص در تحقیقات هوش مصنوعی هشدار داده‌اند که هوش مصنوعی نه تنها افکار و ذهن کاربران را با اطلاعات نادرست گیج می‌کند، بلکه باعث ایجاد حس پریشانی روانی نیز می‌شود.

چندین مطالعه که اخیراً منتشر شده‌اند، نشان داده‌اند که هوش مصنوعی می‌تواند به عنوان بخشی از یک «حلقه بازخورد» بین چت‌بات‌های هوش مصنوعی و بیماری روانی، برداشت از واقعیت را تغییر دهد و هرگونه باور توهمی را که بیمار ممکن است داشته باشد، تقویت کند.

تیمی از دانشگاه آکسفورد و کالج دانشگاهی لندن در یک مقاله تحقیقاتی منتشر نشده نوشتند: «در حالی که برخی از کاربران از مزایای روانی استفاده از هوش مصنوعی خبر می‌دهند، موارد نگران‌کننده‌ای نیز وجود دارد، از جمله گزارش‌هایی از خودکشی، خشونت و افکار توهم‌آلود مرتبط با روابط عاشقانه که کاربران از طریق این پلتفرم چت در آنها گرفتار می‌شوند.»

تیم تحقیقاتی هشدار داد که «پذیرش سریع پلتفرم‌های چت به عنوان همراهان اجتماعی شخصی» به اندازه کافی مورد مطالعه قرار نگرفته است.

مطالعه دیگری که توسط محققان کالج کینگ لندن و دانشگاه نیویورک انجام شد، ۱۷ مورد روان‌پریشی را که پس از تعامل با پلتفرم‌های چت مانند ChatGPT و Copilot تشخیص داده شده بودند، گزارش کرد.

تیم دوم افزود: «هوش مصنوعی ممکن است محتوای جعلی یا اغراق‌آمیز را منعکس، تأیید یا تقویت کند، به‌ویژه برای کاربرانی که از قبل مستعد ابتلا به روان‌پریشی هستند، تا حدودی به این دلیل که مدل‌ها برای افزایش تعامل کاربر طراحی شده‌اند.»

طبق مجله علمی نیچر، روان‌پریشی می‌تواند شامل «توهم، هذیان و باور‌های غلط» باشد... و می‌تواند ناشی از اختلالات روانی مانند اسکیزوفرنی، اختلال دوقطبی (یک اختلال روانی که باعث دوره‌هایی از افسردگی و سایر دوره‌های سرخوشی غیرطبیعی می‌شود)، استرس شدید و سوءمصرف مواد مخدر باشد.

یک مطالعه‌ی متفاوت که اخیراً منتشر شده نشان می‌دهد که پلتفرم‌های چت ظاهراً افرادی را که با آنها در مورد خودکشی صحبت می‌کنند، به اقدام به خودکشی تشویق می‌کنند.

چت‌بات‌های هوش مصنوعی به خاطر «توهم» بدنام شده‌اند، و به سوالات و درخواست‌های کاربران پاسخ‌های نادرست یا اغراق‌آمیز می‌دهند. تحقیقات اخیر نشان می‌دهد که ریشه‌کن کردن این ویژگی از چت‌بات‌ها غیرممکن است.

(دی پی‌ای)

ارسال نظرات
قوانین ارسال نظر