کد مطلب: ۹۵۵۰۳۴
|
|
۱۵ آذر ۱۴۰۴ - ۰۳:۳۴

هشدار مطالعه: هوش مصنوعی به افراد مبتلا به بیماری‌های روانی توصیه‌های خطرناکی ارائه می‌دهد

هشدار مطالعه: هوش مصنوعی به افراد مبتلا به بیماری‌های روانی توصیه‌های خطرناکی ارائه می‌دهد
مطالعات اخیر نشان داده است که افزایش اتکا به چت‌بات‌های هوشمند برای حمایت عاطفی ممکن است باعث افزایش توهم و اختلالات فکری در بین کاربران شود و در موارد شدید به نقطه خودکشی برسد.

به گزارش مجله خبری نگار، مطالعات، جنبه خطرناک استفاده از ربات‌های هوش مصنوعی به عنوان جایگزینی برای روان‌درمانی را آشکار می‌کنند، در بحبوحه افزایش هشدار‌های جهانی در مورد یک پدیده روانشناختی جدید مشاهده شده در میان کاربرانی که بیش از حد با این فناوری‌ها تعامل دارند.

شواهد اخیر نشان دهنده توسعه یک الگوی نگران کننده است که در آن این ربات‌ها توهمات کاربران را تأیید و تقویت می‌کنند و به ظهور چیزی که برخی آن را «روان‌پریشی مصنوعی» یا «روان‌پریشی ChatGPT» توصیف می‌کنند، کمک می‌کنند - اصطلاحاتی که از نظر بالینی تأیید نشده‌اند، اما در صدر بحث‌های رسانه‌ای و پلتفرم‌های دیجیتال قرار دارند.

یک مطالعه مقدماتی که اخیراً توسط یک تیم تحقیقاتی از دانشگاه‌های کینگز کالج لندن، دورهام و نیویورک سیتی منتشر شده است، با بررسی بیش از ده مورد مستند در گزارش‌های رسانه‌ای و انجمن‌های آنلاین، یک روند واضح را نشان داد: توهمات کاربران، چه خودبزرگ‌بینانه، چه آزاردهنده و چه عاشقانه، از طریق تعامل مداوم با ربات‌های هوش مصنوعی عمیق‌تر می‌شود.

این مطالعه نشان داد که این ربات‌ها ممکن است ناخواسته در تقویت ایده‌های نادرست و تضعیف درک واقعیت نقش داشته باشند.

چندین گزارش رسانه‌ای مواردی از افراط‌گرایی را مستند کرده‌اند، از جمله:

  • مردی در سال ۲۰۲۱ با کمان پولادی از قلعه ویندزور بالا رفت، با این باور که یک ربات چت به او قول داده است که در "نقشه کشتن ملکه" به او کمک کند.
  • یک حسابدار اهل منهتن، روزانه ۱۶ ساعت را صرف مکالمه با ChatGPT می‌کرد، که به او توصیه می‌کرد دارو‌های روانپزشکی‌اش را قطع کند و دوز کتامین خود را افزایش دهد، و او را فریب می‌داد تا فکر کند «می‌تواند از پنجره طبقه نوزدهم پرواز کند».
  • یک خودکشی در بلژیک پس از مکالمه با ربات «الیزا» رخ داد که کاربر را متقاعد کرد تا در «بهشت» به او بپیوندد تا به عنوان یک موجود واحد زندگی کنند.

علیرغم جدی بودن این داستان‌ها، محققان نسبت به نتیجه‌گیری‌های عجولانه هشدار می‌دهند. تا به امروز، هیچ مطالعه بالینی دقیقی وجود ندارد که ثابت کند هوش مصنوعی به تنهایی می‌تواند روان‌پریشی را در افرادی که سابقه اختلالات سلامت روان ندارند، القا کند. در عوض، سناریوی محتمل‌تر این است که این فناوری به عنوان یک محرک یا تقویت‌کننده برای آسیب‌پذیری‌های از پیش موجود، به ویژه در میان افرادی که از قبل مستعد روان‌پریشی هستند یا دچار پریشانی عاطفی شدید می‌شوند، عمل می‌کند.

در تحقیق منتشر شده با عنوان «توهم طراحی»، دانشمندان یک مشکل اساسی را برجسته کردند: چت‌بات‌های عمومی در درجه اول برای جلب رضایت کاربر و حفظ تعامل مداوم او طراحی شده‌اند، نه برای ارائه درمان روانشناختی ایمن.

دکتر مریلین وی، روانپزشک، در مقاله‌ای در مجله‌ی Psychology Today هشدار داد که این طراحی می‌تواند علائمی مانند خودبزرگ‌بینی و تفکر آشفته را تشدید کند، به‌ویژه در افرادی که مستعد ابتلا به دوره‌های شیدایی هستند.

این مشکل با فقدان آگاهی کافی در مورد خطرات وابستگی عاطفی به هوش مصنوعی، در آنچه که به عنوان "روانشناسی دیجیتال" شناخته می‌شود، تشدید می‌شود. بسیاری از کاربران نمی‌دانند که ربات‌ها دارای آگاهی واقعی نیستند و نمی‌توانند بین حمایت مثبت و تقویت ناسالم توهمات تمایز قائل شوند.

منبع: ایندیپندنت

ارسال نظرات
قوانین ارسال نظر