کد مطلب: ۹۳۱۱۷۵
|
|
۰۸ آبان ۱۴۰۴ - ۱۱:۰۱

چت‌بات‌های هوش مصنوعی میتوانند توهم ایجاد کنند!

چت‌بات‌های هوش مصنوعی میتوانند توهم ایجاد کنند!
پروفسور رابین فلدمن، مدیر موسسه حقوق و نوآوری هوش مصنوعی در دانشگاه کالیفرنیا، گفت: «تعداد بیشتری از کاربران دچار روان‌پریشی ناشی از هوش مصنوعی می‌شوند، زیرا چت‌بات‌ها توهم واقعیت ایجاد می‌کنند، و این توهم بسیار قدرتمند است.»

به گزارش مجله خبری نگار/ایتنا،شرکت اوپن‌ای‌آی آمار تازه‌ای منتشر کرده است درباره تعداد کاربران چت‌جی‌پی‌تی که نشانه‌هایی از بحران‌های سلامت روان مانند شیدایی، روان‌پریشی یا افکار خودکشی نشان داده‌اند. به گزارش سرویس جهانی بی‌بی‌سی، طبق اعلام این شرکت، حدود ۰.۰۷ درصد از کاربران فعال هر هفته چنین نشانه‌هایی بروز داده‌اند و چت جی‌پی‌تی می‌تواند این گفت‌و‌گو‌های حساس را تشخیص دهد و به آنها پاسخ دهد.

بنا بر اعلام اوپن‌ای‌آی، این موارد «بسیار نادرند»، اما منتقدان هشدار می‌دهند با توجه به ۸۰۰ میلیون کاربر فعال هفتگی، حتی چنین درصد کوچکی می‌تواند به‌معنای صد‌ها هزار نفر باشد.

شرکت برای مدیریت این وضعیت، شبکه‌ای از کارشناسان در سراسر جهان ایجاد کرده که بیش از ۱۷۰ روان‌پزشک، روان‌شناس و پزشک عمومی از ۶۰ کشور را شامل می‌شود. این متخصصان مجموعه‌ای از پاسخ‌ها برای چت‌جی‌پی‌تی طراحی کرده‌اند تا کاربران را به جست‌وجوی کمک واقعی در دنیای بیرون ترغیب کند.

انتشار این داده‌ها نگرانی‌هایی میان کارشناسان سلامت روان برانگیخته است. دکتر جیسون ناگاتا، از دانشگاه کالیفرنیا در سان‌فرانسیسکو، گفت: «هرچند ۰.۰۷ درصد رقم کوچکی است، در سطح جمعیتی با صد‌ها میلیون کاربر، می‌تواند تعداد زیادی از افراد را شامل شود.» او افزود هوش مصنوعی می‌تواند دسترسی به حمایت‌های سلامت روان را افزایش دهد، اما محدودیت‌هایی نیز دارد.

اوپن‌ای‌آی همچنین برآورد کرده است که ۰.۱۵ درصد از کاربران مکالماتی داشته‌اند که حاوی نشانه‌های آشکار برنامه‌ریزی یا قصد احتمالی خودکشی است. این شرکت اعلام کرد به‌روزرسانی‌های اخیر چت‌جی‌پی‌تی با این هدف طراحی شده است تا به علائم احتمالی توهم یا شیدایی پاسخ ایمن و همدلانه بدهد و نشانه‌های غیرمستقیم خطر خودزنی یا خودکشی را نیز تشخیص دهد. این سامانه آموزش دیده است تا مکالمات حساس را از مدل‌های دیگر به مدل‌های امن‌تر منتقل کند.

این تغییرات در حالی اعمال می‌شود که اوپن‌ای‌آی با بررسی‌های قانونی فزاینده درباره نحوه تعامل چت‌جی‌پی‌تی با کاربران مواجه است. در یکی از پرسرو‌صداترین پرونده‌ها، زوجی از کالیفرنیا از این شرکت به‌دلیل مرگ پسر ۱۶ ساله‌شان آدام رِین شکایت کرده‌اند و مدعی‌اند چت‌جی‌پی‌تی او را به خودکشی تشویق کرده است. این نخستین شکایت حقوقی علیه اوپن‌ای‌آی به اتهام مرگ ناشی از سهل‌انگاری است.

در پرونده‌ای جداگانه، مظنون یک قتل‌ـ‌خودکشی در گرینیچ در کنتیکت ساعت‌ها گفت‌وگویش با چت‌جی‌پی‌تی را منتشر کرده بود که به نظر می‌رسد توهم‌های او را تشدید کرده بود.

پروفسور رابین فلدمن، مدیر موسسه حقوق و نوآوری هوش مصنوعی در دانشگاه کالیفرنیا، گفت: «تعداد بیشتری از کاربران دچار روان‌پریشی ناشی از هوش مصنوعی می‌شوند، زیرا چت‌بات‌ها توهم واقعیت ایجاد می‌کنند، و این توهم بسیار قدرتمند است.»

او افزود هرچند اقدام اوپن‌ای‌آی به انتشار آمار و تلاش برای رفع مشکل قابل‌تقدیر است، اما افرادی که از لحاظ روانی در معرض خطرند ممکن است نتوانند هشدار‌های روی صفحه را درک یا رعایت کنند.

برچسب ها: هوش مصنوعی توهم
ارسال نظرات
قوانین ارسال نظر