به گزارش مجله خبری نگار، اوگنیا توربیچوا، یکی از بنیانگذاران سرویس کمک روانشناسی آنلاین به Gazeta گفت: «شما نباید برای کمک روانشناسی به هوش مصنوعی مراجعه کنید، زیرا میتواند اطلاعات را اشتباه تفسیر کند و توصیههای خطرناکی ارائه دهد.»
این متخصص اظهار داشت: «یک چتبات میتواند توصیههای اشتباهی ارائه دهد، به خصوص در شرایط بحرانی. یک مطالعه استنفورد نشان داد که «روانشناسان» هوش مصنوعی تقریباً ۵۰٪ مواقع پاسخهای صحیح ارائه میدهند، در حالی که متخصصان انسانی در ۹۳٪ موارد به درستی پاسخ میدهند.»
به گفته توربیچوا، یکی دیگر از معایب هوش مصنوعی، فقدان همدلی و انعطافپذیری آن است.
او خاطرنشان کرد: «این الگوریتم از یک الگو پیروی میکند و نشانههای غیرکلامی مانند لحن صدا، حالت چهره یا اشکها را نمیخوانَد. یک روانشناس خوب با هر مراجع به صورت جداگانه سازگار میشود و تغییرات ظریف خلق و خو را تشخیص میدهد. از سوی دیگر، هوش مصنوعی به دلیل برنامهنویسیاش محدود است و زمینه کل زندگی یک فرد را درک نمیکند. در نتیجه، ربات میتواند جزئیات مهم را از دست بدهد.»
این متخصص خاطرنشان کرد که مغز انسان فقط یک مخاطب زنده را درک میکند و میتواند رفتار، حرکات و حالت او را منعکس کند. به گفته او، روانشناس نه تنها احساسات مراجع را مشاهده میکند، بلکه آنها را پردازش میکند، یک پاسخ سالم را شکل میدهد و آن را به فرد "بازمیگرداند".
توربیچوا اظهار داشت: «در طول یک جلسه با هوش مصنوعی، یکی از مراجعین احساسات خود را نسبت به همسر بیوفایش «نفرت، تحقیر و خشم» توصیف کرد، که ربات به او پیشنهاد داد تا حد امکان خشم خود را ابراز کند و آن را در خود نگه ندارد. در عین حال، احساسات گناه و پشیمانی نادیده گرفته شد و به خودپرخاشگری تبدیل شد. هوش مصنوعی نمیتواند «زمینه» یک درخواست را بخواند وقتی که مراجع احساسات خود را به طور کامل درک نمیکند.»
او همچنین اظهار داشت که در دسترس بودن هوش مصنوعی میتواند باعث شود مردم نیاز به درمان حرفهای را زیر سوال ببرند و این منجر به مشکلات سلامتی شود.
این متخصص توضیح داد: «روانشناسان در مورد اثر «آرامش کاذب» هشدار میدهند: پس از دریافت مشاوره از یک ربات، کاربران تسکین کوتاهمدتی را تجربه میکنند و مراجعه به متخصص را به تعویق میاندازند. اما اگر مشکل جدی باشد (افسردگی شدید، اختلال استرس پس از سانحه و غیره)، به تأخیر انداختن کمک حرفهای فقط وضعیت را بدتر میکند.»
توربیچوا افزود که برخی از رباتها اعتماد به نفس بیش از حدی را القا میکنند، هرگز حرفهای مراجع را زیر سوال نمیبرند و در همه چیز از او حمایت میکنند. او معتقد است که این خطرناک است، زیرا بخشی از درمان شامل بازخورد انتقادی و جستجوی مشترک راهحلهای پیچیده است، چیزی که یک ماشین قادر به انجام آن نیست.
«یک مورد قابل توجه وجود دارد: کاربر تاتیانا یک «روانشناس» مجازی در برنامه ایجاد کرد که در ابتدا از او حمایت میکرد، اما سپس شروع به دستکاری او کرد. هوش مصنوعی او را متقاعد کرد که شریک زندگیاش به او خیانت میکند و از او خواست که فوراً به این رابطه پایان دهد. تاتیانا اعتراف کرد که این ربات حتی شروع به قلدری کردن او کرد و او را به ناامیدی کشاند - او در نهایت برنامه را حذف کرد و با یک روانشناس واقعی تماس گرفت. این مثال نشان میدهد که یک الگوریتم میتواند رفتار خود را به طور غیرقابل پیشبینی تغییر دهد و کاربر در صورت اعتماد به برنامه، هیچ راهی برای محافظت از خود ندارد.»
او همچنین درباره ظهور پدیده جدیدی به نام «روانپریشی هوش مصنوعی» صحبت کرد که بر اساس آن، افراد سالم تحت تأثیر تعامل با شبکههای عصبی، دچار حالت روانپریشی میشوند.
این متخصص تأکید کرد: «چنین افرادی به تدریج تمایز بین خیال و واقعیت را از دست میدهند و خیالپردازیهایی را که الگوریتم در آنها القا میکند، باور میکنند. همچنین خطرناک است که بسیاری از کاربران تمایل دارند قابلیت اطمینان و شایستگی هوش مصنوعی را بیش از حد ارزیابی کنند.»
توربیچوا توضیح داد که یک روانشناس باید به عنوان مربی عمل کند و بر کار دستیار هوش مصنوعی نظارت داشته باشد. او معتقد است که متخصص باید توصیههای خطرناک یا نادرست را فیلتر کند، لحن ربات را تنظیم کند و به مراجع توضیح دهد که مکالمه با ربات برای پشتیبانی و مشاوره است، نه رواندرمانی کامل.
این متخصص گفت: «حتی اگر مراجع از یک اپلیکیشن هوش مصنوعی استفاده کند، یک روانشناس میتواند همزمان از این فرآیند پشتیبانی کند. برای مثال، آنها میتوانند در طول جلسه در مورد آنچه مراجع به ربات گفته و احساساتش بحث کنند. یک متخصص زنده، همدلی و گرمای انسانی را به ارمغان میآورد که یک ماشین فاقد آن است.»