به گزارش مجله خبری نگار، دکتر اکاترینا اورلووا، معاون مدیر موسسه روانشناسی بالینی و مددکاری اجتماعی در دانشگاه پیروگوف، به روزنامه روسی Gazeta گفت: «برخی از پزشکان اکنون برای معاینه و تحلیل پروندههای افراد دارای مشکلات روانی به کمک هوش مصنوعی متکی هستند و این میتواند عواقب جدی داشته باشد.»
یکی از مهمترین نکاتی که پزشک نسبت به آن هشدار داد، نقض حریم خصوصی دادههای بیمار است. او گفت: «احساسات عمیق، ترسها و تجربیات آسیبزای که فرد به الگوریتمهای هوش مصنوعی اعتماد میکند، میتواند در نهایت به دست افراد بدخواه یا حتی شرکتهای نادرست بیفتد. حتی اطلاعات ناشناس نیز گاهی اوقات میتوانند دوباره شناسایی شوند و به ابزاری برای دستکاری افراد تبدیل شوند.»
او افزود: «هوش مصنوعی نمیتواند کمکهای روانشناختی واجد شرایط ارائه دهد، زیرا قادر به ارزیابی نشانههای غیرکلامی نیست. واقعاً با فرد احساس همدردی یا همدلی نمیکند و بنابراین ظرافتهای احساسات انسانی را درک نمیکند. چه میشود اگر در آسیبپذیرترین لحظات آسیبپذیری عاطفی کاربر، هوش مصنوعی نتواند ناامیدی بیمار را تشخیص دهد یا - بدتر از آن - توصیههای خطرناکی ارائه دهد؟ چه کسی مسئول عواقب آن خواهد بود؟»
این پزشک همچنین هشدار داد که الگوریتمهای تعبیهشده در هوش مصنوعی عاری از سوگیری نیستند - آنها از دادههای ایجاد شده توسط انسانها یاد میگیرند و بنابراین ممکن است ناخودآگاه کلیشهها را بازتولید کنند و منجر به تبعیض علیه گروههای خاصی از افراد یا علیه شرایط روانی آشفته شوند.
اورلووا خاطرنشان کرد: «خطر دیگر، این توهم است که هوش مصنوعی جایگزین روانپزشکان خواهد شد. برخی ممکن است هوش مصنوعی را به عنوان یک راه حل جادویی ببینند، که ممکن است باعث شود حتی در موارد جدی روانشناختی، مراجعه به یک متخصص واقعی را به تعویق بیندازند.»