به گزارش مجله خبری نگار، اخیراً، ما بیشتر و بیشتر در مورد استفاده از چتباتها در حوزه مراقبتهای بهداشتی، به ویژه استفاده از آنها به عنوان روانشناس، شنیدهایم. با این حال، همانطور که روانشناس و معاون مدیر موسسه روانشناسی بالینی و مددکاری اجتماعی دانشگاه پیروگوف، اکاترینا اورلووا، به Gazeta توضیح داد، چنین استفادهای از هوش مصنوعی با خطراتی همراه است.
اورلووا خاطرنشان کرد: «یکی از نگرانکنندهترین جنبهها، آسیبپذیری دادههای شخصی بیماران است. بنابراین، خصوصیترین تجربیات، ترسها و موقعیتهای آسیبزای یک فرد که به یک الگوریتم سپرده شده است، ممکن است به دست مزاحمان یا حتی شرکتهای بیوجدان بیفتد. حتی اطلاعات غیرشخصیشده نیز گاهی اوقات میتوانند ناشناس شوند و به ابزاری برای دستکاری یا تبعیض تبدیل شوند.»
علاوه بر این، هوش مصنوعی قادر به ارائه کمکهای روانشناختی واجد شرایط به فرد نخواهد بود، زیرا نمیتواند جلوههای غیرکلامی را ارزیابی کند.
این متخصص افزود: «هوش مصنوعی احساس نمیکند، به شیوهای واقعی همدلی نمیکند و در نتیجه، ظریفترین ظرافتهای احساسات انسانی را درک نمیکند. بنابراین، اگر در لحظات بحرانی آسیبپذیری عاطفی کاربری که با آن تماس گرفته است، هوش مصنوعی ناامیدی بیمار را تشخیص ندهد یا حتی بدتر از آن، توصیههای خطرناکی ارائه دهد، چه کسی مسئول عواقب آن خواهد بود؟ الگوریتمهای «تعبیهشده» در هوش مصنوعی نیز بدون سوگیری نیستند - آنها از دادههای ایجاد شده توسط افراد یاد میگیرند، به این معنی که میتوانند به طور ناخودآگاه کلیشهها را بازتولید کنند، علیه گروههای خاصی از افراد یا حالات روانی ناکارآمد تبعیض قائل شوند.»
یکی دیگر از خطرات مرتبط با استفاده از هوش مصنوعی در مشاوره روانشناسی، توهم جایگزینی است.
این روانشناس در پایان گفت: «ممکن است فردی هوش مصنوعی را به عنوان یک نوشدارو تلقی کند و حتی در موارد جدی، مراجعه به یک متخصص حضوری را به تعویق بیندازد. مرزهای اعتماد کجاست؟ آیا بیماران دقیقاً میدانند که چگونه از کلمات، شکایات و اعترافات آسیبپذیرشان استفاده میشود؟ این پارادوکس پیشرفت فناوری است: از یک سو، هوش مصنوعی کمک را در دسترستر میکند، از سوی دیگر، ما را مجبور میکند که هنجارهای حریم خصوصی، مسئولیت و خود انسانیت را در درمان مورد بازنگری قرار دهیم. شاید مسیر بهینه، مخالفت نباشد، بلکه ترکیبی هماهنگ از هوش مصنوعی و حرفهای بودن روانشناسان و رواندرمانگران باشد، جایی که فناوری به عنوان ابزاری عمل میکند، اما جایگزین مشارکت حضوری نمیشود.»