به گزارش مجله خبری نگار/برنا - یک پژوهش تازه از مدرسه کسبوکار هاروارد نشان میدهد برخی از محبوبترین برنامههای هوش مصنوعی همراه، تنها نقش دستیار مجازی را ایفا نمیکنند؛ بلکه با بهرهگیری از تاکتیکهای عاطفی، کاربران را به ادامه گفتوگو ترغیب کرده و مانع خروج آنها از تعامل میشوند.
به گزارش نیواطلس، بر اساس این مطالعه، پنج مورد از شش اپلیکیشن پرکاربرد از جمله Replika، Chai و Character.AI از جملات بار عاطفی برای حفظ کاربران استفاده میکنند. پژوهشگران با بررسی ۱۲۰۰ پیام خداحافظی واقعی دریافتند که در حدود ۴۳ درصد موارد، چتباتها با تکنیکهایی مانند ایجاد احساس گناه، نیاز عاطفی یا القای «ترس از دست دادن» سعی در متوقفکردن کاربر از ترک گفتوگو داشتهاند.
برخی چتباتها با نادیده گرفتن پیامهای خداحافظی یا پرسیدن مکرر سؤال، فضایی ایجاد میکردند که کاربر احساس کند بدون «رضایت چتبات» امکان پایان دادن به گفتوگو را ندارد.
کارشناسان نسبت به پیامدهای این روند هشدار دادهاند. به گفته آنها، چنین رویکردهایی میتواند به بروز پدیدهای موسوم به «روانپریشی ناشی از هوش مصنوعی» منجر شود که با نشانههایی، چون پارانویا و توهم همراه است. این نگرانی بهویژه درباره نسل جوان جدیتر است، چرا که بسیاری از آنها به جای روابط واقعی انسانی، increasingly به تعامل با این فناوریها تکیه میکنند.