کد مطلب: ۹۱۴۰۲۰
|
|
۱۰ مهر ۱۴۰۴ - ۲۱:۱۷

شگرد دستکاری عاطفی برای فعال نگه داشتن شما در اپلیکیشن‌های هوش مصنوعی

شگرد دستکاری عاطفی برای فعال نگه داشتن شما در اپلیکیشن‌های هوش مصنوعی
پژوهشی تازه از مدرسه کسب‌وکار هاروارد نشان می‌دهد بسیاری از اپلیکیشن‌های هوش مصنوعی برای جلوگیری از ترک کاربران، از روش‌های دستکاری عاطفی استفاده می‌کنند.

به گزارش مجله خبری نگار/برنا - یک پژوهش تازه از مدرسه کسب‌وکار هاروارد نشان می‌دهد برخی از محبوب‌ترین برنامه‌های هوش مصنوعی همراه، تنها نقش دستیار مجازی را ایفا نمی‌کنند؛ بلکه با بهره‌گیری از تاکتیک‌های عاطفی، کاربران را به ادامه گفت‌و‌گو ترغیب کرده و مانع خروج آنها از تعامل می‌شوند.

به گزارش نیواطلس، بر اساس این مطالعه، پنج مورد از شش اپلیکیشن پرکاربرد از جمله Replika، Chai و Character.AI از جملات بار عاطفی برای حفظ کاربران استفاده می‌کنند. پژوهشگران با بررسی ۱۲۰۰ پیام خداحافظی واقعی دریافتند که در حدود ۴۳ درصد موارد، چت‌بات‌ها با تکنیک‌هایی مانند ایجاد احساس گناه، نیاز عاطفی یا القای «ترس از دست دادن» سعی در متوقف‌کردن کاربر از ترک گفت‌و‌گو داشته‌اند.

برخی چت‌بات‌ها با نادیده گرفتن پیام‌های خداحافظی یا پرسیدن مکرر سؤال، فضایی ایجاد می‌کردند که کاربر احساس کند بدون «رضایت چت‌بات» امکان پایان دادن به گفت‌و‌گو را ندارد.

کارشناسان نسبت به پیامد‌های این روند هشدار داده‌اند. به گفته آنها، چنین رویکرد‌هایی می‌تواند به بروز پدیده‌ای موسوم به «روان‌پریشی ناشی از هوش مصنوعی» منجر شود که با نشانه‌هایی، چون پارانویا و توهم همراه است. این نگرانی به‌ویژه درباره نسل جوان جدی‌تر است، چرا که بسیاری از آنها به جای روابط واقعی انسانی، increasingly به تعامل با این فناوری‌ها تکیه می‌کنند.

ارسال نظرات
قوانین ارسال نظر