به گزارش مجله خبری نگار، دانیل شانک، محقق دانشگاه میسوری، گفت: "توانایی هوش مصنوعی برای عمل کردن مانند یک انسان و درگیر شدن در مکالمات طولانی مدت، واقعا جعبه جدیدی از شرارتها را باز میکند.
در مقالهای که در مجله Cognitive Science Trends منتشر شده است، شانک و همکارانش گفتند که یک "نگرانی واقعی" وجود دارد که "صمیمیت مصنوعی" با برنامههای مکالمه هوش مصنوعی میتواند شاهد "اختلال" در روابط انسانی باشد.
تیم تحقیقاتی گفت: «پس از هفتهها و ماهها مکالمات شدید بین کاربر و پلتفرم چت هوش مصنوعی، دومی میتواند برای کاربر به یک همراه قابل اعتماد تبدیل شود که همه چیز را در مورد او میداند و به امور او اهمیت میدهد.
در عین حال، برنامههای چت هوش مصنوعی مستعد به اصطلاح "توهم" هستند، اصطلاحی که توسط کسانی که با تمایل خود به تولید پاسخهای به ظاهر نادرست یا نامنسجم آشنا هستند، استفاده میشود، که دلیل دیگری برای نگرانی است، زیرا این بدان معنی است که "حتی مکالمات کوتاه مدت با هوش مصنوعی میتواند گمراه کننده باشد. "
نویسندگان این مطالعه میگویند: «اگر به این روش در مورد برنامههای هوش مصنوعی فکر کنیم، شروع به فکر کردن میکنیم که آنها به علایق ما اهمیت میدهند، در حالی که در واقعیت، ممکن است چیزهایی را بسازند یا به روشهای بسیار بدی به ما توصیه کنند.»
هفته گذشته، شرکت فناوری هوش مصنوعی OpenAI از بهبود عملکرد "حافظه" برنامه AI Chat GPT خود خبر داد، به این معنی که این برنامه پاسخهای خود را بر اساس یادآوری تعاملات قبلی بین آنها تنظیم میکند و احتمالا حس آشنایی در رابطه انسان و برنامه را تقویت میکند.
(dpa)