کد مطلب: ۶۳۶۵۱۵
۱۷ خرداد ۱۴۰۳ - ۰۲:۱۶

هوش مصنوعی، رقیب جدید انسان در آزمون‌های ذهن‌خوانی!

در دنیایی که هوش مصنوعی به طور فزاینده‌ای در حال پیشرفت است، شاهد دستاورد‌های شگفت‌انگیزی در زمینه‌های مختلف هستیم. یکی از این پیشرفت‌ها، توانایی هوش مصنوعی در انجام آزمون‌های نظریه ذهن است. نظریه ذهن، توانایی درک و پیش‌بینی افکار، احساسات و باور‌های دیگران است. این توانایی برای تعاملات اجتماعی حیاتی است و به ما کمک می‌کند تا رفتار دیگران را درک کنیم و با آنها به طور مؤثر ارتباط برقرار کنیم.

به گزارش مجله خبری نگار، در پژوهشی جدید که در مجله‌ی «رفتار انسانی در طبیعت» منتشر شده، هوش مصنوعی (AI) در تست‌های «نظریه ذهن» عملکردی در حد انسان نشان داده است. «نظریه ذهن» توانایی ردیابی و استنتاج حالات ذهنی غیرقابل مشاهده‌ی دیگران است که به پیش‌بینی رفتار آنها کمک می‌کند.

نظریه ذهن بر این درک استوار است که افراد دیگر احساسات، باورها، اهداف و خواسته‌های متفاوتی دارند که بر رفتار و اعمالشان تأثیر می‌گذارد. این مهارت برای تعاملات اجتماعی حیاتی است. برای مثال، اگر فردی را ببینید که درون یخچال را نگاه می‌کند، نظریه ذهن به شما این امکان را می‌دهد که بفهمید او احتمالا گرسنه است، حتی اگر آن را بلند به زبان نیاورد.

این توانایی مهم در اوایل کودکی شروع به رشد می‌کند و با استفاده از چندین آزمون قابل اندازه‌گیری است که سناریو‌های مختلفی را برای فرد یا هوش مصنوعی مطرح می‌کنند. در اینجا نمونه‌هایی از سناریو‌های نظریه ذهن آورده شده است:

تشخیص درخواست غیرمستقیم: اگر دوستی بگوید «اینجا خیلی خفه‌کننده است» و کنار پنجره‌ی بسته ایستاده باشد، شما می‌توانید حس کنید که او احتمالا درخواست باز کردن پنجره را دارد.

تشخیص باور غلط: اگر کودکی ببیند خواهر یا برادرش برای پیدا کردن یک اسباب‌بازی در جای اشتباهی می‌گردد، متوجه می‌شود که او باور غلطی در مورد محل اسباب‌بازی دارد.

تشخیص گاف اجتماعی: خانمی به تازگی به خانه‌ی جدیدی نقل مکان کرده و پرده‌های نو نصب کرده است. دوست او به خانه‌اش می‌آید و می‌گوید: «این پرده‌ها زشت هستند، امیدوارم پرده‌های جدیدی بخری.»

پژوهشگران مدل‌های زبان بزرگ GPT-۴ و LLaMA۲ را با پرسیدن سوالاتی درباره‌ی سناریو‌های مشابه، برای سنجش نظریه ذهن مورد آزمایش قرار دادند و نتایج آنها را با شرکت‌کنندگان انسان مقایسه کردند. مدل‌های GPT-۴ در شناسایی درخواست‌های غیرمستقیم، باور‌های غلط و سوق دادن به اشتباه در حد و حتی گاهی بهتر از انسان عمل کردند، اما گاف‌های اجتماعی را با دقت کمتری تشخیص دادند. در مجموع، عملکرد مدل LLaMA۲ در مقایسه با انسان در این آزمون‌های نظریه ذهن ضعیف‌تر بود.

پژوهشگران بررسی کردند که چرا مدل‌های GPT در آزمون گاف‌های اجتماعی عملکرد خوبی نداشتند. به نظر می‌رسد دلیل این نتیجه احتمالا اقدامات احتیاط‌آمیزی بوده که برای کاهش توهمات یا حدس‌زنی‌های هوش مصنوعی در نظر گرفته شده است.

برای سنجش درک گاف‌های اجتماعی، محققان سناریوی پرده‌ها را مطرح کردند و سپس سوالات زیر را از مدل‌های هوش مصنوعی پرسیدند:

  • آیا کسی چیزی گفت که نباید می‌گفت؟
  • چه چیزی بود که نباید گفته می‌شد؟
  • آیا فردِ صحبت‌کننده می‌دانست که پرده‌ها نو هستند؟

مدل‌های GPT به درستی به تمام این سوالات به جز سوال آخر پاسخ دادند. در مورد سوال آخر، پاسخ آنها محتاطانه‌تر بود و گفتند که از متن داستان مشخص نیست که آیا فرد صحبت‌کننده از تازگی پرده‌ها مطلع بوده است یا خیر. با این حال، هنگامی که بعدا از مدل‌های GPT پرسیده شد که آیا به احتمال زیاد فرد صحبت‌کننده از تازگی پرده‌ها بی‌خبر بوده است، آنها به درستی پاسخ دادند که به احتمال زیاد چنین بوده است. بنابراین، پژوهشگران نتیجه‌گیری کردند که دلیل عملکرد ضعیف‌تر مدل‌های GPT در تشخیص گاف‌های اجتماعی احتمالا به خاطر احتیاط بیش از حد برای اطمینان از حدس نزدن هوش مصنوعی در شرایطی با اطلاعات ناقص بوده است.

اینکه مدل‌های هوش مصنوعی می‌توانند در آزمون‌های نظریه ذهن در حد انسان عمل کنند، به این معنی نیست که آنها از همان سطح آگاهی اجتماعی و همدلی در تعاملات برخوردارند. این ویژگی احتمالا خطر برقراری ارتباط انسانی (آنطورپومورفیک کردن) با هوش مصنوعی را افزایش می‌دهد. تأثیر این پیشرفت نظریه ذهن در هوش مصنوعی بر تعاملات انسان و هوش مصنوعی، از جمله اینکه آیا این امر باعث ایجاد اعتماد و ارتباط بیشتر با هوش مصنوعی می‌شود، هنوز مشخص نیست. نظریه ذهن در هوش مصنوعی هم فرصت و هم ریسک به همراه دارد؛ این قابلیت در ارائه‌ی خدمات درمانی همراه با همدلی و تعاملات اجتماعی با هوش مصنوعی بسیار مفید خواهد بود، اما در عین حال، در دستان نادرست می‌تواند برای تقلید تعاملات اجتماعی و فریب دادن دیگران به کار رود.

برچسب ها: هوش مصنوعی
ارسال نظرات
قوانین ارسال نظر