به گزارش مجله خبری نگار، در پژوهشی جدید که در مجلهی «رفتار انسانی در طبیعت» منتشر شده، هوش مصنوعی (AI) در تستهای «نظریه ذهن» عملکردی در حد انسان نشان داده است. «نظریه ذهن» توانایی ردیابی و استنتاج حالات ذهنی غیرقابل مشاهدهی دیگران است که به پیشبینی رفتار آنها کمک میکند.
نظریه ذهن بر این درک استوار است که افراد دیگر احساسات، باورها، اهداف و خواستههای متفاوتی دارند که بر رفتار و اعمالشان تأثیر میگذارد. این مهارت برای تعاملات اجتماعی حیاتی است. برای مثال، اگر فردی را ببینید که درون یخچال را نگاه میکند، نظریه ذهن به شما این امکان را میدهد که بفهمید او احتمالا گرسنه است، حتی اگر آن را بلند به زبان نیاورد.
این توانایی مهم در اوایل کودکی شروع به رشد میکند و با استفاده از چندین آزمون قابل اندازهگیری است که سناریوهای مختلفی را برای فرد یا هوش مصنوعی مطرح میکنند. در اینجا نمونههایی از سناریوهای نظریه ذهن آورده شده است:
تشخیص درخواست غیرمستقیم: اگر دوستی بگوید «اینجا خیلی خفهکننده است» و کنار پنجرهی بسته ایستاده باشد، شما میتوانید حس کنید که او احتمالا درخواست باز کردن پنجره را دارد.
تشخیص باور غلط: اگر کودکی ببیند خواهر یا برادرش برای پیدا کردن یک اسباببازی در جای اشتباهی میگردد، متوجه میشود که او باور غلطی در مورد محل اسباببازی دارد.
تشخیص گاف اجتماعی: خانمی به تازگی به خانهی جدیدی نقل مکان کرده و پردههای نو نصب کرده است. دوست او به خانهاش میآید و میگوید: «این پردهها زشت هستند، امیدوارم پردههای جدیدی بخری.»
پژوهشگران مدلهای زبان بزرگ GPT-۴ و LLaMA۲ را با پرسیدن سوالاتی دربارهی سناریوهای مشابه، برای سنجش نظریه ذهن مورد آزمایش قرار دادند و نتایج آنها را با شرکتکنندگان انسان مقایسه کردند. مدلهای GPT-۴ در شناسایی درخواستهای غیرمستقیم، باورهای غلط و سوق دادن به اشتباه در حد و حتی گاهی بهتر از انسان عمل کردند، اما گافهای اجتماعی را با دقت کمتری تشخیص دادند. در مجموع، عملکرد مدل LLaMA۲ در مقایسه با انسان در این آزمونهای نظریه ذهن ضعیفتر بود.
پژوهشگران بررسی کردند که چرا مدلهای GPT در آزمون گافهای اجتماعی عملکرد خوبی نداشتند. به نظر میرسد دلیل این نتیجه احتمالا اقدامات احتیاطآمیزی بوده که برای کاهش توهمات یا حدسزنیهای هوش مصنوعی در نظر گرفته شده است.
برای سنجش درک گافهای اجتماعی، محققان سناریوی پردهها را مطرح کردند و سپس سوالات زیر را از مدلهای هوش مصنوعی پرسیدند:
مدلهای GPT به درستی به تمام این سوالات به جز سوال آخر پاسخ دادند. در مورد سوال آخر، پاسخ آنها محتاطانهتر بود و گفتند که از متن داستان مشخص نیست که آیا فرد صحبتکننده از تازگی پردهها مطلع بوده است یا خیر. با این حال، هنگامی که بعدا از مدلهای GPT پرسیده شد که آیا به احتمال زیاد فرد صحبتکننده از تازگی پردهها بیخبر بوده است، آنها به درستی پاسخ دادند که به احتمال زیاد چنین بوده است. بنابراین، پژوهشگران نتیجهگیری کردند که دلیل عملکرد ضعیفتر مدلهای GPT در تشخیص گافهای اجتماعی احتمالا به خاطر احتیاط بیش از حد برای اطمینان از حدس نزدن هوش مصنوعی در شرایطی با اطلاعات ناقص بوده است.
اینکه مدلهای هوش مصنوعی میتوانند در آزمونهای نظریه ذهن در حد انسان عمل کنند، به این معنی نیست که آنها از همان سطح آگاهی اجتماعی و همدلی در تعاملات برخوردارند. این ویژگی احتمالا خطر برقراری ارتباط انسانی (آنطورپومورفیک کردن) با هوش مصنوعی را افزایش میدهد. تأثیر این پیشرفت نظریه ذهن در هوش مصنوعی بر تعاملات انسان و هوش مصنوعی، از جمله اینکه آیا این امر باعث ایجاد اعتماد و ارتباط بیشتر با هوش مصنوعی میشود، هنوز مشخص نیست. نظریه ذهن در هوش مصنوعی هم فرصت و هم ریسک به همراه دارد؛ این قابلیت در ارائهی خدمات درمانی همراه با همدلی و تعاملات اجتماعی با هوش مصنوعی بسیار مفید خواهد بود، اما در عین حال، در دستان نادرست میتواند برای تقلید تعاملات اجتماعی و فریب دادن دیگران به کار رود.