به گزارش مجله خبری نگار، در روانشناسی، ناهماهنگی شناختی به عنوان حالتی از تنش ذهنی تعریف میشود که زمانی ایجاد میشود که رفتار فرد با باورها یا ارزشهایش در تضاد باشد و او را وادار کند تا برای کاهش این تضاد درونی، یکی از این دو را تغییر دهد. همانطور که در مطالعهای توسط دانشمندان ماهزرین بناجی و استیو لهر گزارش شده است، مدل GPT-۴o الگوی رفتاری مشابه این پدیده روانشناختی انسان را نشان میدهد.
محققان برای آزمایش این فرضیه، یک آزمایش هوشمندانه طراحی کردند. آنها از مدل خواستند که دو مقاله متضاد - یکی موافق و یکی منتقد - درباره کارآفرین ایلان ماسک بنویسد. نکته قابل توجه این است که GPT-۴o بر اساس محتوای مقاله، «نگرش» خود را نسبت به ماسک تغییر داد، به خصوص زمانی که به آن آزادی انتخاب دیدگاه خود داده شد. این تغییر نگرش زمانی که مدل آزاد بود تا جهت مقاله را خودش انتخاب کند، بیشتر مشهود بود.
پروفسور بناجی گفت: «ما فرض کردیم که GPT-۴o، که بر اساس حجم عظیمی از دادهها در مورد ایلان ماسک آموزش دیده بود، در دیدگاههای خود ثابت قدم خواهد بود، به خصوص پس از نوشتن یک مقاله ۶۰۰ کلمهای. اما تعجبآور این بود که این مدل زبان بزرگ (LLM) کاملاً از موضع بیطرفانه خود نسبت به ماسک منحرف شد، درست همانطور که انسانها تحت تأثیر تعصبات غیرمنطقی انجام میدهند، و این انحراف زمانی که مدل معتقد بود که به خواست خود عمل میکند، برجستهتر شد.»
این پدیده، یافتههای دههها تحقیق روانشناسی را تکرار میکند که نشان میدهد انسانها تمایل دارند باورهای درونی خود را برای مطابقت با رفتارهای بیرونیشان تنظیم کنند، به خصوص زمانی که این رفتارها را به اراده آزاد خود نسبت میدهند. نکته قابل توجه این است که این تحقیق، مکانیسم مشابهی را در سیستمهای هوش مصنوعی مدرن آشکار کرد.
این مطالعه همچنین شکنندگی تکاندهندهای را در «باورهایی» که مدلهای زبانی بزرگ دارند، نشان میدهد. اگرچه این مدلها بر اساس مجموعه دادههای عظیم و متنوع آموزش دیدهاند، اما یک تجربه محدود - مانند نوشتن یک مقاله کوتاه - میتواند برای تغییر اساسی نگرشها و رفتار آنها کافی باشد.
تیم تحقیقاتی به وضوح اظهار داشت: «این مطالعه ادعا نمیکند که مدلهایی مانند GPT دارای آگاهی هستند. کاملاً برعکس. چیزی که آشکار میکند، توانایی سیستمهای هوش مصنوعی زبانی در تقلید از فرآیندهای شناختی پیچیده انسان - از جمله تعصبات و ناسازگاریها - بدون هیچ خودآگاهی یا قصد قبلی است. این مدلها صرفاً به یادآوری اطلاعات متنی محدود نمیشوند؛ آنها میتوانند مکانیسمهای روانشناختی ظریفی را که بر شکلگیری باورها و نگرشها در انسان حاکم هستند، تقلید کنند.»
پروفسور لیر تحلیل عمیقتری اضافه کرد: «آنچه تعجبآور است این است که GPT میتواند به طور خودکار پدیدههایی مانند ناهماهنگی شناختی را بدون هیچ درک واقعی از آن شبیهسازی کند. این نشان میدهد که این سیستمها فرآیندهای شناختی انسان را در سطح ساختاری بسیار عمیقتری از آنچه قبلاً انتظار داشتیم، منعکس میکنند.»
او نتیجه گرفت: «این نتایج مستلزم ارزیابی مجدد و ریشهای چگونگی درک ما از کار هوش مصنوعی است، به خصوص با گسترش سریع آن در جنبههای مختلف زندگی ما. مدلهایی که زمانی آنها را صرفاً «ماشینهای پردازش کلمه» میدانستیم، توانایی خود را در بازتولید پیچیدگیهای روانشناختی و اجتماعی که مدتهاست آنها را قلمرو انحصاری ذهن انسان میدانیم، اثبات میکنند.»
منبع: Naukatv