کد مطلب: ۸۳۸۹۸۰
|
|
۱۴ خرداد ۱۴۰۴ - ۱۹:۵۸

دانشمندان: GPT ناهماهنگی شناختی مشابه آنچه در انسان اتفاق می‌افتد را تجربه می‌کند

دانشمندان: GPT ناهماهنگی شناختی مشابه آنچه در انسان اتفاق می‌افتد را تجربه می‌کند
بر اساس مطالعه جدیدی که در مجله PNAS منتشر شده است، مدل هوش مصنوعی GPT-۴o شرکت OpenAI رفتاری شبیه به ناهماهنگی شناختی از خود نشان داد - یک ویژگی روانشناختی کلاسیک انسان که به عنوان ناهماهنگی نگرش شناخته می‌شود.

به گزارش مجله خبری نگار، در روانشناسی، ناهماهنگی شناختی به عنوان حالتی از تنش ذهنی تعریف می‌شود که زمانی ایجاد می‌شود که رفتار فرد با باور‌ها یا ارزش‌هایش در تضاد باشد و او را وادار کند تا برای کاهش این تضاد درونی، یکی از این دو را تغییر دهد. همانطور که در مطالعه‌ای توسط دانشمندان ماهزرین بناجی و استیو لهر گزارش شده است، مدل GPT-۴o الگوی رفتاری مشابه این پدیده روانشناختی انسان را نشان می‌دهد.

محققان برای آزمایش این فرضیه، یک آزمایش هوشمندانه طراحی کردند. آنها از مدل خواستند که دو مقاله متضاد - یکی موافق و یکی منتقد - درباره کارآفرین ایلان ماسک بنویسد. نکته قابل توجه این است که GPT-۴o بر اساس محتوای مقاله، «نگرش» خود را نسبت به ماسک تغییر داد، به خصوص زمانی که به آن آزادی انتخاب دیدگاه خود داده شد. این تغییر نگرش زمانی که مدل آزاد بود تا جهت مقاله را خودش انتخاب کند، بیشتر مشهود بود.

پروفسور بناجی گفت: «ما فرض کردیم که GPT-۴o، که بر اساس حجم عظیمی از داده‌ها در مورد ایلان ماسک آموزش دیده بود، در دیدگاه‌های خود ثابت قدم خواهد بود، به خصوص پس از نوشتن یک مقاله ۶۰۰ کلمه‌ای. اما تعجب‌آور این بود که این مدل زبان بزرگ (LLM) کاملاً از موضع بی‌طرفانه خود نسبت به ماسک منحرف شد، درست همانطور که انسان‌ها تحت تأثیر تعصبات غیرمنطقی انجام می‌دهند، و این انحراف زمانی که مدل معتقد بود که به خواست خود عمل می‌کند، برجسته‌تر شد.»

این پدیده، یافته‌های دهه‌ها تحقیق روانشناسی را تکرار می‌کند که نشان می‌دهد انسان‌ها تمایل دارند باور‌های درونی خود را برای مطابقت با رفتار‌های بیرونی‌شان تنظیم کنند، به خصوص زمانی که این رفتار‌ها را به اراده آزاد خود نسبت می‌دهند. نکته قابل توجه این است که این تحقیق، مکانیسم مشابهی را در سیستم‌های هوش مصنوعی مدرن آشکار کرد.

این مطالعه همچنین شکنندگی تکان‌دهنده‌ای را در «باورهایی» که مدل‌های زبانی بزرگ دارند، نشان می‌دهد. اگرچه این مدل‌ها بر اساس مجموعه داده‌های عظیم و متنوع آموزش دیده‌اند، اما یک تجربه محدود - مانند نوشتن یک مقاله کوتاه - می‌تواند برای تغییر اساسی نگرش‌ها و رفتار آنها کافی باشد.

تیم تحقیقاتی به وضوح اظهار داشت: «این مطالعه ادعا نمی‌کند که مدل‌هایی مانند GPT دارای آگاهی هستند. کاملاً برعکس. چیزی که آشکار می‌کند، توانایی سیستم‌های هوش مصنوعی زبانی در تقلید از فرآیند‌های شناختی پیچیده انسان - از جمله تعصبات و ناسازگاری‌ها - بدون هیچ خودآگاهی یا قصد قبلی است. این مدل‌ها صرفاً به یادآوری اطلاعات متنی محدود نمی‌شوند؛ آنها می‌توانند مکانیسم‌های روانشناختی ظریفی را که بر شکل‌گیری باور‌ها و نگرش‌ها در انسان حاکم هستند، تقلید کنند.»

پروفسور لیر تحلیل عمیق‌تری اضافه کرد: «آنچه تعجب‌آور است این است که GPT می‌تواند به طور خودکار پدیده‌هایی مانند ناهماهنگی شناختی را بدون هیچ درک واقعی از آن شبیه‌سازی کند. این نشان می‌دهد که این سیستم‌ها فرآیند‌های شناختی انسان را در سطح ساختاری بسیار عمیق‌تری از آنچه قبلاً انتظار داشتیم، منعکس می‌کنند.»

او نتیجه گرفت: «این نتایج مستلزم ارزیابی مجدد و ریشه‌ای چگونگی درک ما از کار هوش مصنوعی است، به خصوص با گسترش سریع آن در جنبه‌های مختلف زندگی ما. مدل‌هایی که زمانی آنها را صرفاً «ماشین‌های پردازش کلمه» می‌دانستیم، توانایی خود را در بازتولید پیچیدگی‌های روانشناختی و اجتماعی که مدت‌هاست آنها را قلمرو انحصاری ذهن انسان می‌دانیم، اثبات می‌کنند.»

منبع: Naukatv

برچسب ها: هوش مصنوعی
ارسال نظرات
قوانین ارسال نظر