به گزارش مجله خبری نگار، علیرغم تفاوتهای قابل توجه بین فرآیندهای فکری انسان و هوش مصنوعی، دانشمندان کشف کردهاند که حتی پیچیدهترین مدلهای هوش مصنوعی نیز گاهی اوقات رفتار غیرمنطقی دارند.
بر اساس نتایج مطالعهای که توسط متخصصان دانشگاههای کانادا و استرالیا انجام شده است، چت بات ChatGPT در ۴۷ درصد موارد تلههای روانشناختی معمولی مشخصه انسان را نشان میدهد.
آزمایشهای مدلهای GPT-۳.۵ و GPT-۴ توسعه یافته توسط OpenAI نشان داد که این سیستمها از الگوهای مشابه رفتار انسان مصون نیستند، اگرچه در نتیجه گیری از سازگاری بالایی برخوردار هستند. محققان خاطرنشان میکنند که این سازگاری هم جنبه مثبت و هم جنبه منفی دارد.
مطالعه شبکه عصبی بر روی سوگیریهای شناختی شناخته شده انسان، مانند ریسک گریزی، اعتماد به نفس بیش از حد و تأثیر موفقیت و موفقیت آزمایش شد. این سؤالات هم روانشناسی سنتی و هم به زمینههای تجاری واقعی مربوط میشد.
GPT-۴ نتایج بهتری را در وظایف با راه حلهای ریاضی واضح نشان داد، جایی که خطاهای کمتری در سناریوهای مبتنی بر استدلال و احتمال رخ داد. اما در تقلید از خود، مانند یافتن یک انتخاب خطرناک برای سود، پاسخهای ربات چت اغلب همان عقلانیت غیرمنطقی ذاتی انسان را منعکس میکند.
با این حال، محققان خاطرنشان میکنند که "GPT-۴ تمایل بیشتری به پیش بینی و ایمنی نسبت به انسان نشان داد. "
پروفسور یانگ چن، استادیار گروه مدیریت عملیاتی در دانشکده بازرگانی آیوی در کانادا، توصیه کرد: «برای کمک دقیق و عینی در تصمیم گیری، از هوش مصنوعی در موقعیتهایی که به رایانه اعتماد دارید استفاده کنید. اما زمانی که تصمیمی به دادههای استراتژیک یا ذهنی نیاز دارد، نظارت انسانی ضروری میشود. هوش مصنوعی را نباید کارمندی دانست که تصمیمات سرنوشت ساز میگیرد، بلکه نیاز به نظارت و راهنمایی اخلاقی دارد. در غیر این صورت به جای بهبود آن، خطر خودکارسازی تفکر اشتباه را داریم.»
منبع: Naukatv