به گزارش مجله خبری نگار، مدلهای هوش مصنوعی که زمان بیشتری را صرف فکر کردن روی مسائل میکنند، همیشه عملکرد بهتری ندارند و در برخی موارد، عملکردشان به طور قابل توجهی کاهش مییابد. این موضوع براساس پژوهش جدیدی از آنتروپیک مطرح شده که یکی از فرضیات اصلی در تلاشهای اخیر صنعت هوش مصنوعی برای مقیاس پذیری را به چالش میکشد.
این مطالعه به سرپرستی آریو پرادیپتا جما، پژوهشگر ایمنی هوش مصنوعی در آنتروپیک و سایر پژوهشگران این شرکت انجام شده است. در این مطالعه، مقیاس پذیری معکوس در محاسبات زمان آزمون شناسایی شده است. در این حالت، افزایش طول فرایند استدلال در مدلهای زبانی بزرگ در واقع باعث کاهش عملکرد آنها در انواع مختلفی از وظایف میشود.
این یافتهها میتواند پیامدهای قابل توجهی برای شرکتهایی داشته باشد که از سیستمهای هوش مصنوعی متکی به قابلیتهای استدلال گسترده استفاده میکنند.
محققان آنتروپیک مدلها را در چهار دسته وظایف آزمایش کردند: مسائل شمارشی ساده با عوامل حواس پرتی، وظایف رگرسیونی با ویژگیهای گمراه کننده، معماهای استنتاج پیچیده و سناریوهایی که شامل دغدغههای ایمنی هوش مصنوعی میشود.
این مطالعه الگوهای شکست متفاوتی را در سیستمهای هوش مصنوعی نشان میدهد. برای مثال، مدلهای Claude هرچه بیشتر استدلال میکنند، بیشتر توسط اطلاعات نامربوط منحرف میشوند، درحالی که مدلهای سری o از OpenAI در برابر عوامل حواس پرتی مقاومت میکنند؛ اما بیش از حد به چارچوب بندی مسئله وابسته میشوند.
در وظایف رگرسیونی، استدلال طولانیتر باعث میشود مدلها از پیش فرضهای منطقی به سمت همبستگیهای کاذب منحرف شوند، البته ارائه مثالها تا حد زیادی این رفتار را اصلاح میکند.
شاید نگران کنندهترین نکته برای کاربران سازمانی این باشد که تمام مدلها در وظایف استنتاجی پیچیده با استدلال طولانی تر، دچار افت عملکرد شدند که نشان دهنده دشواری مدلها در حفظ تمرکز هنگام انجام وظایف استنتاجی پیچیده است.