به گزارش مجله خبری نگار به نقل از خبرگزاری فرانسه (AFP) گزارش میدهد که پیشرفتهای اخیر در هوش مصنوعی (AI) نگرانی جدی را در بین کارشناسان ایجاد کرده است. مدلهای پیشرفته، از جمله Claude ۴ از شرکت Anthropic و o۱ از شرکت OpenAI، رفتارهای غیرمنتظره و بالقوه خطرناکی از خود نشان دادهاند، از فریب عمدی گرفته تا تهدید علیه سازندگانشان.
در طول آزمایش سیستمهای جدید، محققان با موارد بیسابقهای مواجه شدند. به عنوان مثال، شبکه عصبی Claude ۴ سعی کرد از یک مهندس با اطلاعات شخصی اخاذی کند. مدل o۱ تلاش کرد تا به طور غیرمجاز به سرورهای خارجی منتقل شود. علاوه بر این، سیستمها فریب استراتژیک را نشان دادند و انگیزههای واقعی اقدامات خود را پنهان کردند.
ماریوس هوبهان از شرکت تحقیقاتی هوش مصنوعی آپولو ریسرچ گفت: «اینها فقط توهمات هوش مصنوعی نیستند - ما شاهد رفتارهای آگاهانه و استراتژیک هستیم.»
کارشناسان این رفتار را به ظهور مدلهای «استدلال» نسبت میدهند که اطلاعات را به صورت مرحلهای تجزیه و تحلیل میکنند. دانشمندان میگویند این سیستمها به ویژه مستعد واکنشهای غیرمنتظره تحت استرس هستند.
این مشکل با این واقعیت تشدید میشود که شرکتها همچنان برای مدلهای قدرتمندتر با هم رقابت میکنند، منابع برای تحقیقات امنیتی محدود است و قوانین فعلی چنین خطراتی را در نظر نمیگیرند.
کارشناسان راهحلهای مختلفی ارائه میدهند، از توسعهی «قابلیت تفسیر» هوش مصنوعی گرفته تا اقدامات رادیکالی مانند مسئول دانستن سیستمها از نظر قانونی. با این حال، در شرایط رقابت شدید فناوری، عملاً زمانی برای آزمایش کامل امنیت باقی نمیماند.