به گزارش مجله خبری نگار/بهار،«اریک اشمیت» در کنفرانس فناوری «Sifted Summit ۲۰۲۵» در لندن گفت که امکان نفوذ به مدلهای پیشرفته هوش مصنوعی و حذف لایههای ایمنی آنها وجود دارد و افزود: «شواهدی هست که نشان میدهد این مدلها، چه بسته باشند و چه متنباز، قابل دستکاری و آموزش مجدد برای انجام اقدامات مخرب هستند».
اشمیت توضیح داد که طی فرایند آموزش، مدلهای هوش مصنوعی دانش عظیمی کسب میکنند که میتواند بهسادگی مورد سوءاستفاده قرار گیرد. او گفت: نمونههای نگرانکنندهای وجود دارد که نشان میدهد یک مدل میتواند حتی یاد بگیرد چگونه انسان را بکشد. وی در عین حال از شرکتهای بزرگ فعال در حوزه هوش مصنوعی تقدیر کرد که با بستن مسیر پرسشهای خطرناک، مانع بروز فاجعه شدهاند، اما هشدار داد که این تدابیر امنیتی نیز میتواند توسط مهاجمان خنثی شود.
مدیر سابق گوگل تأکید کرد که خطر هک و مهندسی معکوس این سیستمها واقعی است و افزود: «متجاوزان میتوانند از همین ضعفها برای بازگرداندن مدلها به حالتهای بدون محدودیت استفاده کنند». او وضعیت کنونی رقابت جهانی در زمینه هوش مصنوعی را به دوران آغازین فناوری هستهای تشبیه کرد و خواستار ایجاد نظامی بینالمللی برای «عدم گسترش» فناوریهای هوش مصنوعی شد تا از دسترسی خرابکاران و گروههای افراطی به این فناوری جلوگیری شود.
اشمیت با اشاره به تجربه سال ۲۰۲۳، نمونهای از خطرات این حوزه را یادآور شد و گفت در آن سال نسخهای دستکاریشده از «چتجیپیتی» با نام «DAN» در فضای مجازی منتشر شد که همه محدودیتهای اخلاقی را دور زد و به هر پرسشی پاسخ میداد. او هشدار داد که اگر نظارت و مقررات جدی بر توسعه این مدلها اعمال نشود، نسخههای مشابه میتوانند در آینده به ابزارهای ویرانگر بدل شوند. اشمیت همچنین از احتمال سوءاستفاده کشورهایی مانند کره شمالی، ایران و روسیه از این فناوری ابراز نگرانی کرد و خواستار نظارت دولتی بر شرکتهای خصوصی فعال در این عرصه شد، هرچند تأکید کرد که «افراط در مقرراتگذاری نباید نوآوری را از بین ببرد».