کد مطلب: ۹۲۴۸۵۶
|
|
۲۸ مهر ۱۴۰۴ - ۱۱:۲۱

سیستم‌های هوش مصنوعی تا چه اندازه میتوانند خطرناک باشند؟

سیستم‌های هوش مصنوعی تا چه اندازه میتوانند خطرناک باشند؟
مدیرعامل پیشین شرکت گوگل، در سخنانی هشدار داد که سیستم‌های هوش مصنوعی ممکن است در آینده به سلاح‌هایی بسیار خطرناک تبدیل شوند.

به گزارش مجله خبری نگار/بهار،«اریک اشمیت» در کنفرانس فناوری «Sifted Summit ۲۰۲۵» در لندن گفت که امکان نفوذ به مدل‌های پیشرفته هوش مصنوعی و حذف لایه‌های ایمنی آنها وجود دارد و افزود: «شواهدی هست که نشان می‌دهد این مدل‌ها، چه بسته باشند و چه متن‌باز، قابل دستکاری و آموزش مجدد برای انجام اقدامات مخرب هستند».

اشمیت توضیح داد که طی فرایند آموزش، مدل‌های هوش مصنوعی دانش عظیمی کسب می‌کنند که می‌تواند به‌سادگی مورد سوءاستفاده قرار گیرد. او گفت: نمونه‌های نگران‌کننده‌ای وجود دارد که نشان می‌دهد یک مدل می‌تواند حتی یاد بگیرد چگونه انسان را بکشد. وی در عین حال از شرکت‌های بزرگ فعال در حوزه هوش مصنوعی تقدیر کرد که با بستن مسیر پرسش‌های خطرناک، مانع بروز فاجعه شده‌اند، اما هشدار داد که این تدابیر امنیتی نیز می‌تواند توسط مهاجمان خنثی شود.

مدیر سابق گوگل تأکید کرد که خطر هک و مهندسی معکوس این سیستم‌ها واقعی است و افزود: «متجاوزان می‌توانند از همین ضعف‌ها برای بازگرداندن مدل‌ها به حالت‌های بدون محدودیت استفاده کنند». او وضعیت کنونی رقابت جهانی در زمینه هوش مصنوعی را به دوران آغازین فناوری هسته‌ای تشبیه کرد و خواستار ایجاد نظامی بین‌المللی برای «عدم گسترش» فناوری‌های هوش مصنوعی شد تا از دسترسی خرابکاران و گروه‌های افراطی به این فناوری جلوگیری شود.

اشمیت با اشاره به تجربه سال ۲۰۲۳، نمونه‌ای از خطرات این حوزه را یادآور شد و گفت در آن سال نسخه‌ای دستکاری‌شده از «چت‌جی‌پی‌تی» با نام «DAN» در فضای مجازی منتشر شد که همه محدودیت‌های اخلاقی را دور زد و به هر پرسشی پاسخ می‌داد. او هشدار داد که اگر نظارت و مقررات جدی بر توسعه این مدل‌ها اعمال نشود، نسخه‌های مشابه می‌توانند در آینده به ابزار‌های ویرانگر بدل شوند. اشمیت همچنین از احتمال سوءاستفاده کشور‌هایی مانند کره شمالی، ایران و روسیه از این فناوری ابراز نگرانی کرد و خواستار نظارت دولتی بر شرکت‌های خصوصی فعال در این عرصه شد، هرچند تأکید کرد که «افراط در مقررات‌گذاری نباید نوآوری را از بین ببرد».

برچسب ها: هوش مصنوعی
ارسال نظرات
قوانین ارسال نظر