کد مطلب: ۵۵۲۵۷۲
«یان لیکان» دانشمند ارشد متا می‌گوید تروریست‌ها و برخی دولت‌ها قرار نیست با هوش مصنوعی منبع باز جهان را تسخیر کنند.

به گزارش مجله خبری نگار،یان لیکان فکر نمی‌کند جنایتکاران و تروریست‌ها بتوانند از سیستم‌های هوش مصنوعی منبع باز برای اهداف پلید سوء‌استفاده کنند. از سوی دیگر، چنین رویکرد‌هایی به پول و منابع زیادی نیاز دارد و تا حدی به‌راحتی دست‌یافتنی نیست.

سواستفاده از هوش مصنوعی منبع باز به راحتی مقدور نیست
یان لیکان در گزارشی که در ۲۲ دسامبر منتشر شد گفت: «برای چنین کاری، تبهکاران باید به ۲۰۰۰ پردازنده گرافیکی در جایی دسترسی داشته باشند که هیچ‌کس نتواند آن را شناسایی کند. همچنین خلافکاران برای محقق ساختن چنین موضوعی، به پول کافی برای تأمین مسایل مالی و نیرو‌های متخصص به تعداد کافی برای انجام کار نیاز دارند.»

دانشمند ارشد متا می‌گوید کشور‌های ثروتمند نیز احتمالاً نمی‌توانند راهی برای کنترل هوش مصنوعی منبع باز پیدا کنند. متا یکی از حامیان اصلی رویکرد منبع باز در توسعه هوش مصنوعی بوده است. در ماه جولای، متا Llama ۲ را معرفی کرد که یک مدل عمدتاً منبع باز هوش مصنوعی است. سپس، در پنجم دسامبر، این شرکت با IBM با هدف حمایت از نوآوری‌های مربوط به هوش مصنوعی وارد همکاری شد.

یان لیکان به ادعا‌هایی مبنی بر اینکه هوش مصنوعی یک تهدید برای بشریت است، توجه نشان نمی‌دهد و حتی در رویداد مطبوعاتی پاریس به خبرنگاران گفت که چنین اظهاراتی به طرز عجیبی مضحک هستند. او در پاسخ به این سوال که آیا هوش مصنوعی جهان را تسخیر خواهد کرد؟ پاسخ منفی داده و می‌گوید با چنین دیدگاهی نیز موافق نیست.

برچسب ها: هوش مصنوعی
ارسال نظرات
نام:
ایمیل:
* نظر:
قوانین ارسال نظر