کد مطلب: ۸۱۹۸۲۴
|
|

چطور یک ربات قاتل می‌شود؟

چطور یک ربات قاتل می‌شود؟
روبات‌های انسان‌نما در صورت اختلال در یکی از سیستم‌های عملکرد ممکن است تبدیل به قاتل شوند

به گزارش مجله خبری نگار، تصاویر ویدئویی دلهره‌آور روبات انسان‌نمایی که از کنترل خارج شده روز‌های گذشته در حال دست به‌دست شدن است. این روبات چینی به اسم H۱ ساخت شرکت چینی یونی‌تری است که در مراحل آزمایش و نمایش عمومی ناگهان از کنترل خارج شد و با حرکات عجیب شبیه ضربه زدن پرقدرت به سمت اطرافیان هجوم برد، اما خوشبختانه گروه فنی موفق شد زود کنترل آن را در دست بگیرد. به‌گفته یکی از مسئولان این روبات، هنگام آپدیت یک باگ عجیب در سیستم حفظ تعادل پیش آمد و باعث شد از کنترل خارج شود. این اتفاق باعث شد بحث ایمنی روبات‌ها دوباره زنده شود. متخصصان هشدار می‌دهند که رشد سریع هوش مصنوعی نیازمند نظارت دقیق‌تر و طراحی سیستم‌های ایمنی قوی‌تر است.

نمونه‌های مرگبار حمله روبات

مرگ زن عابر در تصادف با خودروی خودران: سال ۲۰۱۸ در آریزونا، یک خودران اوبر با زنی در حال عبور از خیابان تصادف کرد و او را کشت. بررسی‌ها نشان داد که سیستم هوش مصنوعی خودرو، زن را ابتدا یک جسم ناشناس و سپس دوچرخه‌سوار تشخیص داده بود.

بازوی روباتیک حادثه‌ساز: در برخی جراحی‌های انجام‌شده با روبات‌های داوینچی، گزارش‌هایی از برش‌های اشتباهی و پارگی رگ‌ها منتشر شده است. بسیاری از این موارد به خطای کاربر، ناآگاهی از دستورالعمل‌ها یا اختلال نرم‌افزاری نسبت داده شد.

روبات قاتل در حوزه نظامی: در گزارش‌های منتشرشده از جنگ داخلی لیبی (۲۰۲۰)، ادعا شد که پهپاد‌ها و روبات‌های ساخت ترکیه به‌صورت خودمختار اهداف انسانی را دنبال و به آنها حمله کرده‌اند. گرچه جزئیات دقیق هنوز در پرده ابهام است، اما اگر این ادعا صحیح باشد، این نخستین نمونه ثبت‌شده از حمله کشنده کاملاً خودکار یک روبات به انسان بدون فرمان انسانی در لحظه اجرا خواهد بود.

خطا‌های انسانی

روبات‌ها ابزار‌هایی هستند که براساس دستورالعمل‌های انسانی کار می‌کنند. این دستورالعمل‌ها می‌توانند به شکل الگوریتم‌های پیچیده، داده‌های آموزشی برای هوش مصنوعی یا حتی دستورات مستقیم انسانی باشند، اما همانگونه که در صنعت هوانوردی یا پزشکی دیده‌ایم خطای انسانی نه‌تنها رایج، بلکه اجتناب‌ناپذیر است، اما در حوزه روبات‌ها نتیجه یک اشتباه می‌تواند بدون هشدار اجرا شود و پیامد‌هایی فوری و خطرناک به‌دنبال داشته باشد.

چرا خطا در روبات‌ها خطرناک‌تر است؟

یک الگوریتم اشتباه ممکن است در میلی‌ثانیه تصمیمی بگیرد که حتی یک انسان فرصت نداشته باشد آن را بازبینی یا متوقف کند.

انسان‌ها، به‌ویژه در مواجهه با سیستم‌هایی که ظاهر هوشمند دارند، دچار خطای شناختی اعتماد می‌شوند و تصور می‌کنند ماشین همیشه درست عمل می‌کند درحالی‌که آن ماشین فقط به درستی یا نادرستی دستورالعمل‌های انسانی وفادار است.

بسیاری از مدل‌های یادگیری ماشین، مانند شبکه‌های عصبی عمیق، ذاتا غیربازگشت‌پذیر یا غیرقابل توضیح هستند. این یعنی حتی طراحان نیز نمی‌دانند دقیقاً چرا یک روبات تصمیم خاصی را اتخاذ کرده است و همین امر مانع از اصلاح دقیق خطا می‌شود.

راه‌حل چیست؟

استفاده از روبات‌ها، به‌ویژه در حوزه‌های حساس مانند پزشکی یا نظامی، نباید بدون آموزش سختگیرانه و صدور گواهی صلاحیت فنی باشد. همچنین هر روبات باید دارای لایه‌هایی از نظارت انسانی، سیستم‌های هشدار و مکانیسم‌های توقف فوری باشد که درصورت تشخیص عملکرد غیرطبیعی جلوی اجرا را بگیرد. از سوی دیگر همانطور که برای استفاده از سلاح‌های شیمیایی قوانین جهانی وجود دارد، نیاز فوری به چارچوب‌های قانونی برای روبات‌ها احساس می‌شود.

منبع: همشهری

ارسال نظرات
قوانین ارسال نظر