به گزارش مجله خبری نگار/ایمنا، در میانه قرنی که همه چیز با شتابی غیرقابل تصور تغییر میکند، مرز میان علم و جنگ، میان فناوری و امنیت، بهطرز خطرناکی محو شده است، میدانهای نبرد دیگر شبیه آن چیزی نیستند که از تصاویر تاریخ به یاد میآوریم، امروز نبرد در لایههای نامرئی دادهها و سیگنالها جریان دارد، جایی که سرعت پردازش اطلاعات تعیین میکند کدام فرمانده زودتر تصمیم بگیرد و کدام کشور برتری راهبردی را از آن خود سازد.
بیشتر مطالعه کنید
پشت درهای بستهی اتاقهای فرماندهی، نمایشگرهایی روشن است که حجم عظیمی از دادههای لحظهای را نمایش میدهد. هزاران سیگنال، تماس، موقعیت مکانی و تصویر، همگی بهصورت پیوسته در جریاناند و سرنوشت انسانها را رقم میزنند. در چنین فضایی دیگر تصمیمگیری به دست ژنرالهای باتجربه نیست؛ الگوریتمهایی خاموش، اما قدرتمند، آرام و بیوقفه در حال سنجش، مقایسه و پیشبینیاند.
وقتی صحبت از فناوریهای نوین به میان میآید، ذهن بسیاری به ابزارهای تجاری، گوشیهای هوشمند یا دستیارهای مجازی میرود، اما واقعیت آن است که همان کُدهایی که برای سادهتر کردن زندگی روزمره نوشته میشوند، در کسری از ثانیه میتوانند در خدمت ارتشها قرار گیرند و معنای تازهای به جنگ بدهند. نبردهای آینده بیش از آنکه به حجم آتش یا تعداد نیروها وابسته باشند، به توانایی در «دیدن زودتر»، «تحلیل سریعتر» و «اقدام هوشمندانهتر» متکی خواهند بود.
با این حال، پشت این ظواهر فناورانه پرسشهایی سنگین و هراسآور پنهان است: چه کسی مسئول تصمیمی خواهد بود که جان هزاران نفر را در یک لحظه تغییر میدهد؟ آیا میتوان اعتماد کرد که ماشینها بدون خطا و بدون سوگیری عمل کنند؟ و اگر این روند ادامه پیدا کند، آیا جهان در آستانه رقابتی تازه قرار نمیگیرد؛ رقابتی که شباهتی عجیب به سایههای جنگ سرد دارد، اما این بار با سلاحهایی نامرئی و هوشمند؟
امروز دیگر روشن است که فناوری نهتنها ابزار توسعه، بلکه ابزار بازدارندگی و بقا در عرصه جهانی شده است. آنچه زمانی رؤیای رمانهای علمیتخیلی بود، اکنون در هیئت برنامههای رسمی دفاعی و قراردادهای میلیاردی ظاهر شده است، و درست همینجا در مرز میان واقعیت و آینده، پرسشی اساسی سر برمیآورد: آیا انسان میتواند همچنان بر تصمیمات حیاتی کنترل داشته باشد، یا بهزودی باید فرمان را به دست سامانههایی بسپارد که نه احساس دارند و نه پشیمانی میشناسند؟
ورود هوش مصنوعی به ارتش آمریکا
زینب اصغریان، استاد دانشگاه و کارشناس مسائل بینالملل در گفتوگو با خبرنگار ایمنا اظهار کرد: پنتاگون در سال ۲۰۲۳ بیش از ۹۵ درصد بودجه دولتی هوش مصنوعی را دریافت کرده است، این تمرکز مالی نشان میدهد که آمریکا در حال رقابت راهبردی جدی با چین در حوزه تسلیحات هوشمند است. گزارش کمیسیون ملی امنیت و هوش مصنوعی آمریکا نیز در سال ۲۰۲۱ تأکید میکند که تسلط بر فناوریهای نوین، عنصر کلیدی پیروزی در این رقابت محسوب میشود.
نقش شرکتهای خصوصی در پروژههای نظامی
وی افزود: همکاری پنتاگون با شرکتهای خصوصی ابعاد تازهای پیدا کرده است، بهعنوان نمونه شرکت OpenAI با قرارداد ۲۰۰ میلیون دلاری در قالب برنامه «OpenAI برای حکومت» نسخههای سفارشیشده مدلهای خود را برای تحلیل دادههای طبقهبندیشده و پشتیبانی تصمیمگیری فرماندهان توسعه میدهد. در سوی دیگر شرکت xAI به رهبری ایلان ماسک با مدل «Grok برای حکومت» قرارداد مشابهی را منعقد کرده و ابزارهای تحلیلی آن در حوزه حسگرها و جنگ الکترونیک بهکار گرفته میشوند.
این استاد دانشگاه گفت: ورود بازیگران تجاری به عرصه امنیت ملی، مفهوم «خصوصیسازی جنگ» را تقویت کرده و خطر تضاد منافع میان سود اقتصادی و اصول انسانی را افزایش داده است. بنیاد New America در این زمینه هشدار میدهد که چنین روندی میتواند دموکراسی و نظارت مدنی را تضعیف کند.
چارچوبهای نظارتی و محدودیتهای اخلاقی
اصغریان توضیح داد: وزارت دفاع آمریکا در سال ۲۰۱۸ اصول اخلاقی استفاده از AI نظامی را تصویب کرد، این اصول شامل مسئولیتپذیری، قابلیت درک عملکرد، انصاف و جلوگیری از آسیب غیرضروری است.
وی افزود: با وجود این چارچوبها، در عمل ابزارهای جدید با چالشهای اخلاقی جدی روبهرو هستند. دیدهبان حقوق بشر تأکید میکند که حذف یا کاهش نقش انسانی در تصمیمگیریهای مرگبار، مغایر با حقوق بشردوستانه است.
شباهت پروژههای آمریکا و رژیم صهیونیستی
این استاد دانشگاه به شباهت میان پروژههای پنتاگون و سامانههای رژیمصهیونیستی اشاره کرد و بیان کرد: ارتش این رژیمصهیونیستی در حملات اخیر به غزه از سیستمهایی به نام Lavender و Gospel برای شناسایی و انهدام اهداف استفاده کرده است. روزنامه لوموند گزارش داده که Lavender با تحلیل تماسها و شبکههای اجتماعی، فهرستی از ۳۷ هزار مرد فلسطینی را بدون راستیآزمایی انسانی بهعنوان مظنون تولید کرده است. Gospel نیز با رهگیری تصویری، فرماندهان مقاومت را در منازل هدف قرار میداد.
وی افزود: مقایسه تطبیقی نشان میدهد که این سامانهها و مدلهای آمریکایی در چند محور مشترک هستند؛ تحلیل دادههای انبوه غیرساختاریافته، تصمیمسازی خودکار بدون مداخله انسانی عمیق، و تولید انبوه اهداف ضربتی در مقیاس بزرگ. مؤسسه RAND در آمریکا نیز هشدار داده است که کاهش نقش انسان در تصمیمگیری میتواند پیامدهای غیرقابل جبرانی به همراه داشته باشد.
پیامدهای راهبردی برای ایران
این استاد دانشگاه اضافه کرد: با توجه به تحولات پرشتاب جهانی، ایران باید دکترین دفاعی خود را بازنگری کند، محور نخست این بازنگری توسعه سامانههای بومی پردازش اطلاعات پهپادی است، محور دوم طراحی مدلهای زبانی فارسی ویژه امنیت ملی برای تحلیل اسناد طبقهبندیشده خواهد بود و محور سوم ایجاد ساختار ترکیبی انسانماشین برای تسریع در تصمیمگیریهای بحرانی است.
اصغریان گفت: سرعت بیسابقه توسعه سلاحهای بر پایه AI توسط آمریکا، چین و روسیه نشاندهنده آغاز یک رقابت فناورانه شبیه جنگ سرد است. نبود چارچوبهای الزامآور بینالمللی، خطر تشدید بحرانهای امنیتی را افزایش میدهد. در این شرایط، ایران باید علاوهبر ارتقای ظرفیتهای فناورانه، رویکرد اخلاقی و انسانی خود را در عرصه دفاعی حفظ کند.
ورود هوش مصنوعی به ساختار نظامی قدرتهای بزرگ، نهتنها قواعد جنگ را دگرگون کرده بلکه نظم جهانی را نیز با چالشهای اخلاقی و حقوقی روبهرو ساخته است. بیتوجهی به این تحولات میتواند عقبماندگی راهبردی به همراه داشته باشد، در حالی که سازگاری هوشمندانه با نظم فناورانه جدید، شرط بقا و بازدارندگی در قرن بیستویکم خواهد بود.