کد مطلب: ۸۹۷۸۰۹
|
|
۱۴ شهريور ۱۴۰۴ - ۱۳:۰۶

با پیشرفت فناوری جایگاه انسان چه تغییری میکند؟

با پیشرفت فناوری جایگاه انسان چه تغییری میکند؟
جهان در آستانه عصری تازه قرار دارد؛ جایی که سرعت پردازش داده‌ها و تحلیل هوشمندانه، جایگزین فرماندهان انسانی می‌شود و میدان‌های جنگ به سکوت الگوریتم‌ها سپرده شده است، آیا انسان هنوز نقش اصلی را حفظ خواهد کرد؟

به گزارش مجله خبری نگار/ایمنا، در میانه قرنی که همه چیز با شتابی غیرقابل تصور تغییر می‌کند، مرز میان علم و جنگ، میان فناوری و امنیت، به‌طرز خطرناکی محو شده است، میدان‌های نبرد دیگر شبیه آن چیزی نیستند که از تصاویر تاریخ به یاد می‌آوریم، امروز نبرد در لایه‌های نامرئی داده‌ها و سیگنال‌ها جریان دارد، جایی که سرعت پردازش اطلاعات تعیین می‌کند کدام فرمانده زودتر تصمیم بگیرد و کدام کشور برتری راهبردی را از آن خود سازد.

بیشتر مطالعه کنید

پشت در‌های بسته‌ی اتاق‌های فرماندهی، نمایشگر‌هایی روشن است که حجم عظیمی از داده‌های لحظه‌ای را نمایش می‌دهد. هزاران سیگنال، تماس، موقعیت مکانی و تصویر، همگی به‌صورت پیوسته در جریان‌اند و سرنوشت انسان‌ها را رقم می‌زنند. در چنین فضایی دیگر تصمیم‌گیری به دست ژنرال‌های باتجربه نیست؛ الگوریتم‌هایی خاموش، اما قدرتمند، آرام و بی‌وقفه در حال سنجش، مقایسه و پیش‌بینی‌اند.

وقتی صحبت از فناوری‌های نوین به میان می‌آید، ذهن بسیاری به ابزار‌های تجاری، گوشی‌های هوشمند یا دستیار‌های مجازی می‌رود، اما واقعیت آن است که همان کُدهایی که برای ساده‌تر کردن زندگی روزمره نوشته می‌شوند، در کسری از ثانیه می‌توانند در خدمت ارتش‌ها قرار گیرند و معنای تازه‌ای به جنگ بدهند. نبرد‌های آینده بیش از آن‌که به حجم آتش یا تعداد نیرو‌ها وابسته باشند، به توانایی در «دیدن زودتر»، «تحلیل سریع‌تر» و «اقدام هوشمندانه‌تر» متکی خواهند بود.

با این حال، پشت این ظواهر فناورانه پرسش‌هایی سنگین و هراس‌آور پنهان است: چه کسی مسئول تصمیمی خواهد بود که جان هزاران نفر را در یک لحظه تغییر می‌دهد؟ آیا می‌توان اعتماد کرد که ماشین‌ها بدون خطا و بدون سوگیری عمل کنند؟ و اگر این روند ادامه پیدا کند، آیا جهان در آستانه رقابتی تازه قرار نمی‌گیرد؛ رقابتی که شباهتی عجیب به سایه‌های جنگ سرد دارد، اما این بار با سلاح‌هایی نامرئی و هوشمند؟

امروز دیگر روشن است که فناوری نه‌تنها ابزار توسعه، بلکه ابزار بازدارندگی و بقا در عرصه جهانی شده است. آنچه زمانی رؤیای رمان‌های علمی‌تخیلی بود، اکنون در هیئت برنامه‌های رسمی دفاعی و قرارداد‌های میلیاردی ظاهر شده است، و درست همین‌جا در مرز میان واقعیت و آینده، پرسشی اساسی سر برمی‌آورد: آیا انسان می‌تواند همچنان بر تصمیمات حیاتی کنترل داشته باشد، یا به‌زودی باید فرمان را به دست سامانه‌هایی بسپارد که نه احساس دارند و نه پشیمانی می‌شناسند؟

ورود هوش مصنوعی به ارتش آمریکا

زینب اصغریان، استاد دانشگاه و کارشناس مسائل بین‌الملل در گفت‌و‌گو با خبرنگار ایمنا اظهار کرد: پنتاگون در سال ۲۰۲۳ بیش از ۹۵ درصد بودجه دولتی هوش مصنوعی را دریافت کرده است، این تمرکز مالی نشان می‌دهد که آمریکا در حال رقابت راهبردی جدی با چین در حوزه تسلیحات هوشمند است. گزارش کمیسیون ملی امنیت و هوش مصنوعی آمریکا نیز در سال ۲۰۲۱ تأکید می‌کند که تسلط بر فناوری‌های نوین، عنصر کلیدی پیروزی در این رقابت محسوب می‌شود.

نقش شرکت‌های خصوصی در پروژه‌های نظامی

وی افزود: همکاری پنتاگون با شرکت‌های خصوصی ابعاد تازه‌ای پیدا کرده است، به‌عنوان نمونه شرکت OpenAI با قرارداد ۲۰۰ میلیون دلاری در قالب برنامه «OpenAI برای حکومت» نسخه‌های سفارشی‌شده مدل‌های خود را برای تحلیل داده‌های طبقه‌بندی‌شده و پشتیبانی تصمیم‌گیری فرماندهان توسعه می‌دهد. در سوی دیگر شرکت xAI به رهبری ایلان ماسک با مدل «Grok برای حکومت» قرارداد مشابهی را منعقد کرده و ابزار‌های تحلیلی آن در حوزه حسگر‌ها و جنگ الکترونیک به‌کار گرفته می‌شوند.

این استاد دانشگاه گفت: ورود بازیگران تجاری به عرصه امنیت ملی، مفهوم «خصوصی‌سازی جنگ» را تقویت کرده و خطر تضاد منافع میان سود اقتصادی و اصول انسانی را افزایش داده است. بنیاد New America در این زمینه هشدار می‌دهد که چنین روندی می‌تواند دموکراسی و نظارت مدنی را تضعیف کند.

چارچوب‌های نظارتی و محدودیت‌های اخلاقی

اصغریان توضیح داد: وزارت دفاع آمریکا در سال ۲۰۱۸ اصول اخلاقی استفاده از AI نظامی را تصویب کرد، این اصول شامل مسئولیت‌پذیری، قابلیت درک عملکرد، انصاف و جلوگیری از آسیب غیرضروری است.

وی افزود: با وجود این چارچوب‌ها، در عمل ابزار‌های جدید با چالش‌های اخلاقی جدی روبه‌رو هستند. دیده‌بان حقوق بشر تأکید می‌کند که حذف یا کاهش نقش انسانی در تصمیم‌گیری‌های مرگ‌بار، مغایر با حقوق بشردوستانه است.

شباهت پروژه‌های آمریکا و رژیم صهیونیستی

این استاد دانشگاه به شباهت میان پروژه‌های پنتاگون و سامانه‌های رژیم‌صهیونیستی اشاره کرد و بیان کرد: ارتش این رژیم‌صهیونیستی در حملات اخیر به غزه از سیستم‌هایی به نام Lavender و Gospel برای شناسایی و انهدام اهداف استفاده کرده است. روزنامه لوموند گزارش داده که Lavender با تحلیل تماس‌ها و شبکه‌های اجتماعی، فهرستی از ۳۷ هزار مرد فلسطینی را بدون راستی‌آزمایی انسانی به‌عنوان مظنون تولید کرده است. Gospel نیز با رهگیری تصویری، فرماندهان مقاومت را در منازل هدف قرار می‌داد.

وی افزود: مقایسه تطبیقی نشان می‌دهد که این سامانه‌ها و مدل‌های آمریکایی در چند محور مشترک هستند؛ تحلیل داده‌های انبوه غیرساختاریافته، تصمیم‌سازی خودکار بدون مداخله انسانی عمیق، و تولید انبوه اهداف ضربتی در مقیاس بزرگ. مؤسسه RAND در آمریکا نیز هشدار داده است که کاهش نقش انسان در تصمیم‌گیری می‌تواند پیامد‌های غیرقابل جبرانی به همراه داشته باشد.

پیامد‌های راهبردی برای ایران

این استاد دانشگاه اضافه کرد: با توجه به تحولات پرشتاب جهانی، ایران باید دکترین دفاعی خود را بازنگری کند، محور نخست این بازنگری توسعه سامانه‌های بومی پردازش اطلاعات پهپادی است، محور دوم طراحی مدل‌های زبانی فارسی ویژه امنیت ملی برای تحلیل اسناد طبقه‌بندی‌شده خواهد بود و محور سوم ایجاد ساختار ترکیبی انسان‌ماشین برای تسریع در تصمیم‌گیری‌های بحرانی است.

اصغریان گفت: سرعت بی‌سابقه توسعه سلاح‌های بر پایه AI توسط آمریکا، چین و روسیه نشان‌دهنده آغاز یک رقابت فناورانه شبیه جنگ سرد است. نبود چارچوب‌های الزام‌آور بین‌المللی، خطر تشدید بحران‌های امنیتی را افزایش می‌دهد. در این شرایط، ایران باید علاوه‌بر ارتقای ظرفیت‌های فناورانه، رویکرد اخلاقی و انسانی خود را در عرصه دفاعی حفظ کند.

ورود هوش مصنوعی به ساختار نظامی قدرت‌های بزرگ، نه‌تنها قواعد جنگ را دگرگون کرده بلکه نظم جهانی را نیز با چالش‌های اخلاقی و حقوقی روبه‌رو ساخته است. بی‌توجهی به این تحولات می‌تواند عقب‌ماندگی راهبردی به همراه داشته باشد، در حالی که سازگاری هوشمندانه با نظم فناورانه جدید، شرط بقا و بازدارندگی در قرن بیست‌ویکم خواهد بود.

برچسب ها: فناوری‌
ارسال نظرات
قوانین ارسال نظر