کد مطلب: ۶۸۰۶۸۰
۰۶ شهريور ۱۴۰۳ - ۱۷:۳۰

آژانس بین‌المللی هوش‌مصنوعی؛ کنترل مخاطرات یا ممانعت از پیشرفت کشورها؟

سال گذشته، سم آلتمن مدیرعامل اوپن‌ای‌آی پیشنهاد داد که یک سازمان بین‌المللی مانند سازمان انرژی اتمی برای نظارت بر هوش مصنوعی تشکیل شود؛ پیشنهادی که استقبال دبیرکل سازمان ملل همراه شد. اما کارشناسان در خصوص کارایی چنین ساختاری، تردید‌هایی مطرح کرده‌اند.

به گزارش مجله خبری نگار، در ژوئن (خرداد) سال گذشته، سم آلتمن مدیرعامل شرکت هوش مصنوعی اوپن‌ای‌آی پیشنهاد داد که یک سازمان بین‌المللی مانند سازمان انرژی اتمی برای نظارت بر فناوری هوش مصنوعی تشکیل شود.

مدیرعامل اوپن‌ای آی علت این پیشنهاد را تهدیدات جدی و وجودی ناشی از همه گیر شدن هوش مصنوعی دانست. این شرکت که ابزار گپ مبتنی بر هوش مصنوعی چت جی پی تی را عرضه کرده، شهرت زیادی در زمینه فناوری‌های مذکور دارد. 

آلتمن در ماه می‌گذشته در جریان سخنرانی خود خطاب به نمایندگان کنگره ایالات متحده گفته بود که مداخله دولت‌ها برای کنترل خطرات ناشی از هوش مصنوعی بسیار مهم است.

وی در ماه می‌سال قبل نیز به همراه گرگ براکمن مغز متفکر چت جی پی تی و ایلیا سوتسکور (هم بنیانگذار اوپن‌ای آی که اخیرا یک شرکت هوش مصنوعی مستقل تاسیس کرده تا هوش برتر ایمن را ترویج کند)، هشدار داده بود که تا یک دهه آینده ابرهوش مصنوعی، سطح رفاه را به شدت افزایش می‌دهد و البته این امر خطر وجودی برای بشر ایجاد می‌کند که نمی‌توان نسبت به آن بی تفاوت ماند و لذا ایجاد یک سازمان دیده بان بین المللی مشابه با سازمان بین المللی انرژی اتمی به منظور نظارت بر سیستم‌های هوش مصنوعی برای مقابله با عبور آنها از آستانه‌ای مشخص ضروری است. آنها همچنین خواستار همکاری دولت‌ها برای اجرای پروژه‌های مشترک ایمن سازی هوش مصنوعی شدند.

ساتیا نادلا مدیرعامل مایکروسافت و آنتونیو گوترش دبیرکل سازمان ملل نیز از این ایده حمایت کرده اند. نادلا معتقد است قدرت‌های بزرگ هوش مصنوعی مانند چین باید برای مدیریت خطرات احتمالی مرتبط با فناوری هوش مصنوعی با چنین سازمانی همکاری کنند.

اگر چه هنوز یک سازمان جهانی فراگیر برای نظارت و کنترل فناوری هوش مصنوعی تشکیل نشده، اما برخی کشور‌ها در حال وضع قوانین داخلی و راهبرد‌هایی در این زمینه هستند و برخی سازمان‌های بین المللی نیز قوانین جامع هوش مصنوعی وضع کرده اند. 

به عنوان مثال اتحادیه اروپا از وضع قانون هوش مصنوعی برای ۲۷ کشور عضو خبر داده و امیدوار است این قانون به یک استاندارد جهانی در عرصه هوش مصنوعی مبدل شود. 

ابهام در مورد کارآیی ایده آژانس بین المللی هوش مصنوعی

در این میان کارآیی نظام کنترل و نظارت آژانس بین المللی انرژی هسته‌ای در حوزه هوش مصنوعی با ابهام‌هایی مواجه است. اگر چه هم سلاح هسته‌ای و هم ابزار هوش مصنوعی از قابلیت و ظرفیت نابودی بشر برخوردارند، اما روش‌ها و مسیر‌های فاجعه آفرینی هوش مصنوعی هنوز به طور دقیق مشخص نیست و همین ابهام شناسایی روش‌های مقابله و سازوکار‌های حقوقی و فنی و قانونی مرتبط را دشوار می‌سازد. 

یان جی استوارت از مدیران سابق وزارت دفاع بریتانیا که در حال حاضر مدیر اجرایی مرکز تحقیقاتی جیمز مارتین در واشنگتن است، در مقاله‌ای در سایت thebulletin در این مورد می‌نویسد: درسی که از حوزه هسته‌ای آموخته ایم این است که کشور‌ها قبل از اقدام جمعی در مورد موضوع هوش مصنوعی باید در اعتبار و تعریف این چالش جهانی به اجماع برسند. 

از نظر وی تکامل مقررات هسته‌ای فعلی چندین دهه به طول انجامید و تلاش‌های اولیه برای کنترل بین المللی فناوری هسته‌ای ناموفق بود، زیرا بحران‌های متعدد سیاسی و بین المللی و خصومت کشور‌ها و تداوم فضای جنگ سرد این کار را دشوار می‌کرد؛ لذا باید از تکرار این چرخه در ارتباط با هوش مصنوعی اجتناب کرد.

آژانس بین‌المللی هوش‌مصنوعی؛ کنترل مخاطرات یا ممانعت از پیشرفت کشورها؟

نقش آفرینی متفاوت دولت‌ها و بخش خصوصی 

وی می‌افزاید: به وضوح تفاوت‌های مهم زیادی بین فضای تحقیقات هسته‌ای و فضای پژوهشی حوزه هوش مصنوعی وجود دارد، از جمله این واقعیت که مواد و فناوری هسته‌ای شکل فیزیکی دارند، در حالی که هوش مصنوعی امری دیجیتالی است و بنابراین ماهیت آن تا حد زیادی نامشهود است. تفاوت اساسی دیگری نیز وجود دارد که انجام کنش جمعی را دشوارتر می‌کند. در حوزه هسته ای، عموماً دولت‌ها بازیگران اصلی هستند. این مساله مطمئناً در اوایل عصر هسته‌ای که تلاش‌های اولیه برای ابداع سیستم‌های کنترل و نظارت انجام شد، صادق بود. این تنها دولت‌ها بودند که می‌توانستند سلاح‌های هسته‌ای تولید کنند و در بیشتر عصراتم، نقش بخش تجاری محدود بوده است.

هوش مصنوعی احتمالاً پیامد‌های دگرگون کننده‌ای برای دولت ها، ارتش و حوزه اطلاعاتی خواهد داشت. با این حال، در حوزه هوش مصنوعی، شرکت‌های خصوصی در بیشتر حوزه‌های هوش ماشینی از دولت‌ها جلوتر هستند و احتمالاً در آینده نیز این روند ادامه دارد. برتری بخش خصوصی در حوزه هوش مصنوعی، نیرو‌های لابی قوی در این بخش ایجاد می‌کند که عمدتاً از اوایل عصر هسته‌ای غایب بودند. تلاش‌ها برای ایجاد همکاری‌های شرکتی و تجاری برای رسیدگی به مشکلات جمعی در حوزه‌های دیگر - مانند حوزه زیست محیطی و فجایع آن - به‌طور چشمگیری موفق نبوده و در حوزه هوش مصنوعی نیز ابهام وجود دارد.

تفاوت درشیوه حفاظت

همچنین مشخص نیست که می‌توان از بشر در برابر خطرات هوش مصنوعی به روشی قابل مقایسه با مواد خطرناک هسته‌ای محافظت کرد یا خیر. پادمان‌های هسته‌ای عمدتاً بر تأمین امنیت مواد هسته‌ای فیزیکی (یعنی مواد شکافت‌پذیر) تمرکز دارند. بدون مواد هسته‌ای نمی‌توان سلاح هسته‌ای ساخت.

آژانس بین‌المللی انرژی اتمی از این موضوع به عنوان نقطه شروع فعالیت خود استفاده می‌کند و اطلاعاتی را از کشور‌ها در مورد مواد هسته‌ای آنها می‌گیرد و سپس به دنبال راستی‌آزمایی - از طریق حسابرسی این مواد، بازرسی، تجزیه و تحلیل شیوه تجارت، و بررسی اطلاعات منبع باز- برای تأیید صحت و کامل بودن پایبندی دولت‌ها به تعهدات هسته‌ای است.

اما در فضای هوش مصنوعی، عناصر کلیدی تولید ابزار و محصولات متنوع عبارتند از داده‌های آموزشی، ظرفیت محاسباتی برای آموزش مدل‌های هوش مصنوعی، مدل آموزش‌دیده (که معمولاً یک فایل رایانه‌ای است که احتمالاً با یک فایل جداگانه حاوی پارامتر‌های آموزشی و سایر داده‌های الگوریتمی، ترکیب شده است) و خدمات نهایی ارائه شده. در حالی که ایالات متحده صادرات ابزار مربوط به بخش ظرفیت محاسباتی به چین را محدود کرده، مشخص نیست که هیچ یک از عناصر مورد استفاده در ایجاد فناوری هوش مصنوعی به گونه‌ای مشابه با مواد هسته‌ای قابل کنترل و محافظت پذیر باشند، به ویژه با توجه به ناملموس بودن هوش مصنوعی (به عنوان مثال، غیر قابل لمس بودن).

این بدان معنا نیست که کنترل صادرات و سایر اقدامات نباید برای محدود کردن صادرات قابلیت‌های هوش مصنوعی مرتبط با امور نظامی استفاده شود. در واقع، به دلیل ماهیت کنترل‌های صادراتی در غرب، برنامه‌های خاص بسیاری از هوش مصنوعی‌های مرتبط با امور نظامی احتمالاً از قبل کنترل شده‌اند.

با این حال، در عمل هیچ چیزی نمی‌تواند مانع از آموزش یک مدل هوش مصنوعی شود. این امکان تنها زمانی افزایش می‌یابد که مدل‌ها و امکانات آنها به بیرون درز کرده یا به شکل عمومی منتشر شوند و با بررسی و ارتقا، قابلیت محاسباتی با عملکرد بالا بیایند.

ایجاد تبعیض و عقب نگهداشتن رقبا

برخی تحلیل گران نیز بیم دارند که غرب با ایجاد یک سازمان بین المللی مبتنی بر رژیم‌های حقوقی مدنظر خود و از طریق اعمال محدودیت‌های شدید و غیرمنطقی، رویه‌ای تبعیض آمیز در پیش گرفته و تلاش کند از انتقال فناوری هوش مصنوعی به دیگر کشور‌ها حتی به شکلی صلح آمیز جلوگیری کند و از این طریق سعی کند، پیشرفت کشور‌هایی که با آنها اختلاف نظر سیاسی و معرفتی دارد را در حوزه هوش مصنوعی محدود کند و از این عقب ماندگی برای تحمیل سلطه و قلدری در قبال دیگران استفاده کند.

نگرانی از این مساله پیوستن دیگر کشور‌ها به یک سازمان بین المللی در حوزه هوش مصنوعی را محدود کرده و باعث خواهد شد آنها ترجیح دهند بدون مزاحمت و نظارت غرب به پیشرفت‌های مدنظر در این زمینه دست یابند. چنانچه آژانس بین المللی انرژی هسته‌ای با اعمال رویه‌های تبعیض آمیز و ظالمانه بر علیه کشور‌هایی که نظام سلطه غربی را نمی‌پذیرند و آزاد گذاشتن کشور‌های همسو با خود در زمینه استفاده از فناوری هسته ای، باعث کاهش اعتماد و همراهی جهانی شده است.

خطری نامحسوس و درک نشده

دکتر پاتریشیا لویس محقق و کارشناس امنیت بین الملل معتقد است در حال حاضر، هنوز هیچ مدرک علمی محکمی مبنی بر تایید خطر وجودی و فاجعه بار ناشی از کاربرد هوش مصنوعی وجود ندارد. بسیاری از نگرانی‌ها همچنان فرضی هستند و توجه عمومی را از خطرات اخلاقی و قانونی فزاینده ناشی از کاربرد هوش مصنوعی و آسیب‌های بعدی آن منحرف می‌کنند. اما این بدان معنا نیست که خطرات ناشی از کاربرد هوش مصنوعی وجود ندارد. این خطرات وجود دارند و وابستگی بیش از حد به هوش مصنوعی، به‌ویژه برای زیرساخت‌های حیاتی ملی کشور‌ها می‌تواند منبع آسیب‌پذیری قابل‌توجهی باشد.

آژانس بین‌المللی هوش‌مصنوعی؛ کنترل مخاطرات یا ممانعت از پیشرفت کشورها؟

وی می‌افزاید:، اما این تهدیدات هنوز فاجعه‌بار نیستند. نگرانی در مورد خطرات وجودی ناشی از کاربرد هوش مصنوعی باید با دقت و گام به گام در نظر گرفته شوند و شواهد مرتبط جمع‌آوری و تحلیل شوند. اما حرکت بیش از حد سریع برای کنترل هوش مصنوعی نیز می‌تواند آسیب زننده باشد. مهار هوش مصنوعی اگر غیرممکن نباشد، ولی بسیار دشوار است، زیرا چنانچه گفته شد ویژگی‌های فنی سلاح‌های هسته‌ای ذاتاً با هوش مصنوعی متفاوت است.

توسعه سلاح‌های هسته‌ای با تنگنا‌های فیزیکی مواجه است. ساخت این سلاح‌ها به مواد خاصی در اشکال خاص نیاز دارد؛ مانند پلوتونیوم و اورانیوم و تریتیوم با غنای بالا (بیش از ۹۰ درصد). این مواد آثار منحصر به فرد و قابل اندازه گیری در پی دارند و ریزترین آثار آنها را می‌توان در بازرسی‌های معمولی کشف کرد و فعالیت‌های مخفی را در معرض دید قرار داد. سلاح‌های هسته‌ای بدون این مواد خاص ساخته نمی‌شوند. کنترل دسترسی به این مواد، کشور‌هایی را که از نظر غرب مجاز به خرید مواد خطرناک هسته‌ای نیستند، از انجام این کار منع می‌کند. این روند بسیار متفاوت از هوش مصنوعی است که اساساً مبتنی بر نرم افزار و ابزار همه منظوره است.

اگرچه توسعه کاربرد و آموزش هوش مصنوعی، به سرمایه‌گذاری سنگین و ابررایانه‌هایی با قدرت پردازش فوق‌العاده نیاز دارد، اما برنامه‌های کاربردی مرتبط با آن متنوع بوده و به طور فزاینده‌ای برای استفاده انبوه در تمام بخش‌های جامعه طراحی شده‌اند. هوش مصنوعی، از این نظر، نقطه مقابل سلاح‌های هسته‌ای است. سیاست‌گذاری مناسب و حساب شده برای مقابله با خطرات در حوزه توسعه و استقرار فناوری‌های هوش مصنوعی ضروری است. ماهیت نامشهود هوش مصنوعی، مهار آن را دشوار و حتی غیرممکن می‌کند.

اقدامات حفاظتی و روش‌های راستی‌آزمایی مشابه با روش‌هایی که آژانس بین‌المللی انرژی اتمی به کار می‌برد، به دلیل این تفاوت‌های فنی ذاتی، در ارتباط با هوش مصنوعی به درستی عمل نمی‌کند؛ لذا تا ابداع یک مدل دقیق برای مقابله با خطرات هوش مصنوعی راه بسیار طولانی در پیش است و اصولا نمی‌توان تایید کرد که سازمانی مشابه با آژانس بین المللی انرژی هسته‌ای بدین منظور کارآیی داشته باشد.

برچسب ها: هوش مصنوعی
ارسال نظرات
قوانین ارسال نظر