به گزارش مجله خبری نگار، در ژوئن (خرداد) سال گذشته، سم آلتمن مدیرعامل شرکت هوش مصنوعی اوپنایآی پیشنهاد داد که یک سازمان بینالمللی مانند سازمان انرژی اتمی برای نظارت بر فناوری هوش مصنوعی تشکیل شود.
مدیرعامل اوپنای آی علت این پیشنهاد را تهدیدات جدی و وجودی ناشی از همه گیر شدن هوش مصنوعی دانست. این شرکت که ابزار گپ مبتنی بر هوش مصنوعی چت جی پی تی را عرضه کرده، شهرت زیادی در زمینه فناوریهای مذکور دارد.
آلتمن در ماه میگذشته در جریان سخنرانی خود خطاب به نمایندگان کنگره ایالات متحده گفته بود که مداخله دولتها برای کنترل خطرات ناشی از هوش مصنوعی بسیار مهم است.
وی در ماه میسال قبل نیز به همراه گرگ براکمن مغز متفکر چت جی پی تی و ایلیا سوتسکور (هم بنیانگذار اوپنای آی که اخیرا یک شرکت هوش مصنوعی مستقل تاسیس کرده تا هوش برتر ایمن را ترویج کند)، هشدار داده بود که تا یک دهه آینده ابرهوش مصنوعی، سطح رفاه را به شدت افزایش میدهد و البته این امر خطر وجودی برای بشر ایجاد میکند که نمیتوان نسبت به آن بی تفاوت ماند و لذا ایجاد یک سازمان دیده بان بین المللی مشابه با سازمان بین المللی انرژی اتمی به منظور نظارت بر سیستمهای هوش مصنوعی برای مقابله با عبور آنها از آستانهای مشخص ضروری است. آنها همچنین خواستار همکاری دولتها برای اجرای پروژههای مشترک ایمن سازی هوش مصنوعی شدند.
ساتیا نادلا مدیرعامل مایکروسافت و آنتونیو گوترش دبیرکل سازمان ملل نیز از این ایده حمایت کرده اند. نادلا معتقد است قدرتهای بزرگ هوش مصنوعی مانند چین باید برای مدیریت خطرات احتمالی مرتبط با فناوری هوش مصنوعی با چنین سازمانی همکاری کنند.
اگر چه هنوز یک سازمان جهانی فراگیر برای نظارت و کنترل فناوری هوش مصنوعی تشکیل نشده، اما برخی کشورها در حال وضع قوانین داخلی و راهبردهایی در این زمینه هستند و برخی سازمانهای بین المللی نیز قوانین جامع هوش مصنوعی وضع کرده اند.
به عنوان مثال اتحادیه اروپا از وضع قانون هوش مصنوعی برای ۲۷ کشور عضو خبر داده و امیدوار است این قانون به یک استاندارد جهانی در عرصه هوش مصنوعی مبدل شود.
در این میان کارآیی نظام کنترل و نظارت آژانس بین المللی انرژی هستهای در حوزه هوش مصنوعی با ابهامهایی مواجه است. اگر چه هم سلاح هستهای و هم ابزار هوش مصنوعی از قابلیت و ظرفیت نابودی بشر برخوردارند، اما روشها و مسیرهای فاجعه آفرینی هوش مصنوعی هنوز به طور دقیق مشخص نیست و همین ابهام شناسایی روشهای مقابله و سازوکارهای حقوقی و فنی و قانونی مرتبط را دشوار میسازد.
یان جی استوارت از مدیران سابق وزارت دفاع بریتانیا که در حال حاضر مدیر اجرایی مرکز تحقیقاتی جیمز مارتین در واشنگتن است، در مقالهای در سایت thebulletin در این مورد مینویسد: درسی که از حوزه هستهای آموخته ایم این است که کشورها قبل از اقدام جمعی در مورد موضوع هوش مصنوعی باید در اعتبار و تعریف این چالش جهانی به اجماع برسند.
از نظر وی تکامل مقررات هستهای فعلی چندین دهه به طول انجامید و تلاشهای اولیه برای کنترل بین المللی فناوری هستهای ناموفق بود، زیرا بحرانهای متعدد سیاسی و بین المللی و خصومت کشورها و تداوم فضای جنگ سرد این کار را دشوار میکرد؛ لذا باید از تکرار این چرخه در ارتباط با هوش مصنوعی اجتناب کرد.
وی میافزاید: به وضوح تفاوتهای مهم زیادی بین فضای تحقیقات هستهای و فضای پژوهشی حوزه هوش مصنوعی وجود دارد، از جمله این واقعیت که مواد و فناوری هستهای شکل فیزیکی دارند، در حالی که هوش مصنوعی امری دیجیتالی است و بنابراین ماهیت آن تا حد زیادی نامشهود است. تفاوت اساسی دیگری نیز وجود دارد که انجام کنش جمعی را دشوارتر میکند. در حوزه هسته ای، عموماً دولتها بازیگران اصلی هستند. این مساله مطمئناً در اوایل عصر هستهای که تلاشهای اولیه برای ابداع سیستمهای کنترل و نظارت انجام شد، صادق بود. این تنها دولتها بودند که میتوانستند سلاحهای هستهای تولید کنند و در بیشتر عصراتم، نقش بخش تجاری محدود بوده است.
هوش مصنوعی احتمالاً پیامدهای دگرگون کنندهای برای دولت ها، ارتش و حوزه اطلاعاتی خواهد داشت. با این حال، در حوزه هوش مصنوعی، شرکتهای خصوصی در بیشتر حوزههای هوش ماشینی از دولتها جلوتر هستند و احتمالاً در آینده نیز این روند ادامه دارد. برتری بخش خصوصی در حوزه هوش مصنوعی، نیروهای لابی قوی در این بخش ایجاد میکند که عمدتاً از اوایل عصر هستهای غایب بودند. تلاشها برای ایجاد همکاریهای شرکتی و تجاری برای رسیدگی به مشکلات جمعی در حوزههای دیگر - مانند حوزه زیست محیطی و فجایع آن - بهطور چشمگیری موفق نبوده و در حوزه هوش مصنوعی نیز ابهام وجود دارد.
همچنین مشخص نیست که میتوان از بشر در برابر خطرات هوش مصنوعی به روشی قابل مقایسه با مواد خطرناک هستهای محافظت کرد یا خیر. پادمانهای هستهای عمدتاً بر تأمین امنیت مواد هستهای فیزیکی (یعنی مواد شکافتپذیر) تمرکز دارند. بدون مواد هستهای نمیتوان سلاح هستهای ساخت.
آژانس بینالمللی انرژی اتمی از این موضوع به عنوان نقطه شروع فعالیت خود استفاده میکند و اطلاعاتی را از کشورها در مورد مواد هستهای آنها میگیرد و سپس به دنبال راستیآزمایی - از طریق حسابرسی این مواد، بازرسی، تجزیه و تحلیل شیوه تجارت، و بررسی اطلاعات منبع باز- برای تأیید صحت و کامل بودن پایبندی دولتها به تعهدات هستهای است.
اما در فضای هوش مصنوعی، عناصر کلیدی تولید ابزار و محصولات متنوع عبارتند از دادههای آموزشی، ظرفیت محاسباتی برای آموزش مدلهای هوش مصنوعی، مدل آموزشدیده (که معمولاً یک فایل رایانهای است که احتمالاً با یک فایل جداگانه حاوی پارامترهای آموزشی و سایر دادههای الگوریتمی، ترکیب شده است) و خدمات نهایی ارائه شده. در حالی که ایالات متحده صادرات ابزار مربوط به بخش ظرفیت محاسباتی به چین را محدود کرده، مشخص نیست که هیچ یک از عناصر مورد استفاده در ایجاد فناوری هوش مصنوعی به گونهای مشابه با مواد هستهای قابل کنترل و محافظت پذیر باشند، به ویژه با توجه به ناملموس بودن هوش مصنوعی (به عنوان مثال، غیر قابل لمس بودن).
این بدان معنا نیست که کنترل صادرات و سایر اقدامات نباید برای محدود کردن صادرات قابلیتهای هوش مصنوعی مرتبط با امور نظامی استفاده شود. در واقع، به دلیل ماهیت کنترلهای صادراتی در غرب، برنامههای خاص بسیاری از هوش مصنوعیهای مرتبط با امور نظامی احتمالاً از قبل کنترل شدهاند.
با این حال، در عمل هیچ چیزی نمیتواند مانع از آموزش یک مدل هوش مصنوعی شود. این امکان تنها زمانی افزایش مییابد که مدلها و امکانات آنها به بیرون درز کرده یا به شکل عمومی منتشر شوند و با بررسی و ارتقا، قابلیت محاسباتی با عملکرد بالا بیایند.
برخی تحلیل گران نیز بیم دارند که غرب با ایجاد یک سازمان بین المللی مبتنی بر رژیمهای حقوقی مدنظر خود و از طریق اعمال محدودیتهای شدید و غیرمنطقی، رویهای تبعیض آمیز در پیش گرفته و تلاش کند از انتقال فناوری هوش مصنوعی به دیگر کشورها حتی به شکلی صلح آمیز جلوگیری کند و از این طریق سعی کند، پیشرفت کشورهایی که با آنها اختلاف نظر سیاسی و معرفتی دارد را در حوزه هوش مصنوعی محدود کند و از این عقب ماندگی برای تحمیل سلطه و قلدری در قبال دیگران استفاده کند.
نگرانی از این مساله پیوستن دیگر کشورها به یک سازمان بین المللی در حوزه هوش مصنوعی را محدود کرده و باعث خواهد شد آنها ترجیح دهند بدون مزاحمت و نظارت غرب به پیشرفتهای مدنظر در این زمینه دست یابند. چنانچه آژانس بین المللی انرژی هستهای با اعمال رویههای تبعیض آمیز و ظالمانه بر علیه کشورهایی که نظام سلطه غربی را نمیپذیرند و آزاد گذاشتن کشورهای همسو با خود در زمینه استفاده از فناوری هسته ای، باعث کاهش اعتماد و همراهی جهانی شده است.
دکتر پاتریشیا لویس محقق و کارشناس امنیت بین الملل معتقد است در حال حاضر، هنوز هیچ مدرک علمی محکمی مبنی بر تایید خطر وجودی و فاجعه بار ناشی از کاربرد هوش مصنوعی وجود ندارد. بسیاری از نگرانیها همچنان فرضی هستند و توجه عمومی را از خطرات اخلاقی و قانونی فزاینده ناشی از کاربرد هوش مصنوعی و آسیبهای بعدی آن منحرف میکنند. اما این بدان معنا نیست که خطرات ناشی از کاربرد هوش مصنوعی وجود ندارد. این خطرات وجود دارند و وابستگی بیش از حد به هوش مصنوعی، بهویژه برای زیرساختهای حیاتی ملی کشورها میتواند منبع آسیبپذیری قابلتوجهی باشد.
وی میافزاید:، اما این تهدیدات هنوز فاجعهبار نیستند. نگرانی در مورد خطرات وجودی ناشی از کاربرد هوش مصنوعی باید با دقت و گام به گام در نظر گرفته شوند و شواهد مرتبط جمعآوری و تحلیل شوند. اما حرکت بیش از حد سریع برای کنترل هوش مصنوعی نیز میتواند آسیب زننده باشد. مهار هوش مصنوعی اگر غیرممکن نباشد، ولی بسیار دشوار است، زیرا چنانچه گفته شد ویژگیهای فنی سلاحهای هستهای ذاتاً با هوش مصنوعی متفاوت است.
توسعه سلاحهای هستهای با تنگناهای فیزیکی مواجه است. ساخت این سلاحها به مواد خاصی در اشکال خاص نیاز دارد؛ مانند پلوتونیوم و اورانیوم و تریتیوم با غنای بالا (بیش از ۹۰ درصد). این مواد آثار منحصر به فرد و قابل اندازه گیری در پی دارند و ریزترین آثار آنها را میتوان در بازرسیهای معمولی کشف کرد و فعالیتهای مخفی را در معرض دید قرار داد. سلاحهای هستهای بدون این مواد خاص ساخته نمیشوند. کنترل دسترسی به این مواد، کشورهایی را که از نظر غرب مجاز به خرید مواد خطرناک هستهای نیستند، از انجام این کار منع میکند. این روند بسیار متفاوت از هوش مصنوعی است که اساساً مبتنی بر نرم افزار و ابزار همه منظوره است.
اگرچه توسعه کاربرد و آموزش هوش مصنوعی، به سرمایهگذاری سنگین و ابررایانههایی با قدرت پردازش فوقالعاده نیاز دارد، اما برنامههای کاربردی مرتبط با آن متنوع بوده و به طور فزایندهای برای استفاده انبوه در تمام بخشهای جامعه طراحی شدهاند. هوش مصنوعی، از این نظر، نقطه مقابل سلاحهای هستهای است. سیاستگذاری مناسب و حساب شده برای مقابله با خطرات در حوزه توسعه و استقرار فناوریهای هوش مصنوعی ضروری است. ماهیت نامشهود هوش مصنوعی، مهار آن را دشوار و حتی غیرممکن میکند.
اقدامات حفاظتی و روشهای راستیآزمایی مشابه با روشهایی که آژانس بینالمللی انرژی اتمی به کار میبرد، به دلیل این تفاوتهای فنی ذاتی، در ارتباط با هوش مصنوعی به درستی عمل نمیکند؛ لذا تا ابداع یک مدل دقیق برای مقابله با خطرات هوش مصنوعی راه بسیار طولانی در پیش است و اصولا نمیتوان تایید کرد که سازمانی مشابه با آژانس بین المللی انرژی هستهای بدین منظور کارآیی داشته باشد.