کد مطلب: ۵۳۸۵۱۲
۱۲ آذر ۱۴۰۲ - ۰۷:۵۸
سرانجام اینکه، جهان برای کنترل وجه خطرناک توسعه هوش مصنوعی دست به کار شده و برای جلوگیری از تکرار واقعه هیروشیما و البته این بار با هدف پیشگیری از آسیب‌های فناوری می‌خواهد تنظیم‌گری کند، اما صد حیف که سرعت پیشرفت دانش، از مقررات‌گذاری بیشتر است.

به گزارش مجله خبری نگار، این گزاره را تصور کنید که توسعه‌دهندگان قصد دارند به هوش مصنوعی استقلال تصمیم‌گیری برای کشتن اهداف انسانی بدهند! و «روبات‌های قاتل» پیشرفت نگران‌کننده‌ای را تجربه کنند و از این پس میدان نبرد، مرگ و زندگی انسان‌ها، در اختیار هوش مصنوعی باشد. جالب اینکه دانشگاه استنفورد در کالیفرنیا امسال در پژوهش فناوری خود به این نتیجه رسیده که «تصمیمات اتخاذ شده توسط هوش مصنوعی می‌تواند فاجعه‌ای به اندازه یک جنگ هسته‌ای همه‌جانبه در قرن جاری ایجاد کند.»

گرچه با این استدلال، تنظیم‌گری سخت‌گیرانه برای هوش مصنوعی، با رویکرد تقویت رشد اقتصادی کشور‌ها تناسبی ندارد، اما تعیین چهارچوب‌های توسعه AI مورد توجه است تا از وحشت یک حمله هسته‌ای دیگر مانند هیروشیما، جهان در‌امان باشد و به قول «هنری کیسینجر» سیاستمدار کهنه کار امریکایی که در تألیف کتاب «هوش مصنوعی و آینده انسان» هم نقش دارد، «هوش مصنوعی در طی پنج سال به یک عنصر کلیدی در امنیت تبدیل خواهد شد و توان تخریب آن با اختراع چاپ قابل مقایسه است، چراکه ایده‌هایی را گسترش می‌دهد که در ایجاد جنگ‌های ویرانگر قرن‌های ۱۶ و ۱۷ نقش داشتند.»

وزیر خارجه اسبق ایالات متحده، نسبت به تکرار حادثه هیروشیما هشدار می‌دهد و تأکید دارد: «ما در ابتدای مسیری هستیم که ماشین‌ها می‌توانند بیماری‌های کشنده و یا پاندمی به جهان تحمیل کنند. نه فقط خطر ناشی از بمب هسته‌ای که هرگونه کشتار دسته‌جمعی می‌تواند از ناحیه این ماشین‌ها ایجاد شود.»

جالب اینکه برخی از اعضای جامعه ملل که بانیان جنگ‌های اتمی بوده‌اند، اما اکنون در گروه «جی۷» برای فرار از خطرات هوش مصنوعی، با منشور رفتاری برای شرکت‌های توسعه‌دهنده سیستم‌های هوش مصنوعی پیشرفته، موافقت کرده‌اند که بسیاری از کارشناسان، دلیل آن را اهتمام این دولت‌ها به کاهش خطرات و سوءاستفاده احتمالی از این فناوری می‌دانند.

گرچه رهبران گروه هفت متشکل از کشور‌های کانادا، فرانسه، آلمان، ایتالیا، ژاپن، بریتانیا، ایالات متحده و اتحادیه اروپا، این روند را در ماه مه سال جاری تحت برنامه‌ای موسوم به فرایند هوش مصنوعی هیروشیما آغاز کردند، اما در روز‌های اخیر رویترز گزارش داد که در یک سند ۲۰ صفحه‌ای، شرکت‌های طراحی و استفاده از هوش مصنوعی ملزم شده‌اند که مشتریان و عموم مردم را در برابر سوءاستفاده ایمن کنند و این توافق که مورد موافقت ۱۸ کشور قرار گرفته است، جدیدترین ابتکار و تلاش دولت‌های سراسر جهان برای نفوذ بیشتر بر توسعه بین‌المللی هوش مصنوعی است.

تحلیلگران این فرایند معتقدند که گسترش سریع چت «جی‌پی‌تی» که ساخته شرکت «OpenAI» است، وحشت از خطرات جنگ‌های اتمی را به جامعه جهانی بازگردانده و از اردیبهشت امسال به صورت جدی سران کشور‌ها را هم مشغول به خود کرده است و این جمله ایلان ماسک که «ما باید در خصوص هوش مصنوعی بسیار محتاط باشیم؛ آن‌ها ممکن است از سلاح هسته‌ای هم خطرناک‌تر باشند»، موجب شد تا سران گروه ۷ برای تعیین مقررات شناسایی، ارزیابی و کاهش خطرات در کل چرخه فعالیت هوش مصنوعی اقدام و همچنین با رخداد‌ها و الگو‌های سوءاستفاده پس از ورود محصولات هوش مصنوعی به بازار برخورد کنند.

البته در ۱۸ جولای ۲۰۲۳، «آنتونیو گوترش» دبیرکل سازمان ملل این مهم را متذکر شده است که تأسیس یک نهاد مرجع بین‌المللی، یعنی آژانس بین‌المللی هوش مصنوعی می‌تواند با تدوین موازین، کشف و ارائه راهکار‌های فنی و همچنین تجمیع فعالیت‌های ملل متحد در حوزه هوش مصنوعی، نقشی بسیار مهم و حیاتی برای بشریت ایفا کند.

سرانجام اینکه، جهان برای کنترل وجه خطرناک توسعه هوش مصنوعی دست به کار شده و برای جلوگیری از تکرار واقعه هیروشیما و البته این بار با هدف پیشگیری از آسیب‌های فناوری می‌خواهد تنظیم‌گری کند، اما صد حیف که سرعت پیشرفت دانش، از مقررات‌گذاری بیشتر است.

امیر خدادادهمدانی-حقوقدان فناوری‌های نوین

ارسال نظرات
نام:
ایمیل:
* نظر:
قوانین ارسال نظر