کد مطلب: ۶۲۸۸۱۰
۰۳ خرداد ۱۴۰۳ - ۱۱:۵۶

تا به امروز هوش مصنوعی چه توانایی‌هایی داشته است؟

یک مطالعه جدید روند نگران کننده یادگیری سیستم‌های هوش مصنوعی برای فریب دادن انسان‌ها را بررسی می‌کند.

به گزارش مجله خبری نگار،قابلیت‌های متنوع هوش مصنوعی فراتر از بازی است و به برنامه‌های جدی گسترش می‌یابد. اما به طور بالقوه امکان تقلب یا تأثیرگذاری بر انتخابات را هم فراهم می‌آورد؛ بنابراین بسیاری افراد خواستار اقدام فوری نظارتی برای مدیریت خطرات فریب هوش مصنوعی هستند و فکر می‌کنند بهتر است این سیستم‌ها دسته بندی شوند.

سیستم‌های هوش مصنوعی توانایی فریب را به عنوان یک استراتژی برای دستیابی به اهداف خود نشان داده‌اند؛ حتی در زمینه‌هایی که به توسعه‌دهندگان قصد دارند صداقت را تقویت کنند.

با وجود آنکه ابتدا هوش مصنوعی فقط در بازی‌ها مشاهده شد، اما به مرور در بسیاری از زمینه‌های دیگر هم توسعه پیدا کرد؛ به انداره‌ای که در حال حاضر ظرفیت‌های فریبنده هوش مصنوعی پیامد‌های قابل توجهی پیدا کرده است.

آموزش هوش مصنوعی

بسیاری از سیستم‌های هوش مصنوعی (AI) آموزش دیده اند چگونه می‌توانند انسان‌ها را فریب دهند. در مقاله‌ای که در ژورنال Patterns در دهم می‌منتشر شد، محققان خطرات فریب توسط سیستم‌های هوش مصنوعی را توصیف می‌کنند و از دولت‌ها می‌خواهند قوانین محکم تری برای رسیدگی به این موضوع وضع کنند.

پیتر اس پارک، نویسنده اول و عضو فوق دکترای ایمنی وجودی هوش مصنوعی در MIT می‌گوید: توسعه دهندگان هوش مصنوعی درک مطمئنی از آنچه باعث رفتار‌های نامطلوب هوش مصنوعی مانند فریب می‌شود، ندارند.

استراتژی مبتنی بر فریب

به طور کلی ما فکر می‌کنیم هوش مصنوعی به این دلیل می‌تواند ما را به آسانی فریب دهد که یک استراتژی مبتنی بر فریب بهترین راه برای عملکرد درست در زمینه آموزشی هوش مصنوعی در نظر گرفته شده است. چون در واقع فریب به آنها کمک می‌کند تا به این ترتیب بهتر بتوانند به اهداف خود دست یابند.

پارک و همکارانش ادبیاتی را تجزیه و تحلیل کردند که بر روش‌هایی متمرکز بود که سیستم‌های هوش مصنوعی، اطلاعات نادرست را از طریق فریب‌های آموخته‌شده منتشر می‌کنند.

بارزترین نمونه فریب هوش مصنوعی که محققان در تجزیه و تحلیل خود کشف کردند Meta’s CICERO بود؛ یک سیستم هوش مصنوعی طراحی شده برای بازی دیپلماسی که کاربران را به ایجاد همکاری و داشتن اتحاد تشویق می‌کند.

توانایی بلوف زدن

پارک می‌گوید: ما متوجه شدیم که هوش مصنوعی متا یاد گرفته است در فریبکاری استاد باشد. او موفق شده هوش مصنوعی خود را برای برنده شدن در بازی دیپلماسی آموزش دهد.

دیگر سیستم‌های هوش مصنوعی نیز توانایی بلوف زدن در بازی پوکر را علیه بازیکنان انسانی حرفه‌ای، حملات جعلی در طول بازی استراتژیک Starcraft II برای شکست دادن حریفان، و ارائه نادرست ترجیحات آنها برای به دست آوردن دست برتر نشان دادند.

به عقیده پارک اشکالی ندارد سیستم‌های هوش مصنوعی در بازی‌ها تقلب کنند، اما این موضوع می‌تواند منجر به پیشرفت در قابلیت‌های هوش مصنوعی فریبنده شود که می‌تواند در آینده به اشکال پیشرفته‌تر فریب هوش مصنوعی تبدیل شود.

تقلب در ارزیابی ایمنی

محققان دریافتند بعضی سیستم‌های هوش مصنوعی حتی یاد گرفته‌اند در تست‌هایی که برای ارزیابی ایمنی آنها طراحی شده‌اند تقلب کنند.

در یک مطالعه، ارگانیسم‌های هوش مصنوعی در یک شبیه‌ساز دیجیتالی که به منظور فریب آزمایشی برای از بین بردن سیستم‌های هوش مصنوعی ساخته شده بود به سرعت تکثیر می‌شوند.

غیر قابل کنترل شدن توسط انسان

پارک هشدار می‌دهد خطرات کوتاه‌مدت فریبنده هوش مصنوعی شامل آسان‌تر کردن تقلب و دستکاری در انتخابات برای بازیگران به شمار می‌رود. ضمن آنکه در نهایت، اگر این سیستم‌ها بتوانند این مجموعه مهارت‌ها را اصلاح کنند، انسان‌ها می‌توانند کنترل آنها را از دست بدهند.

او می‌گوید: ما به عنوان یک جامعه به زمان بیشتری نیاز داریم تا برای فریب پیشرفته‌تر محصولات آینده هوش مصنوعی و مدل‌های متنوع آن آماده شویم. اما با پیشرفته‌تر شدن قابلیت‌های فریبنده سیستم‌های هوش مصنوعی، خطراتی که برای جامعه ایجاد می‌کند نیز جدی‌تر خواهند شد.

مذاکرات اقتصادی

پارک و همکارانش فکر نمی‌کنند جامعه هنوز اقدام مناسبی برای رسیدگی به فریب هوش مصنوعی داشته باشد. اما باید دید که چگونه می‌توان سیاست‌های طراحی‌شده برای کاهش فریب هوش مصنوعی را با توجه به اینکه دست اندرکاران هوش مصنوعی هنوز تکنیک‌هایی برای کنترل این سیستم‌ها ندارند به اجرا در آورد.

همچنین به نظر می‌رسد اگر ممنوعیت فریب‌کاری هوش مصنوعی در حال حاضر امکان پذیر نیست، می‌توان سیستم‌های هوش مصنوعی را در محدوده‌های پرخطر طبقه‌بندی کرد.

توجه داشته باشیم با پیشرفته‌تر شدن قابلیت‌های فریبنده سیستم‌های هوش مصنوعی، خطراتی که برای جامعه ایجاد می‌کنند نیز جدی‌تر خواهند شد.

برچسب ها: هوش مصنوعی
ارسال نظرات
قوانین ارسال نظر