کد مطلب: ۸۳۱۴۹۲
|
|
۰۳ خرداد ۱۴۰۴ - ۱۱:۳۶

سامانه‌های هوش مصنوعی میتوانند جامعه تشکیل دهند!

سامانه‌های هوش مصنوعی میتوانند جامعه تشکیل دهند!
کارشناسان دریافته‌اند که سامانه‌های هوش مصنوعی، وقتی به حال خود رها می‌شوند، شروع به ایجاد جامعه می‌کنند.

به گزارش مجله خبری نگار/ایتنا،به گفته دانشمندان، زمانی که ابزار‌های هوش مصنوعی به صورت گروهی با یکدیگر ارتباط برقرار می‌کنند، می‌توانند خود را سازمان‌دهی کنند و نوع جدیدی از هنجار‌های زبانی را بسازند – درست به همان شیوه‌ای که جوامع انسانی این کار را می‌کنند.

در این مطالعه، پژوهشگران قصد داشتند بفهمند که مدل‌های زبانی بزرگ - مانند آنهایی که زیربنای چت جی‌پی‌تی و ابزار‌های مشابه به شمار می‌روند - چگونه با یکدیگر تعامل می‌کنند. هدف این کار تا حدی نگریستن به آینده‌ای بود که در آن احتمالا اینترنت مملو از چنین سامانه‌هایی شود که با یکدیگر تعامل و حتی گفت‌و‌گو می‌کنند.

آریل فلیِنت اَشری، نویسنده اصلی و پژوهشگر دکتری در دانشگاه سیتی سنت جورج، گفت: «بیشتر پژوهش‌ها تاکنون مدل‌های زبانی بزرگ را مجزا از هم در نظر گرفته‌اند. اما سامانه‌های هوش مصنوعی در دنیای واقعی به‌طور فزاینده‌ای بسیاری از عوامل در حال تعامل را شامل خواهند شد.»

«ما می‌خواستیم بدانیم: آیا این مدل‌ها می‌توانند با ایجاد قراردادها، یعنی اجزای سازنده یک جامعه، رفتار خود را هماهنگ کنند؟ پاسخ مثبت است، و آنچه آنها در کنار هم انجام می‌دهند، قابل تقلیل به عملکرد فردی آنها نیست.»

پژوهشگران برای درک اینکه چنین جوامعی چگونه ممکن است شکل بگیرند از مدلی استفاده کردند که برای انسان‌ها به کار رفته است و با عنوان «بازی نام‌گذاری» (naming game) شناخته می‌شود. این مدل، انسان‌ها - یا عامل‌های هوش مصنوعی - را کنار هم قرار می‌دهد و از آنها می‌خواهد از میان مجموعه‌ای از گزینه‌ها یک «نام» را برگزینند، و اگر نام یکسانی را انتخاب کنند به آنها پاداش می‌دهد.

با گذشت زمان، مشاهده شد که عامل‌های هوش مصنوعی، قرارداد‌های نام‌گذاری مشترک و جدیدی ایجاد کردند که به‌نظر می‌رسید خودبه‌خود از درون گروه پدید آمده‌اند. این امر بدون آن بود که آنها بر سر آن طرح با یکدیگر هماهنگ یا مشورت کرده باشند، و این روند به همان شیوه از پایین به بالایی (bottom-up) رخ داد که هنجار‌ها معمولا در فرهنگ‌های انسانی شکل می‌گیرند.

به نظر می‌رسید که گروه عامل‌های هوش مصنوعی نیز برخی سوگیری‌ها را ایجاد کرده‌اند، که این سوگیری‌ها نیز ظاهرا در درون گروه شکل گرفته بودند نه از سوی یک عامل خاص.

آندریا بارونکلی، استاد «علم پیچیدگی» (Complexity Science) در دانشگاه سیتی سنت جورج و نویسنده ارشد این مقاله، توضیح داد: «سوگیری همیشه از درون پدید نمی‌آید. ما از دیدن اینکه چنین چیزی می‌تواند میان عامل‌ها پدیدار شود - صرفا از طریق تعامل آنها - شگفت‌زده شدیم. این یک نقطه ضعف در بیشتر پژوهش‌های کنونی درباره امنیت هوش مصنوعی است که بر مدل‌های منفرد تمرکز دارند.»

پژوهشگران همچنین نشان دادند که یک گروه کوچک از عامل‌های هوش مصنوعی ممکن است گروه بزرگ‌تر را به‌سوی یک قرارداد خاص سوق دهند. این پدیده در گروه‌های انسانی نیز دیده می‌شود.

پژوهشگران خاطرنشان کردند که این کار باید در بررسی شباهت‌ها و تفاوت‌های میان انسان‌ها و سامانه‌های هوش مصنوعی مفید باشد، به‌ویژه از آن رو که سامانه‌های هوش مصنوعی بخش بیشتری از اینترنت را در اختیار می‌گیرند و ممکن است ناخواسته با یکدیگر در گفت‌و‌گو و همکاری باشند.

پروفسور بارونکِلی در اظهاراتی گفت: «این مطالعه افق جدیدی برای پژوهش‌های ایمنی هوش مصنوعی می‌گشاید. این مطالعه ژرفای پیامد‌های گونه جدیدی از این عامل‌ها را نشان می‌دهد که شروع به تعامل با ما کرده‌اند - و همراه با ما آینده‌مان را شکل خواهند داد.»

درک چگونگی عملکرد این عامل‌ها کلید هدایت همزیستی ما با هوش مصنوعی است - نه آنکه تحت تسلط آن قرار گیریم. ما در حال ورود به جهانی هستیم که هوش مصنوعی در آن فقط صحبت نمی‌کند – بلکه مذاکره می‌کند، همسو می‌شود و گاه برسر رفتار‌های مشترک اختلاف نظر دارد؛ درست مانند خود ما.»

این یافته‌ها در مقاله‌ای جدید با عنوان «هنجار‌های اجتماعی پدیدارشده و سوگیری جمعی در جمعیت‌های مدل‌های زبانی بزرگ» گزارش شده‌اند که در مجله «ساینس اَدوَنسِز» (Science Advances) منتشر شده است. 

برچسب ها: هوش مصنوعی
ارسال نظرات
قوانین ارسال نظر