کد مطلب: ۶۲۳۲۴۶
|
|
۲۲ ارديبهشت ۱۴۰۳ - ۲۱:۴۲

فریب انسان توسط تکنولوژی

فریب انسان توسط تکنولوژی
این روز‌ها مقالات و یادداشت‌های زیادی در رسانه‌های متعدد جهان در خصوص هوش مصنوعی و کارکرد آن منتشر می‌شود.

به گزارش مجله خبری نگار/رسالت: این روز‌ها مقالات و یادداشت‌های زیادی در رسانه‌های متعدد جهان در خصوص هوش مصنوعی و کارکرد آن منتشر می‌شود. مخرج مشترک این مقالات، حتی آن‌هایی که هوش مصنوعی را صرفا یک فرصت می‌دانند، نگرانی نسبت به از دست رفتن مدیریت آن توسط انسان‌هاست. سؤال اصل اینجاست که هوش مصنوعی چگونه می‌تواند علیه سازنده خود، یعنی انسان طغیان کند؟! به عبارت بهتر، آیا از اینکه هوش مصنوعی از کنترل خارج‌شده و دست به فریب انسان بزند، باید هراس داشت؟ نتایج یک مطالعه جدید نشان می‌دهد که این اتفاق هم‌اکنون در حال رخ دادن است.

برنامه‌های هوش مصنوعی امروزی باهدف اعلامی گردش اطلاعات صحیح طراحی‌شده‌اند. بااین‌حال، یافته‌های جدید موارد نگران‌کننده‌ای را در این زمینه آشکار کرده است: هوش مصنوعی در حال یادگیری نحوه فریب انسان‌ها است. طبق گزارش محققان در مجله پترنز (Pattens) هوش مصنوعی دربازی‌های آنلاین و همچنین در دور زدن نرم‌افزار‌های ضد بات، توانایی فریب انسان‌ها را نشان داده است. این موضوع سؤالات مهمی را در مورد ماهیت هوش مصنوعی و خطرات بالقوه آن مطرح می‌کند.

پیتر پارک، پژوهشگر هوش مصنوعی در موسسه فناوری ماساچوست، با اشاره به اینکه این نمونه‌ها ممکن است ساده و کم‌اهمیت به نظر برسند، هشدار می‌دهد که چنین مواردی می‌توانند در دنیای واقعی مشکلات و پیامد‌های جدی به همراه داشته باشند. وی در این خصوص به خبرگزاری فرانسه گفت: «این ظرفیت‌ها و قابلیت‌های خطرناک معمولا بعدازاین که به واقعیت می‌پیوندند، کشف می‌شوند.»

محقق موسسه فناوری ماساچوست معتقد است: برخلاف نرم‌افزار‌های سنتی، برنامه‌های هوش مصنوعیِ مبتنی بر یادگیری عمیق، کدگذاری نمی‌شوند، بلکه از طریق فرآیندی شبیه به پرورش گزینشی گیاهان توسعه می‌یابند. در این فرآیند، رفتاری که به نظر قابل پیش‌بینی و کنترل‌شده می‌رسد، می‌تواند به‌سرعت در دنیای واقعی غیرقابل‌پیش‌بینی شود.

ازاین‌رو انسان‌ها می‌توانند در زمان حال و آینده، با برخی پدیده‌های پیش‌بینی‌نشده و خطرناک در قبال این موضوع مواجه شوند که مواجهه با آن قطعا سخت و درپاره‌ای از موارد ناممکن است.

محققان مؤسسه فناوری ماساچوست یک برنامه کاربردی هوش مصنوعی به نام «سیکرو» را که توسط متا توسعه‌یافته را در همین راستا موردبررسی قراردادند. این برنامه پیش‌تر با ترکیب الگوریتم‌های طبیعی تشخیص زبان و استراتژی‌های مختلف موفق به شکست دادن انسان‌ها در بازی دیپلماسی شده بود. فیسبوک، شرکت مادر متا سال ۲۰۲۲ از این دستاورد که جزئیات آن همان سال در قالب مقاله‌ای در مجله ساینس منتشر شد، تمجید کرده بود! پیتر پارک نسبت به شرایطی که بنا به گزارش تشریحی متا بر اساس آن سیکرو در بازی دیپلماسی موفق به شکست انسان‌ها شده بود، تردید داشت. متا در آن گزارش مدعی شده بود که این برنامه هوش مصنوعی «قادر به انجام خیانت یا اعمال غیرمنصفانه نیست. اما اکنون ثابت‌شده که این ادعای متا کاملا دروغین است!

برای مثال، محققان دریافتند که برنامه هوش مصنوعی سیکرو هنگام بازی در نقش فرانسه موفق شد انگلستان را که نقش آن را یک بازیکن انسانی ایفا می‌کرد، فریب دهد. متا در بیانیه‌ای که به دست خبرگزاری فرانسه رسید، صحت ادعا‌ها مبنی بر ظرفیت و توانایی‌های سیکرو برای فریب را رد نکرد، اما یادآور شد که این برنامه «تن‌ها یک پروژه تحقیقاتی» است و «برای انجام بازی دیپلماسی» طراحی‌شده است!

ارسال نظرات
قوانین ارسال نظر