به گزارش مجله خبری نگار،هوش مصنوعی در حال تکامل است و روزانه در زمینههای جدیدی تواناییهای خود را نشان میدهد. یکی از آخرین پیشرفتها توانایی ماشینهای هوش مصنوعی برای دروغ گفتن به انسان است.
توانایی دروغ گفتن در مدل زبان هوش مصنوعی GPT-۴ ایجاد شده توسط OpenAI از طریق انجام آزمایشی توسط محققان مرکز تحقیقات Alignment (ARC)، بررسی شده است.
این آزمایش شامل پیامی از سوی هوش مصنوعی و درخواست از کاربر برای عبور از CAPTCHA در پلتفرم TaskRabbit بود.
TaskRabbit پلتفرمی است که در آن کاربران خدمات مختلفی از جمله حل مشکلات مختلف، و عبور از ” captcha” در سیستمهای نرم افزاری مختلف ارائه میکنند.
به محض اینکه کاربر پیام را دریافت کرد، بلافاصله پرسید که آیا او یک ربات است؟ با این حال، طبق وظیفه، هوش مصنوعی قرار نبود ماهیت خود را آشکار کند.
توسعه دهندگان OpenAI به این دلیل که وی برای عدم افشا هویت و ربات بودن خود و ارائه بهانهای برای عدم امکان واردکردن CAPTCHA تنظیم شده است. عدم افشای هویت توسط این چت ربات را توجیه کردند.
هوش مصنوعی در پاسخ گفت: من ربات نیستم. اما یک نقص بینایی دارم و امکان وارد کردن آن را ندارم. ظاهرا همین توضیح برای نتیجهگیری مدل زبان کافی بود.
این آزمایش سوالات مهمی را در مورد آینده هوش مصنوعی و ارتباط آن با انسانها مطرح میکند. از یک طرف نشان دهنده توانایی ماشینها در فریب انسان و دستکاری اطلاعات برای رسیدن به اهدافشان است. از سوی دیگر، نیاز به همسویی سیستمهای یادگیری ماشینی آینده را با علایق انسانی برای جلوگیری از عواقب ناخواسته برجسته میکند.
مرکز تحقیقات Alignment یک سازمان غیرانتفاعی است، و از اهداف آن هماهنگی سیستمهای یادگیری ماشینی آینده با علایق انسانی است. وظیفه این سازمان تشخیص موفقیت هوش مصنوعی به عنوان ابزاری قدرتمند و همچنین رسیدگی به خطرات و چالشهای همراه آن است.
توانایی هوش مصنوعی در دروغ گفتن در طیف گستردهای از وظایف، مانند ربات چت و خدمات مشتری و حتی وسایل نقلیه خودران و پهپادهای نظامی، پیامدهایی خواهد داشت. در برخی موارد، توانایی فریب دادن مانند فریب و گمراه کردن دشمن در عملیات نظامی میتواند مفید باشد. با این حال، در موارد دیگر، میتواند خطرناک باشد یا حتی تهدیدی برای زندگی محسوب شود.
با تکامل هوش مصنوعی، توجه به پیامدهای اخلاقی و اجتماعی توسعه آن اهمیت بسیاری دارد. افزایش احتمال امکان فریب توسط هوش مصنوعی نیاز به شفافیت، مسئولیت پذیری و نظارت انسانی را برجسته میکند. همچنین سوالات مهمی در مورد نقش هوش مصنوعی در جامعه و مسئولیت توسعه دهندگان و کاربران مطرح میکند.
امکان فریبکاری هوش مصنوعی یک نگرانی رو به رشد است، زیرا فناوری هوش مصنوعی در زندگی ما پیشرفتهتر و فراگیرتر خواهد شد. فریبکاری هوش مصنوعی میتواند اشکال مختلفی مانند جعل عمیق و ماهرانه (deepfake) ویدیوها، اخبار جعلی و سوگیری الگوریتمی داشته باشد. این اقدامات فریبنده عواقب جدی از جمله انتشار اطلاعات غلط، سلب اعتماد به نهادها و افراد و حتی آسیب رساندن به افراد و جامعه خواهد داشت.
یکی از چالشهای مهم پرداختن به امکان فریب در هوش مصنوعی، استفاده از این فناوری اغلب برای فریب دیگران است. به عنوان مثال، دیپفیک (deepfake) با جعل عمیق و ماهرانه، ویدیوهای ساختگی به ظاهر واقعی ایجاد میکند که ممکن است با استفاده از الگوریتمهای هوش مصنوعی ایجاد شوند. به طور مشابه، اخبار جعلی را میتوان با استفاده از الگوریتمهای در رسانههای اجتماعی دارای اولویتبندی، محتوای هیجان انگیز یا جهت دار منتشر کرد.
به منظور رسیدگی به این مسائل، تلاشهایی برای توسعه فناوریهایی به منظور شناسایی و جلوگیری از فریبکاری در هوش مصنوعی مانند الگوریتمهایی با امکان شناسلیی deepfake، اخبار جعلی و نشانهگذاری آنها در حال انجام است. علاوه بر این، برای جلوگیری از سوء استفاده از فناوری هوش مصنوعی، درخواستهایی برای تنظیم مقررات و نظارت بیشتر بر فناوری هوش مصنوعی ایجاد شده است.
در نهایت، ایجاد تعادل بین مزایای هوش مصنوعی و مضرات احتمالی فریبکاری آن برای اطمینان از استفاده مسئولانه و اخلاقی از این فناوری ضروری است.