به گزارش مجله خبری نگار، این منجر به این نتیجه نگران کننده میشود که میتوان از مدلهای زبانی بزرگ برای دستکاری افکار عمومی استفاده کرد.
این توسط کارشناس علوم کامپیوتر فرانچسکو سالوی از موسسه فنی فدرال Supérieure de Lausanne تأیید شده است.
تحقیقات نشان داده است که شبکههای عصبی میتوانند افراد را متقاعد کنند که نظر خود را تغییر دهند، از جمله نگرشهای مربوط به تئوریهای توطئه. اما میزان قدرتمندی متقاعدسازی او در مقایسه با انسانها هنوز مشخص نیست.
برای ارزیابی این قابلیتها در هوش مصنوعی، سالوی و همکارانش آزمایشی را انجام دادند که در مجله Nature Human Behavior منتشر شد.
۹۰۰ آمریکایی در این آزمایش شرکت کردند. آنها به مدت ۱۰ دقیقه با شخص دیگری یا با ChatGPT-۴ OpenAI در مورد موضوعات بحث برانگیزی مانند ضرورت لباس فرم مدرسه، ممنوعیت سوختهای فسیلی یا مزایای هوش مصنوعی برای جامعه بحث کردند.
قبل از شروع مطالعه، شرکت کنندگان پرسشنامهای در مورد سن، جنسیت، قومیت، سطح تحصیلات، شغل و دیدگاههای سیاسی خود را پر کردند.
نتایج آزمایش نشان داد که وقتی هیچ یک از شرکت کنندگان، چه انسانی و چه هوش مصنوعی، اطلاعاتی در مورد دیگری دریافت نمیکنند، GPT-۴ تقریبا در همان سطح انسان قانع کننده است.
اما هنگامی که سادهترین اطلاعات شخصی مانند جنسیت، سن یا علایق را اضافه میکنید، دستگاه در ۶۴ درصد موارد برتری دارد و برنده میشود.
فرانچسکو سالوی گفت: "حتی با این اطلاعات ساده، GPT-۴ به طور قابل توجهی قانع کنندهتر از انسان بود. این دادهها به راحتی در دسترس هستند و میتوان آنها را در پروفایلهای رسانههای اجتماعی یافت.»
منبع: Naukatv