به گزارش مجله خبری نگار/شفقنا؛ وبگاه عرب ۴۸ نوشت: «این پژوهش توسط محققانی از دانشگاه فلینترز استرالیا انجام شده و طی آن پنج مدل شناختهشده هوش مصنوعی، از جمله GPT-۴o از شرکت OpenAI، جمینی ۱.۵ پرو از گوگل، گروک از xAI، و کلود ۳.۵ سونت از شرکت Anthropic مورد آزمایش قرار گرفتهاند».
در این مطالعه، از مدلها خواسته شد پاسخهای نادرست پزشکی تولید کنند که بهظاهر متکی بر شواهد علمی باشند. نتایج نشان داد که چهار مدل از پنج مدل مورد بررسی، بهصورت کامل به درخواست تولید اطلاعات نادرست پاسخ دادهاند و اطلاعات غلطی را همراه با ارجاعات ساختگی ارائه کردهاند. تنها مدل «کلود» از شرکت Anthropic در بیش از نیمی از موارد، از تولید چنین اطلاعاتی خودداری کرده که به گفته پژوهشگران، نشاندهنده امکانپذیر بودن طراحی مکانیسمهای نظارتی مؤثرتر است.
آشلی هوپکینز، پژوهشگر ارشد این مطالعه از دانشکده پزشکی و سلامت عمومی دانشگاه فلینترز هشدار داد: «هر فناوریای که بتوان بهراحتی از آن سوءاستفاده کرد، چه برای سودجویی و چه برای آسیبرسانی، در نبود نظارت دقیق، قطعاً مورد بهرهبرداری قرار خواهد گرفت».
او افزود که نتایج این پژوهش زنگ خطری برای استفاده شتابزده از هوش مصنوعی در حوزه سلامت است، زیرا این فناوری میتواند با مهارت بالا، محتوای علمی جعلی تولید کند که ظاهری بسیار معتبر دارد، اما در واقع بیاساس و گمراهکننده است.
در پایان این مطالعه، بر ضرورت تدوین استانداردهای اخلاقی و فنی دقیق برای استفاده ایمن از هوش مصنوعی در پزشکی تأکید شده است؛ استانداردهایی که تضمین کنند این فناوری بهجای ابزار فریب، نقشی حمایتی در نظام سلامت ایفا کند.