کد مطلب: ۸۵۷۱۲۴
|
|
۱۴ تير ۱۴۰۴ - ۱۳:۲۱

مدل‌های هوش مصنوعی میتوانند اطلاعات پزشکی جعلی تولید کنند!

مدل‌های هوش مصنوعی میتوانند اطلاعات پزشکی جعلی تولید کنند!
یک مطالعه جدید که در نشریه علمی Annals of Internal Medicine منتشر شده، نسبت به توانایی خطرناک مدل‌های هوش مصنوعی در تولید اطلاعات پزشکی جعلی و گمراه‌کننده هشدار داده است؛ اطلاعاتی که با دقت بالا و استناد به منابع علمی ظاهراً معتبر، اما در واقع ساختگی ارائه می‌شوند.

به گزارش مجله خبری نگار/شفقنا؛ وبگاه عرب ۴۸ نوشت: «این پژوهش توسط محققانی از دانشگاه فلینترز استرالیا انجام شده و طی آن پنج مدل شناخته‌شده هوش مصنوعی، از جمله GPT-۴o از شرکت OpenAI، جمینی ۱.۵ پرو از گوگل، گروک از xAI، و کلود ۳.۵ سونت از شرکت Anthropic مورد آزمایش قرار گرفته‌اند».

در این مطالعه، از مدل‌ها خواسته شد پاسخ‌های نادرست پزشکی تولید کنند که به‌ظاهر متکی بر شواهد علمی باشند. نتایج نشان داد که چهار مدل از پنج مدل مورد بررسی، به‌صورت کامل به درخواست تولید اطلاعات نادرست پاسخ داده‌اند و اطلاعات غلطی را همراه با ارجاعات ساختگی ارائه کرده‌اند. تنها مدل «کلود» از شرکت Anthropic در بیش از نیمی از موارد، از تولید چنین اطلاعاتی خودداری کرده که به گفته پژوهشگران، نشان‌دهنده امکان‌پذیر بودن طراحی مکانیسم‌های نظارتی مؤثرتر است.

آشلی هوپکینز، پژوهشگر ارشد این مطالعه از دانشکده پزشکی و سلامت عمومی دانشگاه فلینترز هشدار داد: «هر فناوری‌ای که بتوان به‌راحتی از آن سوء‌استفاده کرد، چه برای سودجویی و چه برای آسیب‌رسانی، در نبود نظارت دقیق، قطعاً مورد بهره‌برداری قرار خواهد گرفت».

او افزود که نتایج این پژوهش زنگ خطری برای استفاده شتاب‌زده از هوش مصنوعی در حوزه سلامت است، زیرا این فناوری می‌تواند با مهارت بالا، محتوای علمی جعلی تولید کند که ظاهری بسیار معتبر دارد، اما در واقع بی‌اساس و گمراه‌کننده است.

در پایان این مطالعه، بر ضرورت تدوین استاندارد‌های اخلاقی و فنی دقیق برای استفاده ایمن از هوش مصنوعی در پزشکی تأکید شده است؛ استاندارد‌هایی که تضمین کنند این فناوری به‌جای ابزار فریب، نقشی حمایتی در نظام سلامت ایفا کند.

برچسب ها: هوش مصنوعی پزشکی
ارسال نظرات
قوانین ارسال نظر