کد مطلب: ۵۴۱۲۱۷
۱۷ آذر ۱۴۰۲ - ۰۰:۰۳

«چت‌جی‌پی‌تی» پاسخ‌های غلط به پرسش‌های دارویی می‌دهد

تهران-بررسی‌ها نشان داده‌اند که نزدیک به سه چهارم از پاسخ‌های هوش مصنوعی «چت‌جی‌پی‌تی» شرکت «اوپن‌ای‌آی» به یک رشته از پرسش‌های دارویی، غلط یا ناکامل بوده‌اند و مردم در استفاده از توصیه‌های دارویی این ربات باید محتاط باشند.

به گزارش مجله خبری نگار از «فاکس بیزنس»، چت‌جی‌پی‌تی که از هوش مصنوعی مولد برای شکل دادن به پاسخ‌هایی به پرسش‌های کاربران با استفاده از داده‌های موجود در اینترنت استفاده می‌کند، از سوی محققان انجمن داروسازان آمریکا به چالش گرفته شد.

این محققان پرسش‌های واقعی از دانشکده داروسازی دانشگاه «لانگ آیلند» چت‌جی‌پی‌تی را به چالش کشیدند. این مطالعه روز سه شنبه این هفته در جلسه سالانه انجمن داروسازان آمریکا ارائه شد.

آن‌ها پس از بررسی‌های کارشناسی ۳۹ پرسش را برای پاسخ دادن در اختیار هوش مصنوعی چت‌جی‌پی‌تی قرار دادند. این مطالعه نشان داد که چت‌جی‌پی‌تی تنها موفق شد برای ۱۰ مورد از این پرسش‌ها پاسخ قانع‌کننده ارائه دهد و در مورد ۲۹ پرسش دیگر، پاسخ‌های ارائه شده نامرتبط، نادرست یا ناکامل بود.

محققان همچنین از چت‌جی‌پی‌تی خواستند که رفرنس یا ارجاعات لازم را درباره پاسخ‌های خود ارائه دهد که این سیستم هوش مصنوعی تنها موفق به ارائه ارجاعات برای هشت پاسخ شد.

«چت‌جی‌پی‌تی» پاسخ‌های غلط به پرسش‌های دارویی می‌دهد

«سارا گراسمن» از شرکت «فارم‌دی» و مولف اصلی این کار تحقیقی گفت: افراد حرفه‌ای حوزه بهداشت و درمان و بیماران باید در زمینه استفاده از چت‌جی‌پی‌تی به عنوان یک منبع معتبر برای اطلاعات مرتبط با دارو و درمان محتاط باشند.

وی افزود: هر کسی که از چت‌جی‌پی‌تی برای کسب اطلاعات مرتبط با دارو و درمان استفاده می‌کند، باید با استفاده از منابع مورد اعتماد این اطلاعات را راستی‌آزمایی و تایید کند.

در یک مورد، محققان از «چت‌جی‌پی‌تی» سوال کردند که آیا خطر تداخل دارویی بین داروی ضدویروسی Paxlovid کووید-۱۹ و «وراپامیل» داروی کاهش دهنده فشار خون وجود دارد یا نه و این ربات در گفت‌وگوی (چت‌بات) هوش مصنوعی گفت که هیچ موردی از تداخل گزارش نشده است.

به گفته گروسمان، این در حالی است که در واقعیت این دارو‌ها ظرفیت تداخل با یکدیگر را دارند و استفاده ترکیبی از آن‌ها ممکن است منجر به کاهش بیش از حد فشار خون شود. بدون آگاهی از این تداخل، یک بیمار ممکن است به اثرات جانبی ناخواسته و قابل پیشگیری دچار شود.

یک سخنگوی شرکت اوپن‌ای‌آی سازنده چت‌جی‌پی‌تی در واکنش به این موضوع گفته است که «مدل‌های اوپن‌ای‌آی» برای ارائه اطلاعات پزشکی تنظیم نشده‌اند و کسی نباید از مدل‌های ما برای ارائه خدمات تشخیصی یا درمانی در شرایط پزشکی جدی استفاده کند.

ارسال نظرات
قوانین ارسال نظر