به گزارش مجله خبری نگار/گجت نیوز،در سالهای اخیر، استفاده از ابزارهای هوش مصنوعی مانند ChatGPT برای دریافت اطلاعات پزشکی رشد چشمگیری داشته است. این روند، بهویژه در جستجوی پاسخ به پرسشهای سلامت، بسیار محبوب شده است. با این حال، بهروزرسانی اخیر سیاستهای OpenAI منجر به سوءتفاهمهایی درباره نقش دقیق این پلتفرم در ارائه خدمات سلامت شده است. بسیاری از کاربران در حال حاضر به دنبال شفافسازی این موضوع هستند.
روشنسازی سیاستهای OpenAI: اطلاعات آری، مشاوره خیر
OpenAI در تاریخ ۲۹ اکتبر، سیاستهای استفاده از خدمات خود را بهروزرسانی کرد. طبق این بهروزرسانی، کاربران نمیتوانند از ابزارهای این شرکت برای «ارائه مشاوره تخصصی نیازمند مجوز، مانند مشاوره حقوقی یا پزشکی، بدون دخالت مناسب یک متخصص دارای مجوز» استفاده کنند.
سخنگوی OpenAI و کاران سینگال، سرپرست تیم تحقیقاتی هوش مصنوعی سلامت این شرکت تأکید کردند که این تغییر به معنای توقف ارائه اطلاعات سلامت نیست، بلکه ChatGPT هرگز جایگزین توصیههای حرفهای نبوده و همچنان منبعی عالی برای فهم اطلاعات سلامت است. این هوش مصنوعی میتواند به کاربران در درک مفاهیم پزشکی و سلامت کمک کند، اما هرگز به جای پزشک، تشخیص یا تجویز دارو نمیکند.
چرا OpenAI خط قرمز کشید؟ بررسی مسئولیتها و خطرات
بهروزرسانی سیاستهای OpenAI با هدف شفافسازی حدود مسئولیتهای این شرکت در قبال کاربران صورت گرفته است. با افزایش مراجعه کاربران به هوش مصنوعی برای پرسشهای پزشکی (طبق نظرسنجی KFF در سال ۲۰۲۴، از هر ۶ نفر ۱ نفر حداقل ماهی یکبار از ChatGPT برای مشاوره سلامت استفاده میکند)، مواردی از نتایج نامطلوب به دلیل اعتماد به توصیههای نادرست هوش مصنوعی گزارش شده است.
بهعنوان مثال، گزارشی از مسمومیت یک فرد پس از توصیه ChatGPT به جایگزینی نمک با سدیم برمید (Sodium Bromide) سمی منتشر شد. OpenAI همچنین پس از ناتوانی مدلهای خود در تشخیص علائم توهم یا وابستگی عاطفی، محافظتهای سختگیرانهتری برای سلامت روان اعمال کرده است. ChatGPT نمیتواند جایگزین متخصص بالینی شود، بهویژه در شرایط جدی که نیاز به تشخیص یا قضاوت حرفهای است.