کد مطلب: ۸۴۰۲۴۷
|
|
۱۷ خرداد ۱۴۰۴ - ۰۹:۵۹

توسعه یک «دروغ‌سنج» هوش مصنوعی

توسعه یک «دروغ‌سنج» هوش مصنوعی
دانشمندان موسسه فناوری ماساچوست (MIT) برنامه‌ای را توسعه داده‌اند که به عنوان یک «دروغ‌سنج» عمل می‌کند و سیستم‌های هوش مصنوعی را مجبور می‌کند تا تردید‌ها یا عدم قطعیت‌های خود را به طور صادقانه گزارش دهند.

به گزارش مجله خبری نگار، متخصصان موسسه فناوری ماساچوست (MIT) استارتاپی راه‌اندازی کرده‌اند که هدف آن آموزش سیستم‌های هوش مصنوعی برای شناسایی محدودیت‌های دانش خود و حذف خودکار تصمیمات غیرقابل اعتماد است.

پلتفرم توسعه‌یافته توسط این شرکت، قابلیت اطمینان نتیجه‌گیری‌های هوش مصنوعی را فوراً ارزیابی می‌کند و به این سیستم‌ها کمک می‌کند تا از بروز خطا در زمینه‌های حساسی مانند داروسازی، مخابرات و رانندگی خودران جلوگیری کنند.

شرکت هوش مصنوعی تمیس (Themis AI) پلتفرمی به نام کپسا (Capsa) توسعه داده است که می‌تواند مدل‌های مختلف یادگیری ماشین، از جمله مدل‌های زبان بزرگ (LLM) مانند ChatGPT را مدیریت کند.

این پلتفرم داده‌های پردازش‌شده توسط هوش مصنوعی را تجزیه و تحلیل می‌کند تا هرگونه نشانه‌ای از شک، سوگیری یا داده‌های ناقص را تشخیص دهد. به عنوان مثال، اگر مدل بر اساس داده‌های ناکافی پیش‌بینی کند، کپسا آن را غیرقابل اعتماد طبقه‌بندی کرده و تنظیمات لازم را پیشنهاد می‌دهد.

به طور خاص در بخش داروسازی، این پلتفرم میزان پیش‌بینی‌های مبتنی بر داده‌های واقعی را تأیید می‌کند و آنها را از حدس‌های بدون پشتوانه متمایز می‌کند. این پلتفرم دارای سرعت پردازش فوق‌العاده سریع تنها کسری از ثانیه است که آن را حتی برای استفاده در دستگاه‌های نهایی مانند پردازنده‌های گوشی‌های هوشمند نیز مناسب می‌سازد.

این پلتفرم در حال حاضر توسط شرکت‌های مخابراتی برای خودکارسازی شبکه‌ها، شرکت‌های نفت و گاز برای تحلیل تصاویر لرزه‌نگاری و شرکت‌های داروسازی برای پیش‌بینی خواص دارو‌ها استفاده می‌شود.

این فناوری می‌تواند امنیت هوش مصنوعی را افزایش دهد، شفافیت آن را بالا ببرد و اعتماد به فناوری‌های آینده را افزایش دهد.

برچسب ها: هوش مصنوعی دروغ
ارسال نظرات
قوانین ارسال نظر