به گزارش مجله خبری نگار،گاهی اوقات، منابعی که از حقایق موجود در سایت پشتیبان میکنند، باید دقیقتر یا کاملتر باشند. گاهی اوقات منابع آن کاملا جعلی هستند. برای رفع این مشکل، محققان یک سیستم هوش مصنوعی برای بررسی و بهبود کیفیت مراجع ویکیپدیا ایجاد کردهاند.
SIDE
این سیستم هوش مصنوعی که SIDE نام دارد، توسط فابیو پترونی و همکارانش در Samaya AI که یک شرکت مستقر در لندن است ساخته شده است. این سیستم در مطالعهای که در ۱۹ اکتبر درمجله Nature Machine Intelligence منتشر شد، توضیح داده شد.
SIDE ادعاهای مطرح شده در مقالات ویکی پدیا و منابع حمایتی را تجزیه و تحلیل میکند. این هوش مصنوعی میتواند تشخیص دهد که آیا یک مرجع مرتبط و قابل اعتماد است یا نه، و همچنین میتواند جایگزینهای بهتری را از دیگر منابع در اینترنت پیشنهاد دهد.
محققان SIDE را با استفاده از مقالات برجسته ویکی پدیا آموزش دادند و در آموزش آن کیفیت بالا در نظر گرفته شد و مورد توجه ویراستاران و مدیران سایتها قرار گرفت.
سپس محققان SIDE را بر روی مقالات برجسته دیگری که قبلاً ندیده بود آزمایش کردند. آنها متوجه شدند که تقریباً در نیمی از موارد، توصیه اصلی SIDE برای یک مرجع قبلاً در گزارش استفاده شده است. برای بقیه، گزینههای مختلفی را ارائه کرد.
همچنین محققان از گروهی از کاربران ویکی پدیا خواستند تا مراجع موجود را با منابع پیشنهادی SIDE مقایسه کنند. آنها متوجه شدند که ۲۱ ٪ از کاربران مراجع تولید شده توسط هوش مصنوعی را ترجیح میدهند، ۱۰ ٪ موارد اصلی را ترجیح میدهند و ۳۹ ٪ هیچ ترجیحی ندارند.
این مطالعه نشان میدهد که هوش مصنوعی میتواند با فیلتر کردن منابع بد و یافتن منابع بهتر، به افزایش قابلیت اطمینان منابع ویکیپدیا کمک کند. الکساندرا اورمان، دانشمند ارتباطات محاسباتی در دانشگاه زوریخ سوئیس، میگوید: این سیستم میتواند بهتر باشد و همچنان به نظارت انسانی نیاز دارد.
او میگوید که سیستم میتواند به شناسایی نقل قولهایی که ممکن است مناسب نباشند کمک کند، اما سؤال واقعی این است که جامعه ویکیپدیا برای چه چیزی ارزش قائل هستند.
همچنین اورمان مشاهده میکند که بسیاری از کاربران ویکی پدیا که نتایج SIDE را ارزیابی کردهاند، ترجیحی برای هیچ یک از مراجع نداشتند. او توضیح میدهد که در این موارد، آنها همچنان جلو میروند و استناد مربوطه را به صورت آنلاین جستجو میکنند.
نوح جیانسیراکوسا، متخصص هوش مصنوعی در دانشگاه بنتلی در والتهام ماساچوست، با توجه به شهرت برخی رباتهای چت مانند ChatGPT برای ساختن یا نقل قول اشتباه منابع، بیان میکند که استفاده از هوش مصنوعی برای کمک به شناسایی منابع ممکن است به نظر طعنه آمیز بیاید، زیرا برخی از رباتها مانند ChatGPT به خاطر ساخت و یا نقل قول نادرست منابع شهرت دارند. وی تأکید میکند که خیلی مهم است که به یاد داشته باشید مدلهای زبان هوش مصنوعی دامنه گستردهتری نسبت به رباتهای چت دارند.