به گزارش مجله خبری نگار، هدف از پروژه Galactica یا برنامه هوش مصنوعی فیس بوک افزایش اطلاعات در علوم مختلف با استفاده از هوش مصنوعی برای غربال کردن ۴۸ میلیون مقاله و کتاب درسی بود. به گفته کارشناسانی که این برنامه را آزمایش کرده اند، این برنامه انواع مزخرفات را مطرح میکند، و برخی از چیزهایی که میگوید «توهینآمیز و خطرناک» بوده اند.
این آزمایش همچنین دستورالعملهای نادرستی در مورد نحوه ساخت ناپالم مادهای که برای ساختن بمب استفاده میشود، در وان حمام ارائه کرده است. چند روز پس از انتشار این نرم افزار، روسای متا مجبور شدند آن را از اینترنت خارج کنند.
این شبکه اجتماعی اعلام کرده است: "هیچ تضمینی برای خروجی واقعی یا قابل اعتماد مدلهای زبان، حتی مدلهای بزرگی که بر روی دادههای با کیفیت بالا مانند Galactica آموزش دیدهاند، وجود ندارد. هرگز توصیههای یک مدل زبان را بدون بررسی آن دنبال نکنید. "
این شرکت همچنین توضیح داده است که این برنامه به خوبی کار نمیکند، زیرا اطلاعات کمتری در مورد یک موضوع خاص در دسترس است.
فیس بوک تأکید کرده است: "مدلهای زبانی بعضا قابل اعتماد هستند، اما اغلب حاوی اشتباه هستند. برخی از متون تولید شده در Galactica ممکن است بسیار معتبر و بسیار قابل اعتماد به نظر برسند، اما میتوانند از جنبههای مهم اشتباه باشند. "
این گروه با اعلام پایان آزمایش برنامه مذکور تصریح کرده است: "از همه شما برای آزمایش مدل Galactica متشکرم. ما به خاطر بازخوردی که تاکنون از جامعه دریافت کرده ایم قدردانی میکنیم و آزمایش را فعلاً متوقف کرده ایم. مدلهای ما در دسترس محققانی است که میخواهند درباره این کار و نتایج بیشتر بدانند. "