کد مطلب: ۵۳۹۰۶۳
|
|

آیا هوش مصنوعی جدید خطری برای بشریت است؟

آیا هوش مصنوعی جدید خطری برای بشریت است؟
همه‌چیز از اخراج سم آلتمن خالق «چت‌جی‌پی تی» شروع شد و خیلی‌ها معتقدند هوش‌مصنوعی جدید اوپن‌ای آی می‌تواند از توانایی‌های انسان پیشی بگیرد و برای همین تهدیدی برای بشر باشد

به گزارش مجله خبری نگار، این روز‌ها اخباری از توسعه هوش عمومی مصنوعی و پروژه Q‌Star توسط شرکت OpenAI منتشر شده است؛ اما هوش مصنوعی کیواستار چیست و چرا باعث نگرانی شده است؟ ماجرا از این قرار است که شرکت OpenAI مالک هوش‌مصنوعی معروف «چت‌جی‌پی تی» این روز‌ها با حواشی زیادی روبه‌رو شده است. سم آلتمن، مدیرعامل این شرکت و مخترع چت‌جی‌پی تی به‌دلایل نامعلومی از سمت خود بر کنار شد و به‌تازگی دوباره به صندلی مدیرعاملی OpenAI بازگشت. برخی اخبار حاکی از آن بودند که سم آلتمن به‌دلیل نگرانی پژوهشگران از توسعه یک هوش مصنوعی جدید و قدرتمند از سمت خود اخراج شده است. ظاهرا شرکت OpenAI پروژه جدیدی با نام Q‌Star را در دستور کار خود قرار داده که به‌گفته برخی افراد می‌تواند بشریت را تهدید کند. در ادامه به‌نقل از «گجت نیوز» به این موضوع می‌پردازیم.

چرا کیواستار نگران کننده است؟

همان‌طور که گفتیم، همه چیز از اخراج سم آلتمن از شرکت OpenAI آغاز شد. پس از آن نامه‌ای در رسانه‌ها افشا شد که در آن، پژوهشگرانی از شرکت OpenAI به هیئت‌مدیره درباره کشف یک هوش مصنوعی قدرتمند که می‌تواند حیات بشریت را تهدید کند، هشدار داده بودند.

رسانه The Information در گزارشی ادعا کرد، گروهی از دانشمندان به رهبری دانشمند ارشد شرکت یعنی ایلیا سوتسکور در اوایل امسال به پیشرفت بزرگی در حوزه هوش مصنوعی دست یافتند. آن‌ها در ادامه، پروژه جدیدی از هوش مصنوعی با نام کیواستار را آغاز کردند. طبق این گزارش، مدل جدید هوش مصنوعی که توسط این گروه توسعه داده شده، در واقع یک هوش عمومی مصنوعی است که می‌تواند مسائل اساسی ریاضی را حل کند. چنین پیشرفت بزرگی، نگرانی‌هایی را در بین برخی کارکنان و پژوهشگران به‌وجود آورده است. این افراد به این دلیل نگران هستند که به باور آن ها، هوش مصنوعی جدید شرکت ایمنی کافی برای تجاری‌سازی را ندارد.

AGI چه تفاوتی با هوش مصنوعی فعلی دارد؟

هوش مصنوعی کیواستار الگوریتمی است که به‌تن‌هایی می‌تواند مسائل ریاضی پایه را حل کند. این هوش مصنوعی حتی توانایی حل کردن مسائلی را که بخشی از داده‌های آموزشی آن نبوده‌اند نیز دارد. چنین پیشرفتی یک جهش بزرگ به‌سوی توسعه هوش عمومی مصنوعی یا AGI محسوب می‌شود. هوش عمومی مصنوعی، نوع جدیدی از AI است که از هوش مصنوعی فعلی، بسیار پیشرفته‌تر است. مدل‌های فعلی می‌توانند متن و تصویر تولید کنند یا به برخی از سوالات کاربران که در داده‌های آموزشی آن وجود دارد، پاسخ بگویند؛ اما هوش عمومی مصنوعی می‌تواند هر کاری را که انسان قادر به انجام آن است، انجام دهد و حتی در برخی موارد از توانایی‌های بشر نیز فراتر برود. در واقع هوش عمومی مصنوعی یا AGI می‌تواند مفاهیم را درک کند، مسائل پیچیده را حل کند، خلاقیت داشته باشد و با محیط در تعامل باشد. هوش عمومی مصنوعی مانند مغز انسان از داده‌ها استفاده می‌کند و خودش به‌تن‌هایی می‌تواند یادگیری و تصمیم‌گیری داشته باشد و حتی از اشتباهات خود درس بگیرد. ظاهرا ایلیا سوتسکور و شرکت OpenAI با پروژه کیواستار توانسته‌اند به پیشرفت خیره‌کننده‌ای در این زمینه دست یابند.

کیواستار هم اکنون چه ویژگی دارد؟

کیواستار توانسته است مانند انسان‌ها، استدلال و حل مسئله را انجام دهد. چنین پیشرفتی با ادغام تیم‌های Math Gen و Code Gen در شرکت OpenAI با رهبری ایلیا سوتسکور حاصل شده است. هوش مصنوعی کیو‌استار هم اکنون می‌تواند مسائل ریاضی را در سطح دانش‌آموزان ابتدایی انجام دهد که چنین دستاوردی شاید در نگاه اول کوچک باشد، اما باعث شده محققان به آینده هوش عمومی مصنوعی امیدوارتر شوند.
حل مسائل ریاضی می‌تواند یک مرز برای توسعه هوش مصنوعی مولد باشد. هوش مصنوعی فعلی از توانایی زیادی برای نوشتن، ترجمه، تولید عکس و حتی پیش‌بینی آماری برخوردار است، اما اگر هوش مصنوعی بتواند مسائل ریاضی را که فقط یک پاسخ درست برای آن‌ها وجود دارد، حل کند، آن گاه می‌توانیم به این نتیجه برسیم که این فناوری استدلال نزدیک‌تری به هوش انسانی دارد.

مگر حل مسائل ریاضی نگران‌کننده است؟

این‌که هوش مصنوعی بتواند مسائل ریاضی یا مسائل علمی را حل کند، نه‌تن‌ها موضوع نگران‌کننده‌ای نیست، بلکه می‌تواند یک دستاورد بزرگ و امیدوارکننده برای پیشرفت این فناوری باشد؛ اما بر اساس گزارش‌ها، در نامه‌ای که برخی پژوهشگران به هیئت‌مدیره شرکت OpenAI ارسال کردند، توانایی بالقوه این هوش مصنوعی در تسریع پیشرفت علمی، نگران‌کننده خوانده شده بود. همچنین این پژوهشگران، اقدامات ایمنی به‌کار رفته توسط شرکت OpenAI را ناکافی دانسته بودند. حتی توسعه این مدل جدید هوش مصنوعی باعث اعتراض برخی از کارکنان شرکت OpenAI شده و آن‌ها پروژه Q‌Star را تهدیدکننده بشریت می‌دانند و معتقدند چنین پیشرفتی، امکان ایجاد مدل‌های هوش مصنوعی بسیار قوی را فراهم می‌کند.

بر اساس گزارش‌های منتشرشده، هوش مصنوعی کیواستار از توانایی استدلال منطقی و درک مفاهیم انتزاعی برخوردار است. تاکنون هیچ مدل هوش مصنوعی به این سطح از توانایی نرسیده بود و این یک پیشرفت مهم و بزرگ محسوب می‌شود، اما نکته نگران‌کننده این جاست که این پیشرفت می‌تواند به رفتار‌ها یا تصمیم‌های غیرقابل پیش‌بینی هوش مصنوعی منجر شود و حتی انسان‌های توسعه‌دهنده این هوش مصنوعی نیز نمی‌توانند این رفتار‌ها یا تصمیم‌ها را پیش‌بینی کنند.

یادگیری عمیق با قابلیت فرا انسانی

یکی از محققان به نام سوفیا کالانوفسکا در این باره می‌گوید، این مدل جدید قادر است یادگیری عمیق را با قوانین برنامه‌ریزی شده توسط انسان ترکیب کند و به این ترتیب، قدرتمندتر و همه‌کاره‌تر از مدل‌های فعلی هوش مصنوعی می‌شود. این موضوع درنهایت به ایجاد یک مدل هوش مصنوعی جدید منجر می‌شود که نه‌تن‌ها از داده‌ها یاد می‌گیرد، بلکه مانند انسان‌ها به استدلال می‌پردازد و به این شکل، کنترل و پیش‌بینی رفتار‌های آن دشوار می‌شود. سم آلتمن در یکی از مصاحبه‌های خود ابراز امیدواری کرده بود که در دهه آینده بتوانیم به هوش عمومی مصنوعی دست پیدا کنیم.

این نوع جدید از هوش مصنوعی توانایی درک، یادگیری و به‌کارگیری دانش در حوزه‌های مختلف را درست مانند هوش انسانی دارد و به همین دلیل می‌تواند در بسیاری از زمینه‌ها حتی از توانایی‌های انسان نیز پیشی بگیرد. چنین توانایی و قدرتی درنهایت ممکن است مشکلاتی در کنترل این هوش مصنوعی، حفظ ایمنی آن و مشکلات اخلاقی ایجاد کند، اما محققان می‌گویند این هوش مصنوعی می‌تواند تصمیم‌هایی را اتخاذ کند یا اقداماتی را انجام دهد که خارج از کنترل یا درک انسان است. قابلیت‌های پیشرفته Q‌Star همچنین ممکن است منجر به سوءاستفاده‌های احتمالی یا پیامد‌های ناخواسته‌ای شود. اگر افراد نادرستی بتوانند به چنین هوش مصنوعی قدرتمند و بزرگی دست پیدا کنند، ممکن است مشکلات زیادی را برای بشریت به‌وجود بیاورند.

در هر صورت با وجود تمام این نگرانی‌ها، هنوز اطلاعات زیادی درباره پروژه کیو‌استار منتشر نشده است، اما هر چه هست، توسعه هوش عمومی مصنوعی و پروژه‌ای مانند Q‌Star به بررسی‌های بیشتری نیاز دارد و محققان امیدوارند که چارچوب‌های اخلاقی و ایمنی در چنین پروژه‌هایی در نظر گرفته شود.

منبع: خراسان

ارسال نظرات
قوانین ارسال نظر