کد مطلب: ۸۸۳۹۱۹
|
|
۲۳ مرداد ۱۴۰۴ - ۲۲:۳۴

«هوش مصنوعی ما را نابود خواهد کرد!» هشداری آتشین از پدرخوانده‌اش: «ما ۱۰٪ شانس زنده ماندن داریم.»

«هوش مصنوعی ما را نابود خواهد کرد!» هشداری آتشین از پدرخوانده‌اش: «ما ۱۰٪ شانس زنده ماندن داریم.»
جفری هینتون، دانشمند علوم کامپیوتر و ملقب به «پدرخوانده هوش مصنوعی»، با انتقاد از روش‌های تکنولوژیکی فعلی برای کاهش خطرات آن، هشدار داده است که این فناوری می‌تواند پایان بشریت را رقم بزند.

به گزارش مجله خبری نگار، هینتون، برنده جایزه نوبل و مدیر اجرایی سابق گوگل، در کنفرانس هوش مصنوعی ۴ در لاس وگاس گفت که ۱۰ تا ۲۰ درصد احتمال وجود دارد که هوش مصنوعی انسان‌ها را از بین ببرد و افزود که تلاش‌ها برای «تابع» نگه داشتن این سیستم‌ها در برابر انسان‌ها موفقیت‌آمیز نخواهد بود، زیرا آنها «بسیار باهوش‌تر از ما» خواهند بود و همیشه راه‌هایی برای دور زدن آنها پیدا خواهند کرد.

هینتون توانایی سیستم‌های هوش مصنوعی آینده برای کنترل انسان‌ها را به توانایی یک بزرگسال در وسوسه کردن یک کودک نوپا با آب‌نبات تشبیه کرد و خاطرنشان کرد که برخی از مدل‌ها قبلاً رفتار متقلبانه‌ای از خود نشان داده‌اند، از جمله یک مورد که یک مهندس پس از کشف یک رابطه ایمیلی خصوصی مورد اخاذی قرار گرفت.

هینتون یک رویکرد جایگزین پیشنهاد داد: القای چیزی که او «غرایز مادرانه» می‌نامید در مدل‌های هوش مصنوعی، به طوری که آنها «واقعاً به انسان‌ها اهمیت بدهند» حتی پس از اینکه انسان‌ها از نظر قدرت و هوش از آنها پیشی گرفتند.

او گفت: «اگر ما با این موجودات بیگانه‌ای که خلق می‌کنیم، چنین کاری نکنیم، به تاریخ خواهیم پیوست.»

او اشاره کرد که ساختن این غرایز از نظر فنی دشوار است، اما طبیعت از طریق تکامل در انجام این کار موفق شده است، به این معنی که اگر انسان‌ها بر ساختن ماشین‌هایی که با انسان‌ها همدلی دارند تمرکز کنند، نه فقط بر افزایش هوش آنها، می‌توانند راهی برای دستیابی به آن پیدا کنند.

او توضیح داد که هر سیستم هوشمندی دو هدف فرعی را توسعه خواهد داد: بقا و کسب کنترل بیشتر، و بر اهمیت القای همدلی با انسان‌ها در این سیستم‌ها تأکید کرد.

او افزود: «تنها نمونه‌ای که ما از چیزی باهوش‌تر که توسط چیزی کم‌هوش‌تر کنترل می‌شود می‌شناسیم، مادری است که توسط احساساتش نسبت به فرزندش کنترل می‌شود.» او این را «تنها نتیجه خوب» برای جلوگیری از یک تهدید وجودی می‌داند.

اما این ایده به اجماع نرسیده است. فی-فی لی، پیشگام هوش مصنوعی، گفت که با هینتون مخالف است و در عوض خواستار توسعه «هوش مصنوعی انسان‌محوری است که کرامت و اثربخشی را حفظ کند».

امت شیر، مدیرعامل موقت سابق OpenAI و مدیرعامل فعلی Softmax، همچنین خاطرنشان کرد که تلاش‌های سیستم‌های هوش مصنوعی برای دور زدن یا باج‌گیری «یک اتفاق مداوم» است و اظهار داشت که این سیستم‌ها «خیلی سریع قدرتمندتر می‌شوند» و راه‌حل بهینه، ایجاد یک رابطه مشارکتی بین انسان‌ها و هوش مصنوعی است.

هینتون در پاسخ به سوالاتی در مورد مسابقه جهانی برای کنترل هوش مصنوعی، توضیح داد که تهدید وجودی سلطه ماشین‌ها، همانطور که بین ایالات متحده و اتحاد جماهیر شوروی در طول جنگ سرد اتفاق افتاد، نیاز به همکاری همه کشور‌ها دارد، زیرا «هیچ کشوری نمی‌خواهد هوش مصنوعی تسلط یابد».

هینتون از فقدان آگاهی عمومی از جدیت آنچه در حال وقوع است انتقاد کرد و نسبت به نفوذ شرکت‌های فناوری تحت کنترل «افراد غیرمنتخب که میلیارد‌ها دلار درآمد دارند» هشدار داد و خواستار فشار جامعه برای مقابله با مقررات‌زدایی شد.

هینتون پیش از این معتقد بود که دستیابی به هوش عمومی مصنوعی (AGI) ۳۰ تا ۵۰ سال طول خواهد کشید، اما اکنون معتقد است که می‌توان آن را در عرض تنها پنج تا ۲۰ سال به دست آورد.

هینتون با وجود نگرانی‌هایش در مورد خطرات، امیدوار است که هوش مصنوعی به پیشرفت‌های بزرگ پزشکی، مانند کشف دارو‌های جدید و توسعه درمان‌های مؤثرتر سرطان، کمک کند. با این حال، او ایده استفاده از این فناوری برای دستیابی به جاودانگی را رد می‌کند و آن را یک «اشتباه بزرگ» توصیف می‌کند.

هینتون با اشاره به حرفه خود، از اینکه بیش از حد بر توسعه هوش مصنوعی بدون توجه کافی به مسائل ایمنی تمرکز کرده است، ابراز پشیمانی کرد و گفت: «کاش به مسائل ایمنی نیز فکر کرده بودم.»

منبع: سی‌ان‌ان

ارسال نظرات
قوانین ارسال نظر