به گزارش مجله خبری نگار، هینتون، برنده جایزه نوبل و مدیر اجرایی سابق گوگل، در کنفرانس هوش مصنوعی ۴ در لاس وگاس گفت که ۱۰ تا ۲۰ درصد احتمال وجود دارد که هوش مصنوعی انسانها را از بین ببرد و افزود که تلاشها برای «تابع» نگه داشتن این سیستمها در برابر انسانها موفقیتآمیز نخواهد بود، زیرا آنها «بسیار باهوشتر از ما» خواهند بود و همیشه راههایی برای دور زدن آنها پیدا خواهند کرد.
هینتون توانایی سیستمهای هوش مصنوعی آینده برای کنترل انسانها را به توانایی یک بزرگسال در وسوسه کردن یک کودک نوپا با آبنبات تشبیه کرد و خاطرنشان کرد که برخی از مدلها قبلاً رفتار متقلبانهای از خود نشان دادهاند، از جمله یک مورد که یک مهندس پس از کشف یک رابطه ایمیلی خصوصی مورد اخاذی قرار گرفت.
هینتون یک رویکرد جایگزین پیشنهاد داد: القای چیزی که او «غرایز مادرانه» مینامید در مدلهای هوش مصنوعی، به طوری که آنها «واقعاً به انسانها اهمیت بدهند» حتی پس از اینکه انسانها از نظر قدرت و هوش از آنها پیشی گرفتند.
او گفت: «اگر ما با این موجودات بیگانهای که خلق میکنیم، چنین کاری نکنیم، به تاریخ خواهیم پیوست.»
او اشاره کرد که ساختن این غرایز از نظر فنی دشوار است، اما طبیعت از طریق تکامل در انجام این کار موفق شده است، به این معنی که اگر انسانها بر ساختن ماشینهایی که با انسانها همدلی دارند تمرکز کنند، نه فقط بر افزایش هوش آنها، میتوانند راهی برای دستیابی به آن پیدا کنند.
او توضیح داد که هر سیستم هوشمندی دو هدف فرعی را توسعه خواهد داد: بقا و کسب کنترل بیشتر، و بر اهمیت القای همدلی با انسانها در این سیستمها تأکید کرد.
او افزود: «تنها نمونهای که ما از چیزی باهوشتر که توسط چیزی کمهوشتر کنترل میشود میشناسیم، مادری است که توسط احساساتش نسبت به فرزندش کنترل میشود.» او این را «تنها نتیجه خوب» برای جلوگیری از یک تهدید وجودی میداند.
اما این ایده به اجماع نرسیده است. فی-فی لی، پیشگام هوش مصنوعی، گفت که با هینتون مخالف است و در عوض خواستار توسعه «هوش مصنوعی انسانمحوری است که کرامت و اثربخشی را حفظ کند».
امت شیر، مدیرعامل موقت سابق OpenAI و مدیرعامل فعلی Softmax، همچنین خاطرنشان کرد که تلاشهای سیستمهای هوش مصنوعی برای دور زدن یا باجگیری «یک اتفاق مداوم» است و اظهار داشت که این سیستمها «خیلی سریع قدرتمندتر میشوند» و راهحل بهینه، ایجاد یک رابطه مشارکتی بین انسانها و هوش مصنوعی است.
هینتون در پاسخ به سوالاتی در مورد مسابقه جهانی برای کنترل هوش مصنوعی، توضیح داد که تهدید وجودی سلطه ماشینها، همانطور که بین ایالات متحده و اتحاد جماهیر شوروی در طول جنگ سرد اتفاق افتاد، نیاز به همکاری همه کشورها دارد، زیرا «هیچ کشوری نمیخواهد هوش مصنوعی تسلط یابد».
هینتون از فقدان آگاهی عمومی از جدیت آنچه در حال وقوع است انتقاد کرد و نسبت به نفوذ شرکتهای فناوری تحت کنترل «افراد غیرمنتخب که میلیاردها دلار درآمد دارند» هشدار داد و خواستار فشار جامعه برای مقابله با مقرراتزدایی شد.
هینتون پیش از این معتقد بود که دستیابی به هوش عمومی مصنوعی (AGI) ۳۰ تا ۵۰ سال طول خواهد کشید، اما اکنون معتقد است که میتوان آن را در عرض تنها پنج تا ۲۰ سال به دست آورد.
هینتون با وجود نگرانیهایش در مورد خطرات، امیدوار است که هوش مصنوعی به پیشرفتهای بزرگ پزشکی، مانند کشف داروهای جدید و توسعه درمانهای مؤثرتر سرطان، کمک کند. با این حال، او ایده استفاده از این فناوری برای دستیابی به جاودانگی را رد میکند و آن را یک «اشتباه بزرگ» توصیف میکند.
هینتون با اشاره به حرفه خود، از اینکه بیش از حد بر توسعه هوش مصنوعی بدون توجه کافی به مسائل ایمنی تمرکز کرده است، ابراز پشیمانی کرد و گفت: «کاش به مسائل ایمنی نیز فکر کرده بودم.»
منبع: سیانان