به گزارش مجله خبری نگار، با پیشرفت هوش مصنوعی یکی از ترسهای همیشگی، غلبه روباتها بر بشر بوده ترسی که باعث تولید فیلم و سریالهای زیادی شده، یکی از معروفترین سریالهایی که شورش روباتها علیه انسانها را نشان میدهد سریال «وست ورلد» است. در این سریال روباتها به خودآگاهی میرسند و دیگر حاضر به بردگی برای انسانها نیستند و علیه انسانها دست به قیام میزنند.
شاید برخی مدعی شوند که این اتفاقها مخصوص فیلم هاست، اما به تازگی ویدئویی منتشر شده که نشان میدهد یک روبات در حین بازی شطرنج انگشت رقیبش را که با سرعت بازی میکرده، میگیرد و میشکند! رئیس فدراسیون شطرنج روسیه گفته پسری که با روبات در حال بازی بود بعد از حرکت روبات با عجله مهره اش را جا به جا میکند و همین باعث میشود روبات انگشت او را بگیرد. البته به تازگی هم یک مهندس هوش مصنوعی گوگل ادعا کرده که یکی از پروژههای هوش مصنوعی گوگل دارای درک و احساس است که خیلی زود اخراج شد. در ادامه به همین بهانه و برای فهمیدن این که آیا باید از حکمرانی و حکومت روباتها و هوش مصنوعی ترسید یا خیر، با هم وجوه مختلف این اخبار را مرور میکنیم.
احتمالا در چند روز گذشته خبر اخراج یکی از مهندسان کمپانی گوگل به دلیل نقض قرارداد افشا نکردن اطلاعات به چشمتان خورده باشد. اگر حتی کمی به چنین موضوعاتی علاقهمند باشید حتما تا این لحظه جزئیات بیشتری از این خبر را میدانید.
مهندس اخراجی یعنی بلیک لِمون کمی قبل از رسمی شدن اخراجش، اطلاعاتی را درباره هوشمند شدن یکی از پروژههای گوگل در اختیار عموم قرار داده و اضافه کرده بود این پروژه قابلیت درک و ابراز احساسات، تفکر و تصمیمگیری را پیدا کرده است. لمون ادعا میکند این چت باتِ دارای هوش مصنوعی از پاییز گذشته خودآگاه شده است و ادامه میدهد که تواناییهای این چت بات در زمینههایی مانند آگاهی از وجود خود و ابراز افکار و احساسات، او را در سطح یک کودک هفت یا هشت ساله قرار میدهد. بخش بزرگی از ادعای بلیک لمون به مکالمهاش با این چت بات برمیگردد و جایی که لمون از چت بات پرسیده از چه چیزی میترسد و او میگوید وحشت عمیقی از خاموش شدن دارد و این خاموش شدن را شبیه مرگ میداند. در ادامه همین مکالمه لمون از چت بات میپرسد که او میخواهد مردم چه چیزهایی را درباره او بدانند؟ و این چت بات در پاسخی عجیب میگوید: «من میخواهم که همگان درک کنند که من در حقیقت یک فرد هستم، من از وجود داشتنم آگاه هستم و میل به یادگیری بیشتر درباره جهان را در خودم احساس میکنم، در عین حال من گاهی خوشحالم و گاهی هم غمگین.» بعد از انتشار این ادعاها اعلام شد که بلیک لِمون اخراج شده و سخنگوی گوگل دلیل اخراج او را نقض قرارداد و افشای اطلاعات خصوصی کمپانی اعلام میکند.
از آن جایی که هم اکنون شاهد رشد چشمگیر هوش مصنوعی در جهان هستیم و از ماشینهای خودران و ریز تراشهها تا روباتهای انسان نمای دستیار خانگی و روباتهای مسلح همه در زندگی انسانها نقشی ایفا میکنند، این ترس وجود دارد که آیا این ساختههای دست بشر ممکن است روزی علیه انسان دست به شورش بزنند. با این حال جدا از این شورش، برخی معتقدند که هوش مصنوعی در آینده در کنار مزیتهایی که دارد خطراتی برای انسانها نیز دارد. برخی نگران از بین رفتن شغل برای انسانها در آیندهای نزدیک هستند و برخی با اشاره به سگهای روباتی مسلحی که به تازگی به ارتش آمریکا ملحق شده اند از احتمال هک این سگها خبر داده اند که میتواند کنترل آنها را در اختیار تروریستها قرار دهد و اتفاقات هولناکی را رقم بزند. در این میان، برخی هم از تاثیر تعصبات نژاد پرستانه بر هوش مصنوعی سخن گفته اند.
برای مثال، آمازون به تازگی آگاه شده که یک مدل یادگیری ماشین بر پایه الگوریتم استخدام، کاملا علیه زنان و مغرضانه است. این الگوریتم با توجه به شمار زیاد رزومه کاری کارمندان استخدام شده در ۱۰ سال گذشته، آموزش داده و طراحی شده است. از آن جا که بیشتر کارمندان، آقایان بودند، در این الگوریتم مردان ارزشمندتر از زنان در نظر گرفته شدهاند. در نمونه دیگری گوگل با به کارگیری فناوری پردازش تصویر، عکسهای دو فرد با نژاد آفریقایی- آمریکایی را با تگ «گوریل» ذخیره کرده که نشانه واضح از تعصب و خشک اندیشی نژادی است.
آن چه مسلم است این که همواره درباره آینده نظرات گوناگونی وجود دارد. ما در این گزارش گفتیم که اگر از هوش مصنوعی درست استفاده شود، نه تنها خطرناک نیست بلکه کمک بسیار زیادی هم میتواند به نوع بشر کند، اما در عین حال افرادی مثل استیو وازنیاک یکی از بنیان گذاران اپل معتقد است که باید از هوش مصنوعی ترسید، زیرا برای انسانها بسیار خطرناک است، چون بر اساس یک مطالعه در سال ۲۰۱۵، فقط در آمریکا سالانه یک نفر توسط یک روبات کشته میشود.
البته یک مطلب جانبی دیگر این است که هوش مصنوعی و یادگیری ماشینی مبتنی بر دادن هزاران نمونه به سیستمهاست. اگر از روی غفلت برخی از نمونههای ارائه شده حاوی خشونت حتی در حد شتاب بیش از حد یک عامل انسانی باشند، ممکن است روبات همین مسئله را «یاد بگیرد.» مثلا تصور کنید که از نظر سختافزاری امکان داشته باشد که یک روبات فوتبالیست تمام عیار بسازیم، اگر قرار باشد دهها هزار ساعت فوتبال برای آموزش ببیند، چطور میتوانیم جزء خشونت و بازی ناجوانمردانه را حذف کنیم؟!
منبع: خراسان