به گزارش مجله خبری نگار، مثلاً مگر روزی که سرنگ و آمپول اختراع شد، پزشکان و دانشمندان آن روزگار از همه قابلیتهای این وسیله درمانی اطلاع نداشتند؟ مگر نمیدانستند میشود به جای داروهای مسکن یا حیاتبخش، زهر و ماده مخدر قوی و کشندهای را با آمپول به بدن خود و دیگران تزریق کرد و سبب مرگ شد؟ آیا آن روزها کسی شروع به آمپولهراسی و اینکه با این وسیله میتوان به جای دارو هوا را داخل بدن فرستاد و یک نفر را به دیار باقی فرستاد، حرفی زد؟
«الیسون گوپنیک» استاد روانشناسی و فلسفه و «ملانی میچل» استاد علوم رایانه است. آنها به ماجرای فراگیر شدن ترس از هوش مصنوعی که بهتازگی بحث داغ میان طرفداران و بدبینها و خوشبینهای این عرصه است، نگاه متفاوتی دارند. یعنی سعی کردهاند در نگاه به پدیده هوش مصنوعی نه از این طرف بام بیفتند و نه از آن طرف. حالا چقدر در این زمینه موفق بودهاند را میتوانید با خواندن بخشهایی از گفتوگویی که «Los Angeles Review of Books» با آنها داشته و در «ترجمان» منتشر شده، متوجه شوید. «گوپنیک» در کل معتقد است هوش مصنوعی و فناوریهای مشابه را باید «فناوری فرهنگی» مثل ماشین چاپ یا اینترنت، در نظر بگیریم.
فناوریهایی که به انسانها امکان میدهند به اطلاعات بسیاری از انسانهای دیگر دسترسی داشته باشند و از آن اطلاعات در تصمیمگیریهایشان استفاده کنند. ما از اول بشریت همین کار را کردهایم. تصویری که اغلب به ما ارائه میشود این است که هوش مصنوعی درنهایت یا برده ماست یا ارباب ما! اغلب سؤال میکنیم آیا آنها درنهایت مثل انسان میشوند و از او جلو میافتند؟ این نوع رقابت میان ما و هوش مصنوعی وجود دارد. ولی روش منطقیتر تفکر درباره هوش مصنوعی این است که آن را نوعی مکمل فناورانه بدانیم. خیلی جالب است که هیچکس مثلاً نگران ماشینحسابش نیست و از آن نمیترسد. «میچل» در تأیید سخنان گوپنیک میگوید: «ماشینحساب که اختراع شد، مردم نمیخواستند بچهها استفاده کنند، چون فکر میکردند ماشینحساب موجب میشود بچهها ریاضی یاد نگیرند. ولی وقتی بفهمیم این فناوریها برای چه کاری مناسباند، استفاده از آنها را یاد میگیریم. درمورد هوش مصنوعی نیز همین اتفاق خواهد افتاد. هوش مصنوعی نوع جدیدی از فناوری خواهد بود که درست مثل فناوریهای دیگر، به شیوههای مختلف موجب رشد و توسعه ما خواهد شد، ولی قرار نیست جایگزین ما شود».
«گوپنیک» این نکته را هم یادآور میشود که: «ولی ما باید روی ضوابط و مقررات کار با سیستمهای هوش مصنوعی بسیار دقت کنیم. فرض کنید سال ۱۸۸۰ است و کسی میگوید بسیار خب... حالا برق را اختراع کردهایم و میدانیم ممکن است این اختراع خانههای مردم را به آتش بکشد، ولی فکر میکنم بهتر است همین طوری بدون قانون و مقررات به هر خانهای یک شاخه برق بدهیم... این نظر خیلی خطرناک و نگرانکننده است، چون امروزه فقط به دلیل مقررات فراوانی که در این زمینه داریم امکان استفاده از برق وجود دارد. در مورد همه فناوریها ازجمله فناوریهای فرهنگی هم این مثال صدق میکند. چاپ که ابداع شد، مقرراتی برای آن وجود نداشت. اطلاعات اشتباه و نوشتههای افتراآمیز و چیزهای مسئلهدار فراوانی چاپ شدند. تدریجاً سروکله روزنامهها و سردبیرها پیدا شد. فکر میکنم همین در مورد هوش مصنوعی هم صادق خواهد بود. اگر قرار باشد از آن استفاده مؤثر کنیم، باید همان ضوابط و مقرراتی را که برای سایر فناوریها وضع کردهایم برای هوش مصنوعی هم وضع کنیم. حالا... اگر میگوییم رباتها قرار نیست جای ما را بگیرند معنیاش این نیست که اصلاً نباید نگران چیزی باشیم.
«میچل» در این باره میگوید: «من هم نمیگویم به هیچوجه نباید نگران خطرات هوش مصنوعی باشیم. ممکن است این فناوریها سبب چیزهای بد فراوانی شوند. همینحالا هم شاهد اتفاقهای بدی هستیم، خروارها محتوای گمراهکننده ساخته شده و اوضاع روزبهروز هم بدتر میشود. بحث نقض حریم خصوصی و میزان انرژی است که به شکل احمقانهای در مراکز داده (دیتاسنترها) مصرف میشود. اما اینکه نگران شویم کنترل هوش مصنوعی بهسرعت از دست انسان خارج شود، آنها بر ما حاکم شوند و انسانیتزدایی اتفاق بیفتد و همه چیز حتی هنر دست رایانهها بیفتد... من نگران این مقولات نیستم، چون نشانهای نمیبینم که تهدیدها به این زودی محقق شوند. خیلی چیزهاست که انسان درباره هوش مصنوعی نمیداند... هنوز کسی دقیق نمیداند ماهیت و کیفیت هوش چیست پس چطور میتواند آن را در رایانهها همتاسازی کند؟
«گوپنیک» حس مسئولیتپذیری پیشگامان هوش مصنوعی و اینکه تلاش میکنند پیشاپیش آثار منفی و مخرب این فناوری را گوشزد کنند تحسین میکند، اما میگوید: بله بیشک ممکن است اتفاقهای بدی بیفتد، ولی من هم فکر میکنم کسانی که این سیستمها را طراحی میکنند بیشتر دوست دارند بگویند سیستمهایشان خیلی قدرتمندند و چیزی شبیه هوش عمومی دارند. نکته جالب دیگر اینکه ما اضطراب را بیشتر در میان کسانی مشاهده میکنیم که دانشمند علوم شناختی نیستند و مطالعهای در زمینه هوش انسان یا حیوان نداشتهاند. تصور میکنم بشود گفت پژوهشگران هوش انسانی همنظرند که فاصله هوش انسانی و مصنوعی بسیار زیاد است و آنچه حائز اهمیت است نه تهدیدهای عاملهای هوش مصنوعی، بلکه مخاطرات پیشپاافتادهتری مثل اطلاعات گمراهکننده و دیگر محتواهای بدِ موجود در اینترنت است. در ضمن یادمان باشد به قول یک دانشمند علوم سیاسی، ما پیشتر هم هوشهای مصنوعی را به صورت بازارها و دولتها داشتهایم. هر بازاری یک دستگاه عظیم پردازش اطلاعات و تصمیمگیری است. وقتی ما به قیمت تعیین شده توسط بازار کالایی را میخریم (نه قیمتی که خودمان دوست داریم) بخشی از استقلالمان را تسلیم سیستم بازار میکنیم.
«میچل» در این باره معتقد است: «جان مککارتی، یکی از پیشگامان هوش مصنوعی و یکی از شرکتکنندگان «ورکشاپ ۱۹۵۶ دارتموث» بود که تصور میکرد ما به اندازه یک تابستان زمان لازم داریم تا پیشرفت بزرگی در زمینه هوش مصنوعی بکنیم. اما بعدها گفت هوش از آنچه تصور میکردیم دشوارتر بود! من هم بهتدریج چنین دیدگاهی پیدا کردم و موجب شده بیشتر و بیشتر با متخصصان علوم شناختی در این مورد صحبت کنم. من معتقدم پژوهش در مورد هوش مصنوعی به جای اینکه روی اعتلای فنون بهینهسازی متمرکز شود باید دوباره تمرکز و توجهش را به فهم ماهیت هوش معطوف کند».
منبع: قدس