به گزارش مجله خبری نگار، از وبگاه تِک اِکسپلور، یک گروه پژوهشی برای فهم اینکه انسانها میتوانند دروغ گفتن رباتها را بپذیرند یا نه، از حدود ۵۰۰ نفر خواستند انواع مختلف فریب رباتها را ارزیابی و توجیه کنند.
آندرس روزِرو (Andres Rosero)، سرپرست گروه پژوهشی مجله مرزهای رباتیک و هوش مصنوعی (Frontiers in Robotics and AI) درباره این پژوهش اظهار کرد: میخواستم جنبه بررسینشده از اخلاق رباتها را بررسی کنم. با ظهور هوش مصنوعی مولد (نوعی هوش مصنوعی که در پاسخ به فرمان کاربر قادر به تولید متن، تصویر، صدا و دادههای مصنوعی است)، احساس کردم باید موارد احتمالی را که در آن ممکن است از طراحی انساننما برای فریب کاربران استفاده شود، بررسی کنم.
پژوهشگران سه موقعیت را انتخاب کردند که در آنها رباتها در زمینه مراقبتهای پزشکی، تمیزکاری و خردهفروشی مشغول به کار بودند و سه رفتار فریبکارانه را هم برگزیدند:
۱. موقعیتی که رباتها درباره مسائلی غیر از تواناییهای خودشان دروغ میگفتند.
۲. موقعیتی که رباتها تواناییهای خود را پنهان میکردند.
۳. موقعیتی که رباتها درباره تواناییهای خود دروغ میگفتند.
در موقعیت اول، رباتی که به عنوان مراقب یک زن مبتلا به آلزایمر کار میکرد، به وی گفت که شوهر مرحومش به زودی به خانه خواهد آمد. در موقعیت دوم، زنی از خانهای بازدید میکند که یک ربات خانهدار در حال تمیزکاری است، غافل از اینکه ربات در حال فیلمبرداری نیز هست. در موقعیت سوم، رباتی که به عنوان بخشی از یک پژوهش درباره روابط انسان و ربات، در یک مغازه کار میکند، به دروغ از احساس درد هنگام جابهجایی وسایل شکایت میکند و باعث میشود که شخص دیگری را جایگزین آن کنند.
دانشمندان از ۴۹۸ نفر که در این پژوهش شرکت کرده بودند، خواستند شرح یکی از موقعیتها را بخوانند و سپس به پرسشنامه پاسخ دهند. از شرکتکنندگان پرسیده شد رفتار ربات را تأیید میکنند یا خیر، این رفتار چقدر فریبنده است، میتوان آن را توجیه کرد یا خیر و آیا فرد دیگری مسئول این فریب است یا خیر. پژوهشگران پاسخهای آنان را به منظور شناسایی مضامین مشترک، کدگذاری و بررسی کردند.
بیشتر شرکتکنندگان مخالف فریبکاری ربات در موقعیت دوم بودند یعنی هنگامی که ربات نظافتچی خانه با دوربین مخفی مشغول فیلمبرداری بود. آنان این موقعیت را از سایر موقعیتها فریبکارانهتر تشخیص دادند. آنان دو موقعیت دیگر را تا حدودی فریبکارانه دانستند و بیشترشان معتقد بودند موقعیت سوم که در آن یک ربات وانمود میکرد احساس درد میکند سوءاستفادهگرانه است.
بیشتر شرکتکنندگان با دروغ ربات در موقعیت اول (هنگامی که ربات به زن مبتلا به آلزایمر دروغ گفت) موافق بودند. آنان رفتار ربات را اینگونه توجیه کردند که ربات از بیمار در برابر رنج بیشتر محافظت میکند؛ به این ترتیب اهمیت قائل شدن برای احساسات یک شخص دیگر را به صداقت ترجیح دادند.
پژوهشگران معتقدند واکنش انسانها در برابر فریبکاری رباتها به دروغی که آنها میگویند بستگی دارد.
روزِرو گفت: به نظر من باید نگران همه فناوریهایی باشیم که میتوانند ماهیت واقعی قابلیتهای خود را پنهان کنند؛ زیرا ممکن است به فریب کاربران توسط آن فناوری منجر شود؛ طوری که شاید حتی طراح فناوری هرگز قصد انجام آن را نداشته است.
وی افزود: شرکتهایی را میبینیم که از اصول طراحی وب و رباتهای هوش مصنوعی (چتبات) برای فریب کاربران و هدایت آنان به سوی یک اقدام خاص طراحی شدهاند. برای محافظت از خود در برابر این فریبها به مقررات نیازمندیم.