به گزارش مجله خبری نگار/در محیط کارخانه، رباتها و انسانها میتوانند تیمهای قدرتمندی تشکیل دهند. ربات وظایف تکراری مانند مونتاژ را با سرعت و دقت انجام میدهد، در حالی که انسان مسئولیتهای پیچیدهتری مانند کنترل کیفیت را بر عهده دارد. با این حال، انسانها ذاتا مستعد خطا و رفتارهای غیرمنتظره هستند. این رفتارهای غیرقابل پیشبینی میتواند حتی پیشرفتهترین رباتها را از مسیر خارج کند و شرایطی ایجاد کند که برای آنها برنامهریزی نشدهاند.
نمونهای از این خطرات، حادثه سال ۲۰۲۳ در کره جنوبی بود که در آن یک ربات صنعتی باعث مرگ هولناک کارگری در یک کارخانه بستهبندی سبزیجات شد.
الگوریتمی برای تصمیمگیری امنتر
تیمی از دانشگاه تحقیقات دولتی کلرادو بولدر (University of Colorado Boulder) برای پر کردن این شکاف دست به کار شده و الگوریتمی تازه ارائه کرده است تا رباتها حتی در شرایط نامطمئن نیز تصمیمهای ایمنتر و هوشمندانهتری در حضور انسانها بگیرند.
اولویت با ایمنی
مانند انسانها که برای تصمیمگیری از مدلهای ذهنی استفاده میکنند، رباتها نیز چنین رویکردی دارند تا رفتار انسان را پیشبینی و واکنش نشان دهند.
در یک پژوهش جدید، پروفسور «لاهیجانیان» (Lahijanian) و دانشجویانش الگوریتمهایی ابداع کردهاند که از «نظریه بازیها» (Game theory) الهام گرفته است؛ یعنی تئوری که به تجزیه و تحلیل تصمیمگیری راهبردی میپردازد.
پژوهشگران ربات را مانند بازیکنی در یک بازی در نظر گرفتند که سعی در «بردن» بازی را دارد. با این تفاوت که، چون «پیروزی» در تعامل با انسان تضمینی نیست، هدف از برنده شدن به یافتن یک «راهبرد قابل قبول» تغییر یافت؛ راهبردی که در آن ربات تا حد امکان وظایفش را انجام دهد و در عین حال هرگونه آسیب احتمالی به انسان را به حداقل برساند.
لاهیجانیان، دانشیار دانشگاه کلرادو بولدر، گفت: «در انتخاب یک راهبرد، نمیخواهید ربات خیلی خصمانه به نظر برسد. برای اینکه این ملایمت را به ربات بدهیم، ما به مفهوم پشیمانی نگاه میکنیم. آیا ربات در آینده از عملش پشیمان خواهد شد؟ در بهینهسازی بهترین عمل در لحظه، شما تلاش میکنید تا اقدامی انجام دهید که از آن پشیمان نشوید».
فضای کاری مشترک
تیم تحقیقاتی رباتی را تصور میکند که با استفاده از این الگوریتمها هوشمندانه واکنش نشان میدهد. این سیستم دقیقا مانند یک بازیکن شطرنج، به گونهای طراحی شده است که یک قدم از انسان جلوتر باشد؛ اما اولویت واقعی آن ایمنی انسان است، نه پیشبینی بیعیب و نقص.
اگر شریک انسانی ربات دچار خطا یا رفتار غیرمنتظره شود، نخستین واکنش ربات اصلاح ایمن مشکل خواهد بود. اگر این کار موفق نشود، ربات میتواند اقدامهای پیشگیرانهای مانند انتقال کار به مکانی امنتر انجام دهد تا وظیفهاش را بدون به خطر انداختن انسان به پایان برساند.
هدف نهایی روشن است: رباتها باید با انسانها سازگار شوند و نه برعکس.
لاهیجانیان افزود: «ممکن است انسانی تازهکار داشته باشید که نمیداند چه میکند یا انسانی متخصص؛ اما ربات نمیداند با کدام نوع انسان طرف است؛ بنابراین باید برای همه موارد ممکن راهبردی داشته باشد».
آینده همکاری انسان و ربات
رباتها در انجام وظایف یکنواخت و تکراری مهارت دارند و سرعت و دقت بالایی به همراه میآورند. نویسنده این مقاله باور دارد که رباتها و هوش مصنوعی، در صورت استفاده درست، میتوانند تواناییهای انسانی را افزایش دهند.
رباتها میتوانند کمبود نیروی کار در حوزههایی مانند مراقبت از سالمندان را جبران کنند و مشاغل فیزیکی طاقتفرسایی را بر عهده بگیرند که برای سلامتی انسان مضر است. این موضوع به انسانها اجازه میدهد بر تواناییهای منحصربهفردشان مانند هوش، قضاوت و خلاقیت تمرکز کنند.
یافتههای این پژوهش در کنفرانس مشترک بینالمللی هوش مصنوعی در اوت ۲۰۲۵ ارائه شده است.