به گزارش مجله خبری نگار، دانشمندان دانشگاه دوک دریافتهاند کارمندانی که در محل کار از هوش مصنوعی استفاده میکنند، توسط دیگران به عنوان افرادی کمکفایت، تنبل و بیانگیزه تلقی میشوند. این کلیشههای اجتماعی حتی میتوانند بر شغل آنها تأثیر بگذارند، از جمله رد شدن برای یک شغل. این کار در مجله Proceedings of the National Academy of Sciences (PNAS) منتشر شده است.
ما در مورد هوش مصنوعی مولد مانند ChatGPT صحبت میکنیم که میتواند متن بنویسد، کد بنویسد، تصویر ایجاد کند و در کارهای روزمره کمک کند. با وجود استفاده گسترده و مزایای آشکار آنها، کارگران نگرانند که همکاران و روسایشان آنها را "از زیر کار در رفتن" بدانند. همانطور که معلوم شد، این ترسها بیاساس نیستند.
نویسندگان این مطالعه مجموعهای از آزمایشها را با مشارکت بیش از ۴۴۰۰ نفر انجام دادند. در یکی از آنها، از شرکتکنندگان خواسته شد تصور کنند که کاری را با استفاده از هوش مصنوعی یا ابزارهای مرسوم انجام دادهاند. کسانی که از هوش مصنوعی «استفاده» میکردند، انتظار واکنش منفیتری از همکاران خود داشتند - آنها را میتوان تنبل، قابل تعویض یا کمتوان دانست. اکثر آنها اعتراف کردند که ترجیح میدهند این واقعیت را که در محل کار از هوش مصنوعی استفاده میکنند، پنهان کنند.
در آزمایش دیگری، داوطلبان به توصیف همکاران فرضی امتیاز دادند. کسانی که از کمک هوش مصنوعی استفاده میکردند، به طور سیستماتیک بدتر ارزیابی شدند - آنها نسبت به همکارانشان که یا بدون کمک خارجی کار میکردند یا از افراد دیگر کمک میگرفتند، کمتر شایسته، سختکوش و مستقل تلقی میشدند. سن، جنسیت و صنعت اهمیتی نداشت.
با این حال، برداشت منفی به نوع کار نیز بستگی داشت. وقتی صحبت از کارهای دستی ساده (مانند بازنویسی یادداشتها) میشد، استفاده از هوش مصنوعی بیشتر مورد تردید قرار میگرفت. اما در کارهای دیجیتال (مانند ارسال ایمیل)، به عنوان یک راه حل منطقی تلقی میشد. در واقع، در چنین مواردی، کارمندانی که از هوش مصنوعی استفاده میکردند، حتی ترجیح داده میشدند.
نویسندگان تأکید میکنند که تناقض این است که کارگران از شبکههای عصبی برای بهتر کار کردن استفاده میکنند، اما اطرافیان آنها اغلب نتیجهی معکوس میگیرند. آنها معتقدند که در آینده، مطالعهی چگونگی شکلگیری این کلیشهها و چگونگی غلبه بر آنها - مثلاً با افزایش سواد دیجیتال و نشان دادن مزایای خاص هوش مصنوعی در عمل - ارزشمند است.