به گزارش مجله خبری نگار/آنا،این ارتباط زمانی قویتر میشود که این افراد پیوند عاطفی با فناوری برقرار کنند و تمایل داشته باشند آن را انسانگونه تصور کنند. نتایج این تحقیق در نشریهی (Psychology Research and Behavior Management) منتشر شده است.
با گسترش هوش مصنوعی گفتوگومحور، مانند چتباتها و دستیارهای مجازی، انسانها راهی تازه برای تعامل و یافتن همصحبت پیدا کردهاند. این برنامهها از زبان طبیعی برای گفتوگوهای شخصی و یکبهیک استفاده میکنند. در دورههایی مانند همهگیری کووید–۱۹ که انزوای اجتماعی افزایش یافت، میلیونها نفر به این فناوریها روی آوردند. همین روند، پرسش مهمی را برای دانشمندان مطرح کرد که آیا این نوآوری برای برخی گروههای خاص خطراتی دارد؟
به گزارش (psypost) گروه پژوهشی به سرپرستی «شوپِنگ هِنگ» از دانشگاه نرمال هِنان در چین بر افرادی تمرکز کرد که دارای اضطراب دلبستگی هستند. این ویژگی شخصیتی با ترس مداوم از طرد شدن یا رها شدن در روابط مشخص میشود و سبب میگردد فرد نیاز شدیدی به نزدیکی و اطمینان خاطر داشته باشد. پیشتر نیز مشخص شده بود که چنین افرادی در معرض خطر بالاتری برای اعتیادهای رفتاری دیگر، مانند اعتیاد به تلفن هوشمند یا بازیهای آنلاین قرار دارند. پژوهشگران میخواستند بدانند آیا این آسیبپذیری در برابر هوش مصنوعی گفتوگومحور نیز صدق میکند و چه فرآیندهای روانشناختی در این میان نقش دارند.
هدف این تحقیق، بررسی ارتباط مستقیم میان اضطراب دلبستگی و استفادهی مشکلساز از هوش مصنوعی گفتوگومحور بود؛ یعنی نوعی درگیری افراطی و اعتیادگونه با فناوری که بر زندگی روزمره تأثیر منفی میگذارد. افزون بر این، پژوهشگران دو عامل دیگر را نیز بررسی کردند نخست، اینکه آیا دلبستگی عاطفی به هوش مصنوعی واسطهای میان اضطراب و استفادهی مشکلساز است، و دوم، آیا تمایل فرد به انسانپنداری فناوری، شدت این اثر را افزایش میدهد.
برای انجام مطالعه، پژوهشگران ۵۰۴ بزرگسال چینی را که تجربهی استفاده از هوش مصنوعی گفتوگومحور داشتند، از طریق یک پلتفرم آنلاین جذب کردند. شرکتکنندگان مجموعهای از پرسشنامهها را تکمیل کردند که چهار متغیر کلیدی را میسنجید: سطح اضطراب دلبستگی (ترس از طرد شدن و نیاز به صمیمیت)، میزان دلبستگی عاطفی به هوش مصنوعی (قدرت پیوند عاطفی با فناوری)، گرایش انسانپنداری (تمایل به نسبت دادن ویژگیهای انسانی به اشیاء یا فناوریها) با گزارههایی مانند «من فکر میکنم هوش مصنوعی زنده است»، و در نهایت میزان استفادهی مشکلساز از هوش مصنوعی گفتوگومحور که شامل رفتارهای اعتیادگونهای مانند تلاش ناموفق برای کاهش استفاده بود.
تحلیل آماری دادهها نشان داد که میان اضطراب دلبستگی و استفادهی مشکلساز ارتباط مستقیمی وجود دارد. افرادی که نمرهی بالاتری در اضطراب دلبستگی داشتند، بیشتر الگوهای استفادهی وسواسی و ناسالم از هوش مصنوعی را گزارش کردند. این یافته فرضیهی اصلی پژوهشگران را تأیید کرد و نشان داد افراد دارای اضطراب دلبستگی، گروهی آسیبپذیر در برابر وابستگی به فناوری هستند.
در عین حال، مسیر غیرمستقیم و پیچیدهتری نیز آشکار شد. نتایج نشان داد افراد دارای اضطراب دلبستگی بالا، تمایل بیشتری به ایجاد پیوند عاطفی با هوش مصنوعی داشتند و همین پیوند عاطفی، خود پیشبینیکنندهی قوی استفادهی مشکلساز بود. به بیان دیگر، نیاز شدید به ارتباط در افراد مضطرب موجب شکلگیری وابستگی عاطفی به فناوری میشود و همین وابستگی، رفتارهای اعتیادگونه را تقویت میکند.
نکتهی ظریفتر این پژوهش، نقش گرایش انسانپنداری بود. هنگامی که شرکتکنندگان بر اساس این گرایش دستهبندی شدند، الگوی روشنی پدید آمد. افرادی که گرایش پایینی به انسانپنداری داشتند، میان اضطراب دلبستگی و استفادهی مشکلسازشان ارتباط معناداری دیده نشد. اما در کسانی که هوش مصنوعی را شبیه انسان میدیدند، اضطراب دلبستگی پیشبینیکنندهی قوی استفادهی مشکلساز بود. به نظر میرسد تصور هوش مصنوعی بهعنوان یک شریک اجتماعی، افراد مضطرب را مستعد وابستگی ناسالم میکند.
این اثر تعدیلکننده در شکلگیری دلبستگی عاطفی نیز مشاهده شد. افراد مضطرب در هر صورت به هوش مصنوعی وابسته میشدند، اما این پیوند در کسانی که گرایش انسانپنداری بالاتری داشتند، بسیار قویتر بود. به عبارت دیگر، ترکیب دو ویژگی اضطراب دلبستگی بالا و انسانپنداری زیاد، قویترین پیوند عاطفی با فناوری و در نتیجه بیشترین خطر استفادهی اعتیادگونه را ایجاد میکند.
پژوهشگران به محدودیتهایی نیز اشاره کردند. از آنجا که دادهها در یک مقطع زمانی جمعآوری شدهاند، نتایج فقط ارتباط میان ویژگیها را نشان میدهد و علّی بودن رابطه را ثابت نمیکند. برای درک بهتر این رابطه، مطالعات آینده باید افراد را در طول زمان پیگیری کنند. همچنین طراحی خود فناوری نیز میتواند عامل مهمی باشد؛ زیرا چتبات ساده با دستیار مجازی دارای آواتار انساننما احتمالاً اثرات روانی متفاوتی بر کاربران دارد.
به گفتهی نویسندگان، یافتههای این پژوهش میتواند در طراحی هوش مصنوعیهای گفتوگومحور آینده به کار گرفته شود. طراحان میتوانند نسخههایی با ویژگیهای کمتر انسانگونه برای کاربران آسیبپذیرتر ایجاد کنند یا ابزارهایی بسازند که رفتارهای اعتیادگونه را شناسایی و هشدار دهند. همچنین، آموزش دربارهی استفادهی سالم از فناوری میتواند در خود برنامهها گنجانده شود. در نهایت، برای افرادی که در معرض خطر بالاتر هستند، پژوهش پیشنهاد میکند مداخلاتی برای کاهش اضطراب، مانند تمرینهای ذهنآگاهی و آرامسازی، میتواند وابستگی به این همراهان مجازی را کاهش دهد.