کد مطلب: ۹۲۴۸۵۱
|
|
۲۸ مهر ۱۴۰۴ - ۱۱:۱۶

هوش مصنوعی برای کدام دسته از افراد وابستگی عاطفی ایجاد میکند؟

هوش مصنوعی برای کدام دسته از افراد وابستگی عاطفی ایجاد میکند؟
یک پژوهش جدید نشان می‌دهد افرادی که سطح بالایی از اضطراب دلبستگی دارند، بیشتر در معرض استفاده‌ی ناسالم و وابستگی‌گونه به هوش مصنوعی گفت‌وگومحور قرار می‌گیرند.

به گزارش مجله خبری نگار/آنا،این ارتباط زمانی قوی‌تر می‌شود که این افراد پیوند عاطفی با فناوری برقرار کنند و تمایل داشته باشند آن را انسان‌گونه تصور کنند. نتایج این تحقیق در نشریه‌ی (Psychology Research and Behavior Management) منتشر شده است.

با گسترش هوش مصنوعی گفت‌وگومحور، مانند چت‌بات‌ها و دستیار‌های مجازی، انسان‌ها راهی تازه برای تعامل و یافتن هم‌صحبت پیدا کرده‌اند. این برنامه‌ها از زبان طبیعی برای گفت‌و‌گو‌های شخصی و یک‌به‌یک استفاده می‌کنند. در دوره‌هایی مانند همه‌گیری کووید–۱۹ که انزوای اجتماعی افزایش یافت، میلیون‌ها نفر به این فناوری‌ها روی آوردند. همین روند، پرسش مهمی را برای دانشمندان مطرح کرد که آیا این نوآوری برای برخی گروه‌های خاص خطراتی دارد؟

به گزارش (psypost) گروه پژوهشی به سرپرستی «شوپِنگ هِنگ» از دانشگاه نرمال هِنان در چین بر افرادی تمرکز کرد که دارای اضطراب دلبستگی هستند. این ویژگی شخصیتی با ترس مداوم از طرد شدن یا رها شدن در روابط مشخص می‌شود و سبب می‌گردد فرد نیاز شدیدی به نزدیکی و اطمینان خاطر داشته باشد. پیش‌تر نیز مشخص شده بود که چنین افرادی در معرض خطر بالاتری برای اعتیاد‌های رفتاری دیگر، مانند اعتیاد به تلفن هوشمند یا بازی‌های آنلاین قرار دارند. پژوهشگران می‌خواستند بدانند آیا این آسیب‌پذیری در برابر هوش مصنوعی گفت‌وگومحور نیز صدق می‌کند و چه فرآیند‌های روان‌شناختی در این میان نقش دارند.

هدف این تحقیق، بررسی ارتباط مستقیم میان اضطراب دلبستگی و استفاده‌ی مشکل‌ساز از هوش مصنوعی گفت‌وگومحور بود؛ یعنی نوعی درگیری افراطی و اعتیادگونه با فناوری که بر زندگی روزمره تأثیر منفی می‌گذارد. افزون بر این، پژوهشگران دو عامل دیگر را نیز بررسی کردند نخست، اینکه آیا دلبستگی عاطفی به هوش مصنوعی واسطه‌ای میان اضطراب و استفاده‌ی مشکل‌ساز است، و دوم، آیا تمایل فرد به انسان‌پنداری فناوری، شدت این اثر را افزایش می‌دهد.

برای انجام مطالعه، پژوهشگران ۵۰۴ بزرگسال چینی را که تجربه‌ی استفاده از هوش مصنوعی گفت‌وگومحور داشتند، از طریق یک پلتفرم آنلاین جذب کردند. شرکت‌کنندگان مجموعه‌ای از پرسشنامه‌ها را تکمیل کردند که چهار متغیر کلیدی را می‌سنجید: سطح اضطراب دلبستگی (ترس از طرد شدن و نیاز به صمیمیت)، میزان دلبستگی عاطفی به هوش مصنوعی (قدرت پیوند عاطفی با فناوری)، گرایش انسان‌پنداری (تمایل به نسبت دادن ویژگی‌های انسانی به اشیاء یا فناوری‌ها) با گزاره‌هایی مانند «من فکر می‌کنم هوش مصنوعی زنده است»، و در نهایت میزان استفاده‌ی مشکل‌ساز از هوش مصنوعی گفت‌وگومحور که شامل رفتار‌های اعتیادگونه‌ای مانند تلاش ناموفق برای کاهش استفاده بود.

تحلیل آماری داده‌ها نشان داد که میان اضطراب دلبستگی و استفاده‌ی مشکل‌ساز ارتباط مستقیمی وجود دارد. افرادی که نمره‌ی بالاتری در اضطراب دلبستگی داشتند، بیشتر الگو‌های استفاده‌ی وسواسی و ناسالم از هوش مصنوعی را گزارش کردند. این یافته فرضیه‌ی اصلی پژوهشگران را تأیید کرد و نشان داد افراد دارای اضطراب دلبستگی، گروهی آسیب‌پذیر در برابر وابستگی به فناوری هستند.

در عین حال، مسیر غیرمستقیم و پیچیده‌تری نیز آشکار شد. نتایج نشان داد افراد دارای اضطراب دلبستگی بالا، تمایل بیشتری به ایجاد پیوند عاطفی با هوش مصنوعی داشتند و همین پیوند عاطفی، خود پیش‌بینی‌کننده‌ی قوی استفاده‌ی مشکل‌ساز بود. به بیان دیگر، نیاز شدید به ارتباط در افراد مضطرب موجب شکل‌گیری وابستگی عاطفی به فناوری می‌شود و همین وابستگی، رفتار‌های اعتیادگونه را تقویت می‌کند.

نکته‌ی ظریف‌تر این پژوهش، نقش گرایش انسان‌پنداری بود. هنگامی که شرکت‌کنندگان بر اساس این گرایش دسته‌بندی شدند، الگوی روشنی پدید آمد. افرادی که گرایش پایینی به انسان‌پنداری داشتند، میان اضطراب دلبستگی و استفاده‌ی مشکل‌سازشان ارتباط معناداری دیده نشد. اما در کسانی که هوش مصنوعی را شبیه انسان می‌دیدند، اضطراب دلبستگی پیش‌بینی‌کننده‌ی قوی استفاده‌ی مشکل‌ساز بود. به نظر می‌رسد تصور هوش مصنوعی به‌عنوان یک شریک اجتماعی، افراد مضطرب را مستعد وابستگی ناسالم می‌کند.

این اثر تعدیل‌کننده در شکل‌گیری دلبستگی عاطفی نیز مشاهده شد. افراد مضطرب در هر صورت به هوش مصنوعی وابسته می‌شدند، اما این پیوند در کسانی که گرایش انسان‌پنداری بالاتری داشتند، بسیار قوی‌تر بود. به عبارت دیگر، ترکیب دو ویژگی اضطراب دلبستگی بالا و انسان‌پنداری زیاد، قوی‌ترین پیوند عاطفی با فناوری و در نتیجه بیشترین خطر استفاده‌ی اعتیادگونه را ایجاد می‌کند.

پژوهشگران به محدودیت‌هایی نیز اشاره کردند. از آنجا که داده‌ها در یک مقطع زمانی جمع‌آوری شده‌اند، نتایج فقط ارتباط میان ویژگی‌ها را نشان می‌دهد و علّی بودن رابطه را ثابت نمی‌کند. برای درک بهتر این رابطه، مطالعات آینده باید افراد را در طول زمان پیگیری کنند. همچنین طراحی خود فناوری نیز می‌تواند عامل مهمی باشد؛ زیرا چت‌بات ساده با دستیار مجازی دارای آواتار انسان‌نما احتمالاً اثرات روانی متفاوتی بر کاربران دارد.

به گفته‌ی نویسندگان، یافته‌های این پژوهش می‌تواند در طراحی هوش مصنوعی‌های گفت‌وگومحور آینده به کار گرفته شود. طراحان می‌توانند نسخه‌هایی با ویژگی‌های کمتر انسان‌گونه برای کاربران آسیب‌پذیرتر ایجاد کنند یا ابزار‌هایی بسازند که رفتار‌های اعتیادگونه را شناسایی و هشدار دهند. همچنین، آموزش درباره‌ی استفاده‌ی سالم از فناوری می‌تواند در خود برنامه‌ها گنجانده شود. در نهایت، برای افرادی که در معرض خطر بالاتر هستند، پژوهش پیشنهاد می‌کند مداخلاتی برای کاهش اضطراب، مانند تمرین‌های ذهن‌آگاهی و آرام‌سازی، می‌تواند وابستگی به این همراهان مجازی را کاهش دهد.

ارسال نظرات
قوانین ارسال نظر