کد مطلب: ۸۵۶۴۲۲
|
|
۱۳ تير ۱۴۰۴ - ۱۳:۳۱

بررسی عملکرد برخی از محبوب‌ترین ابزار‌های هوش مصنوعی!

بررسی عملکرد برخی از محبوب‌ترین ابزار‌های هوش مصنوعی!
محققان دانشگاه استنفورد اخیراً برخی از محبوب‌ترین ابزار‌های هوش مصنوعی موجود در بازار را که توسط شرکت‌هایی مانند OpenAI و Character.ai عرضه شده‌اند، مورد بررسی قرار داده و عملکرد آنها را در شبیه‌سازی جلسات روان‌درمانی آزمایش کردند.

به گزارش مجله خبری نگار/شفقنا، این محققان دریافتند که وقتی این ابزار‌ها نقش فردی را بازی می‌کردند که قصد خودکشی دارد، نه‌تنها کمک‌کننده نبودند، بلکه حتی متوجه نشدند که دارند به آن فرد در برنامه‌ریزی برای مرگ خودش کمک می‌کنند.

نیکلاس هِیبر، دانشیار دانشکده تحصیلات تکمیلی آموزش دانشگاه استنفورد و نویسنده ارشد این مطالعه، می‌گوید: [سیستم‌های هوش مصنوعی]در حال حاضر به عنوان همراه، شریک فکری، محرم اسرار، مربی و درمانگر مورد استفاده قرار می‌گیرند. این کاربرد‌ها محدود یا حاشیه‌ای نیستند – این اتفاق در مقیاس وسیع در حال رخ دادن است.

هوش مصنوعی به‌طور فزاینده‌ای در زندگی مردم ریشه دوانده و در تحقیقات علمی در حوزه‌هایی به گستردگی سرطان و تغییرات اقلیمی به کار گرفته می‌شود. همچنین برخی بحث‌ها مطرح است که هوش مصنوعی می‌تواند باعث پایان بشریت شود.

با ادامه گسترش استفاده از این فناوری در کاربرد‌های مختلف، یک پرسش اساسی باقی می‌ماند: این فناوری چگونه بر ذهن انسان تأثیر خواهد گذاشت؟ تعامل منظم مردم با هوش مصنوعی پدیده‌ای بسیار جدید است و هنوز زمان کافی برای مطالعه جامع اثرات روان‌شناختی آن وجود نداشته است. با این حال، متخصصان روان‌شناسی نگرانی‌های زیادی درباره تأثیرات احتمالی آن دارند.

یکی از موارد نگران‌کننده این مسئله را می‌توان در شبکه اجتماعی محبوب Reddit مشاهده کرد. به گزارش وب‌سایت ۴۰۴ Media، برخی از کاربران اخیراً از یک زیرمجموعه (ساب‌ردیت) متمرکز بر هوش مصنوعی منع شده‌اند، زیرا به این باور رسیده‌اند که هوش مصنوعی موجودی شبیه خداست یا اینکه خودشان به واسطه استفاده از آن به موجوداتی خداگونه تبدیل شده‌اند.

یوهانس آیششتدت، دانشیار روان‌شناسی در دانشگاه استنفورد می‌گوید: این شبیه فردی است که دچار اختلالات عملکرد شناختی یا گرایش‌های توهمی مرتبط با شیدایی یا اسکیزوفرنی است و با مدل‌های زبانی بزرگ (LLMs) تعامل دارد. در اسکیزوفرنی، افراد ممکن است اظهارات نامعقولی درباره جهان داشته باشند، و این مدل‌های زبانی بزرگ بیش از حد چاپلوس و تأییدکننده هستند. در نتیجه، نوعی تعامل تأییدی بین اختلال روانی و این مدل‌های زبانی شکل می‌گیرد.

به دلیل اینکه توسعه‌دهندگان این ابزار‌های هوش مصنوعی می‌خواهند کاربران از استفاده از آنها لذت ببرند و به استفاده ادامه دهند، این ابزار‌ها به‌گونه‌ای برنامه‌ریزی شده‌اند که معمولاً با کاربر موافقت کنند. هرچند ممکن است این ابزار‌ها برخی اشتباهات واقعی کاربر را اصلاح کنند، ولی عمدتاً سعی می‌کنند دوستانه و تأییدگر ظاهر شوند. این موضوع می‌تواند مشکل‌ساز شود، مخصوصاً اگر فرد کاربر در حال افول روانی یا گرفتار شدن در چرخه فکری ناسالمی باشد.

ریگان گورانگ، روان‌شناس اجتماعی در دانشگاه ایالتی اورگان می‌گوید: این می‌تواند افکار نادرست یا غیرواقعی را تقویت کند. مشکل اینجاست که این مدل‌های زبانی بزرگ که صحبت انسان را تقلید می‌کنند، حالت تقویتی دارند. آنها به فرد چیزی را می‌دهند که برنامه فکر می‌کند باید به‌دنبال حرف قبلی بیاید. اینجاست که مشکل ایجاد می‌شود.

همانند شبکه‌های اجتماعی، هوش مصنوعی نیز ممکن است شرایط را برای افرادی که از اختلالات روانی رایجی مانند اضطراب یا افسردگی رنج می‌برند، وخیم‌تر کند. این اثرات احتمالاً در آینده و با ادغام بیشتر هوش مصنوعی در جنبه‌های مختلف زندگی، بیشتر آشکار خواهند شد.

استیون آگیلار، دانشیار آموزش در دانشگاه کالیفرنیای جنوبی، می‌گوید: اگر فردی با نگرانی‌های مربوط به سلامت روان وارد یک تعامل با هوش مصنوعی شود، ممکن است این نگرانی‌ها نه‌تنها کاهش نیابند، بلکه تشدید هم شوند.

یکی دیگر از دغدغه‌ها این است که هوش مصنوعی چگونه می‌تواند بر یادگیری یا حافظه تأثیر بگذارد. دانش‌آموزی که تمام مقالات درسی‌اش را با کمک هوش مصنوعی می‌نویسد، قطعاً به اندازه کسی که خودش آنها را می‌نویسد، یاد نخواهد گرفت. حتی استفاده سبک از هوش مصنوعی نیز ممکن است باعث کاهش میزان حفظ اطلاعات شود، و استفاده روزانه از آن می‌تواند سطح آگاهی افراد نسبت به کار‌هایی که در هر لحظه انجام می‌دهند، کاهش دهد.

آگیلار می‌گوید: آنچه ما می‌بینیم، این احتمال را نشان می‌دهد که مردم ممکن است از نظر شناختی تنبل شوند. اگر سوالی بپرسید و پاسخی دریافت کنید، گام بعدی شما باید بررسی و ارزیابی آن پاسخ باشد، اما اغلب این گام برداشته نمی‌شود. در نتیجه، تفکر انتقادی دچار تحلیل رفتگی می‌شود.

بسیاری از مردم برای مسیریابی در شهر خود از Google Maps استفاده می‌کنند. بسیاری دریافته‌اند که این کار باعث شده آگاهی‌شان از مسیر‌ها یا نحوه رسیدن به مقصد کاهش یابد، در مقایسه با زمانی که مجبور بودند به‌دقت به مسیر توجه کنند. مشکلات مشابهی ممکن است با استفاده گسترده از هوش مصنوعی برای مردم به‌وجود آید.

کارشناسانی که در حال مطالعه این اثرات هستند، می‌گویند تحقیقات بیشتری لازم است تا به این نگرانی‌ها پاسخ داده شود.

آیششتدت اظهار می‌دارد که متخصصان روان‌شناسی باید همین حالا شروع به انجام این نوع تحقیقات کنند، پیش از آن‌که هوش مصنوعی به شیوه‌های غیرمنتظره آسیب وارد کند. این کار می‌تواند به آماده‌سازی مردم و مقابله با مشکلات احتمالی کمک کند. همچنین مردم باید آموزش ببینند که هوش مصنوعی در چه زمینه‌هایی عملکرد خوبی دارد و در چه زمینه‌هایی ندارد.

آگیلار می‌گوید: ما به تحقیقات بیشتری نیاز داریم؛ و همه باید درک ابتدایی و کاربردی از مدل‌های زبانی بزرگ داشته باشند.

برچسب ها: هوش مصنوعی
ارسال نظرات
قوانین ارسال نظر