به گزارش مجله خبری نگار-پاریس: دانشجویان دانشگاه به طور فزایندهای از ابزارهای هوش مصنوعی مولد استفاده میکنند، حتی وقتی از آنها خواسته میشود درباره تجربیات شخصی خود بنویسند. یک مطالعه اخیر نشان داده است که دانشجویانی که از این فناوری برای نوشتن متون استفاده میکنند، سطوح پایینتری از تفکر انتقادی را نشان میدهند.
وقتی جوسلین لیتزینگر از دانشآموزانش خواست تا یک تجربه شخصی از تبعیض را بازگو کنند، متوجه شد که نام قربانی اغلب سالی است. این معلم ساکن شیکاگو با تاسف گفت: «این نام به وضوح در ChatGPT رایج است.»
لیتزینگر، استاد تجارت و علوم اجتماعی در دانشگاه ایلینوی، میگوید: «دانشجویان من حتی درباره زندگی شخصی خود ننوشتند!»
او خاطرنشان میکند که حدود نیمی از ۱۸۰ دانشجویش ترم گذشته از ChatGPT به طور نامناسبی استفاده کردهاند، از جمله هنگام نوشتن در مورد مسائل اخلاقی مربوط به هوش مصنوعی.
او به خبرگزاری فرانسه گفت که از نتایج یک مطالعه اخیر که نشان میدهد دانشآموزانی که از هوش مصنوعی مولد برای نوشتن متن استفاده میکنند، مهارتهای تفکر انتقادی کمتری از خود نشان میدهند، تعجب نکرده است.
این مطالعه مقدماتی که نتایج آن هنوز مورد بررسی علمی قرار نگرفته است، به طور گسترده در شبکههای اجتماعی منتشر شده و بسیاری از معلمانی را که چنین رفتارهایی را از سوی دانشآموزان خود تجربه میکنند، تحت تأثیر قرار داده است.
ناتالیا کوزمینا، نویسندهی اصلی این پژوهش، به خبرگزاری فرانسه گفت: از زمان انتشار این پژوهش در ماه گذشته، بیش از ۳۰۰۰ معلم با تیم تحقیقاتی MIT که این پژوهش را انجام داده است، تماس گرفتهاند.
در این مطالعه، ۵۴ دانشآموز از منطقه بوستون به سه گروه تقسیم شدند. از آنها خواسته شد که به مدت ۲۰ دقیقه انشا بنویسند: گروه اول با استفاده از ChatGPT، گروه دوم با استفاده از موتور جستوجو و گروه سوم که صرفاً به تواناییهای ذهنی خود متکی بودند.
محققان فعالیت مغز دانشآموزان را در جلساتی که طی چند ماه برگزار شد، اندازهگیری کردند و دو معلم برای ارزیابی نوشتهها تعیین شدند.
عملکرد پیامکهای کاربران ChatGPT به طور قابل توجهی بدتر از کسانی بود که فقط از تواناییهای ذهنی خود استفاده میکردند. الکتروانسفالوگرامها نشان دادند که نواحی مختلف مغز آنها ارتباط کمتری با یکدیگر برقرار میکنند.
بیش از ۸۰ درصد از کاربران هوش مصنوعی نتوانستند هیچ پاراگرافی از متنی که نوشته بودند را نقل قول کنند، در حالی که این درصد برای دو گروه دیگر تنها ۱۰ درصد بود.
در جلسه سوم، به نظر میرسید که آنها بیشتر به کپی کردن متکی بودند.
معلمانی که برگههای امتحانی را تصحیح میکردند، گزارش دادند که به راحتی میتوانند نوشتههای «بیروح» ایجاد شده با استفاده از هوش مصنوعی را تشخیص دهند. اگرچه دستور زبان صحیح بود، اما این متون فاقد خلاقیت، شخصیت و عمق تفکر بودند.
با این حال، کوسمینا به برخی تفاسیر رسانهای از این مطالعه اشاره میکند که ادعا میکنند هوش مصنوعی افراد را احمق یا تنبل میکند.
در جلسه چهارم، از گروهی که فقط از تواناییهای ذهنی خود استفاده میکردند، خواسته شد برای اولین بار از ChatGPT استفاده کنند. به گفته کوسمینا، آنها سطح بالاتری از اتصال عصبی را نشان دادند.
به گفته این محقق، نتیجهگیری از این نمونه کوچک خیلی زود است و او خواستار مطالعات بیشتر در مورد چگونگی بهبود استفاده از ابزارهای هوش مصنوعی برای تسهیل فرآیند یادگیری است.
اشلی گواوینت، دانشمند علوم اعصاب در دانشگاه کالیفرنیا سن دیگو، که در این تحقیق دخیل نبود، از برخی از «نتیجهگیریهای اغراقآمیز» این مطالعه انتقاد کرد.
او به خبرگزاری فرانسه گفت: «این مقاله شواهد یا دقت روششناختی لازم برای نتیجهگیری در مورد تأثیر مدلهای زبانی بزرگ (مانند ChatGPT) بر مغز را ارائه نمیدهد.»
لیتزینگر معتقد است که این نتایج منعکس کننده برداشت او از چگونگی تغییر نوشتار دانشآموزانش از زمان راهاندازی ChatGPT در سال ۲۰۲۲ است، به طوری که خطاهای املایی کمتر و کیفیت نوشتاری کاهش یافته است.
ظهور هوش مصنوعی اغلب با گسترش ماشین حسابها مقایسه میشود که معلمان را مجبور به تغییر روشهای خود کرده است.
اما لیتزینگر نگران است که دانشآموزان دیگر قبل از استفاده از هوش مصنوعی به هیچ دانش پایهای نیاز نداشته باشند و مرحله یادگیری پایه را پشت سر بگذارند.
این مشکل بسیار فراتر از آموزش است. مجلات علمی با هجوم عظیم مقالات تولید شده توسط هوش مصنوعی دست و پنجه نرم میکنند. انتشارات نیز مصون نیست، و یک استارتاپ قصد دارد سالانه ۸۰۰۰ کتاب نوشته شده توسط هوش مصنوعی منتشر کند.
لیتزینگر میگوید: «نوشتن، تفکر است؛ تفکر، نوشتن است.» «اگر این فرآیند را حذف کنیم، از ذهن چه باقی میماند؟»
(خبرگزاری فرانسه)