کد مطلب: ۸۳۴۸۸۴
|
|
۰۸ خرداد ۱۴۰۴ - ۱۴:۴۷

چرا مقالات چَت‌جی‌پی‌تی هنوز نمی‌تواند متخصصان را فریب دهد؟

چرا مقالات چَت‌جی‌پی‌تی هنوز نمی‌تواند متخصصان را فریب دهد؟
یافته‌های جدید پژوهشگران نشان داده است که کیفیت متون نوشته‌شده توسط هوش مصنوعی هنوز به پای کیفیت نوشته‌های دانشجویان نمی‌رسد.

به گزارش مجله خبری نگار،به نقل از وبگاه سای‌تِک‌دِیلی، پژوهشگران دانشگاه ایست آنگلیا در انگلیس، ۱۴۵ مقاله‌ای را که دانشجویان واقعی دانشگاه نوشته بودند با ۱۴۵ مقاله تولیدشده توسط چَت‌جی‌پی‌تی مقایسه و تجزیه‌وتحلیل کردند.

بر اساس یافته‌های آنها مقالات تولیدشده توسط هوش مصنوعی عموماً از ساختار خوبی بهره‌مند و از نظر گرامری صحیح، اما از یک عنصر مهم تهی بودند: دیدگاه انسانی. فقدان بینش شخصی و تفکر انتقادی دقیق، متن‌های تولیدشده توسط هوش مصنوعی را از نوشته‌های معتبر دانشجویان متمایز می‌کرد.

منظور از «بینش شخصی»، فهم عمیق و دقیق یک موقعیت یا مشکل، به‌ویژه از دیدگاه خود فرد یا با توجه به تجربیات و دانش شخصی وی است.

یافته‌های این پژوهش، بر ضرورت ارتقای سواد انتقادی و آگاهی اخلاقی در آموزش، هم‌زمان با افزایش توانمندی‌های ابزار‌های هوش مصنوعی تأکید می‌کند. پژوهشگران امیدوارند یافته‌های آنان به مربیان در شناسایی محتوا‌های تولیدشده توسط ماشین و رسیدگی به تقلب در مدارس، کالج‌ها و دانشگاه‌های سراسر جهان کمک کند.

پروفسور کِن هایلند (Ken Hyland)، از دانشکده آموزش و یادگیری دائمی دانشگاه ایست آنگلیا، گفت: از زمان ایجاد دسترسی عمومی به چَت‌جی‌پی‌تی نگرانی چشمگیری در میان معلمان ایجاد شده است؛ زیرا می‌ترسند دانش‌آموزان از آن برای نوشتن تکالیف خود استفاده کنند.

وی توضیح داد: معلمان از این می‌ترسند که چَت‌جی‌پی‌تی و سایر ابزار‌های نوشتن هوش مصنوعی، تقلب را آسان و هسته سواد و مهارت‌های تفکر انتقادی را تضعیف کنند؛ به‌خصوص اینکه هنوز ابزار مطمئنی برای شناسایی متون ایجادشده توسط هوش مصنوعی در اختیار نداریم.

یافته‌های این پژوهش به صورت مقاله‌ای در مجله ریتِن کامیونیکِیشِن/ Written Communication منتشر شده است.

منبع: yjc
ارسال نظرات
قوانین ارسال نظر