کد مطلب: ۷۱۴۲۳۴
۱۴ آبان ۱۴۰۳ - ۱۲:۱۱

هوش مصنوعی میتواند به صورت مستقل مقاله بنویسد؟

عضو هیئت‌علمی ایرانداک با پرداختن به جوانب اخلاقی به این سوال پاسخ داد که آیا می‌توان مسئولیت نویسندگی یک مقاله را بر عهده هوش مصنوعی گذاشت یا خیر؟

به گزارش مجله خبری نگار/اکونیوز،دکتر رحمان شریف‌زاده در کرسی ترویجی «اخلاق و سیاست هوش مصنوعی» از سری پیش‌نشست‌های هشتمین دوره جایزه ملی فناوری اطلاعات که در ایرانداک برگزار شد، در مورد این‌که «آیا می‌توان چت جی‌پی‌تی را به عنوان مولف شناسایی کرد؟»، گفت: چت جی‌پی‌تی محصول ترکیب NLP و یادگیری ماشین است. این ابزار در تولید متن به خوبی عمل کرده و یکی از جذابیت‌های این محصول است.

وی در خصوص امکانات چت جی‌پی‌تی گفت: این ابزار در مفهوم پردازی و تحلیل (تولید فرضیه استخراج ایده، طراحی پژوهش، فراتحلی، خلاصه‌سازی، مرور ادبیات، پیشنهاد روش‌شناسی، تفسیر و تحلیل داده‌ها، ارائه نقد و بازخورد)، نگارش پژوهش (ترجمه، بازنویسی، پیشنهاد عنوان، چکیده و نتیجه‌گیری)، ویرایش و تصحیح (تقویت واژگان، بررسی گرامر و املا، بررسی ارجاعات و ...) و انتشار دانشگاهی (پیدا کردن مجله مناسب، فرمت دادن به مقاله بر اساس شیوه‌نامه مجله و ...) کاربرد دارد.

عضو هیئت‌علمی ایرانداک با اشاره به این‌که این چت‌بات می‌تواند درگیر سرقت ادبی، داده‌سازی، دستکاری داده شود، گفت: البته این چالش‌ها ذاتی نیستند و می‌تواند با توسعه و بهبود این ابزار رفع شود.

وی با اشاره به موضوع «سایه‌نویسی ماشینی» که یکی دیگر از مسائلی است که با استفاده از این ابزار می‌توان درگیر آن شد، گفت: موضوع سایه‌نویسی ماشین و اینکه آیا متنی که چت‌بات نوشته را ما به اسم خودمان منتشر کنیم، مسئله‌ای است که نیاز به بررسی بیشتر دارد.

به گفته شریف‌زاده؛ ناشران مجلات در مورد این موضوع رویه‌هایی در پیش گرفتند ولی نگاهی وجود دارد که عنوان می‌کند نمی‌توانیم چت جی‌پی‌تی را به عنوان مولف بدانیم.

وی با اشاره به انتشار مقاله‌ای که اولین‌بار چت جی‌پی‌تی را به عنوان مولف دوم خود درج کرد، گفت: چند روز بعد از انتشار این مقاله، ناشر چت جی‌پی‌تی را از لیست مولف‌های آن حذف کرد و توضیح داد که در حال حاضر چت‌بات‌ها نمی‌توانند معیار‌های مولف بودن ما را کسب کنند. چرا که مولف یک مقاله بودن نیاز به مسئولیت نویسندگی دارد و ما نمی‌توانیم این مسئولیت را به چت‌بات دهیم.

عضو هیئت‌علمی ایرانداک درباره معیار‌هایی که در مفهوم تالیف وجود دارد، توضیح داد: در توصیه‌نامه ونکوور یا کنوانسیون کمیته بین‌المللی سردبیران مجلات پزشکی ۴ مولفه و معیار برای یک مولف در نظر گرفته است: «مشارکت اساسی در مفهوم‌سازی یا طراحی پژوهش؛ یا به‌دست آوردن، تحلیل یا تفسیر داده‌های پژوهش»، «نگارش کار یا بازبینی انتقادی محتوای فکری مهم»، «تایید نهایی نسخه قابل انتشار» و «پذیرش مسئولیت درستی پژوهش انجام‌شده در تمام اجزا و جوانب آن». بر این اساس مولف کسی است که هر چهار شرط را داشته باشد.

وی ادامه داد:، چون چت جی‌پی‌تی کار‌هایی مثل مولف‌های انسانی انجام می‌دهد، سه شرط اول را می‌تواند پوشش دهد ولی در مورد مسئولیت سوال وجود دارد.

شریف‌زاده با بیان این‌که معنای عمیق‌تر مسئولیت، مسئولیت اخلاقی است، گفت: برای پذیرفتن مسئولیت اولین شرط این است که عاملیت اخلاقی داشته باشد یعنی قابلیت انجام کنش‌های اخلاقاً مهم، تعبیه ارزش‌های اخلاقی در آن و قرارگرفتن در یک فرآیند یادگیری اخلاقی پیوسته را داشته باشد. دومین شرط نیز مسئولیت اخلاقی است یعنی قابلیت سرزنش و ستایش اخلاقی را داشته باشد.

عضو هیئت‌علمی ایرانداک اظهار کرد: در مخالفت با نسبت دادن مسئولیت اخلاقی به چت جی‌پی‌تی دو استدلال وجود دارد. یک استدلال مبتنی بر «اتاق چینی» است. یعنی این ابزار فاقد ذهن است و معنا، آگاهی را درک نمی‌کند و حس و حال را درک نمی‌کند. می‌تواند از واژه‌ها و جملات استفاده کند ولی مثلاً حس و حال شعر خیام و گل سرخ را درک نمی‌کند؛ بنابراین نمی‌توان به آن مسئولیت اخلاقی داد.

وی ادامه داد: دومین استدلال مربوط به (ناسازگاری) است؛ این که چت جی‌پی‌تی یک موجود «متعین» است و توسط الگوریتم برنامه‌نویسی شده است؛ بنابراین جبر بر آن حاکم است؛ در حالی که مسئولیت اخلاقی مستلزم داشتن اراده آزاد است.

شریف‌زاده در پاسخ به این دو استدلال گفت: من نمی‌خواهم پاسخ محکمی به این دو استدلال بدهم ولی برای این دو استدلال، دو پاسخ وجود دارد. در پاسخ به استدلال نخست یا اتاق چینی که عنوان می‌شود که این چت‌بات به ساخت معنا وارد نمی‌شود؛ پیش‌فرض این استدلال «ماشین‌ها نمی‌توانند فکر کنند» را مورد سوال قرار می‌دهد. یک سوال این است که آیا عدم فهم معنایی، می‌تواند مستلزم عدم مسئولیت اخلاقی باشد؟

وی ادامه داد: برای مثال اگر فردی معنای یک متن را نفهمد، می‌تواند مسئولیت اخلاقی در برابر آن نداشته باشد؟ به نظر می‌رسد که جواب این سوال منفی است. مثلاً یک استاد اخلاق به من گفته از یک واژه که به زبان دیگری است و من آن زبان را نمی‌دانم استفاده نکنم؛ ولی با وجود این‌که معنی آن را نمی‌دانم ولی از آن استفاده می‌کنم. آیا من مسئولیت اخلاقی نداشتم؟

وی در پاسخ به استدلال دوم (ناسازگاری) گفت: مثلاً اگر من مجبور به کشتن فردی شوم، چون گزینه دیگری نداشتم؛ پس مسئولیت اخلاقی کشتن فرد از من سلب می‌شود؟ اینگونه نیست.

عضو هیئت‌علمی ایرانداک در پایان اظهار کرد: به نظر می‌رسد دست کم از لحاظ نظری مانع محکمی بر سر راه این‌که عامل غیر انسانی را مولف بشناسیم وجود ندارد.

برچسب ها: هوش مصنوعی مقاله
ارسال نظرات
قوانین ارسال نظر