کد مطلب: ۲۹۴۱۷۴
۱۷ خرداد ۱۴۰۱ - ۱۷:۵۵

استعفای کمیته اخلاق شرکت "آکسون" در پی نظارت بر مدارس با پهپاد‌ها

۹ تن از اعضای کمیته اخلاق شرکت "آکسون" به خاطر طرح نظارت بر مدارس با پهپادها، استعفای خود را اعلام کرده‌اند.

به گزارش مجله خبری نگار، و به نقل از تک کرانچ، ۹ نفر از ۱۲ عضو کمیته اخلاقی که توسط شرکت "آکسون" (Axon) برای مشاوره در مورد تصمیمات فناوری آن منصوب شده بودند، با استناد به برنامه این شرکت برای نصب پهپاد‌های مجهز به قابلیت نظارت فراگیر در مدارس، استعفا دادند.

آن‌ها اعلام کردند: پس از چندین سال کار، شرکت اساسا در پذیرش ارزش‌هایی که ما سعی در القای آن‌ها داشته‌ایم، شکست خورده است. ما ایمان خود را به توانایی آکسون به عنوان یک شریک مسئولیت‌پذیر از دست داده‌ایم.

شرکت آکسون در سال‌های اخیر به یک غول نرم‌افزار و سخت‌افزار تبدیل شده است و نه تنها سلاح‌های الکتریکی، بلکه دوربین‌های متصل شونده به بدن و پلتفرم‌های دیجیتال ارائه می‌دهد. آکسون با در نظر گرفتن خطرات ذاتی خصوصی‌سازی چنین دستگاه‌هایی، در مورد فناوری خود متفکر بوده است و توصیه‌هایی را به جوامعی که این دستگاه‌ها در آن‌ها استفاده می‌شوند و همچنین نیرو‌های پلیس که آن‌ها را به کار می‌برند، ارائه می‌دهد.

"کمیته اخلاق هوش مصنوعی" (AI Ethics Board)، چند سال پیش تأسیس شد، زیرا این موضوع مشخص شد که یادگیری ماشینی، فناوری بسیار ارزشمندی است، اما همچنین می‌توان از آن سوءاستفاده کرد. کمیته اخلاق هوش مصنوعی، مجموعه‌ای از کارشناسان، دانشگاهیان و متخصصان صنعت هستند که دیدگاهی معتدل را در مورد فناوری ارائه می‌دهند که تدابیر حفاظتی، پاسخگویی و اقداماتی از این دست را پیشنهاد می‌کند.

اعضایی که استعفا داده‌اند، در بیانیه‌ای نوشتند: هر یک از ما با این باور که می‌توانیم بر مسیر شرکت تأثیر بگذاریم و به کاهش آسیب‌های فناوری کمک کنیم، به این هیئت پیوستیم. ما مدتی شاهد بودیم که این تأثیر در برخی از تصمیمات آکسون ظاهر می‌شود، اما شواهدی مبنی بر متفاوت بودن مسیر را نیز مشاهده کردیم.

"ریچ اسمیت" (Rich Smith)، مدیرعامل اجرایی این شرکت گفت: فناوری قرار نیست که این مشکلات را برای ما حل کند، اما این حقیقت دارد که بدون فناوری، برخی از مشکلات غیر قابل حل خواهند بود. شاید دوربین‌ها و سایر تجهیزات ردیابی دیجیتال متعلق به پلیس خوب نباشند، اما چگونه می‌توان انتظار داشت که چنین رویداد‌هایی به طور سیستماتیک ثبت شوند؟ کسانی که این تجهیزات را تعریف می‌کنند، پلیس نیستند؛ بلکه شرکت‌هایی هستند که آن‌ها را می‌سازند و آکسون تلاش کرده است تا خود را در این موقعیت قرار دهد.

در نامه اعضای کمیته اخلاق هوش مصنوعی آمده است: آکسون قصد دارد پهپاد‌هایی را برای نظارت بر تیراندازی دسته جمعی در مدارس ارائه دهد و اهداف را با دوربین‌های نظارتی و قابلیت پخش فوری ثبت کند.

کمیته اخلاق هوش مصنوعی به آکسون هشدار داده بود که اگر برنامه‌های مورد نظر آن‌ها را پیگیری نکند، اعضای این کمیته استعفا خواهند داد. کار آکسون ادامه یافت و اعضا استعفا دادند.

اسمیت گفت: در پرتو بازخوردها، ما کار کردن روی این پروژه را متوقف می‌کنیم و برای کشف کامل بهترین مسیر رو به جلو، تمرکز مجددی را بر تعامل بیشتر با حوزه‌های مهم داریم. به کار گرفتن یک پهپاد بی‌خطر در مدارس که از راه دور کار می‌کند، یک ایده است، نه یک محصول و راهی طولانی برای ارائه آن در پیش داریم. ما باید بررسی‌های زیادی انجام دهیم تا ببینیم آیا این فناوری قابل دوام آوردن است یا خیر و درک کنیم که آیا می‌توان پیش از حرکت رو به جلو، به اندازه کافی به نگرانی‌های عمومی پرداخت یا خیر.

همچنین اسمیت گفت که آن‌ها روند جمع‌آوری نظرات جایگزین را ادامه می‌دهند. وی افزود: اعضای مستعفی کمیته اخلاقی، پیش از این که ما پرسش‌های فنی آن‌ها را بشنویم یا فرصتی برای رسیدگی به آن‌ها داشته باشیم، تصمیم گرفته‌اند که مستقیما در این موضوعات درگیر شوند.

"مکس آیزاکس" (Max Isaacs)، وکیل پروژه نظارت که با آکسون و کمیته اخلاق هوش مصنوعی روی این ایده کار می‌کند، اظهار داشت: کمیته اخلاق هوش مصنوعی بیش از یک سال با آکسون درگیر شد تا در مورد پارامتر‌های یک برنامه آزمایشی بحث کند. نقض این اقدام از سوی شرکت پیش از اتخاذ چنین تصمیمات مهمی و پذیرش نظارت گسترده مداوم نشان می‌دهد که آکسون به اندازه کافی به توسعه این فناوری به شیوه‌ای مسئولانه متعهد نیست.

یکی از نمایندگان آکسون توضیح داد که نگرانی آن‌ها در مورد به کار گرفتن پهپاد توسط پلیس برای استقرار در مدارس بسیار مهم است.

در هر صورت، فناوری همیشه نقش مهمی در ایمنی و اجرای قانون خواهد داشت، اما حرکت سریع‌تر از حد تصور برای هیچکس سودمند نیست و ممکن است عواقب جدی داشته باشد.

ارسال نظرات
قوانین ارسال نظر