به گزارش مجله خبری نگار، به طور معمول افراد تصمیم گیرنده براساس پیش بینیهایی که نتایجی نامشخص دارند، به طور متوالی گزینههایی را انتخاب میکنند. این روند به خصوص درباره قضات دادگاهها صحت دارد که درباره آنکه برای متهم قرار وثیقه صادر کنند یا خیر یا آنکه چگونه مجازات متهمان را تعیین کنند، تصمیم میگیرند.
اکنون شرکتها به طور روزافزونی از مدلهای یادگیری ماشینی در تصمیم گیریهایی با ریسک بالا استفاده میکنند. این سیستمها فرضیات مختلفی درباره رفتارهای انسانی مبنای خود قرار میدهند. همین روند در توصیههای محصول در آمازون، فیلتر کردن هرزنامههای ایمیل شده و متنهای پیش بینی کننده روی موبایل نیز نقش دارد.
در همین راستا محققان یک تست از چنین فرضیه رفتاری را توسعه دادند تا مشخص شود آیا تصمیم گیرندگان به طور سیستماتیک پیش بینیهای اشتباه انجام میدهند یا خیر. همچنین آنها روشهایی برای تخمین تبعیض آمیز بودن پیش بینی هایشان نیز توسعه دادند.
تحقیق مذکور با تحلیل سیستم پیش از محاکمه شهر نیویورک نشان داد تعداد زیادی از قضات با توجه به ویژگیهای متهم مانند نژاد، سن و رفتارهای پیشین، پیش بینیهای سیستماتیک اشتباهی درباره خطر سوء رفتار قبل محاکمه افراد انجام میدهد. پژوهشگران این موضوع را بررسی کردند که آیا تصمیم قضات برای آزاد کردن افراد نشان دهنده اعتقاد صحیح آنها درباره خطر عدم حضور متهم در دادگاه است یا خیر. پژوهش براساس اطلاعات بیش از یک میلیون پرونده در شهر نیویورک انجام شد که ۷۵۸۰۲۷ مورد آن مشمول آزادی پیش از محاکمه بودند.
تحلیلها حاکی از آن است که حداقل ۲۰ درصد قضات شهر نیویورک درباره پیش بینی خطر سورفتار متهم با توجه به ویژگیهای او اشتباه میکنند. محققان با تکیه بر این تحلیل تاثیر جایگزینی قضات با الگوریتمهای تصمیم گیری را تخمین زدند.
هرچند این تحقیق اشاره میکند جایگزین کردن الگوریتمهای هوش مصنوعی با قضات تاثیرات مبهمی دارد، اما به نظر میرسد به بهبود ۲۰ درصدی نتایج دادگاه منجر میشود.