دولت بریتانیا در حال توسعه برنامهای مبتنی بر هوش مصنوعی است که قتل احتمالی را قبل از وقوع جنایت پیشبینی میکند.
به گزارش تکناک، طرحی بحثبرانگیز که بسیاری از کارشناسان، آن را اقدامی نگرانکننده با پیامدهایی مخرب برای حقوق بشر و آزادیهای فردی میدانند.
شناسایی مجرم پیش از ارتکاب جرم
بر اساس گزارشهای رسمی، دولت بریتانیا در حال سرمایهگذاری روی پروژهای موسوم به Homicide Prediction Project است، که با استفاده از دادههای پلیس و نهادهای دولتی تلاش میکند احتمال ارتکاب قتل را در افراد مختلف پیشبینی کند. این برنامه هنوز در مرحله تحقیقاتی قرار دارد، اما هدف نهایی آن، استفاده پیشگیرانه برای جلوگیری از وقوع قتل عنوان شده است.
انتقادها برای پیشبینی قتل با هوش مصنوعی
کارشناسان هشدار میدهند که چنین پروژهای ممکن است افراد را فقط به مجموعهای از اعداد و ارقام تبدیل کند، که پیامدهای خطرناکی دارد. نتایج این الگوریتمها به احتمال زیاد خطا داشته باشند و در نتیجه، افراد بیگناه به اشتباه شناسایی شوند. همچنین هیچ روشی برای بررسی درستی پیشبینیها وجود ندارد.
بسیاری از منتقدان این پروژه را با سیستمهای سرکوبگر در حکومتهای تمامیتخواه مقایسه کردهاند. الکساندر سولژنیتسین، نویسنده روس و برنده نوبل، در اثر معروف خود مجمعالجزایر گولاگ به سیاست حذف پیشگیرانه افراد در شوروی اشاره میکند؛ افرادی که بدون اثبات جرم و صرفاً بر اساس «احتمال» تهدید بودن، به اردوگاههای کار اجباری فرستاده میشدند.
الگوریتمهایی بدون پاسخگویی و بدون شفافیت
امروزه که هوش مصنوعی و الگوریتمها در تصمیمگیری و قضاوت نقش دارند، مشکل نبود پاسخگویی بیشتر احساس میشود. کتی اونیل، ریاضیدان و نویسنده، در کتاب خود به نمونههایی اشاره میکند که در آنها معلمان به دلیل اشتباهات الگوریتمی از کار اخراج شدهاند، بدون اینکه کسی مسئولیت این خطاها را بپذیرد. او این وضعیت را «گودال پاسخگویی» مینامد؛ شرایطی که در آن نه کسی پاسخگو است و نه راهی برای اصلاح اشتباهات وجود دارد.
تجربههای مشابه در آمریکا
نمونههای مشابهی از این نوع سیستمها در ایالات متحده نیز دیده شده است. در ایالت لوئیزیانا، الگوریتمی با نام TIGER برای پیشبینی احتمال ارتکاب جرم توسط زندانیان پس از آزادی مورد استفاده قرار میگیرد. حتی یک زندانی ۷۰ ساله و تقریباً نابینا نیز به دلیل ارزیابی «ریسک بالا» از سوی این سیستم، از آزادی مشروط محروم شد.
در پرونده جنجالی State vs. Loomis در ایالت ویسکانسین، از الگوریتمی برای تعیین میزان مجازات استفاده شد، اما دسترسی و بررسی عملکرد داخلی الگوریتم به دلیل مالکیت شرکتی رد شد؛ وضعیتی که به گفته منتقدان، عدالت را در هالهای از ابهام فرو میبرد.
نگرانیها درباره پیشبینی قتل با هوش مصنوعی
بیش از همه، آنچه نگرانیها را دوچندان میکند، نوع دادههایی است که برای آموزش این الگوریتم استفاده شدهاند. این دادهها شامل اطلاعات حساسی مانند: وضعیت سلامت روان، اعتیاد، ناتوانی جسمی، سوابق خودآزاری و حتی قربانی بودن در جرائم هستند و این اطلاعات بدون رضایت افراد و با مشارکت نهادهایی مثل وزارت دادگستری، پلیس و پایگاه داده ملی پلیس گردآوری شدهاند.
همچنین دادهها شامل ویژگیهایی نظیر نژاد و جنسیت هستند، که به طور بالقوه میتوانند باعث بروز تبعیض علیه اقلیتهای قومی و گروههای آسیبپذیر شوند. پژوهشها نشان دادهاند که چنین الگوریتمهایی در مورد افراد سیاهپوست دقت کمتری دارند و اغلب الگوهای تبعیضآمیز گذشته را در پیشبینیهای آینده تکرار میکنند.
فناوری جایگزین عدالت حقیقی نمیشود
نویسنده این تحلیل در پایان یادآور میشود که پروژه پیشبینی جنایت در کشوری دموکراتیک مانند بریتانیا، آن هم با الهام از روشهایی متعلق به حکومتهای استبدادی، جای نگرانی عمیقی دارد. جامعه هم باید از جنایتکاران محافظت کند و هم از سیستمی فناورمحور که بدون پاسخگویی، تصمیمات سرنوشتسازی برای انسانها میگیرد.