AI کارشناسان هشدار می دهند در برابر جرم و جنایت پیش بینی الگوریتم وجود دارد گفت: هیچ ‘ویژگی های فیزیکی برای جنایت’

تعدادی از محققان هوش مصنوعی, داده, دانشمندان و جامعه شناسان و مورخان نوشته اند نامه ای سرگشاده برای پایان دادن به انتشار تحقیقات که ادعای هوش مصنوعی و یا تشخیص چهره می تواند پیش بینی کند که آیا یک فرد به احتمال زیاد به یک جنایتکار است.

نامه امضا شده توسط بیش از 1000 کارشناسان استدلال می کند که اطلاعات تولید شده توسط سیستم عدالت کیفری نمی توان به “شناسایی مجرمان” و یا پیش بینی رفتار.

تاریخی دادگاه و بازداشت اطلاعات منعکس کننده سیاست ها و شیوه از سیستم عدالت کیفری و در نتیجه گرایش کارشناسان می گویند.

“این داده ها منعکس کننده که پلیس را انتخاب کنید برای دستگیری, چگونه قضات را انتخاب کنید به حکومت و که به مردم اعطا دیگر یا بیشتر ملایم جملات” این نامه را می خواند.

همچنين با ادامه این مطالعات “‘جنایت’ عمل به عنوان یک پروکسی برای مسابقه با توجه به نژادی شیوه های تبعیض آمیز در اجرای قانون و عدالت کیفری تحقیق از این طبیعت ایجاد خطرناک حلقه های بازخورد” در این نامه می گوید.

اگر سیستم عدالت مغرضانه علیه مردم سیاه و سفید و سپس کسانی که تعصبات حاضر خواهد بود در این الگوریتم زمانی که آنها در حال آموزش کارشناسان استدلال می کنند.

این الگوریتم خواهد شد و سپس خوراک را به سیستم قضایی تداوم یک حلقه به موجب آن وجودی مبانی الگوریتم ها هرگز مورد سوال است.

“داشتن یک صورت به نظر می رسد که یک راه خاص را ایجاد نمی کند و فرد به ارتکاب جرم — به سادگی وجود دارد هیچ ‘ویژگی های فیزیکی برای جنایت’ تابع در طبیعت” آن همچنان ادامه دارد.

همچنین اشاره می کند که این اطلاعات می تواند هرگز “عادلانه”. مشوق ها به رانندگی ماشین یادگیری تحقیق و توسعه هستند بیشتر از کسانی است که “بازجویی فرهنگی منطق و ضمنی فرض اساسی در مدل های خود را.”

“در زمانی که مشروعیت carceral دولت و پلیس در خاص است که چالش اساسی در زمینه در ایالات متحده وجود تقاضای بالا در اجرای قانون برای تحقیق از این طبیعت تحقیقاتی که پاکسازی تاریخی خشونت و تولید ترس از طریق به اصطلاح پیش بینی جرم و جنایت” محققان می گویند.

با این حال محققان می گویند که انتشار چنین کار “خواهد نشان دهنده یک گام مهم به سمت مشروعیت و استفاده از بارها و بارها افشا و خنثی اجتماعی مضر پژوهش در دنیای واقعی است.”

این نامه به طور خاص منابع یک نشریه به نام “یک مدل شبکه عصبی برای پیش بینی جرم و جنایت با استفاده از پردازش تصویر.” محققان ادعا کرد در یک مصاحبه مطبوعاتی که سیستم “قادر به پیش بینی این که آیا کسی است که به احتمال زیاد رفتن به یک جنایتکار و … با 80 درصد دقت و بدون تعصب نژادی.”

انتشار در حال حاضر حذف شده است.

اسپرینگر که با انتشار مقاله ای گفته است که “ارسال به آینده کنفرانس که اسپرینگر در حال برنامه ریزی برای انتشار مجموعه مقالات. پس از کامل بررسی دقیق فرایند کاغذ رد شد”.

نرم افزار تشخیص چهره اغلب مورد انتقاد قرار گرفته است به آن دقت و تعصبات. به تازگی آمازون صورت تکنولوژی تشخیص نادرست همسان بیش از 100 عکس از سیاستمداران در بریتانیا و ایالات متحده به پلیس mugshots.

این شرکت قرار داده شده پس از یک مهلت قانونی برای آن Rekognition نرم افزار در حالی که طالبان به عنوان بخشی از زندگی مهم جنبش است.

آی بی ام نیز به پایان رسید تحقیقات به طور کلی تشخیص چهره محصولات.

آن است که نه تنها تشخیص چهره تکنولوژی است که زیر آتش آمده است. کارگران در هر دو مایکروسافت و گوگل خواسته اند خود را به شرکت های مربوطه برای پایان دادن به قرارداد با پلیس به عنوان بخشی از یک بیشتر جنبش های, بررسی رابطه بین شرکت های بزرگ فناوری و اجرای قانون است.

“ما در حال نا امید می دانیم که گوگل هنوز فروش به نیروهای پلیس و تبلیغ آن در ارتباط با نیروهای پلیس به عنوان نوعی مترقی و به دنبال گسترده تر فروش به جای قطع روابط با پلیس و پیوستن به میلیون ها نفر که می خواهند به defang و پال خواستار قطع بودجه دولت از این موسسات,” بیش از 1600 کارمندان گوگل نوشت.

tinyurlis.gdv.gdv.htu.nuclck.ruulvis.netshrtco.detny.im

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *