Algoritma sedang diuji di San Francisco untuk menetapkan jaminan pra-percubaan

$config[ads_kvadrat] not found

County jail looks into pretrial release program for offenders

County jail looks into pretrial release program for offenders
Anonim

Sistem keadilan jenayah berada di tengah-tengah perubahan algoritma. Sekitar 30 bidang kuasa - termasuk seluruh negeri Arizona, Kentucky, dan New Jersey, serta bandar-bandar seperti San Francisco dan Chicago - telah menguji algoritma yang menetapkan kos jaminan berdasarkan data rekod jenayah di seluruh negara. Tidak semua hakim semestinya bersedia untuk mengambil cadangan digital ke hati.

Algoritma ini dibuat oleh Yayasan Laura dan John Arnold yang berpusat di Houston, dan dipanggil Penilaian Keselamatan Awam, atau PSA. Matlamat algoritma adalah untuk mengambil bias daripada menetapkan jaminan dengan menggunakan data daripada 1.5 juta kes prasrial. Walau bagaimanapun, pada masa lalu, algoritma telah membawa bias yang sama kepada orang yang membuatnya.

Sembilan faktor masuk ke dalam algoritma, di laman web asas:

  • Sama ada kesalahan semasa adalah ganas
  • Sama ada orang itu mempunyai caj yang belum selesai pada masa penangkapan
  • Sama ada orang itu mempunyai keyakinan yang salah
  • Sama ada orang itu mempunyai sabitan felon yang terdahulu
  • Sama ada orang itu mempunyai sabitan yang terdahulu untuk jenayah ganas
  • Umur orang itu pada masa penangkapan
  • Sama ada orang itu gagal hadir pada pendengaran pra-matang dalam tempoh dua tahun yang lalu
  • Sama ada orang gagal hadir pada pendengaran pra-peringkat lebih daripada dua tahun lalu
  • Sama ada orang itu sebelum ini telah dijatuhi hukuman penjara.

Algoritma ini tidak mengambil kira kaum, jantina, pendapatan, pendidikan, pekerjaan, atau kejiranan. Ini, mengikut asas, menjadikan PSA neutral.

Namun, hakim-hakim di San Francisco tidak konsisten mengikuti saranan tersebut San Francisco Chronicle laporan.

San Francisco berpindah menggunakan algoritma selepas bandar itu disaman oleh kumpulan hak asasi kebangsaan yang mendakwa jaminan yang terlalu tinggi menyakiti orang miskin lebih daripada orang kaya. Orang kaya yang melakukan jenayah kecil membeli jalan keluar dari penjara, sementara orang miskin yang tidak mampu membayar jumlah jaminan berlebihan ditinggalkan di dalam sel induk sehingga perbicaraan dapat dijadwalkan.

PSA sepatutnya meratakan padang permainan dengan melihat data, bukannya jenayah yang segera. Algoritma ini menggunakan data sejarah untuk menilai sejauh mana seseorang itu akan melakukan kejahatan lain atau mengelakkan percubaan jika ditaruh dengan ikat jamin, Laporan minoriti gaya. Jika kemungkinan besar, jaminan ditetapkan lebih tinggi, dan sebaliknya.

Algoritma serupa yang dicipta oleh Northpointe digunakan untuk membimbing tarikh pelepasan banduan. ProPublica menerbitkan hasil siasatan pada bulan Mei yang mendapati bahawa skor "penilaian risiko" yang diberikan oleh algoritma Northpointe secara tidak seimbang meramalkan bahawa orang kulit hitam lebih cenderung melakukan kejahatan lain daripada orang kulit putih selepas mereka keluar. Hanya 20 peratus ramalan Northpointe adalah tepat.

Teknologi pemetaan lanjutan dan data besar, sebaliknya, juga membantu mengenal pasti penguatkuasaan undang-undang dan polis hotspot kriminal.

Algoritma asas bertujuan untuk mengelakkan kecenderungan yang sama dengan menghapuskan sebarang petunjuk demografi. Walau bagaimanapun, sama ada ia benar-benar berfungsi, tidak akan dapat dilihat sehingga hakim sebenarnya mula bergantung pada algoritma berbanding duluan dan intuisi.

$config[ads_kvadrat] not found