Benarkah kita akan segera memiliki hakim robot?

(Untuk Enrico Priolo)
21/02/22

Manusia dan mesin. Kombinasi yang, sekarang, kita terbiasa dan yang menakutkan setiap kali diucapkan. Dilema dasarnya adalah memahami sejauh mana manusia harus memberikan ruang untuk bermanuver ke mesin.

Tidak diragukan lagi, salah satu bidang pengetahuan yang lebih banyak didiskusikan adalah bidang hukum, khususnya yang disebut keputusan peradilan otomatis.

Memang benar bahwa kita akan segera memiliki hakim robot? Untuk menjawabnya, kenali dulu apa yang dimaksud secara umum dengan prediksi dan prediksi.

Mereka ada setidaknya empat situasi dimana hukum dan para pelaksananya (ahli hukum dan pembuat undang-undang) mengukur diri mereka dengan “perkiraan” atau dengan kebutuhan/kemampuan untuk melihat dan mengevaluasi terlebih dahulu apa yang akan terjadi di masa depan. Mari kita lihat mereka.

1) Ketentuan normatif. Dalam leksikon para ahli hukum, ungkapan "prediksi normatif" sering muncul untuk menunjukkan situasi abstrak yang dibayangkan pembuat undang-undang dan yang keberadaannya terkait kembali dengan munculnya konsekuensi tertentu. Dalam konteks tertentu itu bertepatan dengan apa yang disebut "kasus abstrak".

Oleh karena itu, konsep prediksi melekat pada norma: tugas yang terakhir adalah untuk menggambarkan situasi yang mungkin terjadi di masa depan. Ketika kita menafsirkan kalimat normatif, kita dituntun, di satu sisi, untuk membayangkan keadaan faktual di mana kalimat itu dapat diterapkan dan, di sisi lain, bertanya pada diri sendiri alasan ketentuan itu, mencoba mengidentifikasi alasan yang mendorong pembuat undang-undang. untuk melakukan atau tidak membuat pilihan tertentu.

2) Prediktabilitas/prediktabilitas respon sistem hukum: kepastian hukum.

Prediksi hasil perselisihan ditempatkan dalam perspektif yang terhubung dengan apa yang baru saja dikatakan.

Kalimat tersebut menandai peralihan dari "ketentuan normatif" abstrak menuju keadilan kasus individu di mana ketentuan itu diterapkan. Ini adalah saat di mana kasus konkret secara sempurna disesuaikan dengan kasus abstrak menurut model penalaran silogistik. Gagasan tentang "hak yang dapat dihitung" bersandar pada keyakinan bahwa hasil dari setiap perselisihan harus "dapat diprediksi". Justru anggapan ini memberi substansi pada salah satu pilar peradaban yuridis kita: yaitu "kepastian hukum". Sistem hukum wajib dalam kaitannya dengan suatu masalah harus selalu memberikan jawaban yang sama. Karena yang pasti hanyalah apa yang dapat diprediksi. 

3) Prediksi efek regulasi.

Dengan asumsi sudut pandang pembuat undang-undang / pembuat undang-undang (dan para ahli hukum yang bekerja sama dengan mereka) harus diingat bahwa, selama beberapa tahun, penekanan yang lebih besar telah ditempatkan pada kebutuhan untuk "meramalkan" efek dari aturan dan regulasi: aturan harus dibuat masalah hanya jika, pada akhir penyelidikan yang memadai, cukup pasti bahwa mereka akan memiliki efek yang diinginkan dan diharapkan.

Oleh karena itu perlu untuk dapat "memprediksi" secara wajar:

a) bagaimana rekanan akan bereaksi terhadap aturan baru (apakah mereka akan mempertahankan perilaku yang diinginkan dan/atau dipaksakan atau tidak);

b) jika efek yang dihasilkan oleh aturan baru akan benar-benar mengarah pada pencapaian tujuan yang diinginkan.

4) Prediksi/prediksi kecerdasan buatan.

Perbatasan baru diwakili oleh kemampuan prediksi kecerdasan buatan, bahkan jika itu akan lebih baik untuk mengatakan "ilmu data" dan dari "penambangan data" diterapkan pada dunia hukum ("analisis hukum"). Mengesampingkan kasus US Loomis yang terkenal (di mana perangkat lunak COMPAS tampaknya telah mendelegasikan kemampuan untuk memprediksi bakat Mr. Loomis untuk residivisme), di sini yang kami maksud adalah kemampuan untuk menguraikan prediksi melalui perhitungan probabilistik yang dilakukan oleh algoritma yang beroperasi pada basis statistik sederhana, atau pada basis logis.

Analisis hukum dapat digunakan untuk memprediksi hasil keputusan. 

Pada tahun 2016, misalnya, sebuah penelitian dilakukan, berkat kemajuan dalam pemrosesan bahasa alami dan pembelajaran mesin, yang bertujuan untuk membangun model prediktif yang berguna untuk mengungkap pola yang memandu keputusan pengadilan. Pekerjaan tersebut memprediksi hasil dari kasus yang dianalisis oleh Pengadilan Hak Asasi Manusia Eropa berdasarkan konten tekstualnya: ramalan tersebut berhasil dalam 79% kasus. Dan, secara lebih umum, dapat digunakan untuk memprediksi perilaku semua aktor dalam sistem hukum. Lex Mesin, emanasi dari Lexis Nexis-, menggabungkan data dan perangkat lunak untuk membuat kumpulan data tentang hakim, pengacara, pihak, dan subjek litigasi, menganalisis jutaan halaman informasi sengketa. Dengan data ini, pengacara dapat memprediksi perilaku dan hasil yang akan dihasilkan oleh berbagai kemungkinan strategi hukum.

La "analisis hukum" bertujuan untuk memprediksi hasil dari proses: tidak berdasarkan alasan hukum yang ketat dan mekanis, tetapi berdasarkan analisis algoritmik / statistik yang canggih dari sejumlah besar data (data besar).

Menghipotesiskan kemungkinan orientasi pengadilan, hakim, operator adalah satu hal. Adalah hal lain untuk memprediksi dengan pasti hasil dari penilaian tunggal. Untuk mencapai hal ini kita harus memiliki algoritma yang mampu mengatur ketidakpastian dan ketidakpastian. Dan, bagaimanapun, akan tetap ada masalah etika mengenai legitimasi mempercayakan keputusan hukum untuk jenis algoritma ini.

Mengenai aspek terakhir ini, perlu diingat pekerjaan yang dilakukan oleh Komisi Eropa untuk efisiensi keadilan (CEPEJ), yang telah mengadopsi apa yang disebut Piagam Etika Eropa tentang penggunaan kecerdasan buatan dalam sistem peradilan dan bidang terkait. Piagam, yang dikeluarkan pada tahun 2018, menetapkan lima prinsip utama tentang penggunaan Kecerdasan Buatan dalam sistem "keadilan".

Sementara itu, lihat apa yang dimaksud Eropa dengan kecerdasan buatan

Serangkaian metode, teori, dan teknik ilmiah yang bertujuan untuk mereproduksi kemampuan kognitif manusia melalui mesin. Perkembangan saat ini bertujuan untuk membuat mesin melakukan tugas-tugas kompleks yang sebelumnya dilakukan oleh manusia. Namun, ungkapan "kecerdasan buatan" dikritik oleh para ahli, yang membedakan antara kecerdasan buatan "kuat" (mampu mengontekstualisasikan masalah khusus dari berbagai jenis dengan cara yang sepenuhnya otonom) dan kecerdasan buatan "lemah" atau "sedang" (berkinerja tinggi dalam tempat pelatihan mereka). Beberapa ahli berpendapat bahwa kecerdasan buatan yang "kuat", agar dapat memodelkan dunia secara keseluruhan, akan membutuhkan kemajuan signifikan dalam penelitian dasar dan bukan hanya perbaikan sederhana dalam kinerja sistem yang ada. Alat-alat yang disebutkan dalam dokumen ini dikembangkan menggunakan metode pembelajaran mesin, yaitu kecerdasan buatan yang "lemah".

Dan apa artinya dengan Keadilan prediktif (Keadilan Prediktif)

Keadilan prediktif berarti analisis sejumlah besar keputusan pengadilan menggunakan teknologi kecerdasan buatan untuk merumuskan prediksi hasil dari jenis sengketa khusus tertentu (misalnya, yang berkaitan dengan pembayaran pesangon atau pembayaran pemeliharaan) . Istilah "prediktif" digunakan oleh perusahaan-perusahaan teknologi hukum diambil dari cabang ilmu (terutama statistik) yang memungkinkan memprediksi hasil di masa depan berkat analisis induktif. Keputusan peradilan diproses untuk menemukan korelasi antara data masukan (kriteria yang ditetapkan oleh undang-undang, fakta kasus, motivasi) dan data keluaran (keputusan formal yang berkaitan, misalnya, jumlah kompensasi). Korelasi yang dianggap relevan memungkinkan terciptanya model yang, bila digunakan dengan data masukan baru (fakta atau klarifikasi baru yang diperkenalkan dalam bentuk parameter, seperti durasi hubungan kontraktual), menurut pengembangnya menghasilkan perkiraan keputusan.

Beberapa penulis telah mengkritik pendekatan ini baik secara formal maupun substansial, dengan alasan bahwa, secara umum, pemodelan matematika dari fenomena sosial tertentu bukanlah tugas yang sebanding dengan kegiatan lain yang lebih mudah diukur (mengisolasi faktor penyebab yang sebenarnya dari keputusan pengadilan adalah tugas yang jauh lebih kompleks untuk bermain, misalnya, permainan Go atau mengenali gambar): risiko korelasi palsu jauh lebih tinggi. Lebih lanjut, secara doktrin, dua putusan yang bertentangan dapat terbukti sahih jika penalaran hukumnya cukup beralasan. Akibatnya, perumusan prakiraan akan merupakan pelaksanaan yang murni bersifat indikatif dan tanpa klaim preskriptif.

Setelah tenggat waktu ditetapkan, mari cari tahu apa prinsip dasar yang ditetapkan oleh CEPEJ

1) PRINSIP MENGHORMATI HAK DASAR:

memastikan pengembangan dan penerapan alat dan layanan kecerdasan buatan yang kompatibel dengan hak-hak dasar. Ketika alat kecerdasan buatan digunakan untuk menyelesaikan perselisihan, untuk memberikan dukungan dalam pengambilan keputusan pengadilan, atau untuk mengarahkan publik, penting untuk memastikan bahwa mereka tidak merusak jaminan hak akses ke hakim dan hak untuk pengadilan yang adil (kesetaraan senjata dan rasa hormat terhadap musuh).

Artinya, sejak tahap pengembangan dan pembelajaran, harus ada ketentuan lengkap yang melarang pelanggaran langsung atau tidak langsung terhadap nilai-nilai fundamental yang dilindungi oleh Konvensi supranasional.

Hak asasi manusia dengan desain.

2) PRINSIP NON-DISKRIMINASI:

secara khusus mencegah berkembangnya atau mengintensifkan setiap diskriminasi antara orang atau kelompok orang. Mengingat kemampuan metode pemrosesan ini untuk mengungkap diskriminasi yang ada, melalui pengelompokan atau klasifikasi data yang berkaitan dengan individu atau kelompok orang, aktor publik dan swasta harus memastikan bahwa metodologi tersebut tidak mereproduksi atau memperburuk diskriminasi tersebut dan tidak mengarah pada analisis deterministik atau penggunaan.

Metodenya harus NON-diskriminatif.

3) PRINSIP MUTU DAN KEAMANAN:

sehubungan dengan pemrosesan keputusan dan data pengadilan, gunakan sumber bersertifikat dan data tidak berwujud dengan model yang dikembangkan multidisiplin, dalam lingkungan teknologi yang aman. Pembuat model pembelajaran mesin harus dapat memanfaatkan secara luas keahlian para profesional dan peneliti sistem peradilan yang relevan di bidang hukum dan ilmu sosial. Pembentukan tim proyek campuran, untuk siklus pemrosesan pendek, untuk menghasilkan model fungsional adalah salah satu metode organisasi yang memungkinkan untuk mendapatkan yang terbaik dari pendekatan multidisiplin ini.

Semakin banyak kita mendesain, semakin baik.

4) PRINSIP TRANSPARANSI, IMPARTIALITAS DAN KEADILAN:

membuat metode pemrosesan data dapat diakses dan dimengerti, mengizinkan audit eksternal. Keseimbangan harus dicapai antara kekayaan intelektual dari beberapa metodologi pemrosesan dan kebutuhan akan transparansi (akses ke proses kreatif), ketidakberpihakan (tidak adanya bias), kesetaraan dan integritas intelektual (mengistimewakan kepentingan keadilan) saat menggunakan alat yang dapat mereka gunakan. mempunyai akibat hukum, atau yang dapat mempengaruhi kehidupan masyarakat secara signifikan. Harus dipahami bahwa langkah-langkah tersebut berlaku untuk seluruh proses kreatif, serta untuk rantai operasional, karena metodologi pemilihan dan kualitas dan organisasi data secara langsung mempengaruhi fase pembelajaran.

Kecerdasan Buatan harus dapat diverifikasi oleh pihak ketiga.

5) PRINSIP "KONTROL OLEH PENGGUNA":

menghalangi pendekatan preskriptif dan memastikan bahwa pengguna adalah aktor yang terinformasi dan mengendalikan pilihan mereka. Penggunaan alat dan layanan kecerdasan buatan harus memperkuat dan tidak membatasi otonomi pengguna. Pengguna harus diberi tahu dalam bahasa yang jelas dan dapat dimengerti tentang sifat mengikat atau tidak tentang solusi yang diajukan oleh alat kecerdasan buatan, tentang berbagai kemungkinan yang tersedia, dan tentang haknya untuk menerima bantuan hukum dan mengakses pengadilan. Anda juga harus diberitahu dengan jelas tentang penanganan kasus sebelumnya yang menggunakan kecerdasan buatan, sebelum atau selama proses peradilan, dan harus memiliki hak untuk menolak, agar kasus Anda diadili secara langsung oleh pengadilan. dengan pasal 6 ECHR.

Diinformasikan dengan benar untuk memeriksa pilihan Anda.

Kesimpulan:

Pada pemeriksaan lebih dekat, prinsip-prinsip yang ditentukan oleh CEPEJ menunjukkan kepada kita cara, yang dapat diringkas (menyesuaikannya dengan konteks peradilan) dengan gagasan yang dikembangkan selama debat internasional yang berkembang di PBB tentang senjata otonom. Dalam ketidakmungkinan menentukan keadaan komputasi alat kecerdasan buatan dan, oleh karena itu, kontrol penuh atas pelaksanaan algoritma prediktif, untuk memperbaiki perubahan "kebenaran dan kesetaraan perselisihan antara para pihak dan antara mereka dan hakim "permintaan harus diperkuat bahwa keputusan prediktif dibuat tanpa hanya menggunakan hasil probabilistik murni yang diperoleh, bukan hanya karena pemenuhannya tidak selalu dapat diverifikasi secara memadai.

Kami mengacu pada saran doktrinal yang menurutnya harus disetujui bahwa penggunaan mesin di pengadilan tunduk pada kontrol manusia yang signifikan yang diwakili oleh kondisi penting berikut:

1) bahwa operasinya diumumkan dan dievaluasi sesuai dengan kriteria: peer review;

2) bahwa tingkat kesalahan potensial diketahui;

3) bahwa penjelasan yang memadai menerjemahkan "rumus teknis" yang merupakan algoritme ke dalam aturan hukum, sehingga dapat dibaca dan dipahami oleh hakim, para pihak, dan pembelanya;

4) bahwa pemeriksaan silang atas pilihan elemen yang diarsipkan, pengelompokannya dan korelasi data yang diproses oleh aparat intelijen buatan dijaga, khususnya yang berkaitan dengan pokok sengketa;

5) bahwa penerimaan mereka oleh hakim dibenarkan berdasarkan apa yang muncul di pengadilan dan untuk keadaan faktual yang dinilai menurut prinsip keyakinan bebas.

   

Sitografi:

https://rm.coe.int/carta-etica-europea-sull-utilizzo-dell-intelligenza-artificiale-nei-si/1680993348

https://teseo.unitn.it/biolaw/article/view/1353

https://www.agendadigitale.eu/cultura-digitale/predire-il-futuro-fra-machine-learning-e-magia/

https://archiviodpc.dirittopenaleuomo.org/d/6735-sistema-penale-e-intelligenza-artificiale-molte-speranze-e-qualche-equivoco

S. QUATTROCOLO, Kesetaraan persidangan kriminal dan bukti otomatis berdasarkan konvensi hak asasi manusia Eropa, dalam Rev. italo-española der. proc., 2019, tersedia di http://www.revistasmarcialpons.es/rivitsproc/

https://www.europarl.europa.eu/RegData/etudes/STUD/2020/656295/IPOL_STU(2020)656295_EN.pdf

https://ec.europa.eu/info/sites/default/files/commission-white-paper-artificial-intelligence-feb2020_it.pdf

https://archiviodpc.dirittopenaleuomo.org/upload/3089-basile2019.pdf

Bibliografi:

Kecerdasan buatan. Pendekatan Modern, Russell dan Norvig, Pearson.

Yuval Noah Harari, Homo Deus: sejarah singkat masa depan, Penerbitan antik.

GWF HEGEL, Garis Besar Filsafat Hukum, 1821, terj. itu., Bari, 1996.

G. ROMANO, Hukum, robotika dan teori permainan: refleksi sinergi, di G. Alpa (diedit oleh), Hukum dan kecerdasan buatan, Pisa, 2020

G. TAMBURRINI, Etika mesin. Dilema moral untuk robotika dan kecerdasan buatan, Roma, 2020

U. Ruffolo - A. AMIDEI, Kecerdasan Buatan, peningkatan manusia dan hak asasi manusia, dalam Kecerdasan Buatan. Hukum, hak, etika, sudah diantisipasi di U. RUFFOLO - A. AMIDEI, Artificial Intelligence and human rights: the frontiers of "transhumanism", in Giur.It., 2019

J. LASSÈGUE, Keadilan Digital. Révolution graphique et pecah antropologique, Paris, 2018

J. NIEVA-FENOLL, Kecerdasan dan proses buatan, 2018, trans. itu., Turin, 2019

S. SIGNORATO, Peradilan Pidana dan kecerdasan buatan. Pertimbangan pada subjek algoritma prediktif, di Riv. dir. proc., 2020

Foto: www.golegal.co.za