Bagaimana UU AI akan mengatur Kecerdasan Buatan di UE dan apa dampaknya

25/01/24

"Saat hasilnya diumumkan, mata Lee Sedol berkaca-kaca. AlphaGo, sebuah kecerdasan buatan (AI) yang dikembangkan oleh DeepMind Google, baru saja meraih kemenangan 4-1 dalam permainan Go, pada bulan Maret 2016. Dua dekade sebelumnya, grandmaster catur Garry Kasparov kalah dari mesin Deep Blue, dan sekarang sebuah program komputer menang melawan juara dunia kedelapan belas Lee Sedol dalam permainan kompleks yang diyakini hanya dimainkan oleh manusia, menggunakan intuisi dan pemikiran strategis mereka. Komputer menang bukan dengan mengikuti aturan yang diberikan oleh pemrogram, tetapi dengan pembelajaran mesin berdasarkan jutaan game Go masa lalu dan bermain melawan dirinya sendiri. Dalam hal ini, pemrogram menyiapkan kumpulan data dan membuat algoritme, namun mereka tidak dapat mengetahui gerakan mana yang akan diusulkan oleh program. Kecerdasan buatan belajar dengan sendirinya. Setelah serangkaian tindakan yang tidak biasa dan mengejutkan, Lee harus mengundurkan diri."

Kutipan dari buku "AI Ethics" karya Mark Coeckelbergh, seorang filsuf dan teknolog asal Belgia, mengenang secara eksplisit dan sugestif perjumpaan antara manusia dan keterbatasannya. Setelah sejumlah kemenangan yang didapat Sedol, AlphaGo menang. Ini bukan pertama kalinya hal ini terjadi (contoh yang dikutip adalah Deep Blue) namun, setelah serangkaian gerakan yang tidak biasa dan mengejutkan, AlphaGo melakukan apa yang dirancang untuknya: ini adalah pertama kalinya hal ini terjadi di cara ini.

Dan di sinilah kita memahami sintesis fenomena Kecerdasan Buatan (AI): ini pertama kalinya terjadi seperti ini.

Semua media telah membicarakan tentang perlombaan menuju Kecerdasan Buatan, terutama setelah "ledakan” ObrolanGPT. Kami juga telah membicarakan hal ini berkali-kali dalam konteks Pertahanan Daring, menyoroti dorongan evolusioner yang belum pernah terjadi sebelumnya yang dihadapi oleh solusi-solusi ini dalam sejarahnya.

Namun ada fenomena paralel, yang dapat disimpulkan dan terkait dengan fenomena pertama, yang berisiko luput dari perhatian. Yaitu standarisasi sistem ini.

Mengatur Kecerdasan Buatan bukanlah sebuah tantangan yang mudah, dan tanpa membahas teknisnya (atau banyak gejolak legislatif yang sedang berlangsung di negara-negara Asia dan Amerika Serikat mengenai topik ini), kita dapat mengatakan bahwa Uni Eropa, setelah melakukan upaya bertahun-tahun sebelumnya, telah menetapkan pada bulan Desember 2023 akan ada versi semi-definitif dari apa yang akan mewakili, setelah diskusi teknis dan prosedur persetujuan komunitas selesai, Peraturan Eropa pertama tentang Kecerdasan Buatan: AI ACT.

Apa ini?

“Undang-Undang AI” mewakili salah satu dokumen legislatif pertama dan paling terstruktur di tingkat global yang bertujuan untuk mengatur penggunaan Kecerdasan Buatan dan memitigasi potensi risiko terkait. Teks akhir undang-undang tersebut masih harus dikembangkan oleh para profesional yang kompeten dan harus melalui revisi akhir. Diharapkan, jika semuanya berjalan lancar, pemberlakuannya akan bisa dilakukan dalam dua tahun ke depan.

Peraturan ini berfokus terutama pada perlindungan hak dan kebebasan individu, menetapkan kewajiban bagi perusahaan yang mengembangkan solusi AI untuk menunjukkan bahwa produk dan proses pengembangannya tidak membahayakan masyarakat atau membahayakan integritas mereka. Peraturan ini mencakup beberapa bidang penerapan Kecerdasan Buatan, namun beberapa poin utamanya antara lain pembatasan sistem identifikasi biometrik dan kewajiban transparansi mengenai sistem teknologi yang digunakan untuk ChatBot seperti ObrolanGPT.

Elemen mendasar dari Peraturan ini adalah sistem klasifikasi risiko, yang telah diadopsi dalam peraturan serupa lainnya (terutama GDPR), yang mengidentifikasi sistem AI tertentu dengan karakteristik tertentu sebagai "berisiko tinggi", sehingga sistem tersebut harus menjalani tindakan kepatuhan yang ketat. Ketentuan ini akan menjadi tantangan besar bagi perusahaan dan lembaga yang terlibat dalam pembuatan, penerapan, atau penggunaan sistem tersebut.

Contoh sistem berisiko tinggi yang termasuk dalam Peraturan ini mencakup sistem yang digunakan di sektor-sektor penting seperti layanan kesehatan, transportasi, peradilan, dan keselamatan publik. Sistem seperti ini memerlukan standar tinggi dalam hal keamanan, transparansi, dan keandalan. Khusus untuk sistem berisiko tinggi, UU AI menetapkan sejumlah persyaratan ketat, antara lain:

  • Penilaian Risiko dan Kepatuhan: Sistem AI harus dirancang dan dikembangkan dengan mempertimbangkan penilaian risiko yang menyeluruh. Hal ini mencakup penerapan langkah-langkah untuk mengelola dan meminimalkan risiko-risiko ini.
  • Transparansi dan Informasi Pengguna: Sistem AI harus transparan. Pengguna harus diberi informasi ketika mereka berinteraksi dengan sistem AI, dan diberikan informasi yang memadai tentang cara kerja sistem dan pengambilan keputusan.
  • Pengawasan Manusia: UU AI menekankan pentingnya pengawasan manusia dalam sistem AI, terutama pada sistem yang berisiko tinggi. Hal ini dapat memiliki implikasi yang signifikan terhadap penggunaan AI oleh militer, di mana pengambilan keputusan otomatis dalam situasi kritis mungkin terbatas atau memerlukan pengawasan manusia secara eksplisit.
  • Kualitas data: Undang-Undang AI mengharuskan data yang digunakan oleh sistem AI dikelola untuk memastikan kualitas tertinggi, mengurangi risiko bias, dan memastikan bahwa keputusan yang diambil akurat dan dapat diandalkan.
  • Keamanan dan Kekokohan: Sistem AI harus aman dan kuat terhadap upaya manipulasi atau penyalahgunaan (aspek yang sangat penting, secara sederhana, dalam konteks militer).

Persyaratan lebih lanjut yang menarik adalah persyaratan yang diperkenalkan dari perspektif etika: Undang-Undang AI mensyaratkan “penilaian etis” yang nyata (Fundamental Rights Impact Assessment, FRIA) untuk dilakukan pada sistem berisiko tinggi. Ada juga banyak interaksi dengan topik keamanan pemrosesan data pribadi, yang mana teks Peraturan ini beberapa kali mengacu pada analisis risiko dan dampak terhadap individu yang terlibat dalam pengoperasian sistem ini dan risiko terhadap data mereka.

Selain itu, Ada beberapa praktik yang dilarang. Misalnya, penggunaan AI untuk analisis data biometrik sensitif, seperti mengenali orang berdasarkan karakteristik seperti orientasi seksual, etnis, agama, atau gagasan politik, akan dilarang. Ketentuan ini bertujuan untuk mencegah diskriminasi dan pelecehan. Penggunaan gambar yang diambil dari Internet atau dari kamera CCTV secara sembarangan untuk melatih sistem pengenalan wajah juga akan dilarang, untuk melindungi privasi orang dan mencegah pengawasan massal.

Badan penegak hukum akan diberi wewenang untuk menggunakan sistem pengenalan biometrik (yang merupakan pertarungan penting yang terjadi di dalam UE, setelah kasus Clearview) hanya jika keadaan luar biasa, seperti ancaman serangan teroris yang akan terjadi atau pencarian individu yang diduga melakukan kejahatan berat atau korban kejahatan berat.

UU AI melarang penggunaan AI untuk mengenali emosi orang di tempat kerja dan sekolah, demi menjaga kebebasan emosional individu. Selain itu, melarang praktik penilaian sosial, atau penggunaan AI untuk memberikan skor berdasarkan perilaku atau karakteristik masyarakat, sehingga mengakibatkan pembatasan atau pemberian hak-hak sipil. Langkah ini bertujuan untuk mencegah manipulasi perilaku masyarakat baik secara eksplisit maupun implisit.

Peraturan tersebut menetapkan bahwa sistem AI berdampak tinggi, dengan kemampuan komputasi tinggi seperti GPT-4 OpenAI, harus menjamin transparansi dalam proses pelatihan dan berbagi dokumentasi teknis dari materi yang digunakan sebelum dipasarkan. Model-model ini diharuskan membuat konten yang mereka hasilkan dapat dikenali, untuk mencegah penipuan dan disinformasi, serta untuk melindungi hak cipta atas karya yang dibuat.

Dari segi sanksi, perusahaan yang tidak mematuhi aturan tersebut dapat dikenakan denda hingga 7% dari omzet globalnya.

Yang tentunya sangat menarik adalah apa yang diramalkan dalam teks terkini tentang penggunaan sistem Kecerdasan Buatan di bidang militer.

Sebenarnya secara tegas disebutkan dalam teks (Pasal 2 ayat 3) bahwa ditinjau dari dampaknya terhadap bidang militer, UU AI tidak berlaku langsung pada sistem kecerdasan buatan yang dikembangkan atau digunakan untuk tujuan militer. Namun, standar dan peraturan yang ditetapkan oleh UU AI secara tidak langsung dapat mempengaruhi cara negara-negara anggota UE dan perusahaan yang beroperasi di Eropa mengembangkan dan menerapkan sistem AI untuk aplikasi militer. Hal ini dapat mencakup aspek-aspek seperti transparansi, pengawasan manusia, dan keamanan sistem. Selain itu, ada kemungkinan bahwa UU AI dapat menjadi model untuk peraturan (atau standar khusus militer) di masa depan, baik di tingkat UE maupun global.

Semakin berkembangnya integrasi kecerdasan buatan ke dalam pertahanan memerlukan kerangka peraturan yang menyeimbangkan inovasi dengan tanggung jawab etis dan keamanan. Kolaborasi antar negara, institusi, dan industri akan menjadi kunci untuk memastikan bahwa penggunaan AI oleh militer berkembang secara bertanggung jawab dan sesuai dengan prinsip-prinsip hukum humaniter internasional.

UU AI akan melalui beberapa tahap penerapan, yang paling masif diharapkan secara realistis terjadi pada paruh kedua tahun 2026. Perlu persiapan yang signifikan terhadap desain sistem yang saat ini sedang dikembangkan, untuk merancang AI yang sesuai. dengan persyaratan yang diusulkan oleh Uni Eropa dalam hal ini.

Andrea Puligheddu (Pengacara dan pakar hukum dan teknologi baru)

Catatan: artikel tersebut harus memiliki orientasi yang informatif, dan tidak membahas banyak permasalahan (dan rumit) yang dibahas sehubungan dengan pengembangan dan penerapan UU AI. Untuk pembahasan topik yang lebih mendalam, silakan menulis kepada saya di: Puligheddu@studiolegaleprivacy.com

(www.studiolegaleprivacy.com)