
Sistem AI, sistem berisiko tinggi, dan Undang-Undang AI untuk penerapan praktis di perusahaan dan instansi pemerintah – Gambar: Xpert.Digital
Hukum AI Uni Eropa: Pedoman baru dari Komisi Uni Eropa – Apa yang perlu diketahui perusahaan sekarang
Sistem AI, aplikasi berisiko tinggi, dan Undang-Undang AI di perusahaan dan lembaga publik.
Pada tanggal 11 Februari 2025, Komisi Eropa menerbitkan pedoman komprehensif tentang implementasi praktis Undang-Undang AI Uni Eropa. Pedoman ini dimaksudkan untuk membantu perusahaan dan otoritas publik lebih memahami dan mematuhi persyaratan Undang-Undang tersebut. Penekanan khusus diberikan pada praktik AI yang dilarang, sistem berisiko tinggi, dan langkah-langkah untuk memastikan kepatuhan.
Aspek-aspek penting dari pedoman tersebut
Praktik AI yang dilarang
Undang-Undang AI secara eksplisit melarang aplikasi AI tertentu yang dianggap menimbulkan risiko yang terlalu tinggi. Larangan ini telah berlaku sejak 2 Februari 2025. Larangan tersebut meliputi, antara lain:
- Sistem AI yang menggunakan teknik manipulatif atau menipu.
- Sistem yang secara khusus mengeksploitasi kerentanan individu atau kelompok tertentu
- Sistem penilaian sosial
- AI untuk memprediksi potensi tindakan kriminal tanpa bukti yang jelas
- Pengambilan gambar wajah secara tidak terkontrol dari internet untuk identifikasi biometrik.
- Sistem pengenalan emosi di tempat kerja atau di lembaga pendidikan.
- Sistem identifikasi biometrik waktu nyata di ruang publik (dengan beberapa pengecualian untuk lembaga penegak hukum)
Larangan-larangan ini dimaksudkan untuk memastikan bahwa teknologi AI digunakan secara etis dan bertanggung jawab serta tidak melanggar hak-hak mendasar.
Penerapan praktis dari pedoman tersebut
Pedoman setebal 140 halaman dari Komisi Eropa ini berisi banyak studi kasus praktis untuk membantu perusahaan dan otoritas publik mengklasifikasikan sistem AI mereka dengan benar. Meskipun pedoman ini tidak mengikat secara hukum, pedoman ini berfungsi sebagai referensi bagi otoritas pengawas ketika memantau dan menegakkan peraturan.
Pentingnya bagi perusahaan dan pihak berwenang
Perusahaan dan otoritas terkait harus secara aktif terlibat dengan pedoman tersebut agar dapat:
- untuk meninjau sistem AI Anda yang ada untuk potensi pelanggaran.
- Untuk melakukan penyesuaian yang diperlukan sejak dini
- Membangun struktur kepatuhan internal untuk menghindari sanksi.
Kegagalan mematuhi peraturan dapat menimbulkan konsekuensi serius. Sanksi dapat mencapai hingga €35 juta atau 7% dari omset tahunan global perusahaan, mana pun yang lebih tinggi.
Langkah Selanjutnya
Sebelum pedoman tersebut dapat diimplementasikan sepenuhnya, pedoman tersebut masih perlu diterjemahkan ke dalam semua bahasa resmi Uni Eropa dan diadopsi secara resmi. Meskipun demikian, bisnis dan otoritas publik harus proaktif mengambil langkah-langkah untuk mempersiapkan pengenalan bertahap Undang-Undang AI. Penerapan penuh undang-undang tersebut dijadwalkan pada 2 Agustus 2026.
Kategorisasi risiko sistem AI
Undang-Undang AI Uni Eropa membagi sistem AI menjadi empat kelas risiko, masing-masing dengan persyaratan peraturan yang berbeda:
1. Risiko yang Tidak Dapat Diterima – Sistem AI yang Dilarang
Sistem-sistem ini sepenuhnya dilarang di Uni Eropa karena menimbulkan ancaman signifikan terhadap hak dan kebebasan warga negara. Contohnya meliputi:
- Sistem AI untuk penilaian sosial
- AI manipulatif yang secara tidak sadar memengaruhi perilaku pengguna
- Identifikasi biometrik secara real-time di ruang publik untuk keperluan penegakan hukum (dengan beberapa pengecualian)
- Sistem AI yang mengeksploitasi kerentanan akibat usia, disabilitas, atau status sosial ekonomi.
2. Risiko tinggi – memerlukan regulasi ketat
Sistem-sistem ini harus memenuhi persyaratan ketat dan menjalani pengujian kesesuaian sebelum dapat dipasarkan. Sistem-sistem tersebut meliputi:
- AI sebagai komponen keselamatan dalam produk-produk penting seperti perangkat medis, kendaraan, atau mesin.
- Sistem AI mandiri dengan implikasi terhadap hak-hak fundamental (misalnya, pengecekan kelayakan kredit, penyaringan aplikasi, penegakan hukum, administrasi peradilan)
Aplikasi-aplikasi ini tunduk pada persyaratan yang luas terkait transparansi, manajemen risiko, kualitas data, dan pengawasan manusia.
3. Risiko terbatas – kewajiban transparansi
Sistem-sistem ini harus memberi tahu pengguna bahwa mereka sedang berinteraksi dengan AI. Contohnya meliputi:
- Chatbot
- Deepfake digunakan untuk membuat atau memanipulasi konten media.
4. Risiko minimal atau tanpa risiko – Gratis digunakan
Sistem semacam itu tidak tunduk pada kewajiban hukum tertentu; namun, kode etik sukarela sangat dianjurkan. Contohnya meliputi:
- Permainan video bertenaga AI
- Filter spam
Sistem AI berisiko tinggi dan regulasinya
Undang-Undang AI mendefinisikan sistem AI berisiko tinggi sebagai sistem yang memiliki dampak signifikan terhadap keselamatan, kesehatan, atau hak-hak dasar manusia. Sistem ini dapat dibagi menjadi dua kategori utama:
1. AI sebagai komponen keamanan atau produk mandiri
Suatu sistem AI diklasifikasikan sebagai berisiko tinggi jika sistem tersebut:
- Ini berfungsi sebagai komponen keselamatan dari suatu produk yang termasuk dalam peraturan harmonisasi Uni Eropa, atau
- Hal ini memerlukan penilaian kesesuaian karena berpotensi menimbulkan bahaya.
Contoh produk tersebut meliputi:
- AI dalam perangkat medis (misalnya, sistem diagnostik)
- Sistem bantuan pengemudi yang didukung AI
- AI dalam produksi industri untuk penilaian risiko dan jaminan kualitas
2. Sistem AI mandiri berisiko tinggi dengan relevansi sosial
Sistem-sistem ini tercantum dalam Lampiran III Undang-Undang AI dan memengaruhi bidang-bidang penting dalam masyarakat seperti:
a) Infrastruktur kritis
- AI untuk mengendalikan dan memantau jaringan listrik atau jaringan transportasi.
b) Pendidikan dan pekerjaan
- AI untuk penilaian ujian otomatis
- AI untuk menyeleksi pelamar atau mengevaluasi kinerja karyawan
c) Akses terhadap manfaat finansial dan sosial
- Pemeriksaan kelayakan kredit berbasis AI
- Sistem untuk menilai kelayakan penerimaan tunjangan sosial
d) Penegakan hukum dan keadilan
- AI untuk analisis bukti dan dukungan investigasi
- Sistem berbasis AI untuk kontrol perbatasan dan manajemen migrasi
e) Identifikasi biometrik
- Sistem untuk identifikasi jarak jauh biometrik
- Sistem pengenalan emosi di lingkungan yang kritis terhadap keselamatan.
Semua aplikasi AI berisiko tinggi ini tunduk pada persyaratan ketat terkait manajemen risiko, transparansi, pemrosesan data, dokumentasi teknis, dan pengawasan manusia.
Undang-Undang AI Uni Eropa: Bagaimana perusahaan dapat mempersiapkan diri menghadapi regulasi AI yang ketat.
Undang-Undang AI Uni Eropa menetapkan kerangka kerja yang jelas untuk penggunaan teknologi AI dan memberikan penekanan khusus pada perlindungan hak-hak fundamental. Perusahaan dan otoritas publik harus benar-benar memahami peraturan baru ini dan menyesuaikan aplikasi AI mereka sesuai dengan ketentuan untuk menghindari sanksi. Persyaratan yang sangat ketat berlaku untuk sistem berisiko tinggi, yang harus diintegrasikan ke dalam proses pengembangan dan implementasi sejak tahap awal.
Pemantauan berkelanjutan terhadap peraturan perundang-undangan dan langkah-langkah kepatuhan proaktif sangat penting untuk memastikan penggunaan AI yang bertanggung jawab sekaligus mendorong inovasi dalam kerangka hukum. Tahun-tahun mendatang akan menunjukkan bagaimana Undang-Undang AI berjalan dalam praktiknya dan penyesuaian lebih lanjut apa yang mungkin diperlukan.
Cocok untuk:
Mitra pemasaran global dan pengembangan bisnis Anda
☑️ Bahasa bisnis kami adalah Inggris atau Jerman
☑️ BARU: Korespondensi dalam bahasa nasional Anda!
Saya akan dengan senang hati melayani Anda dan tim saya sebagai penasihat pribadi.
Anda dapat menghubungi saya dengan mengisi formulir kontak atau cukup hubungi saya di +49 89 89 674 804 (Munich) . Alamat email saya adalah: wolfenstein ∂ xpert.digital
Saya menantikan proyek bersama kita.
