Diterbitkan pada: 13 Februari 2025 / Pembaruan dari: 13 Februari 2025 - Penulis: Konrad Wolfenstein
Sistem AI Sistem berisiko tinggi dan AI Act for Practice di Perusahaan dan Otoritas-Image: Xpert.Digital
UU KI EU: Pedoman baru dari Komisi Uni Eropa-apa yang perlu diketahui perusahaan sekarang
Sistem AI, aplikasi berisiko tinggi dan Undang-Undang AI di perusahaan dan otoritas
Komisi Eropa menerbitkan pedoman ekstensif pada 11 Februari 2025 untuk implementasi praktis UU KI UE (AI Act). Ini dimaksudkan untuk mendukung perusahaan dan pihak berwenang untuk lebih memahami persyaratan hukum dan untuk mengimplementasikannya sesuai dengan. Fokusnya terutama pada praktik AI yang dilarang, sistem berisiko tinggi dan langkah-langkah untuk mematuhi peraturan.
Aspek Penting dari Pedoman
Praktik AI Terlarang
AI ACT secara eksplisit melarang aplikasi AI tertentu yang diklasifikasikan sebagai risiko yang tidak dapat diterima. Larangan ini telah berlaku sejak 2 Februari 2025. Ini termasuk:
- Sistem AI yang menggunakan teknik manipulatif atau menipu
- Sistem yang menggunakan kerentanan orang atau kelompok tertentu dengan cara yang ditargetkan
- Sistem evaluasi sosial (skor sosial)
- AI untuk memprediksi tindakan kriminal potensial tanpa bukti yang jelas
- Menggosok gambar wajah yang tidak terkendali dari Internet untuk identifikasi biometrik
- Sistem Deteksi Emosi di tempat kerja atau di lembaga pendidikan
- Sistem identifikasi waktu nyata biometrik di ruang publik (dengan beberapa pengecualian untuk otoritas penegakan hukum)
Larangan -larangan ini dimaksudkan untuk memastikan bahwa teknologi AI digunakan secara etis dan bertanggung jawab dan tidak melanggar hak -hak dasar.
Aplikasi Praktis Pedoman
Pedoman 140 halaman dari Komisi UE berisi banyak studi kasus praktis untuk memfasilitasi klasifikasi yang benar dari sistem AI mereka. Meskipun pedoman ini tidak mengikat secara hukum, mereka berfungsi sebagai referensi untuk otoritas pengawas dalam memantau dan menegakkan peraturan.
Artinya untuk perusahaan dan otoritas
Perusahaan dan otoritas harus secara aktif menangani pedoman untuk:
- Untuk memeriksa sistem AI Anda yang ada untuk kemungkinan pelanggaran
- Untuk membuat penyesuaian yang diperlukan pada tahap awal
- Membangun struktur kepatuhan internal untuk menghindari hukuman
Ketidakpatuhan terhadap peraturan dapat memiliki konsekuensi serius. Sanksi berkisar hingga 35 juta euro atau 7% dari omset tahunan global suatu perusahaan, tergantung pada jumlah mana yang lebih tinggi.
Langkah selanjutnya
Sebelum pedoman diimplementasikan sepenuhnya, mereka masih harus diterjemahkan ke dalam semua bahasa kantor UE dan diadopsi secara formal. Namun demikian, perusahaan dan otoritas harus secara proaktif mengambil langkah -langkah untuk mempersiapkan pengenalan AI ACT secara bertahap. Penerapan lengkap undang -undang ini direncanakan untuk 2 Agustus 2026.
Kategorisasi risiko sistem AI
UU AI UE membagi sistem AI menjadi empat kelas risiko, yang masing -masing memiliki persyaratan peraturan yang berbeda:
1. Sistem AI yang tidak dapat diterima yang tidak dapat diterima
Sistem ini sepenuhnya dilarang di UE karena mereka mewakili bahaya yang signifikan terhadap hak dan kebebasan warga negara. Contohnya adalah:
- AI Systems for Social Evaluation (Social Scoring)
- AI manipulatif yang secara tidak sadar mempengaruhi perilaku pengguna
- Identifikasi waktu nyata biometrik di ruang publik untuk tujuan penegakan hukum (dengan beberapa pengecualian)
- Sistem AI yang menggunakan kerentanan karena usia, kecacatan atau status sosial ekonomi
2. Risiko tinggi - Peraturan ketat diperlukan
Sistem ini harus memenuhi persyaratan yang ketat dan melalui tes konformitas sebelum mereka datang ke pasar. Itu termasuk:
- AI sebagai komponen keamanan dalam produk -produk penting seperti perangkat medis, kendaraan atau mesin
- Sistem AI independen dengan efek pada hak -hak fundamental (mis. Pemeriksaan kredit, penyaringan aplikasi, penuntutan pidana, administrasi yudisial)
Persyaratan luas untuk transparansi, manajemen risiko, kualitas data dan pengawasan manusia berlaku untuk aplikasi ini.
3. Risiko Terbatas - Kewajiban Transparansi
Sistem ini harus memberi tahu pengguna bahwa mereka berinteraksi dengan AI. Contohnya adalah:
- bot obrolan
- Deeppakes digunakan untuk membuat atau memanipulasi konten media
4. Risiko minimal atau tidak
Sistem semacam itu tidak tunduk pada kewajiban hukum khusus, tetapi kode perilaku sukarela direkomendasikan. Contohnya adalah:
- Video game berbasis AI
- Filter spam
Sistem ACI berisiko tinggi dan regulasi mereka
AI Act mendefinisikan sistem ACI berisiko tinggi sehingga memiliki dampak signifikan pada keselamatan, kesehatan atau hak fundamental manusia. Ini dapat dibagi menjadi dua kategori utama:
1. AI sebagai komponen keamanan atau produk independen
Sistem AI diklasifikasikan sebagai risiko tinggi jika demikian:
- Bertindak sebagai komponen keamanan dari suatu produk yang berada di bawah peraturan harmonisasi UE, atau
- Penilaian kesesuaian tunduk pada bahaya potensial.
Contoh produk tersebut adalah:
- AI di perangkat medis (mis. Sistem diagnostik)
- Sistem Bantuan Mengemudi Berbasis AI
- AI dalam produksi industri untuk penilaian risiko dan jaminan kualitas
2. Sistem ACI berisiko tinggi independen dengan relevansi sosial
Sistem ini terdaftar dalam Lampiran III dari AI Act dan menyangkut bidang sosial kritis seperti:
a) Infrastruktur kritis
- AI untuk kontrol dan pemantauan jaringan listrik atau jaringan lalu lintas
b) pendidikan dan pekerjaan
- AI untuk penilaian ujian otomatis
- AI untuk memilih pelamar atau penilaian kinerja karyawan
c) akses ke manfaat keuangan dan sosial
- Tes kredit yang didukung AI
- Sistem untuk mengevaluasi hak untuk mengklaim manfaat sosial
d) penegakan hukum dan peradilan
- AI untuk analisis bukti dan dukungan investigasi
- Sistem berbasis AI untuk kontrol perbatasan dan manajemen migrasi
e) Identifikasi biometrik
- Sistem Identifikasi Jarak Jauh Biometrik
- Sistem Deteksi Emosi di Lingkungan Keamanan -yang Kritis
Untuk semua aplikasi KI berisiko tinggi ini, persyaratan ketat untuk manajemen risiko, transparansi, pemrosesan data, dokumentasi teknis dan pemantauan manusia berlaku.
AI Tindakan UE: Bagaimana perusahaan dapat mempersiapkan peraturan AI yang ketat
UU AI UE menetapkan kerangka kerja yang jelas untuk penggunaan teknologi AI dan melampirkan kepentingan khusus pada perlindungan hak -hak fundamental. Perusahaan dan otoritas harus berurusan secara intensif dengan peraturan baru dan menyesuaikan aplikasi AI mereka untuk menghindari sanksi. Persyaratan ketat berlaku, terutama untuk sistem risiko tinggi, yang harus diintegrasikan ke dalam proses pengembangan dan implementasi pada tahap awal.
Pemantauan terus -menerus terhadap undang -undang dan langkah -langkah kepatuhan proaktif sangat penting untuk membuat penggunaan AI bertanggung jawab dan pada saat yang sama mempromosikan inovasi dalam kerangka hukum. Tahun -tahun mendatang akan menunjukkan bagaimana Undang -Undang AI membuktikan dirinya dalam praktik dan penyesuaian lebih lanjut yang mungkin diperlukan.
Cocok untuk:
Mitra pemasaran global dan pengembangan bisnis Anda
☑️ Bahasa bisnis kami adalah Inggris atau Jerman
☑️ BARU: Korespondensi dalam bahasa nasional Anda!
Saya akan dengan senang hati melayani Anda dan tim saya sebagai penasihat pribadi.
Anda dapat menghubungi saya dengan mengisi formulir kontak atau cukup hubungi saya di +49 89 89 674 804 (Munich) . Alamat email saya adalah: wolfenstein ∂ xpert.digital
Saya menantikan proyek bersama kita.