ISLAMTODAY ID-Dalam pengembangan sejak 2021, UU AI Uni Eropa bertujuan untuk menertibkan dan mengatur penggunaan kecerdasan buatan sambil mengubah blok menjadi pemain global yang kompetitif tempat AI berkembang. Tapi itu bukan solusi yang sempurna, beberapa berpendapat.
UU AI diharapkan menjadi bagian penting dari undang-undang UE yang mengatur penggunaan kecerdasan buatan di Eropa yang telah dikerjakan selama lebih dari dua tahun.
Di situs webnya, Komisi Eropa (EC) mengamati bahwa “cara kami menggunakan Kecerdasan Buatan (AI) akan menentukan dunia yang kita tinggali di masa depan. Untuk membantu membangun Eropa yang tangguh untuk Dekade Digital, orang dan bisnis harus dapat menikmati manfaat AI sambil merasa aman dan terlindungi.”
EC juga mencatat tujuannya dalam membuat Undang-Undang AI “diterjemahkan ke dalam pendekatan Eropa untuk keunggulan dan kepercayaan melalui aturan dan tindakan nyata”.
Anggota parlemen telah mengusulkan untuk mengklasifikasikan berbagai alat AI menurut tingkat risiko yang dirasakan, dari yang rendah hingga yang tidak dapat diterima.
Pemerintah dan perusahaan yang menggunakan alat ini akan memiliki kewajiban yang berbeda, bergantung pada tingkat risikonya.
Situs web The Future of Life Institute tentang Undang-Undang Kecerdasan Buatan Uni Eropa menunjukkan tingkat risiko sebagai berikut: “Pertama, aplikasi dan sistem yang menciptakan risiko yang tidak dapat diterima, seperti penilaian sosial yang dijalankan pemerintah dari jenis yang digunakan di China, dilarang.
“Kedua, lamaran berisiko tinggi, seperti alat pemindaian CV yang memeringkat pelamar kerja, tunduk pada persyaratan hukum tertentu.”
“Terakhir, aplikasi yang tidak secara eksplisit dilarang atau terdaftar sebagai berisiko tinggi sebagian besar tidak diatur.”
Apa ruang lingkup UU?
Undang-undang ini luas dan akan mengatur siapa saja yang menyediakan produk atau layanan yang menggunakan AI.
Undang-undang tersebut akan mencakup sistem yang dapat menghasilkan keluaran seperti konten, prediksi, rekomendasi, atau keputusan yang memengaruhi lingkungan.
Selain penggunaan AI oleh perusahaan, juga akan dilihat AI yang digunakan di sektor publik dan penegakan hukum. Ini akan bekerja bersama-sama dengan undang-undang lain seperti Peraturan Perlindungan Data Umum (GDPR).
Mereka yang menggunakan sistem AI yang berinteraksi dengan manusia, digunakan untuk tujuan pengawasan, atau dapat digunakan untuk menghasilkan konten “deepfake” menghadapi kewajiban transparansi yang kuat.
Situs web EC menyatakan bahwa UU AI Uni Eropa akan membantu blok tersebut menjadi kompetitif secara internasional dengan:
- “memungkinkan pengembangan dan penyerapan AI di UE;
- “menjadikan UE tempat AI tumbuh subur dari lab hingga pasar;
- “memastikan bahwa AI bekerja untuk orang-orang dan menjadi kekuatan untuk kebaikan dalam masyarakat;
- “membangun kepemimpinan strategis di sektor berdampak tinggi.”
Apa yang dianggap ‘berisiko tinggi’?
Sejumlah alat AI dapat dianggap berisiko tinggi, seperti yang digunakan dalam infrastruktur kritis, penegakan hukum, atau pendidikan.
Mereka berada satu tingkat di bawah “tidak dapat diterima”, dan oleh karena itu tidak langsung dilarang.
Sebaliknya, mereka yang menggunakan AI berisiko tinggi kemungkinan akan diwajibkan untuk menyelesaikan penilaian risiko yang ketat, mencatat aktivitas mereka, dan menyediakan data bagi pihak berwenang untuk diteliti.
Itu kemungkinan akan meningkatkan biaya kepatuhan bagi perusahaan.
Banyak dari kategori “berisiko tinggi” di mana penggunaan AI akan dikontrol secara ketat adalah bidang-bidang seperti penegakan hukum, migrasi, infrastruktur, keamanan produk, dan administrasi peradilan.
Apa itu ‘GPAIS’?
GPAIS ( Tujuan Umum Sistem AI ) adalah kategori yang diusulkan oleh pembuat undang-undang untuk memperhitungkan alat AI dengan lebih dari satu aplikasi, seperti model AI generatif seperti ChatGPT.
Anggota parlemen saat ini sedang memperdebatkan apakah semua bentuk GPAIS akan dianggap berisiko tinggi, dan apa artinya bagi perusahaan teknologi yang ingin mengadopsi AI ke dalam produk mereka.
Draf tersebut tidak mengklarifikasi kewajiban apa yang akan dikenakan oleh produsen sistem AI.
Sebuah artikel baru-baru ini di Politico mengeksplorasi kesulitan yang dialami anggota parlemen Eropa saat mencoba mengklasifikasikan ChatGPT dan sejenisnya.
“Munculnya ChatGPT sekarang memaksa Parlemen Eropa untuk [menulis ulang rancangan rencana mereka],” tulis Gian Volpicelli.
“Pada bulan Februari, anggota parlemen utama pada Undang-Undang AI, [Brando] Benifei dan [Dragos] Tudorache, mengusulkan agar sistem AI yang menghasilkan teks kompleks tanpa pengawasan manusia harus menjadi bagian dari daftar “berisiko tinggi” — upaya untuk menghentikan ChatGPT menghasilkan disinformasi dalam skala besar.
“Gagasan itu ditanggapi dengan skeptis oleh kelompok politik sayap kanan di Parlemen Eropa, dan bahkan bagian dari kelompok Liberal Tudorache sendiri.”
Bagaimana jika perusahaan melanggar peraturan?
Proposal mengatakan mereka yang ditemukan melanggar Undang-Undang Kecerdasan Buatan menghadapi denda hingga 30 juta euro atau 6 persen dari keuntungan global, mana yang lebih tinggi.
Untuk perusahaan seperti Microsoft, yang mendukung pembuat ChatGPT OpenAI, itu bisa berarti denda lebih dari $10 miliar jika ditemukan melanggar aturan.
Kapan peraturan AI mulai berlaku?
Sementara industri mengharapkan Undang-Undang tersebut disahkan tahun ini, tidak ada tenggat waktu yang pasti.
Undang-undang tersebut sedang dibahas oleh anggota parlemen, dan setelah mereka mencapai titik temu, akan ada trilog antara perwakilan Parlemen Eropa, Dewan Uni Eropa dan Komisi Eropa.
Setelah persyaratan diselesaikan, akan ada masa tenggang sekitar dua tahun untuk memungkinkan pihak yang terkena dampak untuk mematuhi peraturan.
Situs web Future of Life Institute (FLI) menunjukkan bahwa semuanya tidak baik dengan Undang-Undang Kecerdasan Buatan: “Ada beberapa celah dan pengecualian dalam undang-undang yang diusulkan,” tulis mereka.
“Kekurangan ini membatasi kemampuan UU untuk memastikan bahwa AI tetap menjadi kekuatan untuk kebaikan dalam hidup Anda. Saat ini, misalnya, pengenalan wajah oleh polisi dilarang kecuali gambar diambil dengan penundaan atau teknologinya digunakan untuk menemukan anak yang hilang.”
FLI juga menunjukkan bahwa undang-undang yang diusulkan tidak memiliki fleksibilitas untuk perubahan dan pertumbuhan ketika teknologi kecerdasan buatan terus berkembang dan berkembang di luar cakupan Undang-undang: “Jika dalam waktu dua tahun aplikasi AI yang berbahaya digunakan di sektor yang tidak terduga, undang-undang tidak menyediakan mekanisme untuk melabelinya sebagai ‘berisiko tinggi’.”
(Resa/TRTWorld)