
Disuarakan oleh kecerdasan buatan.
Perusahaan, banyak dari mereka dari luar Eropa, akan memainkan peran kunci dalam memutuskan rincian aturan yang direncanakan Uni Eropa untuk kecerdasan buatan yang berpotensi berbahaya. Tetapi pengaruh perusahaan atas keputusan yang berisiko terhadap hak asasi manusia membuat beberapa aktivis khawatir.
Undang-undang baru UE tentang kecerdasan buatan bertujuan untuk melindungi orang dari AI yang berbahaya dengan menindak algoritme diskriminatif, buram, dan tidak terkontrol yang semakin banyak digunakan untuk membuat penilaian yang mengubah hidup tentang imigrasi, kepolisian, manfaat sosial, dan sekolah.
Aturan tidak menargetkan “jenis produk regular,” tetapi bertujuan untuk menghentikan “potensi pelanggaran hak konstitusional, apakah itu tentang penggunaan pengawasan biometrik, diskriminasi atau akses Anda ke pekerjaan dan pendidikan,” kata Iverna McGowan, direktur Pusat Demokrasi dan Teknologi di Eropa. Dia mengkritik mempercayakan kelompok standar Eropa “yang didominasi sektor swasta” untuk membentuk aturan akhir.
Tapi begitulah Undang-Undang Kecerdasan Buatan Uni Eropa dirancang. Ini bersandar pada discussion board industri, seperti CEN-CENELEC dan ETSI, untuk menguraikan instruksi teknis yang memastikan sistem AI dilatih pada knowledge yang tidak bias dan pada akhirnya menentukan seberapa banyak pengawasan manusia diperlukan dan apa yang perlu dilakukan untuk mencegah perangkat lunak mati. -melacak.
“Kita perlu membedakan antara standar teknis dan protokol yang dimaksudkan untuk mengatasi masalah hak-hak dasar,” kata Brando Benifei, anggota Parlemen Eropa Sosial-demokrat Italia yang memimpin penyusunan aturan AI untuk komite pasar inside. Hak-hak dasar “tidak bisa dibiarkan begitu saja dalam proses standardisasi, hanya karena tidak mungkin menstandardisasi hak-hak dasar seperti itu,” katanya.
ETSI yang berbasis di Prancis memiliki lebih dari 900 anggota, termasuk raksasa teknologi seperti Microsoft dan Meta Platforms induk Fb serta perusahaan pertahanan Eropa seperti Thales dan penyedia peralatan telekomunikasi China Huawei. Kelompok ETSI yang mengoordinasikan pekerjaan AI dipimpin oleh eksekutif dari perusahaan telekomunikasi Jepang NEC, Huawei yang berbasis di China, dan pembuat chip AS Intel.
Organisasi ETSI memiliki apa yang peneliti di Inggris gambarkan sebagai mannequin “bayar untuk bermain” yang memberi anggota yang membayar biaya berlangganan lebih tinggi lebih banyak suara dalam rapat. Riasan itu dapat memberikan keuntungan bagi perusahaan yang lebih besar dan lebih kaya, dan bagi perusahaan world yang dapat mendaftarkan banyak cabang nasional sebagai anggota yang berbeda. Huawei, misalnya, diwakili oleh enam anggota (dari Huawei Applied sciences hingga HUAWEI TECH. GmbH).
CEN-CENELEC mencakup pakar standar industri dari 34 negara Eropa, termasuk beberapa dari negara non-UE seperti Inggris, Serbia, dan Turki. Grup ini pada akhirnya mewakili ribuan perusahaan UE dan non-UE.
Namun, beberapa mengatakan bahwa partisipasi perusahaan non-UE juga akan menarik mereka untuk merangkul standar industri Eropa, karena perusahaan yang membangun sistem AI yang sangat berisiko harus mengevaluasi kepatuhan mereka sendiri dengan mengikuti standar industri world.
Konflik kepentingan
Organisasi standar menetapkan aturan yang membuat produk dan layanan berfungsi. Mereka menyusun spesifikasi teknis untuk menentukan kualitas dan keamanan segala sesuatu mulai dari boneka beruang dan baterai hingga mesin yang rumit dan bahkan switch knowledge. Kelompok-kelompok Eropa seperti CEN-CENELEC dan ETSI sangat penting dalam membuat perusahaan telekomunikasi menyetujui standar bersama world untuk jaringan seluler dan keamanan siber.
Tetapi menggunakan birokrat industri untuk mencari tahu bagaimana membawa etika ke dalam AI adalah langkah yang terlalu jauh bagi sebagian orang ketika tujuan utama perusahaan adalah untuk merebut beberapa pasar AI world — diperkirakan bernilai lebih dari €1 triliun pada tahun 2029.
“AI adalah upaya yang sangat menguntungkan yang membentuk kembali banyak bidang masyarakat dan tidak akan diperbaiki oleh undang-undang yang memperlakukannya seperti mainan, radio, atau peralatan pelindung,” kata Michael Veale, seorang profesor asosiasi. dalam hak dan regulasi digital di College Faculty London.
Perusahaan fokus untuk membawa “produk ke pasar tetapi Undang-Undang AI berusaha untuk membatasi bahaya,” kata Kris Shrishak, seorang rekan teknologi di Dewan Kebebasan Sipil Irlandia.
Insinyur dan pakar teknis dalam kelompok standar kemungkinan akan bergumul dengan pertanyaan etis ketika mereka ditugaskan untuk menerjemahkan undang-undang AI ke dalam standar, kata Shrishak. Mereka harus memutuskan apa yang merupakan kumpulan knowledge yang adil dan representatif untuk algoritme, tingkat dokumentasi, transparansi, dan kontrol manusia untuk program AI.
Keputusan ini sangat penting. Knowledge cacat di jantung program AI dapat memperkuat ketidaksetaraan dan prasangka sosial dan memiliki konsekuensi luas seperti salah mendiagnosis penyakit untuk kelompok ras minoritas dan membatasi peluang kerja bagi wanita.
Standar etika dan geopolitik
Kelompok standar tidak melihat diri mereka sebagai wadah pengaruh perusahaan. Memang mereka melihat bahwa metode kerja mereka menunjukkan bahwa mereka dapat mencapai “solusi yang memperhitungkan semua sudut pandang,” menurut Markus Mueck, insinyur Intel dan wakil ketua pertama kelompok koordinasi ETSI tentang AI.
Mereka tidak diminta “untuk mulai mengembangkan standar tentang etika” tetapi hanya untuk menerapkannya, kata Fixed Kohler, yang mengelola pekerjaan AI untuk CEN-CENELEC.
Komisi Eropa mengatakan bahwa mereka akan memiliki keputusan terakhir dalam memeriksa standar yang dirancang untuk Undang-Undang AI. Ia juga ingin kelompok standar Eropa untuk melibatkan juru kampanye hak asasi manusia dalam pengambilan keputusan tentang AI yang berbahaya.
Pada saat yang sama, kelompok standar berada di bawah tekanan untuk merombak cara mereka bekerja ketika ketegangan geopolitik muncul di rantai pasokan. Komisi mendorong organisasi standar untuk membatasi pengaruh perusahaan besar dan mereformasi tata kelola mereka pada tahun 2022 untuk “mewakili sepenuhnya kepentingan publik.” Secara efektif, itu berarti menyusun lebih banyak organisasi non-pemerintah dan membatasi kekuatan perusahaan non-Eropa.
Perbarui MEP Dragoș Tudorache, salah satu orang penting Parlemen Eropa tentang aturan AI, percaya bahwa industri harus terus mendorong penetapan standar, tetapi ingin aturan untuk melangkah lebih jauh dalam melarang perusahaan yang dikendalikan oleh beberapa rezim otoriter dari penetapan standar industri.
“Industri bukanlah musuh,” katanya, tetapi sekarang “meningkatkan tanggung jawab … dalam menempa jalur digital Eropa.”
Artikel ini telah diperbarui untuk lebih memperjelas Posisi MEP Dragoș Tudorache pada penetapan standar industri dan untuk memasukkan komentar dari MEP Brando Benifei.