Pada tanggal 30 Mei, Pusat Keamanan AI merilis peringatan publik tentang risiko yang ditimbulkan oleh kecerdasan buatan terhadap umat manusia. Pernyataan satu kalimat yang ditandatangani oleh lebih dari 350 ilmuwan, eksekutif bisnis, dan tokoh masyarakat mengklaim: “Mengurangi risiko kepunahan AI harus menjadi prioritas global di samping risiko skala sosial lainnya seperti pandemi dan perang nuklir.”
Sulit untuk tidak merasakan ironi ganda yang brutal dalam pernyataan ini.
Pertama, beberapa dari penandatangan – termasuk CEO Google DeepMind dan OpenAI – peringatan tentang akhir peradaban mewakili perusahaan yang bertanggung jawab untuk menciptakan teknologi ini sejak awal. Kedua, ini adalah perusahaan yang sama persis yang memiliki kekuatan untuk memastikan bahwa AI benar-benar bermanfaat, atau setidaknya tidak merugikan umat manusia.
Mereka harus mengindahkan saran dari komunitas hak asasi manusia dan segera mengadopsi kerangka kerja uji tuntas yang membantu mereka mengidentifikasi, mencegah, dan mengurangi potensi dampak negatif dari produk mereka.
Sementara para ilmuwan telah lama memperingatkan tentang bahaya AI, tidak sampai rilis alat AI Generatif baru-baru ini bahwa sebagian besar masyarakat umum menyadari efek negatif yang dapat ditimbulkannya.
AI generatif adalah istilah luas yang menjelaskan algoritme “kreatif” yang dapat menghasilkan konten baru dengan sendirinya, termasuk gambar, teks, audio, video, dan bahkan kode komputer. Algoritme ini dilatih pada kumpulan data masif, dan kemudian menggunakan pelatihan tersebut untuk membuat keluaran yang seringkali tidak dapat dibedakan dari data “nyata” – membuatnya sulit, jika bukan tidak mungkin, untuk menentukan apakah konten dihasilkan oleh seseorang, atau oleh algoritme .
Hingga saat ini, produk AI Generatif telah mengambil tiga bentuk utama: alat seperti ChatGPT yang menghasilkan teks, alat seperti Dall-E, Midjourney, dan Stable Diffusion yang menghasilkan gambar, dan alat seperti Codex dan Copilot yang menghasilkan kode komputer.
Kemunculan tiba-tiba alat AI Generatif baru belum pernah terjadi sebelumnya. Chatbot ChatGPT yang dikembangkan oleh OpenAI membutuhkan waktu kurang dari dua bulan untuk mencapai 100 juta pengguna. Ini jauh melampaui pertumbuhan awal platform populer seperti TikTok, yang membutuhkan waktu sembilan bulan untuk menjangkau orang sebanyak itu.
Sepanjang sejarah, teknologi telah membantu memajukan hak asasi manusia, tetapi juga menyebabkan kerugian, seringkali dengan cara yang tidak terduga. Ketika alat pencarian Internet, media sosial, dan teknologi seluler pertama kali dirilis, dan seiring dengan meningkatnya penerimaan dan aksesibilitas, hampir tidak mungkin untuk memprediksi banyak cara yang mengganggu di mana teknologi transformatif ini akan menjadi pendorong dan pengganda pelanggaran hak asasi manusia. keliling dunia. .
Peran Meta dalam pembersihan etnis Rohingya di Myanmar tahun 2017, misalnya, atau penggunaan spyware yang hampir tidak terdeteksi yang digunakan untuk mengubah ponsel menjadi mesin pengawasan 24 jam yang digunakan terhadap jurnalis dan pembela hak asasi manusia, keduanya merupakan konsekuensi dari peluncuran teknologi yang mengganggu. implikasi sosial dan politik belum dipertimbangkan secara serius.
Untuk belajar dari perkembangan ini, komunitas hak asasi manusia menyerukan kepada perusahaan yang mengembangkan produk AI Generatif untuk segera mengambil tindakan untuk mencegah konsekuensi negatif hak asasi manusia yang mungkin ditimbulkannya.
Jadi seperti apa pendekatan berbasis hak asasi manusia terhadap AI Generatif? Ada tiga langkah, berdasarkan bukti dan contoh dari masa lalu, yang kami sarankan.
Pertama, untuk memenuhi tanggung jawab mereka untuk menghormati hak asasi manusia, mereka harus segera menerapkan kerangka kerja uji tuntas hak asasi manusia yang ketat, sebagaimana dituangkan dalam Prinsip Panduan PBB tentang Bisnis dan Hak Asasi Manusia. Ini termasuk uji tuntas yang proaktif dan berkelanjutan untuk mengidentifikasi bahaya aktual dan potensial, transparansi mengenai bahaya ini, dan mitigasi serta perbaikan jika perlu.
Kedua, perusahaan yang mengembangkan teknologi ini harus terlibat secara proaktif dengan akademisi, aktor masyarakat sipil, dan organisasi komunitas, terutama yang mewakili komunitas tradisional yang terpinggirkan.
Meskipun kami tidak dapat memprediksi semua cara di mana teknologi baru ini dapat menyebabkan atau berkontribusi pada kerugian, kami memiliki bukti luas bahwa komunitas yang terpinggirkan kemungkinan besar akan menanggung akibatnya. Versi awal ChatGPT terlibat dalam bias rasial dan gender, menunjukkan, misalnya, bahwa wanita Pribumi kurang berharga dibandingkan orang dari ras dan jenis kelamin lain.
Keterlibatan aktif dengan komunitas yang terpinggirkan harus menjadi bagian dari desain produk dan proses pengembangan kebijakan untuk lebih memahami dampak potensial dari alat baru ini. Ini tidak dapat dilakukan setelah perusahaan telah menyebabkan atau berkontribusi pada kerusakan.
Ketiga, komunitas hak asasi manusia itu sendiri harus bertindak. Dengan tidak adanya peraturan untuk mencegah dan memitigasi potensi dampak berbahaya AI Generatif, organisasi hak asasi manusia harus memimpin dalam mengidentifikasi bahaya aktual dan potensial. Ini berarti bahwa organisasi hak asasi manusia sendiri harus membantu membangun pemahaman mendalam seputar alat ini dan mengembangkan penelitian, advokasi, dan keterlibatan yang mengantisipasi kekuatan transformatif AI Generatif.
Berpuas diri dalam menghadapi momen revolusioner ini bukanlah sebuah pilihan – begitu pula sinisme. Kita semua memiliki peran untuk memastikan bahwa teknologi baru yang kuat ini digunakan untuk kepentingan umat manusia. Menerapkan pendekatan berbasis hak asasi manusia untuk mengidentifikasi dan menanggapi kerugian merupakan langkah penting pertama dalam proses ini.
Pendapat yang diungkapkan dalam artikel ini adalah milik penulis sendiri dan tidak mencerminkan posisi redaksi Al Jazeera.