Home Dunia Seiring berkembangnya AI, tekanan meningkat untuk mengatur ‘robot pembunuh’ — Global Issues

Seiring berkembangnya AI, tekanan meningkat untuk mengatur ‘robot pembunuh’ — Global Issues

10
0

Setiap hari, kita secara sukarela menyerahkan informasi tentang diri kita kepada mesin. Ini terjadi ketika kami menerima cookie online atau menggunakan mesin pencari. Kita hampir tidak memikirkan bagaimana data kita dijual dan digunakan sebelum mengklik “setuju” untuk masuk ke halaman yang kita inginkan, samar-samar menyadari bahwa itu akan digunakan untuk menargetkan kita sebagai konsumen dan meyakinkan kita untuk membeli sesuatu yang tidak kita ketahui kita butuhkan.

Tapi bagaimana jika mesin menggunakan data untuk memutuskan siapa yang akan ditargetkan sebagai musuh yang perlu dibunuh? PBB dan sekelompok organisasi non-pemerintah khawatir bahwa skenario ini hampir menjadi kenyataan. Mereka menyerukan regulasi internasional tentang Senjata Otonom Mematikan (LAWS) untuk menghindari masa depan yang dekat di mana mesin mendikte pilihan hidup dan mati.

Perang drone skala besar terjadi di Ukraina

Selama beberapa bulan, wilayah Kherson di Ukraina telah diserang terus-menerus dari drone bersenjata yang dioperasikan oleh militer Rusia, terutama menargetkan non-kombatan. Lebih dari 150 warga sipil telah tewas, dan ratusan terluka, menurut sumber resmi. Penyelidikan hak asasi manusia independen yang ditunjuk PBB telah menyimpulkan bahwa serangan ini merupakan kejahatan terhadap kemanusiaan.

Tentara Ukraina juga sangat bergantung pada drone dan dilaporkan sedang mengembangkan “tembok drone” – garis pertahanan Kendaraan Udara Tak Berawak (UAV) bersenjata – untuk melindungi bagian perbatasan negara yang rentan.

Setelah dilestarikan oleh negara-negara terkaya yang mampu membeli UAV paling berteknologi tinggi dan mahal, Ukraina telah membuktikan bahwa, dengan sedikit kecerdikan, drone berbiaya rendah dapat dimodifikasi untuk efek mematikan. Ketika konflik di seluruh dunia mencerminkan pergeseran ini, sifat pertempuran modern sedang ditulis ulang.

Warga sipil Kharkiv telah terkena ratusan serangan pesawat tak berawak Rusia (file, Feb 2025)

© UNICEF/Oleksii Filippov

‘Dehumanisasi digital’ yang merayap

Tetapi, betapapun dahsyat bentuk peperangan modern ini, meningkatnya momok drone tak berawak atau senjata otonom lainnya menambah urgensi baru pada kekhawatiran yang sedang berlangsung tentang ‘robot pembunuh’ yang menghujani kematian dari langit, memutuskan sendiri siapa yang harus mereka serang.

“Sekretaris Jenderal selalu mengatakan bahwa menggunakan mesin dengan kekuatan yang didelegasikan sepenuhnya, membuat keputusan untuk mengambil nyawa manusia hanya menjijikkan secara moral“, kata Izumi Nakamitsu, kepala Kantor PBB untuk Urusan Perlucutan Senjata. Seharusnya tidak diizinkan. Itu seharusnya, pada kenyataannya, dilarang oleh hukum internasional. Itulah posisi PBB.”

Human Rights Watch, sebuah LSM internasional, mengatakan bahwa penggunaan senjata otonom akan menjadi contoh terbaru dan paling serius dari perambahan “dehumanisasi digital”, di mana AI membuat sejumlah keputusan yang mengubah hidup tentang hal-hal yang mempengaruhi manusia, seperti kepolisian, penegakan hukum, dan kontrol perbatasan.

Beberapa negara dengan sumber daya besar berinvestasi besar-besaran dalam kecerdasan buatan dan teknologi terkait untuk mengembangkan sistem senjata otonom berbasis darat dan laut. Ini adalah fakta,” memperingatkan Mary Wareham, direktur advokasi Divisi Senjata di Human Rights Watch. “Ini didorong oleh Amerika Serikat, tetapi negara-negara besar lainnya seperti Rusia, Cina, Israel dan Korea Selatan, telah berinvestasi besar-besaran dalam sistem senjata otonom.”

Pendukung peperangan berbasis AI sering menunjuk pada keterbatasan manusia untuk membenarkan ekspansinya. Prajurit dapat membuat kesalahan dalam penilaian, bertindak berdasarkan emosi, membutuhkan istirahat, dan, tentu saja, menuntut upah – sementara mesin, menurut mereka, meningkat setiap hari dalam mengidentifikasi ancaman berdasarkan perilaku dan pola gerakan. Langkah selanjutnya, beberapa pendukung menyarankan, adalah membiarkan sistem otonom memutuskan kapan harus menarik pelatuknya.

Ada dua keberatan utama untuk membiarkan mesin mengambil alih di medan perang: pertama, teknologinya jauh dari sangat mudah. Kedua, PBB dan banyak organisasi lain melihat penggunaan LAWS sebagai tidak etis.

“Sangat mudah bagi mesin untuk salah mengira target manusia,” kata Wareham dari Human Rights Watch. “Penyandang disabilitas berisiko khusus karena mereka memiliki cara mereka bergerak. Kursi roda mereka dapat disalahartikan sebagai senjata. Ada juga kekhawatiran bahwa teknologi pengenalan wajah dan pengukuran biometrik lainnya tidak dapat mengidentifikasi orang dengan warna kulit yang berbeda dengan benar. AI masih cacat, dan itu membawa serta bias orang-orang yang memprogram sistem tersebut.”

Adapun keberatan etika dan moral, Nicole Van Rooijen, Direktur Eksekutif Hentikan Robot Pembunuh, coaliKampanye untuk undang-undang internasional baru tentang otonomi dalam sistem senjata, mengatakan bahwa mereka akan membuat sangat sulit untuk memastikan tanggung jawab atas kejahatan perang dan kekejaman lainnya.

“Siapa yang bertanggung jawab? Apakah itu pabrikannya? Atau orang yang memprogram algoritma? Ini menimbulkan berbagai masalah dan kekhawatiran, dan akan menjadi kegagalan moral jika digunakan secara luas.”

Larangan pada tahun 2026?

Kecepatan teknologi ini maju, dan bukti bahwa sistem penargetan yang diaktifkan AI sudah digunakan di medan perang, menambah urgensi di balik seruan untuk aturan internasional teknologi.

Pada bulan Mei, diskusi informal diadakan di Markas Besar PBB, di mana Guterres meminta Negara-negara Anggota untuk menyetujui perjanjian yang mengikat secara hukum untuk mengatur dan melarang penggunaannya pada tahun 2026.

Upaya untuk mengatur dan melarang HUKUM bukanlah hal baru. Faktanya, PBB mengadakan pertemuan pertama para diplomat pada tahun 2014, di Palais des Nations di Jenewa, di mana ketua pembicaraan ahli empat hari, Duta Besar Jean-Hugues Simon-Michel dari Prancis, menggambarkan LAWS sebagai “masalah yang menantang yang muncul dalam agenda perlucutan senjata saat ini,” meskipun tidak ada sistem senjata otonom yang digunakan dalam konflik pada saat itu. Pandangannya saat itu adalah bahwa tindakan pre-emptive diperlukan untuk mendapatkan aturan jika teknologi akan membuat LAWS menjadi kenyataan.

11 tahun kemudian, pembicaraan sedang berlangsung, tetapi masih belum ada konsensus tentang definisi senjata otonom, apalagi peraturan yang disepakati tentang penggunaannya. Namun demikian, LSM dan PBB optimis bahwa masyarakat internasional perlahan-lahan menuju pemahaman bersama tentang isu-isu utama.

“Kami tidak mendekati negosiasi teks,” kata Rouijen dari Stop Killer Robots. “Namun, ketua Konvensi tentang Senjata Konvensional Tertentu saat ini (instrumen hukum humaniter PBB untuk melarang atau membatasi penggunaan jenis senjata tertentu yang dianggap menyebabkan penderitaan yang tidak perlu atau tidak dapat dibenarkan bagi kombatan atau mempengaruhi warga sipil tanpa pandang bulu) telah mengajukan teks bergulir yang benar-benar cukup menjanjikan dan bahwa, jika ada kemauan politik dan keberanian politik, bisa menjadi dasar negosiasi.”

Wareham dari Human Rights Watch juga melihat pembicaraan Mei di PBB sebagai langkah maju yang penting. “Setidaknya 120 negara sepenuhnya setuju dengan seruan untuk menegosiasikan undang-undang internasional baru tentang sistem senjata otonom. Kami melihat banyak minat dan dukungan, termasuk dari pemenang perdamaian, pakar AI, pekerja teknologi, dan pemimpin agama.”

“Ada kesepakatan yang muncul bahwa sistem senjata yang sepenuhnya otonom harus dilarang,” kata Nakamitsu, dari Kantor PBB untuk Urusan Perlucutan Senjata. “Ketika datang ke perang, seseorang harus dimintai pertanggungjawaban.”

Sumber