Gaza, Genosida Pertama di Dunia yang Memakai AI

MUSTANIR.netSepanjang sejarah, menandai kematian dengan angka atau nomor telah menjadi ciri rezim yang menindas. Ini adalah proses dehumanisasi dan penistaan birokrasi, serta efisiensi yang kejam.

Dan sekarang hal ini terjadi pada warga Palestina. Warga Palestina di Gaza diberi skor 1-100 yang dihasilkan AI, berdasarkan seberapa besar kemungkinan mereka terkait dengan agen Hamas.

Semakin mendekati skor 100, semakin besar kemungkinan mereka terbunuh. Perbedaan utamanya adalah sebagian besar warga Palestina yang terbunuh dalam genosida yang dibantu AI oleh Israel tidak akan pernah mengetahui nasib mereka.

Tentara Israel telah menggunakan program berbasis AI yang disebut ‘Lavender’ untuk menandai puluhan ribu warga Palestina sebagai target pembunuhan dalam perang Gaza yang sedang berlangsung, menurut penyelidikan oleh Majalah +972 dan Sikha Mekomit. Sistem ‘Lavender’ berbasis AI di Israel dapat menghasilkan ribuan target dalam hitungan detik, mengurangi nyawa warga Palestina hingga ke data point.

Ditambah dengan longgarnya aturan keterlibatan dan minimnya pengawasan manusia, hal ini telah mengakibatkan kematian ribuan warga sipil Palestina akibat serangan udara Israel sepanjang konflik, termasuk seluruh keluarga—salah satu tingkat pembunuhan tercepat dalam konflik mana pun di abad ini.

Teknologi Kematian dan Dehumanisasi

Munculnya Revolusi Industri ke Empat, atau 4IR, mengubah cara perang dilakukan. Teknologi baru menghadirkan cara-cara baru dalam membunuh.

Industrialisasi sebelum Perang Dunia I menyaksikan produksi massal peluru dan senapan mesin serta pengembangan senjata kimia. Inovasi teknologi yang dipadukan dengan industrialisasi secara konsisten telah meningkatkan efisiensi dan kreativitas pembunuhan.

Kini, teknologi digital, otomatisasi, dan AI meningkatkan kemungkinan terjadinya pembunuhan jarak jauh, seperti peperangan drone, dan menambah dehumanisasi konflik. Korban direduksi menjadi kilatan cahaya di layar.

Seperti yang diungkapkan oleh filsuf Prancis, Grégoire Chamayou, “Seseorang tidak pernah tercecer oleh darah musuh. Tidak diragukan lagi, tidak adanya kekotoran fisik berarti berkurangnya rasa kekotoran moral…”. Saat menggunakan sistem Lavender Israel di Gaza, salah satu operator menyatakan, “Mesin melakukannya dengan dingin. Dan itu membuatnya lebih mudah”.

Gaza sebagai Laboratorium

Di era 4IR, korban Artificial Intelligence (AI) yang mungkin muncul di layar semakin tidak manusiawi dan hanya dianggap sebagai angka di lembar kerja, sebuah hasil dari model pembelajaran mesin yang telah diputuskan berdasarkan data masa lalu yang diambil bahwa orang tertentu, berdasarkan kemungkinan, pantas mati.

Di Gaza, target dipilih berdasarkan ratusan ribu titik data (atau ‘fitur’). Hal ini termasuk, misalnya, “berada dalam grup WhatsApp dengan seorang militan, berganti ponsel setiap beberapa bulan, dan sering berpindah alamat,” menurut +972.

Humanitas warga Palestina dilucuti dan nasib mereka ditentukan oleh beberapa data seperti jenis kelamin, alamat, usia, dan aktivitas media sosial. Ini semua membentuk ‘model’.

Dengan menggunakan AI, militer Israel dapat menghasilkan ribuan target dalam hitungan detik. Israel mengklaim model ini memiliki akurasi 90%, namun hal ini sangat menyesatkan. Ini 90% akurat hanya jika Israel menentukan siapa yang menjadi targetnya. 90% tidak termasuk kerusakan ‘jaminan’.

Operatornya sendiri menyatakan bahwa bahkan bagi militan tingkat rendah sekalipun, pembunuhan terhadap 15-20 warga sipil dapat diterima. Jika Anda membunuh 20 warga sipil untuk 1 militan menggunakan sistem ini, akurasinya hanya 5%.

Jika jumlah ini diekstrapolasi menjadi lebih dari 33.000 warga Gaza yang terbunuh sejak 7 Oktober, maka berarti 31.350 (95%) di antaranya adalah warga sipil. Kementerian Kesehatan Gaza mengatakan lebih dari 70% korban tewas kemungkinan besar adalah perempuan dan anak-anak, dan bukan militan.

Pada kenyataannya, ini akan memberikan kisaran ‘akurasi’ sekitar 25%, bukan 90%. Israel juga terkenal liberal dalam hal yang mereka definisikan sebagai Hamas.

Misalnya, tentara Israel sebelumnya mengklaim bahwa 50% dari 30.000 pegawai UNRWA adalah kerabat tingkat pertama dari seorang agen Hamas. Apakah hal ini akan membuat mereka lebih mungkin untuk dibom? Jika kita mempertimbangkan hubungan tingkat dua, maka hampir semua orang secara tidak langsung akan terkait dengan agen Hamas.

Perbedaan antara Hamas dan non-Hamas tidak didasarkan pada ilmu pengetahuan tetapi pada politik Israel. Memang benar, para operator melaporkan bahwa mereka berada di bawah tekanan untuk mencari lebih banyak target, dan dengan demikian akan menurunkan ambang batas siapa yang mereka anggap sebagai target yang valid.

Meskipun pada suatu hari skor 80 dari 100 mungkin cukup untuk menjamin penargetan seseorang, tekanan politik untuk membunuh lebih banyak warga Palestina mungkin berarti skor tersebut diturunkan menjadi 70 pada hari berikutnya.

Operator bertindak seperti perusahaan yang membunuh warga Palestina sebagai bagian dari KPI (Key Performance Indicator) mereka, atau dalam hal ini, membunuh indikator warga Palestina. Karena alasan ini, para operator melaporkan bagaimana ketika mereka melakukan hal ini, mereka diberikan orang-orang seperti operator ‘pertahanan sipil’ untuk menargetkan orang-orang yang mungkin membantu Hamas namun tidak membahayakan tentara.

Jadi, meskipun para operator mungkin merupakan elemen manusia yang menyetujui serangan tersebut, mereka semakin sering mengambil keputusan untuk membunuh berdasarkan tekanan politik.

Mitos Pertahanan Netralitas: Dehumanisasi Ganda

Pertahanan terhadap sistem AI seringkali sama, yaitu menghilangkan bias manusia. Hal ini sangat jauh dari kebenaran. AI belajar dari manusia.

Jika masyarakat memiliki sejarah rasisme, klasisme, atau seksisme, tanpa kontrol yang memadai, hal ini akan tercermin pada output-nya. Jika datanya ‘buruk’, output-nya pun buruk.

Dalam situasi non-konflik, sistem AI diketahui melakukan diskriminasi berdasarkan ras, gender, pendidikan, dan latar belakang.

Di Inggris, siswa yang kurang beruntung mendapatkan nilai yang lebih buruk dibandingkan anak-anak dari keluarga kaya, dan di AS, orang kulit berwarna lebih cenderung menjadi korban algoritma pemolisian dan hukuman yang bersifat prediktif. Di Belanda, orang-orang dituduh melakukan penipuan. Lalu apa jadinya jika sistem AI dirancang dan dilatih oleh negara penjajah dan negara apartheid yang sudah tidak memanusiakan warga Palestina?

Pertanyaan-pertanyaan seperti ini menjadi sangat mengkhawatirkan mengingat pernyataan mantan ketua Shin Bet Ami Ayalon, yang mengatakan bahwa sebagian besar warga Israel percaya bahwa “semua warga Palestina adalah Hamas atau pendukung Hamas”.

Penggunaan teknologi ini tidak hanya mewakili dehumanisasi, namun data yang dimasukkan ke dalam sistem tersebut sudah didasarkan pada interpretasi tidak manusiawi terhadap warga Palestina yang dibangun selama beberapa dekade di bawah pendudukan Israel.

Oleh karena itu, terjadi dehumanisasi ganda. Hal ini juga yang menyebabkan klaim Israel untuk menghormati ‘proporsionalitas’ tidak penting. Dua puluh korban sipil yang disebabkan oleh satu militan tingkat rendah mungkin dianggap proporsional, tetapi hanya jika Anda telah melakukan dehumanisasi terhadap warga Palestina hingga nyawa mereka tidak berharga.

Tidak Ada Akuntabilitas

Hal ini juga menunjukkan bahwa Israel sedang berusaha menghindari langkah-langkah menuju penggunaan AI yang bertanggung jawab. Tahun lalu, Amerika Serikat memprakarsai Deklarasi Politik tentang Penggunaan Artificial intelligence dan Otonomi yang Bertanggung Jawab oleh Militer. Perjanjian tersebut mengamanatkan bahwa penerapan AI di militer harus mematuhi hukum internasional, khususnya hukum humaniter, dan harus bersifat “etika, bertanggung jawab, dan meningkatkan keamanan internasional”.

Hal ini juga memerlukan pendekatan yang dipertimbangkan terhadap risiko dan manfaat, dan “juga harus meminimalkan bias dan kecelakaan yang tidak diinginkan.” Namun Israel, bersama Rusia, Cina, dan beberapa negara lainnya, belum mendukung deklarasi ini.

Sekalipun Israel mendukung perjanjian tersebut, perjanjian tersebut tidak mengikat secara hukum. Meskipun AI membawa potensi besar untuk perubahan positif, kita mudah tersesat dalam narasi yang berlebihan dan seringkali tidak kritis mengenai kekuatannya.

Namun penting untuk diingat bahwa teknologi tidak baik atau jahat. Diktator, otokrat, dan penjahat akan mempersenjatai teknologi untuk tujuan apa pun yang mereka inginkan. Seperti yang kita lihat di Gaza, militer Israel mengerahkan AI untuk memfasilitasi efisiensi dalam menargetkan warga Palestina.

Sayangnya, hal ini memberikan kedok moral yang salah mengenai objektivitas dan ketidakberpihakan terhadap suatu proses. Ini mungkin merupakan genosida pertama yang dibantu oleh AI dalam sejarah, dan hal ini terjadi bukan karena teknologi itu sendiri, namun karena teknologi tersebut digunakan oleh negara yang, selama beberapa dekade, telah mempelajari dan kemudian mengajarkan AI untuk tidak memanusiakan warga Palestina. []

Sumber: Dr. Marc Owen Jones (PhD), Asisten Profesor Studi Timur Tengah di Universitas Hamad bin Khalifa

About Author

Categories