Penggunaan kecerdasan buatan (AI) oleh Israel dalam serangannya di Gaza, yang melibatkan perusahaan teknologi besar seperti Google, Microsoft, dan Amazon, menimbulkan kekhawatiran terkait normalisasi jatuhnya korban sipil secara massal.
Hal ini juga memunculkan pertanyaan serius tentang apakah perusahaan-perusahaan tersebut terlibat dalam potensi kejahatan perang, menurut seorang pakar AI terkemuka, lansir Anadolu.
Beberapa laporan mengungkapkan bahwa Israel telah menggunakan model AI seperti Lavender, Gospel, dan Where’s Daddy? untuk melakukan pengawasan massal, mengidentifikasi target, dan mengarahkan serangan kepada puluhan ribu warga Gaza, sering kali di rumah mereka sendiri, dengan pengawasan manusia yang minim.
Kelompok hak asasi manusia dan para ahli menilai sistem-sistem ini sangat berperan dalam serangan Israel yang terus menerus dan tampaknya tanpa pandang bulu, yang telah menghancurkan banyak bagian dari Gaza yang terkepung dan menyebabkan lebih dari 50.000 korban jiwa, sebagian besar perempuan dan anak-anak.
Normalisasi korban sipil
Heidy Khlaaf, mantan insinyur keselamatan sistem di OpenAI yang kini menjabat sebagai kepala ilmuwan AI di AI Now Institute, mengatakan bahwa penggunaan model AI yang tidak presisi bisa memperburuk normalisasi jatuhnya korban sipil massal, seperti yang terlihat di Gaza.
Khlaaf memperingatkan bahwa tren ini bisa menciptakan preseden berbahaya dalam peperangan, di mana kekuatan militer bisa mengalihkan tanggung jawab atas potensi kejahatan perang kepada sistem AI, sementara tidak ada mekanisme internasional yang cukup kuat untuk menindak atau meminta pertanggungjawaban pelaku.
“Ini adalah kombinasi yang sangat berbahaya, di mana militer bisa saja menghindari tanggung jawab atas kejahatan perang dengan menyalahkan AI. Mereka bisa mengatakan, ‘Ini algoritma yang membuat keputusan ini, bukan saya,’” ujar Khlaaf.
Israel’s AI use in Gaza normalizes civilian killings, obscures blame, exposes Big Tech complicity: Expert
🗣️ ‘Amazon, Google and Microsoft are explicitly working with the IDF to develop or allow them to use their technologies’
🗣️ Israel is using AI systems at ‘almost’every… pic.twitter.com/2F2aPIpOl5— Anadolu English (@anadoluagency) April 2, 2025
Khlaaf juga menekankan bahwa Israel menggunakan AI hampir di setiap tahap operasi militer mereka, mulai dari pengumpulan intelijen dan perencanaan hingga pemilihan target akhir.
AI dalam militer
AI yang digunakan oleh Israel dilatih dengan berbagai data, seperti citra satelit, komunikasi yang disadap, pengawasan drone, serta pelacakan individu atau kelompok.
Khlaaf menjelaskan bahwa AI mengembangkan algoritma yang menggunakan perhitungan statistik atau probabilistik dari data yang sudah ada untuk memprediksi lokasi target di masa depan.
Namun, ia menegaskan bahwa prediksi tersebut “belum tentu mencerminkan kenyataan.”
Khlaaf juga menyoroti bahwa model bahasa besar (LLM) komersial seperti Gemini milik Google dan GPT-4 milik OpenAI digunakan oleh militer Israel untuk menerjemahkan dan mentranskripsi komunikasi yang disadap dari Palestina, serta menambahkan individu ke daftar target “hanya berdasarkan kata kunci.”
Penyelidikan menunjukkan bahwa strategi operasional militer Israel melibatkan pembuatan banyak target dengan AI tanpa memverifikasi akurasi data tersebut.
Menurut Khlaaf, model AI tidak dapat diandalkan untuk tugas yang membutuhkan presisi tinggi, seperti penargetan dalam operasi militer, karena mereka hanya bergantung pada probabilitas statistik, bukan intelijen yang terverifikasi.
“Penelitian menunjukkan bahwa model AI yang digunakan untuk penargetan bisa memiliki tingkat akurasi serendah 25%,” tambahnya.
Automasi tanpa pertanggungjawaban
Khlaaf memperingatkan bahwa penggunaan AI yang semakin meluas dalam peperangan menciptakan preseden berbahaya, di mana akuntabilitas menjadi kabur.
“AI menciptakan preseden yang menormalkan praktik penargetan yang tidak akurat. Karena skala dan kompleksitas model-model ini, menjadi sangat sulit untuk melacak keputusan mereka dan memegang pihak yang bertanggung jawab,” ungkapnya.
Bahkan mekanisme pengawasan manusia yang biasa disebut “manusia dalam lingkaran,” yang sering dipromosikan sebagai pengaman terhadap kesalahan AI, tampaknya tidak efektif dalam kasus ini.
Penyelidikan menunjukkan bahwa pengawasan terhadap target yang dihasilkan oleh AI oleh IDF dilakukan dengan panduan yang sangat longgar, yang meragukan apakah ada upaya yang cukup untuk mengurangi korban sipil.
Perusahaan teknologi terlibat langsung
Khlaaf mengonfirmasi bahwa perusahaan-perusahaan teknologi besar dari AS terlibat langsung dalam menyediakan kemampuan AI dan komputasi awan untuk militer Israel.
“Ini bukan hal baru,” ujarnya, mengingat Google sudah menyediakan layanan AI dan cloud untuk militer Israel sejak 2021 melalui Proyek Nimbus senilai 1,2 miliar dolar AS, bersama dengan Amazon.
Keterlibatan Microsoft semakin mendalam setelah Oktober 2023, ketika Israel semakin mengandalkan layanan komputasi awan, model AI, dan dukungan teknis mereka.
Perusahaan lain seperti Palantir juga dilaporkan terlibat dalam operasi militer Israel, meskipun rinciannya masih terbatas.
Khlaaf menekankan bahwa kemitraan ini bukan sekadar penjualan teknologi AI atau cloud umum.
“Amazon, Google, dan Microsoft secara langsung bekerja dengan IDF untuk mengembangkan atau memungkinkan mereka menggunakan teknologi mereka untuk intelijen dan penargetan, meskipun mereka sadar akan risiko rendahnya akurasi AI, kegagalan sistem, dan bagaimana IDF berniat menggunakan AI untuk penargetan,” jelasnya.
Kesenjangan hukum
Khlaaf memperingatkan bahwa dunia kini menyaksikan “adopsi penuh penargetan otomatis tanpa proses hukum atau akuntabilitas,” fenomena yang didorong oleh investasi besar dari Israel, Departemen Pertahanan AS, dan Uni Eropa.
“Kerangka hukum dan teknis kita belum siap menghadapi peperangan berbasis AI seperti ini,” ujarnya. Meskipun ada hukum internasional yang mengatur senjata baru, seperti Pasal 36 Konvensi Jenewa 1949, saat ini tidak ada regulasi internasional yang mengatur teknologi militer berbasis AI secara spesifik.
“Masih ada kesenjangan besar yang belum ditangani,” katanya.
Demo karyawan Micsoroft
Pada akhir Februari 2025, lima karyawan Microsoft dikeluarkan dari rapat umum perusahaan setelah menggelar protes terkait kontrak Microsoft yang menyediakan layanan AI dan komputasi awan untuk militer Israel.
Protes ini terjadi pada hari Senin, setelah sebuah investigasi oleh Associated Press (AP) mengungkap bahwa model AI canggih dari Microsoft dan OpenAI digunakan oleh militer Israel untuk memilih target serangan udara dalam konflik terbaru di Gaza dan Lebanon.
Laporan itu juga menyebutkan serangan udara Israel pada 2023 yang menghantam sebuah kendaraan yang membawa keluarga dari Lebanon, yang mengakibatkan tiga gadis muda dan nenek mereka tewas.
Ketika CEO Microsoft, Satya Nadella, tengah mempresentasikan produk baru di markas besar perusahaan di Redmond, Washington, beberapa karyawan berdiri sekitar 4,5 meter di sebelah kanan Nadella. Mereka membuka kaos bertuliskan pertanyaan: “Apakah Kode Kami Membunuh Anak-Anak, Satya?”
Protes tersebut disiarkan langsung di seluruh Microsoft, dengan Nadella yang terus melanjutkan pidatonya tanpa menghiraukan para demonstran. Tak lama kemudian, dua pria mendekati mereka dan mengawal keluar karyawan yang berunjuk rasa dari ruangan.
Microsoft membela tindakannya dalam sebuah pernyataan, mengatakan bahwa perusahaan menyediakan berbagai saluran untuk mendengar suara karyawan.
Namun, mereka menekankan pentingnya agar protes dilakukan dengan cara yang tidak mengganggu jalannya bisnis.
Jika hal itu terjadi, mereka meminta peserta untuk meninggalkan ruangan. Perusahaan juga menyatakan komitmennya untuk memastikan bahwa praktik bisnis mereka memenuhi standar tertinggi.
Ini bukan pertama kalinya Microsoft mengambil tindakan terhadap karyawan yang memprotes keterlibatannya dengan Israel.
Pada Oktober 2024, perusahaan memecat dua karyawan yang mengorganisir perlindungan untuk pengungsi Palestina di markas besar perusahaan.
Microsoft menjelaskan bahwa pemecatan tersebut sesuai dengan kebijakan internal, meski tidak memberikan rincian lebih lanjut.
Sejak beberapa bulan sebelumnya, sekelompok karyawan Microsoft sudah menyuarakan kekhawatiran mereka terkait kontrak perusahaan dengan militer Israel, terutama terkait dengan layanan komputasi awan Azure.
Investigasi AP, yang mengutip data dan dokumen internal Microsoft, mengungkapkan bahwa penggunaan model AI oleh militer Israel melalui platform Azure meningkat hampir 200 kali lipat setelah 7 Oktober 2023.
Abdo Mohamed, seorang peneliti dan ilmuwan data yang termasuk di antara karyawan yang dipecat pada Oktober karena mendukung pengungsi Palestina, mengkritik perusahaan yang dinilai lebih mementingkan keuntungan daripada etika.
“Tuntutannya jelas,” kata Mohamed, yang juga bagian dari kelompok aktivis No Azure for Apartheid.
“Satya Nadella dan eksekutif Microsoft harus bertanggung jawab dan menghentikan kontrak-kontrak dengan militer Israel.”