Opini
Gaza, Laboratorium Berdarah Persekongkolan Amerika–Israel
Langit Gaza tidak pernah benar-benar gelap. Di malam yang seharusnya tenang, ada dengung logam di udara—drone-drone kecil yang melayang seperti nyamuk mekanis, berputar di atas tenda pengungsian, kadang memutar suara jeritan anak, sirene, atau tangisan yang entah direkam dari mana. Orang-orang di bawahnya tidak tahu apakah suara itu nyata atau buatan, apakah itu tanda bahaya atau sekadar eksperimen. Dunia menyebutnya “perang.” Tapi bagi yang hidup di sana, ini lebih seperti laboratorium raksasa—tempat di mana ketakutan diuji, dan kemanusiaan diukur dengan algoritma.
Saya membaca laporan Quds News dengan perasaan getir: Amerika Serikat mendanai XTEND Reality, perusahaan Israel yang mengembangkan drone serangan berbasis AI, dan menguji teknologinya di Gaza. Bagi mereka, itu disebut “battlefield experience.” Istilah yang terdengar mulia di ruang rapat Washington, tapi di lapangan berarti satu hal: pengalaman membunuh yang diubah jadi data. XTEND mendapatkan kontrak multi-juta dolar dari Departemen Pertahanan AS. Gaza mendapat langit penuh mesin yang memantau setiap napasnya. Dunia mendapat satu lagi alasan untuk diam.
Kita semua tahu, Israel sudah lama menjadikan Gaza sebagai medan eksperimen. Setiap kali terjadi serangan, industri senjatanya langsung mengiklankan produk “combat-proven.” Artinya: sudah diuji terhadap manusia sungguhan. Tidak di laboratorium, tidak di simulasi, tapi di kota yang dikepung, di rumah yang tak punya ruang perlindungan. Dan sekarang, Amerika—dengan semua retorika demokrasinya—masuk ke rantai itu, bukan sebagai penengah, tapi sebagai penyandang dana. Apa bedanya dengan perusahaan farmasi yang menguji obat tanpa izin pada tubuh orang miskin? Hanya saja kali ini, “obatnya” adalah drone pembunuh.
Yang paling menakutkan bukan sekadar senjata yang mereka buat, tapi logika di baliknya. Logika yang menganggap perang sebagai riset, penderitaan sebagai sumber data, dan kematian sebagai umpan balik teknologi. XTEND menyebut drone-nya “AI-driven,” tapi AI itu belajar dari apa? Dari wajah-wajah yang hancur, dari suara jeritan di bawah reruntuhan, dari koordinat yang memetakan pergerakan manusia yang tak pernah bisa melarikan diri. Gaza bukan hanya korban; Gaza telah dijadikan proof of concept untuk perang masa depan.
Saya rasa, inilah bentuk kolonialisme baru yang paling halus: kolonialisme data dan algoritma. Jika di masa lalu penjajah menambang emas, kini mereka menambang “pengalaman tempur.” Israel menawarkan hasilnya kepada dunia—dari sistem pengawasan hingga teknologi otonom yang katanya mampu membedakan “ancaman” dari “warga sipil.” Tapi siapa yang mendefinisikan “ancaman”? Siapa yang memastikan algoritma itu tidak bias, tidak menargetkan anak kecil yang berlari karena takut? AI itu tidak netral. Ia belajar dari pelaku kekerasan, dan karena itu, ia akan mewarisi kekerasan itu.
Ironinya, kontrak antara XTEND dan Amerika ini dipresentasikan seolah kolaborasi inovatif. Mereka bicara tentang efisiensi, keselamatan prajurit, kemajuan teknologi. Tidak ada satu pun yang menyebut tentang rasa takut, trauma, atau anak-anak yang menatap langit dengan cemas. Semua dibungkus dalam bahasa yang rapi—“operational feedback,” “combat testing,” “mission success.” Bahasa yang menghapus jejak darah, karena dalam industri ini, kata-kata juga bagian dari senjata.
Kita mungkin jauh dari Gaza, tapi pola pikirnya sudah merembes ke mana-mana. Dunia kini hidup dalam bayang-bayang algoritma yang memutuskan siapa yang boleh hidup dan siapa yang boleh dipantau. Kamera di jalan, drone di langit, hingga iklan di layar ponsel kita—semuanya lahir dari logika yang sama: bahwa manusia bisa direduksi jadi data. Bedanya, di Gaza, konsekuensinya adalah nyawa. Di sini, mungkin “hanya” privasi. Tapi keduanya lahir dari mentalitas yang sama: kekuasaan yang ingin melihat segalanya, mengendalikan segalanya, tanpa pernah merasa bersalah.
Amerika tidak akan mengakuinya. Mereka akan bicara tentang inovasi pertahanan, tentang perang melawan teror, tentang keamanan global. Namun, di balik semua itu ada satu kenyataan yang sukar ditolak: industri senjata AS tidak pernah berhenti mencari ladang uji baru. Setelah Irak, Afghanistan, Suriah—Gaza menjadi lokasi ideal. Populasi padat, ruang tertutup, tanpa perlindungan internasional yang efektif. Dari sudut pandang korporasi, itu sempurna: risiko politik kecil, hasil data besar. Dari sudut pandang moral? Itu mimpi buruk.
Kita bisa menertawakan absurditasnya: negara yang mengaku menjunjung HAM, mendanai teknologi yang diujikan pada populasi terperangkap. Tapi tawa itu getir. Sebab di baliknya ada kesadaran bahwa dunia ini memang berjalan di atas ketimpangan yang disengaja. Palestina adalah cermin bagi kita semua—menunjukkan seberapa jauh kita rela menutup mata demi kenyamanan sendiri. Setiap drone yang mengudara di Gaza membawa bukan hanya bom, tapi juga pesan tentang masa depan: bahwa perang kini bisa dioutsource, disterilkan, dan dikomersialisasi.
Saya membayangkan para insinyur muda di Tel Aviv atau Boston, menatap layar penuh data uji coba drone itu. Mereka mungkin bangga—grafik stabil, algoritma belajar dengan cepat. Tapi di sisi lain dunia, seorang ibu Palestina menatap puing-puing rumahnya sambil memeluk anaknya yang ketakutan oleh suara mesin. Dua dunia yang terhubung oleh satu sistem yang sama: satu membangun, satu runtuh. Satu mendapat gaji, satu kehilangan keluarga.
Kita semua tahu ini bukan sekadar isu Timur Tengah. Ini soal masa depan kemanusiaan. Ketika perang diubah menjadi proyek inovasi, siapa yang akan menghentikannya? Ketika setiap penderitaan memberi keuntungan ekonomi, siapa yang akan berani rugi demi keadilan? Dunia modern telah menemukan cara paling efisien untuk tidak merasa bersalah: menjadikan kekerasan sebagai data.
Gaza hanyalah titik awal dari rantai panjang eksperimen. Setelah ini mungkin ada kota lain, rakyat lain, yang akan dijadikan objek pembelajaran bagi mesin. Tapi sejarah punya cara sendiri untuk membalas. Setiap teknologi yang lahir dari ketidakadilan akan membawa dosa bawaannya sendiri. Seperti bom yang akhirnya jatuh ke tangan yang salah, atau algoritma yang suatu hari salah mengenali wajah penciptanya sebagai target.
Saya tidak tahu berapa lama dunia bisa terus berpura-pura bahwa ini semua demi “keamanan.” Tapi satu hal pasti: ketika langit dipenuhi drone dan manusia dianggap angka, maka yang sebenarnya hilang bukan hanya nyawa, melainkan makna menjadi manusia itu sendiri. Dan jika Amerika terus mendanai eksperimen semacam ini, maka Gaza bukan sekadar laboratorium bagi Israel—melainkan cermin bagi dunia yang perlahan kehilangan nuraninya.
Mungkin nanti, ketika sejarah menulis bab tentang abad ini, ia akan menulisnya begini: bahwa di masa modern, sains dan perang bergandengan tangan, dan kemanusiaan pun tergelincir ke jurang yang ia gali sendiri. Gaza akan tetap disebut—bukan hanya sebagai korban, tapi sebagai saksi bisu bagaimana dunia memilih kemajuan tanpa hati nurani. Dan kita, yang membaca ini, harus bertanya: di mana posisi kita dalam eksperimen besar itu? Sebagai penonton? Pendana? Atau sekadar diam yang memperpanjang penderitaan?
