AI Ubah Cara Perang Iran Melawan Israel dan AS, Ini 5 Faktanya
Ketika serangan udara pertama AS dan Israel menghantam Iran pada 28 Februari, serangan tersebut datang dengan intensitas dan presisi yang menandai sesuatu yang benar-benar baru dalam sejarah konflik bersenjata.
Ini bukanlah perang konvensional; sejak awal, kecerdasan buatan tertanam di setiap tingkat operasi, termasuk perencanaan, analisis intelijen, pemilihan target, dan pertahanan siber.
Dalam 12 jam pertama saja, diperkirakan 900 serangan menghantam target di Iran, termasuk rudal Israel yang menewaskan Pemimpin Tertinggi Ali Khamenei.
AI Ubah Cara Perang Iran Melawan Israel dan AS, Ini 5 Faktanya
1. Perang Modern yang Menggunakan Sistem AI sebagai Hal Utama
Analis dan peneliti militer mengatakan ini adalah salah satu konflik modern pertama di mana sistem AI memainkan peran sentral, bukan peran pendukung."Apa yang kita lihat hari ini hanyalah permulaan," kata Dr. Ali Mahdi, seorang peneliti di Universitas Teknologi Amir Kabir di Teheran, kepada The New Arab.
"Perang di masa depan akan lebih bergantung pada AI. Keputusan akan lebih cepat dan lebih kompleks, terutama karena peran manusia dalam keputusan taktis tertentu berkurang."Dalam konflik sebelumnya, analis manusia membutuhkan waktu berminggu-minggu atau berbulan-bulan untuk mendapatkan informasi intelijen yang berarti dari citra satelit, data pengawasan, dan rekaman lapangan.
2. Mengintegrasikan Satelit, Drone, dan Pembelajaran Mesin
Dalam perang di Iran, algoritma canggih memproses jutaan titik data dalam hitungan menit, mengintegrasikan umpan satelit, rekaman drone, dan pemantauan berbasis darat ke dalam model pembelajaran mesin yang menghasilkan gambaran operasional waktu nyata yang belum pernah terlihat dalam perang sebelumnya.Kecepatan ini telah mengubah cara pengambilan keputusan. Para komandan mendapatkan penilaian hampir seketika tentang pergerakan pasukan Iran, posisi pertahanan, dan transfer senjata. Jarak antara mengidentifikasi target dan bertindak telah menyusut dari berjam-jam atau berhari-hari menjadi hitungan menit.
3. Algoritma Menawarkan Rekomendasi yang Tepat
Shariatmadar Rahmati, seorang anggota fakultas di Fakultas Ilmu Komputer Amir Kabir, menjelaskan arsitektur tersebut dengan cermat."Algoritma menganalisis sejumlah besar data dan menawarkan rekomendasi yang tepat, tetapi keputusan akhir tetap berada di tangan analis manusia. Keseimbangan antara AI dan penilaian manusia ini memastikan bahwa keputusan tidak diambil secara otomatis sepenuhnya."
Keseimbangan itu, menurutnya, tidak selalu terjaga di bawah tekanan. "Kecepatan yang diberikan AI terkadang mendorong analis untuk mengambil keputusan pada saat-saat kritis. Jika pengawasan manusia yang ketat tidak dilakukan, ini dapat menyebabkan kesalahan serius."
4. Ada Sentuhan AI pada Komando Militer
Model, termasuk Claude dari Anthropic, dilaporkan telah menjadi bagian dari sistem pengawasan dan analisis yang digunakan dalam komando militer, memberikan rekomendasi yang hampir instan tentang prioritas target dan memproses jutaan titik data dari satelit dan sistem pemantauan.Laporan lain menunjukkan bahwa pemerintahan AS telah menggunakan alat AI untuk menentukan prioritas target dan mengeksekusi serangan dalam hitungan jam, suatu jangka waktu yang tidak mungkin dilakukan tanpa analisis waktu nyata otomatis.Salah satu dimensi konflik yang paling diperdebatkan melibatkan hubungan antara perusahaan AI dan lembaga militer yang menggunakan teknologi mereka. Anthropic menyatakan keberatan tentang penggunaan langsung sistemnya untuk penargetan tempur, sementara Departemen Pertahanan AS mendorong perluasan cakupan operasionalnya.
5. Bisa Memicu Kesalahan
Pakar AI independen Naim Zamani mengidentifikasi apa yang dilihatnya sebagai masalah mendasar."Sistem tersebut dapat merekomendasikan tindakan yang tidak dapat dipahami oleh manusia, dan tindakan ini dapat dieksekusi tanpa tinjauan yang memadai, meningkatkan kemungkinan kesalahan dan merusak kepatuhan terhadap kewajiban etika dan hukum internasional. AI bukan hanya alat. AI telah menjadi bagian dari medan perang itu sendiri."
Taruhan hukumnya sangat signifikan. Hukum humaniter internasional mengharuskan para kombatan untuk membedakan antara target sipil dan militer setiap saat. Ketika perbedaan itu dibuat oleh algoritma, pertanyaan tentang akuntabilitas menjadi sangat penting.Serangan mematikan terhadap sebuah sekolah perempuan di Iran - yang menewaskan sedikitnya 175 orang - dalam beberapa jam pertama perang AS-Israel menyoroti konsekuensi serius dari keputusan-keputusan ini. Sekolah tersebut dilaporkan telah salah diidentifikasi sebagai situs militer, meskipun tidak jelas apakah intelijen yang sudah usang atau pengambilan keputusan AI terlibat.
"Kesalahan apa pun dalam klasifikasi target dapat menyebabkan bencana kemanusiaan," kata Rahmati. "Ini harus menjadi bagian dari penilaian strategis apa pun sebelum sepenuhnya bergantung pada AI dalam operasi militer."
Mahdi lebih lugas. “Algoritma dapat salah mengklasifikasikan target, menyebabkan instalasi sipil diserang seolah-olah itu adalah sasaran militer. AI bukanlah alat yang netral. Ia memiliki dampak langsung pada hasil perang dan pada keputusan para komandan."










