ISLAMTODAY ID–Artikel ini berjudul The future of war and deterrence in an age of autonomous weapons yang ditulis oleh Amar Diwakar melalui TRTWorld.
Kecerdasan buatan dan sistem otonom akan secara signifikan mengubah medan perang masa depan dan menantang ahli strategi untuk menghasilkan model pencegahan baru.Inovasi di bidang teknologi baru berkembang dengan kecepatan sangat tinggi dengan potensi untuk memiliki konsekuensi luas dalam segala hal mulai dari tata kelola dan perdagangan hingga geopolitik.
Untuk diketahui, bidang teknologi baru meliputi perkembangan seperti kecerdasan buatan (AI), robotika, drone, komputasi kuantum, pencetakan 3D, biotek.
Ketika datang ke peperangan, banyak dari teknologi penting ini memiliki kekuatan untuk sepenuhnya mengubah ketentuan konflik manusia dan mengubah medan perang di masa depan.
“AI dan robotika akan menghancurkan status quo yang ada di dunia saat ini,” ujar futuris geopolitik Abishur Prakash kepada TRT World, seperti dilansir dari TRTWorld, Kamis (17/6).
Ia menambahkan bahwa teknologi baru akan “mengurangi kesenjangan antara kekuatan militer maju dan seluruh dunia”.
Dengan konsep tradisional tentang kekuatan negara yang secara bertahap terjalin dengan keahlian nasional dan investasi dalam AI, perlombaan senjata global sudah berlangsung, dengan AS dan China di garis depan.
Seiring dengan percepatan adopsi yang lebih luas, gagasan konvensional seputar pencegahan juga dipertanyakan.
Apa yang terjadi pada pencegahan dan eskalasi ketika keputusan dapat dibuat dengan kecepatan mesin dan dilakukan oleh kekuatan yang tidak membahayakan nyawa manusia?
“Kita perlu memikirkan kembali prinsip utama pencegahan. AI dan sistem otonom menantang cara operasi nuklir dan non-nuklir dilakukan, serta cara sistem ini dapat dianggap rentan terhadap serangan,” ujar Mikhail Sebastian, analis risiko politik yang berbasis di London yang berspesialisasi dalam keamanan siber dan diplomasi digital.
“Pada saat yang sama, mereka menawarkan serangkaian opsi baru untuk mencegah serangan nuklir.”
Sementara itu, Prakash memperingatkan kita sekarang telah mencapai titik tidak bisa kembali.
“Kami keluar dari era di mana perilaku yang paling merusak dapat dicegah. Sekarang, karena teknologi memberi negara dan organisasi kemampuan baru, pemerintah dihadapkan pada ancaman yang tidak dapat mereka hentikan atau batasi,” katanya.
“Mereka hanya bisa dikelola.”
Medan Perang Otonom
Jika ada satu teknologi militer yang terbukti menjadi gamechanger sejauh ini, itu adalah drone.
Setelah mesiu dan senjata nuklir, banyak yang menyebut robot pembunuh otomatis sebagai “revolusi ketiga dalam peperangan”.
Akhir tahun lalu di tengah pandemi, Perang Nagorno-Karabakh Kedua antara Azerbaijan dan Armenia menjadi pameran senjata otonom – dan memberikan gambaran sekilas tentang medan perang di masa depan.
Azerbaijan mengerahkan berbagai pesawat tak berawak, yang dibeli dari Israel dan Turki, untuk mengalahkan tentara Armenia yang secara konvensional lebih unggul dalam waktu singkat.
Pasukan Azeri digunakan untuk efek menghancurkan amunisi ‘Harop’ buatan Israel, yang dirancang untuk melayang tinggi di atas medan perang sambil menunggu untuk diberi target untuk menabrak muatan bahan peledak mereka, memberi mereka moniker “drone Kamikaze”.
Azerbaijan menghabiskan bertahun-tahun berinvestasi dalam amunisi yang berkeliaran dan mengumpulkan stok lebih dari 200, sementara Armenia hanya memiliki satu model buatan dalam negeri dengan jangkauan terbatas.
Menjadi perang pertama yang dimenangkan oleh senjata otonom, peningkatan minat dari tentara nasional yang memperoleh sistem udara tak berawak segera menyusul.
Di AS, sebuah laporan baru dari National Security Commission on AI membahas bagaimana teknologi otonom memungkinkan paradigma baru dalam perang dan mendorong sejumlah besar investasi di lapangan.
Negara-negara sangat bersaing untuk membangun atau membeli sistem drone mutakhir: China dan Rusia berniat mengejar pengembangan senjata otonom dan berinvestasi besar-besaran dalam R&D. Strategi pertahanan baru Inggris menempatkan AI di depan dan di tengah, seperti halnya Israel.
Dan teknologi drone yang jauh lebih transformatif mungkin akan segera hadir.
Kemajuan dalam baterai Li-ion telah memunculkan quadcopter mini yang dibuat dengan murah. Beberapa angkatan udara kini mulai menguji jaringan kawanan drone yang dapat membanjiri sistem radar.
Sebastian menunjukkan bahwa meskipun dengan sendirinya satu unit tanpa awak dan otonom tidak cocok untuk jet tempur, ketika secara algoritmik dihubungkan bersama, ribuan armada dapat membanjiri platform yang lebih besar.
“Setelah disempurnakan, drone otonom berbiaya rendah yang mengoordinasikan tindakan mereka dengan kecepatan mesin menyediakan alat koersif unik yang merusak sistem senjata warisan berbiaya tinggi, sementara berpotensi meningkatkan kelayakan serangan ofensif,” ungkapnya kepada TRT World.
Mungkin perkembangan paling menakutkan adalah quadcopters otonom yang dilengkapi dengan teknologi visi komputer yang dapat mengenali dan membunuh target tertentu, atau yang disebut drone pembunuh.
“Berbeda dengan aplikasi drone militer lainnya, drone pembunuh tidak harus dibatasi di medan perang. Mereka dapat mengintai sebagai ancaman yang ada di mana-mana di luar masa perang,” ungkap Sebastian.
Sampai sekarang, pencegahan terutama melibatkan manusia yang berusaha mempengaruhi kalkulus keputusan dan persepsi manusia lain.
Tapi apa yang terjadi ketika proses pengambilan keputusan tidak lagi sepenuhnya di bawah kendali manusia?
‘Bagaimana seseorang mencegah suatu peristiwa yang belum terjadi?’
Apa yang membedakan perlombaan senjata teknologi baru dari masa lalu adalah penggunaan ganda AI.
Selama Perang Dingin, pengembangan senjata nuklir didorong oleh pemerintah dan industri pertahanan.
Di luar pembangkit listrik, tidak banyak penggunaan komersial untuk teknologi nuklir.
Tapi model itu tidak berlaku lagi.
“Menyebarnya AI di mana-mana berarti perkembangan teknologi tidak dapat ditahan, dan mereka pasti akan berdarah di ranah sipil dan militer,” catat Sebastian.
Kolaborasi Tidak Sehat AI dan Teknologi Nuklir
Dalam sebuah artikel yang diterbitkan tahun lalu James Johnson, asisten profesor di School of Law and Government di Dublin City University, berpendapat bahwa penggunaan ganda dan sifat AI yang tersebar dibandingkan dengan teknologi nuklir akan membuat upaya pengendalian senjata bermasalah.
“Ketika kemampuan nuklir dan non-nuklir dan perjalanan perang kabur, persaingan strategis dan perlombaan senjata lebih mungkin muncul, memperumit upaya pengendalian senjata,” tulisnya.
“Singkatnya, kerangka kontrol senjata warisan, norma, dan bahkan gagasan stabilitas strategis itu sendiri akan semakin berjuang untuk mengasimilasi dan menanggapi tren yang berubah-ubah dan saling berhubungan ini.”
Johnson menggarisbawahi apa yang sekarang disebut sebagai “gelombang kelima” yang baru lahir dari pencegahan modern (“gelombang keempat” mengikuti Perang Dingin dan berlanjut hingga saat ini, bertepatan dengan multipolaritas, ancaman asimetris, dan aktor non-negara) didefinisikan oleh konsep istirahat dengan memasukkan agen non-manusia ke dalam pencegahan.
Maka kemampuan AI asimetris akan menginformasikan strategi pencegahan. Untuk melawan senjata otonom, Anda memerlukan senjata yang sama – mendorong aktor untuk mengadopsi teknologi ini guna menopang pertahanan mereka terhadap serangan otonom.
Campuran agen manusia dan buatan dapat mempengaruhi eskalasi antara aktor dalam proses.
Dalam laporan RAND, para peneliti menekankan bagaimana AI dan sistem otonom yang tersebar luas dapat membuat eskalasi yang tidak disengaja lebih mungkin terjadi karena “seberapa cepat keputusan dapat dibuat dan tindakan yang diambil jika lebih banyak yang dilakukan pada kecepatan mesin, daripada kecepatan manusia”.
Dua pihak yang bertikai mungkin sama-sama merasa perlu untuk menggunakan kemampuan otonom lebih awal untuk mendapatkan keuntungan koersif dan militer untuk mencegah lawan menang, meningkatkan kemungkinan ketidakstabilan serangan pertama.
Dinamika ini dapat memiliki konsekuensi yang menentukan bagaimana perang dimulai.
“Karena kecepatan sistem otonom harus dilawan oleh sistem otonom lainnya, kami dapat menemukan diri kami dalam situasi di mana sistem ini bereaksi satu sama lain dengan cara yang tidak dapat diprediksi,” ujar Sebastian.
“Sebelum Anda menyadarinya, eskalasi yang cepat mengarah pada konflik militer yang tidak diinginkan sejak awal.”
Prakash, penulis The Age of Killer Robots, percaya bahwa pemerintah harus memikirkan kembali pencegahan di era ketika AI membuat keputusan militer.
“Pencegahan sejauh ini berkisar pada menghentikan suatu negara atau aktor untuk melakukan sesuatu hari ini. Tetapi ketika negara-negara menggunakan teknologi untuk memprediksi peristiwa masa depan di panggung dunia – atau apa yang saya sebut ‘Algorithmic Foreign Policy’ – sebuah tantangan baru muncul,” ungkapnya.
“Bagaimana seseorang mencegah suatu peristiwa yang belum terjadi?”
Prakash menambahkan bahwa karena betapa terintegrasi dan rapuhnya sistem global saat ini, dunia bergeser dari ancaman dimusnahkan (senjata nuklir) ke ancaman memiliki infrastruktur penting yang ditargetkan.
“Hari ini, serangan siber yang melumpuhkan energi, air, dan rantai pasokan, akan menciptakan kerusakan yang lebih besar lagi,” ujarnya.
Bisakah konsensus baru dicapai?
Mengingat ketidakpastian era baru konflik bersenjata dan keberadaan AI yang tak terhindarkan dalam aplikasi militer, tindakan apa yang dapat dilakukan oleh pembuat kebijakan untuk mengendalikan risiko eskalasi yang tidak diinginkan?
Konvensi PBB tentang Senjata Konvensional Tertentu, yang diluncurkan pada 1980-an untuk mengatur penggunaan senjata non-nuklir, telah menjadi salah satu jalan.
Namun upaya badan tersebut untuk melarang sistem senjata otonom yang mematikan gagal pada tahun 2019, ketika perlawanan dari AS, Rusia, Korea Selatan, Australia, dan Israel menggagalkan konsensus apa pun yang dapat mengarah pada keputusan yang mengikat.
“Pendekatan lama kontrol senjata dan perjanjian tidak berlaku lagi untuk sistem ini. Kami berbicara tentang perangkat lunak bukan perangkat keras, ” ujar Sebastian.
“Sebelumnya tentang mengalokasikan sejumlah sistem. Anda tidak dapat melakukannya dengan sistem yang mendukung AI.”
Sama seperti bagaimana hal itu dilakukan untuk senjata nuklir, perjanjian internasional baru harus dibuat untuk teknologi senjata baru.
“Kita mungkin berakhir dengan aturan dan norma yang lebih fokus pada kasus penggunaan tertentu daripada sistem atau teknologi. Misalnya, mungkin ada kesepakatan untuk menggunakan kemampuan tertentu hanya dalam konteks tertentu atau hanya terhadap mesin.”
Tetapi negara-negara kuat seringkali skeptis terhadap forum multilateral yang mengatur teknologi dan mempersempit kemampuan mereka untuk mendapatkan keuntungan strategis. Untuk saat ini, prospek solusi transnasional tidak ada di depan mata.
“Menyetujui atau menerapkan kerangka kerja apa pun tidak akan mudah, terutama ketika ada kurangnya kepercayaan antara kekuatan besar,” tambah Sebastian.
Selain itu, upaya untuk mencapai konsensus seputar AI kemungkinan akan menyoroti asimetri moral dan memperkenalkan beberapa dilema yang dapat menentukan masa depan pencegahan.
Dalam makalah mereka New Technologies and Deterrence: Artificial Intelligence and Adversarial Behaviour, Alex Wilner dan Casey Babb mengklaim bahwa sementara beberapa negara bagian mungkin menentang pemberian AI dengan hak untuk membunuh individu tanpa campur tangan manusia, yang lain mungkin tidak terlalu terpengaruh oleh masalah tersebut.
Menurut Wilner dan Babb, masalah etika mungkin pada akhirnya memainkan peran penting dalam mempengaruhi pengembangan AI dan sifat politik aliansi.
“Sekutu dengan kemampuan AI asimetris, struktur tata kelola AI yang tidak merata, atau aturan keterlibatan AI yang berbeda, mungkin merasa sulit untuk bekerja sama menuju tujuan koersif bersama,” tulis mereka.
“Sekutu yang berbeda dalam etika AI mungkin tidak mau berbagi data pelatihan yang berguna atau memanfaatkan kecerdasan bersama yang berasal dari AI. Tanpa konsensus yang lebih luas, AI dapat melemahkan kohesi politik dalam aliansi, menjadikannya kurang efektif”.
(Resa/TRTWolrd)