Scroll untuk baca artikel
#Viral

Keamanan AI Bertemu dengan Mesin Perang

18
×

Keamanan AI Bertemu dengan Mesin Perang

Share this article
keamanan-ai-bertemu-dengan-mesin-perang
Keamanan AI Bertemu dengan Mesin Perang

Kapan Antropis tahun lalu menjadi jurusan pertama perusahaan AI diizinkan oleh pemerintah AS untuk penggunaan rahasia—termasuk aplikasi militer—berita tersebut tidak menimbulkan heboh besar. Namun minggu ini perkembangan kedua terjadi seperti peluru meriam: Pentagonlah yang melakukannya mempertimbangkan kembali hubungannya dengan perusahaan tersebut, termasuk kontrak senilai $200 juta, dengan alasan bahwa perusahaan AI yang sadar akan keselamatan tersebut menolak untuk berpartisipasi dalam operasi mematikan tertentu. Departemen Perang bahkan mungkin menyebut Anthropic sebagai “risiko rantai pasokan,” sebuah surat berwarna merah yang biasanya diperuntukkan bagi perusahaan yang melakukan bisnis dengan negara-negara yang diawasi oleh lembaga federal, seperti Tiongkok, yang berarti Pentagon tidak akan melakukan bisnis dengan perusahaan yang menggunakan AI Anthropic dalam pekerjaan pertahanan mereka. Dalam sebuah pernyataan kepada WIRED, juru bicara utama Pentagon Sean Parnell mengonfirmasi bahwa Anthropic berada di kursi panas. “Bangsa kita mengharuskan mitra-mitra kita untuk bersedia membantu para pejuang kita menang dalam pertempuran apa pun. Pada akhirnya, ini adalah soal pasukan kita dan keselamatan rakyat Amerika,” katanya. Ini adalah pesan untuk perusahaan lain juga: OpenAI, xAI dan Google, yang mana saat ini memiliki Departemen Pertahanan kontrak untuk pekerjaan yang tidak diklasifikasikan, melewati rintangan yang diperlukan untuk mendapatkan izin yang tinggi.

Ada banyak hal yang perlu dibongkar di sini. Di satu sisi, ada pertanyaan apakah Anthropic dihukum karena mengeluhkan fakta bahwa model AI-nya, Claude, digunakan sebagai bagian dari serangan untuk menggulingkan presiden Venezuela Nicolás Maduro (yaitu apa yang diberitakan; perusahaan menyangkalnya). Ada juga fakta bahwa Anthropic secara terbuka mendukung regulasi AI—sebuah sikap yang berbeda dalam industri ini dan bertentangan dengan kebijakan pemerintah. Namun ada masalah yang lebih besar dan lebih meresahkan. Akankah tuntutan pemerintah untuk penggunaan militer membuat AI menjadi kurang aman?

Example 300x600

Para peneliti dan eksekutif percaya bahwa AI adalah teknologi paling kuat yang pernah ditemukan. Hampir semua perusahaan AI saat ini didirikan dengan premis bahwa mencapai AGI, atau superintelligence, dapat dilakukan dengan cara yang dapat mencegah dampak buruk yang meluas. Elon Musk, pendiri xAI, pernah menjadi pendukung terbesar pengekangan AI—dia ikut mendirikan OpenAI karena dia khawatir teknologi tersebut terlalu berbahaya untuk diserahkan ke tangan perusahaan yang mencari keuntungan.

Anthropic telah menjadikan ruang sebagai ruang yang paling sadar akan keselamatan. Misi perusahaan ini adalah untuk memiliki pagar pembatas yang terintegrasi secara mendalam ke dalam model mereka sehingga pelaku kejahatan tidak dapat mengeksploitasi potensi tergelap AI. Isaac Asimov mengatakannya pertama dan terbaik dalam karyanya hukum robotika: Robot tidak boleh melukai manusia atau, karena tidak bertindak, membiarkan manusia terluka. Bahkan ketika AI menjadi lebih pintar dari manusia mana pun di muka bumi—sebuah kemungkinan yang sangat diyakini oleh para pemimpin AI—pengendalian tersebut harus tetap dipertahankan.

Jadi, tampak kontradiktif jika laboratorium AI terkemuka berusaha keras untuk menggunakan produk mereka dalam operasi militer dan intelijen mutakhir. Sebagai laboratorium besar pertama dengan kontrak rahasia, Anthropic memberikan pemerintah a “rangkaian khusus model Claude Gov yang dibuat khusus untuk pelanggan keamanan nasional AS.” Meski begitu, Anthropic mengatakan pihaknya melakukan hal tersebut tanpa melanggar standar keselamatan mereka sendiri, termasuk larangan menggunakan Claude untuk memproduksi atau merancang senjata. CEO Antropis Dario Amodei telah secara spesifik mengatakan dia tidak ingin Claude terlibat dalam senjata otonom atau pengawasan AI pemerintah. Namun hal itu mungkin tidak akan berhasil pada pemerintahan saat ini. CTO Departemen Pertahanan Emil Michael (sebelumnya chief business officer Uber) kepada wartawan minggu ini bahwa pemerintah tidak akan mentolerir perusahaan AI yang membatasi cara militer menggunakan AI dalam senjatanya. “Jika ada segerombolan drone yang keluar dari pangkalan militer, apa pilihan Anda untuk menjatuhkannya? Jika waktu reaksi manusia tidak cukup cepat… bagaimana Anda akan melakukannya?” dia bertanya secara retoris. Begitu banyak hukum pertama robotika.

Ada argumen bagus yang bisa dikemukakan bahwa keamanan nasional yang efektif memerlukan teknologi terbaik dari perusahaan paling inovatif. Meskipun beberapa tahun yang lalu, beberapa perusahaan teknologi enggan bekerja sama dengan Pentagon, pada tahun 2026 mereka umumnya akan menjadi kontraktor militer. Saya belum pernah mendengar eksekutif AI berbicara tentang model mereka yang dikaitkan dengan kekuatan mematikan, kecuali CEO Palantir Alex Karp tidak malu untuk mengatakannyadengan bangga, “Produk kami kadang-kadang digunakan untuk membunuh orang.”

AS mungkin bisa menggunakan AI-nya dengan impunitas ketika berperang dengan negara seperti Venezuela. Namun pihak-pihak yang menentang kebijakan ini harus secara agresif menerapkan AI keamanan nasional versi mereka sendiri, yang akan mengakibatkan perlombaan senjata besar-besaran. Pemerintah mungkin akan memiliki sedikit kesabaran terhadap perusahaan-perusahaan AI yang bersikeras melakukan pemisahan atau pembedaan secara hukum mengenai apa yang termasuk dalam “penggunaan legal” ketika praktik yang mematikan dipertanyakan. (Terutama pemerintah yang merasa bebas untuk melakukannya mendefinisikan kembali hukum to membenarkan apa yang banyak orang anggap sebagai kejahatan perang.) Pernyataan Pentagon tersebut menyatakannya secara eksplisit: Jika perusahaan AI ingin bermitra dengan Departemen Pertahanan, mereka harus berkomitmen melakukan apa pun untuk menang.

Pola pikir tersebut mungkin masuk akal di Pentagon, namun hal ini mendorong upaya untuk menciptakan AI yang aman ke arah yang salah. Jika Anda membuat bentuk AI yang tidak akan membahayakan manusia, akan menjadi kontraproduktif jika Anda juga menggunakan versi yang memberikan kekuatan mematikan. Beberapa tahun yang lalu, baik pemerintah maupun eksekutif teknologi berbicara serius mengenai badan-badan internasional yang mungkin dapat membantu memantau dan membatasi penggunaan AI yang berbahaya. Anda tidak lagi mendengar pembicaraan itu. Sudah menjadi rahasia umum bahwa masa depan peperangan bergantung pada AI. Yang lebih menakutkan lagi, masa depan AI sendiri mungkin akan lebih rentan terhadap kekerasan yang terjadi dalam peperangan—jika perusahaan pembuatnya dan negara-negara yang menggunakannya tidak berupaya untuk membendung teknologi tersebut.

Saya sudah lama percaya bahwa kisah utama di zaman kita adalah kebangkitan teknologi digital. Politisi, rezim, dan bahkan negara bisa saja datang dan pergi—tetapi kemajuan teknologi terhadap kemanusiaan tidak dapat dibatalkan. Ketika Donald Trump pertama kali terpilih sebagai presiden pada tahun 2016, saya menguraikan teori ini dalam kolom berjudul “IPhone Lebih Besar Dari Donald Trump.” Setelah dia terpilih kembali pada tahun 2024, saya menulis sekuelnya, dengan alasan bahwa AI adalah penyebabnya agen kekacauan yang lebih besar daripada presiden. Dalam jangka panjang, menurut saya, sains bahkan mengalahkan Trump.

Teori itu sekarang terasa sedikit lebih goyah. Masa depan mungkin bergantung pada siapa yang bertanggung jawab atas AI tingkat lanjut dan bagaimana mereka membentuk serta memanfaatkannya. Meskipun para penguasa AI mengusung patriotisme dan mencari kesepakatan dengan Pentagon, faktanya mereka memasok teknologi yang sangat kuat dan tidak dapat diprediksi kepada pemerintah dan departemen perang yang menolak gagasan pengawasan. Apa pendapat Asimov?


Ini adalah edisi Steven Levy Buletin saluran belakang. Baca buletin sebelumnya Di Sini.