Aku sudah menghabiskannya beberapa hari terakhir meminta perusahaan AI untuk meyakinkan saya tentang prospeknya Keamanan AI belum meredup. Beberapa tahun yang lalu, nampaknya ada kesepakatan universal di antara mereka perusahaan, legislatordan masyarakat umum bahwa regulasi dan pengawasan serius terhadap AI tidak hanya diperlukan, namun juga tidak bisa dihindari. Banyak orang berspekulasi tentang badan-badan internasional yang menetapkan peraturan untuk memastikan bahwa AI akan diperlakukan lebih serius dibandingkan teknologi baru lainnya, dan hal ini setidaknya dapat menjadi hambatan bagi penerapan AI yang paling berbahaya. Perusahaan berjanji untuk memprioritaskan keselamatan dibandingkan persaingan dan keuntungan. Meskipun bencana masih terjadi dalam skenario distopik, konsensus global telah terbentuk untuk membatasi risiko AI sekaligus memperoleh manfaatnya.
Peristiwa yang terjadi selama seminggu terakhir telah memberikan pukulan telak terhadap harapan tersebut, dimulai dengan perseteruan yang pahit antara Pentagon dan Anthropic. Semua pihak sepakat bahwa kontrak yang ada antara keduanya digunakan untuk menentukan—atas desakan Anthropic—bahwa Departemen Pertahanan (yang sekarang menyebut dirinya sebagai Departemen Perang) tidak akan menggunakan model AI Claude Anthropic untuk senjata otonom atau pengawasan massal terhadap orang Amerika. Kini, Pentagon ingin menghapus garis merah tersebut, dan penolakan Anthropic tidak hanya mengakibatkan berakhirnya kontraknya, namun juga mendorong Menteri Pertahanan Pete Hegseth untuk menyatakan perusahaan risiko rantai pasokan, suatu sebutan yang menghalangi lembaga pemerintah melakukan bisnis dengan Anthropic. Tanpa membahas ketentuan kontrak dan dinamika pribadi antara Hegseth dan CEO Anthropic Dario Amodei, kesimpulannya adalah bahwa militer bertekad untuk menolak batasan apa pun tentang cara mereka menggunakan AI, setidaknya dalam batas legalitas—menurut definisi mereka sendiri.
Pertanyaan yang lebih besar tampaknya adalah bagaimana kita sampai pada titik di mana pelepasan robot drone dan bom pembunuh yang mengidentifikasi dan melenyapkan target manusia menjadi pembicaraan sebagai sesuatu yang bahkan akan dipertimbangkan oleh militer AS. Apakah saya melewatkan debat internasional tentang manfaat menciptakan kawanan drone otonom yang mematikan yang memindai zona perang, berpatroli di perbatasan, atau mengawasi penyelundup narkoba? Hegseth dan para pendukungnya mengeluhkan absurditas perusahaan swasta yang membatasi apa yang dapat dilakukan militer. Saya pikir lebih gila jika dibutuhkan satu perusahaan yang mengambil risiko sanksi eksistensial untuk menghentikan teknologi yang berpotensi tidak dapat dikendalikan. Bagaimanapun juga, tidak adanya perjanjian internasional berarti bahwa setiap milisi yang maju harus menggunakan AI dalam segala bentuknya, hanya untuk mengimbangi musuh-musuhnya. Saat ini, perlombaan senjata AI tampaknya tidak dapat dihindari.
Risikonya jauh melampaui militer. Dibayangi oleh drama Pentagon adalah a pengumuman yang mengganggu Anthropic memposting pada tanggal 24 Februari. Perusahaan tersebut mengatakan bahwa mereka melakukan perubahan pada sistemnya untuk memitigasi risiko bencana akibat AI, yang disebut Kebijakan Penskalaan yang Bertanggung Jawab. Hal ini merupakan kebijakan utama pendiri Anthropic, di mana perusahaan berjanji untuk mengikat jadwal rilis model AI dengan prosedur keselamatannya. Kebijakan tersebut menyatakan bahwa model tidak boleh diluncurkan tanpa batasan yang mencegah penggunaan dalam kasus terburuk. Hal ini bertindak sebagai insentif internal untuk memastikan bahwa keselamatan tidak diabaikan dalam terburu-buru meluncurkan teknologi canggih. Yang lebih penting lagi, Anthropic berharap penerapan kebijakan ini akan menginspirasi atau mempermalukan perusahaan lain untuk melakukan hal yang sama. Mereka menyebut proses ini sebagai “berlomba menuju puncak.” Harapannya adalah bahwa penerapan prinsip-prinsip tersebut akan membantu mempengaruhi peraturan industri yang membatasi kekacauan yang dapat disebabkan oleh AI.
Pada awalnya, pendekatan ini tampak menjanjikan. DeepMind dan OpenAI mengadopsi aspek kerangka Anthropic. Baru-baru ini, ketika dana investasi membengkak, persaingan antara laboratorium AI meningkat, dan prospek peraturan federal mulai terlihat semakin kecil, Anthropic mengakui bahwa Kebijakan Penskalaan yang Bertanggung Jawab telah gagal. Ambang batas tersebut tidak menciptakan konsensus mengenai risiko AI seperti yang diharapkan. Sebagaimana dicatat oleh perusahaan dalam postingan blognya, “Lingkungan kebijakan telah bergeser ke arah prioritas daya saing AI dan pertumbuhan ekonomi, sementara diskusi yang berorientasi pada keselamatan belum mendapatkan daya tarik yang berarti di tingkat federal.”
Sementara itu, persaingan antar perusahaan AI semakin ketat. Alih-alih berlomba menuju puncak, persaingan AI tampak lebih seperti versi King of the Mountain. Ketika Pentagon membuang Anthropic, OpenAI bergegas mengisi kesenjangan tersebut dengan kontrak Departemen Pertahanannya sendiri. CEO OpenAI Sam Altman bersikeras bahwa dia membuat kesepakatan tergesa-gesa dengan Pentagon untuk mengurangi tekanan pada Anthropic, tetapi Amodei tidak menyetujuinya. “Sam mencoba melemahkan posisi kami sambil tampil mendukungnya,” kata Amodei dalam sebuah pernyataan memo internal. “Dia berusaha membuat pemerintah lebih mungkin menghukum kami dengan meremehkan dukungan publik kami.” (Amodei kemudian meminta maaf untuk nadanya dalam pesan.)
Semua ini sepertinya menunjukkan masa depan yang suram dimana AI yang tidak terkekang dan berbahaya berkembang biak. Namun perusahaan-perusahaan tersebut berbeda pendapat. Ketika saya menyampaikan argumen saya yang suram, mereka bersikeras bahwa keselamatan adalah hal yang sangat penting, meskipun Pentagon sangat menyukai drone pembunuh yang tidak dapat diandalkan. “Saya rasa perlombaan menuju puncak belum berakhir,” kata kepala petugas sains Anthropic, Jared Kaplan, dan mendesak saya untuk mengalihkan pandangan dari medan perang dan pasar ke laboratorium penelitian. “Ada banyak peneliti di setiap laboratorium yang sangat peduli untuk melakukan hal yang benar. Mereka ingin penelitian mereka digunakan demi kemajuan umat manusia, dan saya pikir ada persaingan tidak hanya untuk menjadikan penelitian mereka lebih berguna atau mampu, tetapi juga lebih aman,” katanya kepada saya.
OpenAI juga mencoba membujuk saya, dengan menunjukkan bahwa sejak ChatGPT diluncurkan, sejumlah besar organisasi keamanan AI telah bermunculan. Meskipun AS belum mengeluarkan peraturan federal apa pun, Uni Eropa mengambil beberapa langkah untuk mengendalikan AI. OpenAI, kata perusahaan itu kepada saya, memiliki lebih banyak orang yang bekerja di bidang keselamatan dibandingkan sebelumnya. (Namun, mereka tidak akan mengatakan apakah persentase tenaga kerja yang menangani masalah ini kini jauh lebih besar telah meningkat.) Chief Strategy Officer OpenAI Jason Kwon juga berpendapat bahwa pengamatan saya bahwa keselamatan AI tidak begitu menonjol seperti beberapa tahun yang lalu mungkin hanya ilusi. “Alasan keselamatan mungkin tampak kurang penting adalah karena isu-isu lain telah muncul,” katanya. “Hanya ada sedikit hal yang dapat Anda pikirkan pada saat tertentu. Pertanyaan tentang keselamatan adalah pertanyaan yang dominan di tahun 2023 dan masih menjadi pertanyaan penting. Namun kini orang-orang juga memikirkan dampak terhadap tenaga kerja, cara menggunakan AI untuk pertumbuhan ekonomi, dan cara mendistribusikan AI secara internasional sehingga semua orang memiliki akses.”
Mengenai kontrak Pentagon, OpenAI mengatakan bahwa meskipun mereka tidak dapat mengontrol bagaimana Departemen Pertahanan menggunakan modelnya, perusahaan tersebut telah membangun perlindungan yang membatasi penggunaannya untuk persenjataan otonom dan aplikasi jahat lainnya. Namun jika Hegseth percaya bahwa menghilangkan pengamanan tersebut berarti hidup atau mati bagi prajuritnya, apa yang bisa menghentikannya untuk mengambil langkah yang akan membahayakan nyawa prajuritnya? terancam Antropis dengan—meminta Undang-Undang Produksi Pertahanan untuk mengambil alih perusahaan dan menghapus sistem pengamanan?
Setelah membicarakan ketakutan saya dengan perusahaan, setidaknya saya yakin bahwa keselamatan tetap penting bagi mereka. Namun saya masih ragu bahwa mereka akan membiarkan masalah keamanan memperlambat mereka. Awal tahun ini, Amodei dari Anthropic menggambarkan teka-teki ini secara eksplisit sebuah esai yang diterbitkannya. “Inilah jebakannya,” tulisnya. “AI sangatlah kuat, sebuah hadiah yang sangat cemerlang, sehingga sangat sulit bagi peradaban manusia untuk membatasinya sama sekali.” Selamat Purim!
Ini adalah edisi Steven Levy Buletin saluran belakang. Baca buletin sebelumnya Di Sini.






