- Anthropic melemahkan komitmen keselamatan dasarnya.
- Seorang pejabat tinggi mengatakan tidak masuk akal untuk menghentikan pengembangan model AI dalam kondisi saat ini.
- Pengumuman ini menggarisbawahi tekanan terhadap perusahaan di tengah perlombaan AI.
Antropik tidak lagi berani tampil beda.
Startup AI yang didirikan oleh mantan OpenAI karyawan, yang sangat fokus pada pengembangan teknologi yang tepat, melemahkan prinsip keselamatan dasarnya.
Dalam sebuah pernyataan pada hari Selasa, Anthropic mengatakan bahwa di tengah meningkatnya persaingan dan kurangnya peraturan pemerintah, mereka tidak akan lagi mematuhi komitmennya “untuk menghentikan penskalaan dan/atau menunda penerapan model-model baru” ketika kemajuan tersebut melampaui langkah-langkah keselamatannya sendiri.
Kebijakan baru ini berarti Anthropic tidak lagi dibatasi oleh masalah keamanan ketika chatbot andalannya, Claudemenjungkirbalikkan pasar keuangan dan memicu kekhawatiran akan matinya perangkat lunak.
Sebagai bagian dari perubahan tersebut, Anthropic kini memiliki rekomendasi keselamatan terpisah, yang disebut Kebijakan Penskalaan yang Bertanggung Jawab, untuk dirinya sendiri dan industri AI secara keseluruhan. Kebijakan ini secara longgar mengikuti standar tingkat keamanan hayati (BSL) pemerintah AS
Kepala petugas sains Anthropic, Jared Kaplan, mengatakan kepada Majalah Time bahwa kebijakan penskalaan yang bertanggung jawab tidak sejalan dengan kondisi persaingan AI saat ini.
“Kami merasa tidak akan membantu siapa pun jika kami berhenti melatih model AI,” Kaplan diberi tahu Waktu. “Kami merasa, dengan pesatnya kemajuan AI, tidak masuk akal bagi kami untuk membuat komitmen sepihak … jika pesaing sedang unggul.”
Dalam sebuah pernyataan, juru bicara Anthropic mengatakan kebijakan baru tersebut “adalah yang terkuat hingga saat ini dalam hal tingkat akuntabilitas dan transparansi publik,” karena kebijakan tersebut memerlukan laporan risiko publik setiap tiga hingga enam bulan.
“Sejak awal, kami telah mengatakan bahwa laju AI dan ketidakpastian di lapangan akan mengharuskan kami untuk segera mengulangi dan memperbaiki kebijakan,” kata juru bicara tersebut dalam sebuah pernyataan kepada Business Insider.
Kebijakan baru ini masih mencakup komitmen untuk menunda pengembangan atau peluncuran model AI yang “berkemampuan tinggi”, namun hanya dalam keadaan yang lebih terbatas.
Dalam postingan blognya yang panjang, Anthropic mengutip “iklim politik yang anti-regulasi” sebagai salah satu alasan keputusannya. Perusahaan dan CEO-nya, Dario Amodeitelah mendorong peraturan AI dengan beberapa keberhasilan di tingkat negara bagian, namun tanpa langkah besar di tingkat federal.
“Kami tetap yakin bahwa keterlibatan pemerintah yang efektif dalam keselamatan AI adalah hal yang perlu dan dapat dicapai, dan kami bertujuan untuk terus memajukan pembicaraan yang didasarkan pada bukti, kepentingan keamanan nasional, daya saing ekonomi, dan kepercayaan publik,” perusahaan tersebut menulis. “Tetapi ini terbukti merupakan proyek jangka panjang—bukan sesuatu yang terjadi secara alami ketika AI menjadi lebih mampu atau melampaui ambang batas tertentu.”
Perusahaan mengatakan kebijakan penskalaan selalu dimaksudkan untuk menjadi “dokumen hidup,” yang diuraikan dalam versi pertama pada tahun 2023. Namun, Amodei sebelumnya mengatakan kebijakan keselamatan dimaksudkan untuk mengurangi risiko yang dapat ditimbulkan oleh AI – bahkan mengutip teguran terkenal Paman Ben kepada Peter Parker alias Spider-Man.
“Kekuatan model dan kemampuannya untuk memecahkan semua masalah dalam biologi, ilmu saraf, pembangunan ekonomi, pemerintahan, dan perdamaian, sebagian besar perekonomian, semuanya juga memiliki risiko, bukan?” Amodei mengatakan kepada podcaster Lex Fridman pada November 2024. “Dengan kekuatan yang besar, ada pula tanggung jawab yang besar.”
Anthropic mengatakan alasan lain untuk mengubah standar ini adalah bahwa tingkat risiko teoritis yang lebih tinggi, ASL-4 dan seterusnya, dalam kerangka mereka, tidak dapat ditampung oleh satu perusahaan saja. (Dalam dunia biosekuriti, BSL-4 mengacu pada tingkat perlindungan tertinggi yang diterapkan oleh sejumlah kecil laboratorium untuk menangani patogen seperti virus Ebola.)
Keselamatan adalah inti jiwa Anthropic
Amodei telah berulang kali mengatakan komitmen perusahaannya terhadap keselamatan terbukti dalam salah satu keputusan besar pertamanya: menunda pelepasan Claude pada musim panas 2022.
Melihat kembali langkah tersebut, Amodei mengatakan bahwa Anthropic khawatir bahwa mereka tidak dapat mengembangkan perlindungan dengan cukup cepat untuk merilis teknologi terobosan kepada publik. OpenAI dirilis ObrolanGPT pada bulan November 2022, memulai perlombaan AI. Beberapa bulan kemudian, Anthropic akhirnya melepaskan Claude.
“Sekarang, hal itu sangat mahal secara komersial,” kata Amodei dalam wawancara baru-baru ini dengan miliarder dan investor Nikhil Kamath. “Kami mungkin menjadi yang terdepan dalam AI konsumen karena hal tersebut.”
Perubahan kebijakan juga terjadi secara Antropis menghadapi tekanan dari Pentagon atas batasan yang dimiliki startup tersebut untuk penggunaan model AI-nya. Amodei bertemu dengan Menteri Pertahanan Pete Hegseth pada hari Selasa untuk membahas masalah ini. Anthropic menghadapi tenggat waktu pada hari Jumat, atau Hegseth dilaporkan dapat meminta kekuatan untuk memaksa perusahaan tersebut mundur.
Salah satu dokumen pelatihan Claude sebelumnya secara internal disebut sebagai “Dokumen jiwa,” sebuah contoh retorika yang tidak berlaku di sebagian besar perusahaan AI lainnya.
Kamath mendesak Amodei tentang bagaimana dia menanggapi kritik yang mengatakan Anthropic hanya mendorong regulasi untuk menghentikan pertumbuhan pesaing di masa depan. Amodei mengatakan keputusan tahun 2022 adalah contoh bagaimana perusahaan mendukung pembicaraannya mengenai keselamatan. Dia juga menunjuk pada advokasi kontrol ekspor AS pada chip canggih ke Tiongkok, sebuah posisi yang dipegang oleh CEO Nvidia Jensen Huang telah mengkritik.
“Siapa pun yang mengira kami mendapat manfaat karena menjadi satu-satunya pihak yang melakukan hal tersebut, sangat sulit untuk memberikan gambaran di mana hal tersebut terjadi,” kata Amodei. “Anda melihat salah satu dari ini dan, ‘oke, baiklah,’ tetapi Anda menggabungkannya dalam jumlah yang cukup, dan saya tidak tahu, saya meminta Anda untuk menilai kami berdasarkan tindakan kami.”
Baca selanjutnya
