Lifestyle

Antropik memiliki aturan baru untuk lanskap AI yang lebih berbahaya

42
antropik-memiliki-aturan-baru-untuk-lanskap-ai-yang-lebih-berbahaya
Antropik memiliki aturan baru untuk lanskap AI yang lebih berbahaya

Antropik telah memperbarui kebijakan penggunaan untuk chatbot Claude AI -nya sebagai tanggapan terhadap kekhawatiran yang semakin meningkat tentang keselamatan. Selain memperkenalkan aturan keamanan siber yang lebih ketat, Antropik sekarang ditentukan Beberapa senjata paling berbahaya yang tidak boleh dikembangkan orang menggunakan Claude.

Antropik tidak menyoroti tweak yang dibuat untuk kebijakan senjatanya di pos yang merangkum perubahannyatetapi perbandingan antara Kebijakan Penggunaan Lama Perusahaan Dan yang baru mengungkapkan perbedaan yang penting. Meskipun antropik sebelumnya melarang penggunaan Claude untuk “memproduksi, memodifikasi, merancang, memasarkan, atau mendistribusikan senjata, bahan peledak, bahan berbahaya atau sistem lain yang dirancang untuk menyebabkan kerugian atau hilangnya kehidupan manusia,” versi yang diperbarui memperluas ini dengan secara khusus melarang pengembangan ledakan hasil tinggi, bersama dengan biologis, nuklir, chemical, dan dada, dan dada.

Pada bulan Mei, antropik Menerapkan perlindungan “AI Safety Level 3” Bersamaan dengan peluncuran model Claude Opus 4 yang baru. Safeguards dirancang untuk membuat model lebih sulit untuk di -jailbreak, serta membantu mencegahnya membantu pengembangan senjata CBRN.

Dalam postingnya, Antropik juga mengakui risiko yang ditimbulkan oleh alat AI Agen, termasuk penggunaan komputer, yang mari kita mengambil kendali dari komputer pengguna, serta kode Claude, alat yang menanamkan Claude langsung ke terminal pengembang. “Kemampuan yang kuat ini memperkenalkan risiko baru, termasuk potensi untuk penyalahgunaan skala, penciptaan malware, dan serangan cyber,” tulis Anthropic.

Startup AI sedang menanggapi risiko potensial ini dengan melipat bagian baru “Jangan Kompromi Komputer atau Sistem Jaringan” ke dalam kebijakan penggunaannya. Bagian ini mencakup aturan yang tidak menggunakan Claude untuk menemukan atau mengeksploitasi kerentanan, membuat atau mendistribusikan malware, mengembangkan alat untuk serangan penolakan layanan, dan banyak lagi.

Selain itu, Antropik melonggarkan kebijakannya di sekitar konten politik. Alih -alih melarang penciptaan semua jenis konten yang terkait dengan kampanye politik dan lobi, antropik sekarang hanya akan melarang orang menggunakan Claude untuk “menggunakan kasus yang menipu atau mengganggu proses demokrasi, atau melibatkan penargetan pemilih dan kampanye.” Perusahaan juga mengklarifikasi bahwa persyaratannya untuk semua kasus penggunaan “berisiko tinggi”, yang ikut bermain ketika orang menggunakan Claude untuk membuat rekomendasi kepada individu atau pelanggan, hanya berlaku untuk skenario yang menghadap konsumen, bukan untuk penggunaan bisnis.

Ikuti topik dan penulis Dari cerita ini untuk melihat lebih banyak seperti ini di umpan beranda pribadi Anda dan untuk menerima pembaruan email.

Exit mobile version