OpenAI adalah pemimpin dalam perlombaan untuk mengembangkan AI yang secerdas manusia. Namun, karyawan terus muncul di media dan di podcast untuk menyuarakan kekhawatiran serius mereka tentang keselamatan di laboratorium penelitian nirlaba senilai $80 miliar tersebut. datang dari Surat Kabar Washington Postdi mana sumber anonim mengklaim OpenAI terburu-buru menjalani uji keamanan dan merayakan produk mereka sebelum memastikan keamanannya.
“Mereka merencanakan pesta peluncuran setelah mengetahui apakah peluncuran aman,” kata seorang karyawan anonim Surat Kabar Washington Post“Kami pada dasarnya gagal dalam proses tersebut.”
Masalah keamanan menjadi masalah besar di OpenAI — dan tampaknya terus muncul. Karyawan OpenAI saat ini dan sebelumnya baru-baru ini menandatangani surat terbuka menuntut praktik keamanan dan transparansi yang lebih baik dari perusahaan rintisan tersebut, tidak lama setelah tim keamanannya dibubarkan menyusul kepergian salah seorang pendirinya, Ilya Sutskever. Jan Leike, seorang peneliti utama OpenAI, mengundurkan diri tak lama setelah itumengklaim dalam sebuah posting bahwa “budaya dan proses keselamatan telah dikesampingkan demi produk-produk yang cemerlang” di perusahaan tersebut.
Keamanan adalah inti dari OpenAI piagamdengan klausul yang menyatakan OpenAI akan membantu organisasi lain untuk meningkatkan keselamatan jika AGI tercapai di pesaing, alih-alih terus bersaing. OpenAI mengklaim didedikasikan untuk memecahkan masalah keselamatan yang melekat pada sistem yang besar dan kompleks tersebut. OpenAI bahkan menjaga model miliknya tetap pribadi, daripada terbuka (menyebabkan tusukan Dan tuntutan hukum), demi keselamatan. Peringatan tersebut membuatnya terdengar seolah-olah keselamatan telah diabaikan meskipun sangat penting bagi budaya dan struktur perusahaan.
Jelas bahwa OpenAI berada dalam posisi sulit — namun upaya hubungan masyarakat saja tidak akan cukup untuk melindungi masyarakat
“Kami bangga dengan rekam jejak kami dalam menyediakan sistem AI yang paling mampu dan aman dan percaya pada pendekatan ilmiah kami dalam mengatasi risiko,” kata juru bicara OpenAI Taya Christianson dalam sebuah pernyataan kepada The Verge“Debat yang ketat sangat penting mengingat pentingnya teknologi ini, dan kami akan terus bekerja sama dengan pemerintah, masyarakat sipil, dan komunitas lain di seluruh dunia dalam menjalankan misi kami.”
Menurut OpenAI dan pihak lain yang mempelajari teknologi baru ini, taruhannya sangat besar. “Pengembangan AI yang saat ini masih dalam taraf awal menimbulkan risiko yang mendesak dan terus meningkat terhadap keamanan nasional,” menurut sebuah laporan ditugaskan oleh Departemen Luar Negeri AS pada bulan Maret kata. “Munculnya AI tingkat lanjut dan AGI [artificial general intelligence] memiliki potensi untuk mengganggu stabilitas keamanan global dengan cara yang mengingatkan pada pengenalan senjata nuklir.”
Lonceng alarm di OpenAI juga mengikuti kudeta ruang rapat tahun lalu yang sempat menyingkirkan CEO Sam Altman. Dewan direksi mengatakan bahwa ia dicopot karena gagal untuk “secara konsisten bersikap jujur dalam komunikasinya,” mengarah ke investigasi hal itu tidak banyak membantu meyakinkan staf.
Juru bicara OpenAI Lindsey Held mengatakan kepada Pos Peluncuran GPT-4o “tidak mengabaikan” aspek keselamatan, tetapi perwakilan perusahaan lain yang tidak disebutkan namanya mengakui bahwa jadwal tinjauan keselamatan dipadatkan menjadi satu minggu. Kami “sedang memikirkan ulang seluruh cara kami melakukannya,” kata perwakilan anonim tersebut kepada Pos. “Ini [was] “Itu bukan cara terbaik untuk melakukannya.”
Tahukah Anda lebih banyak tentang apa yang terjadi di dalam OpenAI? Saya ingin mengobrol. Anda dapat menghubungi saya dengan aman di Signal @kylie.01 atau melalui email di kylie@theverge.com.
Dalam menghadapi kontroversi yang terus bergulir (ingat itu Dia kejadian?), OpenAI telah mencoba meredakan ketakutan dengan beberapa pengumuman yang tepat waktu. Minggu ini, diumumkan bekerja sama dengan Laboratorium Nasional Los Alamos untuk mengeksplorasi bagaimana model AI tingkat lanjut, seperti GPT-4o, dapat membantu penelitian biosains dengan aman, dan dalam pengumuman yang sama, berulang kali disebutkan catatan keselamatan Los Alamos sendiri. Keesokan harinya, seorang juru bicara anonim diberi tahu Bloomberg bahwa OpenAI membuat skala internal untuk melacak kemajuan model bahasanya yang besar sedang menuju ke arah kecerdasan umum buatan.
Pengumuman yang berfokus pada keselamatan minggu ini dari OpenAI tampaknya hanya sebagai upaya untuk membela diri dalam menghadapi kritik yang semakin meningkat terhadap praktik keselamatannya. Jelas bahwa OpenAI berada dalam posisi yang sulit — tetapi upaya hubungan masyarakat saja tidak akan cukup untuk melindungi masyarakat. Yang benar-benar penting adalah dampak potensial pada mereka yang berada di luar gelembung Lembah Silikon jika OpenAI terus gagal mengembangkan AI dengan protokol keselamatan yang ketat, seperti yang diklaim secara internal: rata-rata orang tidak memiliki suara dalam pengembangan AGI yang diprivatisasi, namun mereka tidak memiliki pilihan dalam seberapa terlindunginya mereka dari kreasi OpenAI.
“Alat AI bisa menjadi revolusioner,” kata ketua FTC Lina Khan diberi tahu Bloomberg pada bulan November. Namun, “sampai saat ini,” katanya, ada kekhawatiran bahwa “masukan penting dari alat-alat ini dikendalikan oleh sejumlah kecil perusahaan.”
Jika berbagai klaim terhadap protokol keselamatan mereka akurat, hal ini tentu menimbulkan pertanyaan serius tentang kesesuaian OpenAI untuk peran ini sebagai pengurus AGI, sebuah peran yang pada dasarnya telah ditetapkan oleh organisasi itu sendiri. Membiarkan satu kelompok di San Francisco mengendalikan teknologi yang berpotensi mengubah masyarakat merupakan penyebab kekhawatiran, dan ada tuntutan mendesak bahkan di dalam jajarannya sendiri untuk transparansi dan keselamatan sekarang lebih dari sebelumnya.
