OpenAI mengubah Komite Keamanan dan Keselamatannya menjadi “Komite Pengawasan Dewan” independen yang memiliki kewenangan untuk menunda peluncuran model karena masalah keamanan, menurut postingan blog OpenAIKomite tersebut membuat rekomendasi untuk membentuk dewan independen setelah peninjauan 90 hari terakhir atas “proses dan perlindungan terkait keselamatan dan keamanan” OpenAI.
Komite yang diketuai oleh Zico Kolter dan termasuk Adam D’Angelo, Paul NakasoneDan Nicole Seligmanakan “diberi pengarahan oleh pimpinan perusahaan mengenai evaluasi keselamatan untuk peluncuran model utama, dan akan, bersama dengan seluruh jajaran direksi, menjalankan pengawasan atas peluncuran model, termasuk memiliki kewenangan untuk menunda peluncuran hingga masalah keselamatan ditangani,” kata OpenAI. Seluruh jajaran direksi OpenAI juga akan menerima “pengarahan berkala” mengenai “masalah keselamatan dan keamanan.”
Anggota komite keselamatan OpenAI juga merupakan anggota dewan direksi perusahaan yang lebih luas, jadi tidak jelas seberapa independen komite tersebut sebenarnya atau bagaimana independensi itu terstruktur. (CEO Sam Altman sebelumnya di komitetetapi tidak lagi.) Kami telah meminta komentar OpenAI.
Dengan membentuk dewan keamanan independen, tampaknya OpenAI mengambil pendekatan yang agak mirip dengan Dewan Pengawas Meta, yang meninjau beberapa keputusan kebijakan konten Meta dan dapat membuat keputusan yang harus diikuti Meta. Tidak ada Anggota Dewan Pengawas sedang berada di Dewan direksi Meta.
Tinjauan oleh Komite Keamanan dan Keselamatan OpenAI juga membantu “peluang tambahan untuk kolaborasi industri dan berbagi informasi guna memajukan keamanan industri AI.” Perusahaan tersebut juga mengatakan akan mencari “lebih banyak cara untuk berbagi dan menjelaskan pekerjaan keselamatan kami” dan “lebih banyak peluang untuk pengujian independen terhadap sistem kami.”
Pembaruan, 16 September: Ditambahkan bahwa Sam Altman tidak lagi berada di komite.







