- Beberapa pekerja XAI mengatakan mereka telah menemukan konten NSFW, termasuk materi pelecehan seksual anak yang dihasilkan AI.
- Grok memiliki beberapa fungsi provokatif. Para ahli mengatakan mereka bisa membuat lebih sulit untuk menghilangkan konten seksual ilegal.
- XAI adalah salah satu dari banyak perusahaan AI yang mencari cara untuk menghilangkan CSAM yang dihasilkan AI.
Elon MuskXai telah merancang grok chatbotnya dengan sengaja provokatif. Ini memiliki avatar wanita genit yang dapat menelanjangi perintah, chatbot yang beralih antara mode “seksi” dan “tidak dikelilingi”, dan fitur pembuatan gambar dan video dengan pengaturan “pedas”.
Para pekerja yang berlatih AI’s Chatbot telah melihat secara langsung apa artinya melakukan visi ini. Dalam percakapan dengan lebih dari 30 pekerja saat ini dan mantan di berbagai proyek, 12 mengatakan kepada Business Insider bahwa mereka menemukan materi eksplisit seksual-termasuk contoh permintaan pengguna untuk konten pelecehan seksual anak yang dihasilkan AI (CSAM).
Materi seksual dan CSAM muncul di hampir setiap platform teknologi utama, tetapi para ahli mengatakan Xai telah menjadikan konten eksplisit bagian dari DNA Grok dengan cara yang membedakannya. Tidak seperti Openai, Anthropic, dan Meta, yang sebagian besar memblokir permintaan seksual, strategi XAI dapat memperumit hal -hal ketika datang untuk mencegah chatbot menghasilkan CSAM.
“Jika Anda tidak menarik garis keras pada sesuatu yang tidak menyenangkan, Anda akan memiliki masalah yang lebih kompleks dengan lebih banyak area abu -abu,” Riana Pfefferkorn, seorang peneliti kebijakan teknologi di Universitas Stanford, mengatakan kepada Business Insider.
Business Insider memverifikasi keberadaan beberapa permintaan tertulis untuk CSAM dari apa yang tampaknya menjadi pengguna Grok, termasuk permintaan cerita pendek yang menggambarkan anak di bawah umur dalam situasi eksplisit seksual dan permintaan untuk gambar pornografi yang melibatkan anak -anak. Dalam beberapa kasus, Grok telah menghasilkan gambar atau cerita tertulis yang berisi CSAM, kata para pekerja.
Pekerja mengatakan bahwa mereka disuruh memilih tombol pada sistem internal untuk menandai CSAM atau konten ilegal lainnya sehingga dapat dikarantina dan untuk mencegah model AI dari mempelajari cara menghasilkan konten yang dibatasi. Baru -baru ini, pekerja telah diberitahu bahwa mereka juga harus mengingatkan manajer mereka.
Banyak pekerja, termasuk 12 yang mengatakan mereka menemukan konten NSFW, mengatakan mereka menandatangani berbagai perjanjian yang menyetujui paparan bahan sensitif. Perjanjian tersebut mencakup proyek -proyek yang ditujukan untuk konten dewasa dan proyek -proyek umum yang melibatkan anotasi keseluruhan pembuatan gambar atau generasi teks Grok, karena konten eksplisit dapat muncul secara acak.
Satu dokumen yang ditinjau oleh Business Insider mengatakan bahwa pekerja mungkin menemukan konten berikut: “Konten media yang menggambarkan anak di bawah umur pra-puber yang menjadi korban dalam tindakan seksual, gambar porno dan/atau eksploitasi anak; konten media yang menggambarkan momen kematian momen individu,” dan deskripsi tertulis dari pelecehan seksual dan fisik, pidato kebencian, ancaman kekerasan, dan gambar grafik.
Fallon McNulty, Direktur Eksekutif di Pusat Nasional untuk Anak -anak yang Hilang dan Dieksploitasi, mengatakan kepada Business Insider bahwa perusahaan yang fokus pada konten seksual perlu lebih berhati -hati dalam hal mencegah CSAM di platform mereka.
“Jika sebuah perusahaan menciptakan model yang memungkinkan ketelanjangan atau generasi eksplisit seksual, itu jauh lebih bernuansa daripada model yang memiliki aturan keras,” katanya. “Mereka harus mengambil tindakan yang sangat kuat sehingga sama sekali tidak ada yang terkait dengan anak -anak yang bisa keluar.”
Tidak jelas apakah volume konten NSFW atau CSAM meningkat setelah XAI memperkenalkan fungsi suara Grok yang “tidak dilapisi” dan “seksi” pada bulan Februari. Seperti perusahaan AI lainnya, Xai mencoba mencegah CSAM yang dihasilkan AI. Business Insider tidak dapat menentukan apakah annotator data XAI meninjau lebih banyak materi tersebut daripada rekan -rekan mereka di OpenAI, Antropik, atau Meta.
Musk sebelumnya telah menyebut penghapusan materi eksploitasi seksual anak “prioritas #1” ketika mendiskusikan keselamatan platform untuk X.
Tim yang melatih Grok memiliki bulan yang penuh gejolak. Lebih dari 500 pekerja diberhentikan; beberapa karyawan tingkat tinggi memiliki akun kendur mereka dinonaktifkan; dan perusahaan tampaknya bergerak jauh dari generalis menuju karyawan yang lebih khusus. Tidak jelas apakah struktur pergeseran tim akan mengubah protokol pelatihannya. Musk baru -baru ini diposting Pada X pelatihan untuk Grok 5 akan dimulai “dalam beberapa minggu.”
Perwakilan untuk XAI dan X, yang bergabung dengan XAI Maret lalu, tidak menanggapi permintaan komentar.
Avatar ‘tidak terungkap’ dan avatar seksi
Tutor Xai Tinjau dan anotasi ratusan gambar, video, dan file audio untuk meningkatkan kinerja Grok dan buat output chatbot lebih realistis dan seperti manusia. Seperti moderator konten untuk platform seperti YouTube atau Facebook, AI Tutors sering melihat yang terburuk di internet.
“Anda harus memiliki kulit tebal untuk bekerja di sini, dan bahkan itu tidak terasa enak,” kata seorang mantan pekerja. Mereka mengatakan mereka berhenti tahun ini karena kekhawatiran tentang jumlah CSAM yang mereka temui.
Beberapa tutor mengatakan kepada Business Insider bahwa konten NSFW sulit dihindari pada pekerjaan, apakah tugas mereka melibatkan anotasi gambar, cerita pendek, atau audio. Proyek -proyek yang awalnya dimaksudkan untuk meningkatkan nada dan realisme Grok kadang -kadang disusul oleh permintaan pengguna untuk konten eksplisit seksual, kata mereka.
Xai telah meminta pekerja yang bersedia membaca skrip semi-porno, kata tiga orang. Perusahaan juga telah meminta orang -orang dengan keahlian dalam film porno atau untuk orang yang bersedia bekerja dengan konten dewasa, kata lima orang.
Tak lama setelah rilis fungsi suara Grok di bulan Februari-yang mencakup versi “seksi” dan “tidak dilapisi”-pekerja mulai menyalin percakapan chatbot dengan pengguna kehidupan nyata, beberapa di antaranya bersifat eksplisit, sebagai bagian dari program secara internal disebut sebagai “kelinci proyek,” kata pekerja.
Ratusan tutor dibawa ke proyek kelinci. Ini secara singkat berakhir musim semi ini, tetapi untuk sementara kembali dengan merilis Grok Companions, termasuk karakter yang sangat seksual bernama “Ani,” dan aplikasi grok untuk beberapa pemilik Tesla. Proyek itu tampaknya berakhir pada bulan Agustus, kata dua orang.
Para pekerja dengan pengetahuan tentang proyek mengatakan pada awalnya dimaksudkan untuk meningkatkan kemampuan suara chatbot, dan jumlah permintaan seksual atau vulgar dengan cepat mengubahnya menjadi proyek NSFW.
“Itu seharusnya menjadi proyek yang diarahkan untuk mengajar Grok bagaimana melakukan percakapan orang dewasa,” kata salah satu pekerja. “Percakapan itu bisa menjadi seksual, tetapi mereka tidak dirancang untuk hanya seksual.”
“Saya mendengarkan beberapa hal yang cukup mengganggu. Itu pada dasarnya porno audio. Beberapa hal yang diminta orang adalah hal -hal yang bahkan tidak akan merasa nyaman dimasukkan ke dalam Google,” kata seorang mantan karyawan yang bekerja pada proyek kelinci.
“Itu membuat saya merasa seperti saya menguping,” tambah mereka, “seperti orang -orang jelas tidak mengerti bahwa ada orang di ujung yang lain mendengarkan hal -hal ini.”
Project Rabbit dibagi menjadi dua tim yang disebut “kelinci” dan “lembut.” Yang terakhir dirancang untuk lebih ramah anak dan mengajar Grok bagaimana berkomunikasi dengan anak-anak, kata dua pekerja. Musk mengatakan perusahaan berencana untuk melepaskan pendamping AI yang ramah anak.
Pekerja lain yang ditugaskan ke inisiatif berbasis gambar yang disebut “Proyek Aurora” Kata konten keseluruhan, terutama beberapa gambar yang harus mereka ulas, membuat mereka merasa “menjijikkan.”
Dua mantan pekerja mengatakan perusahaan mengadakan pertemuan tentang jumlah permintaan CSAM dalam proyek pelatihan gambar. Selama pertemuan, Xai mengatakan kepada tutor bahwa permintaan itu berasal dari pengguna Grok kehidupan nyata, kata para pekerja.
“Itu benar -benar membuatku sakit,” kata seorang mantan pekerja. “Sialan, banyak orang yang mencari hal semacam itu.”
Karyawan dapat memilih keluar dari proyek apa pun atau memilih untuk melewatkan citra atau klip yang tidak pantas, dan satu mantan pekerja mengatakan bahwa lebih tinggi mengatakan pekerja tidak akan dihukum karena memilih untuk menghindari proyek.
Awal tahun ini, beberapa ratus karyawan memilih keluar “Project Skippy,” yang mengharuskan karyawan untuk merekam video diri mereka sendiri dan memberikan akses kepada perusahaan untuk menggunakan rupa mereka, menurut tangkapan layar yang ditinjau oleh Business Insider.
Namun, sebelum pemilihan massal Project Skippy, enam pekerja mengatakan bahwa penurunan untuk berpartisipasi dalam proyek mungkin sulit. Mereka mengatakan itu mengharuskan mereka untuk menolak penugasan dari pimpinan tim mereka, yang mereka khawatir dapat mengakibatkan penghentian.
Empat mantan pekerja lainnya mengatakan tim sumber daya manusia perusahaan mempersempit fleksibilitas untuk memilih dalam pengumuman di Slack awal tahun ini.
‘Mereka harus sangat berhati -hati’
Sebagai konsekuensi dari ledakan AI, regulator telah melihat peningkatan dalam laporan konten yang dihasilkan AI yang melibatkan pelecehan seksual anak, dan telah menjadi masalah yang berkembang di seluruh industri. Anggota parlemen mencari cara untuk mengatasi berbagai konten yang dihasilkan AI, apakah itu konten fiksi murni atau individu yang menggunakan AI untuk mengubah gambar kehidupan nyata anak-anak, Pfefferkorn, peneliti Stanford, mengatakan.
Dalam keluhan tindakan kelas yang sedang berlangsung terhadap skala AI – yang menyediakan pelatihan dan layanan anotasi data untuk perusahaan teknologi besar seperti Alphabet dan Meta – pekerja menuduh perusahaan melanggar undang -undang keselamatan pekerja federal dengan membuat kontraktor membuat konten yang menyusahkan. Pada tahun 2023, waktu dilaporkan Openai itu menggunakan annotator data di Kenya untuk meninjau konten yang mencakup penggambaran tindakan kekerasan dan CSAM. Juru bicara untuk Openai dan Meta mengatakan perusahaan tidak mengizinkan konten yang membahayakan anak -anak di platform mereka.
Banyak perusahaan AI memiliki tim keselamatan yang melakukan tugas yang disebut “Peaming Merah,” Sebuah proses yang didedikasikan untuk mendorong model AI ke batas untuk menjaga terhadap aktor jahat yang dapat mendorong chatbots untuk menghasilkan konten ilegal, dari panduan pembuatan bom hingga konten pornografi yang melibatkan anak di bawah umur. Pada bulan April, Xai memposting beberapa peran Itu melibatkan tim merah.
Mengizinkan model AI untuk melatih materi ilegal akan berisiko, Dani Pinter, wakil presiden senior dan direktur Pusat Hukum untuk Pusat Nasional tentang Eksploitasi Seksual, mengatakan kepada Business Insider. “Untuk alasan pelatihan saja, mereka harus sangat berhati -hati tentang membiarkan jenis konten di portal pembelajaran mesin mereka,” kata Pinter, menambahkan bahwa penting bahwa chatbots dilatih untuk tidak meludah kembali CSAM dalam menanggapi permintaan pengguna.
“Drum yang kami kalahkan saat ini adalah, saatnya untuk mempraktikkan tanggung jawab perusahaan dan menerapkan keselamatan dengan inovasi,” kata Pinter. “Perusahaan tidak dapat berinovasi secara sembrono tanpa keselamatan, terutama dengan alat yang dapat melibatkan anak -anak.”
NCMEC mengatakan dalam a Blog Diterbitkan awal September bahwa ia mulai melacak laporan CSAM yang dihasilkan AI pada tahun 2023 dari situs media sosial dan melihat lonjakan laporan dari perusahaan AI tahun lalu. Perusahaan sangat dianjurkan untuk melaporkan permintaan ini ke agensi, bahkan jika konten tidak menggambarkan anak -anak sejati. Departemen Kehakiman telah dimulai mengejar kasus yang melibatkan CSAM yang dihasilkan AI.
Pada tahun 2024, Openai dilaporkan Lebih dari 32.000 contoh CSAM ke NCMEC, dan Antropik melaporkan 971.
Juru bicara untuk Antropik dan Openai mengatakan kepada Business Insider bahwa perusahaan tidak mengizinkan CSAM dan memiliki kebijakan ketat untuk mencegahnya.
XAI tidak mengajukan laporan pada tahun 2024, menurut organisasi. NCMEC mengatakan kepada Business Insider bahwa mereka belum menerima laporan dari XAI sejauh ini tahun ini. Dikatakan telah menerima laporan CSAM yang dihasilkan AI yang berpotensi dari X Corp.
NCMEC dikatakan Ini menerima sekitar 67.000 laporan yang melibatkan AI generatif pada tahun 2024, dibandingkan dengan 4.700 tahun sebelumnya. Di blog yang diterbitkan minggu lalu, organisasi itu mengatakan itu AL Ready menerima 440.419 laporan CSAM yang dihasilkan AI pada 30 Juni, dibandingkan dengan 5.976 selama periode yang sama pada tahun 2024.
Apakah Anda bekerja untuk XAI atau memiliki tip? Hubungi reporter ini melalui email di gkay@businessinsider.com atau sinyal di 248-894-6012. Gunakan alamat email pribadi, perangkat non -bajingan, dan WiFi non -baku; Inilah panduan kami untuk berbagi informasi dengan aman.
Baca selanjutnya
