Jika kita semua mulai memilih keluar dari posting kita yang digunakan untuk model pelatihan, bukankah itu mengurangi pengaruh suara dan perspektif unik kita pada model -model itu? Semakin, model akan menjadi jendela utama semua orang ke seluruh dunia. Sepertinya orang -orang yang paling tidak peduli tentang hal -hal ini adalah orang -orang dengan data terbanyak yang akhirnya melatih perilaku default model.
—Data influencer
Sejujurnya, ini membuat frustrasi bagi saya bahwa pengguna internet dipaksa untuk memilih keluar kecerdasan buatan pelatihan sebagai default. Bukankah lebih baik jika persetujuan afirmatif adalah norma untuk perusahaan AI generatif karena mereka Mengikis web Dan repositori data lain yang dapat mereka temukan untuk membangun model perbatasan yang semakin besar dan lebih besar?
Tapi, sayangnya, bukan itu masalahnya. Perusahaan menyukai Openai Dan Google berpendapat bahwa jika akses penggunaan yang adil Untuk semua data ini diambil dari mereka, maka tidak ada teknologi ini yang mungkin terjadi. Untuk saat ini, pengguna yang tidak ingin berkontribusi pada model generatif terjebak dengan banyak proses opt-out di berbagai situs web dan platform media sosial.
Bahkan jika gelembung saat ini di sekitar AI generatif muncul, seperti halnya Dotcom Bubble Setelah beberapa tahun, model yang memberi daya pada semua alat AI baru ini tidak akan punah. Jadi, hantu -hantu dari posting forum niche Anda dan utas media sosial yang mengadvokasi hukuman yang sangat dipegang akan hidup di dalam alat perangkat lunak. Anda benar bahwa memilih keluar berarti secara aktif berusaha untuk tidak dimasukkan dalam budaya yang berpotensi tahan lama.
Untuk menjawab pertanyaan Anda secara langsung dan realistis, ini proses opt-out pada dasarnya sia -sia dalam keadaan mereka saat ini. Mereka yang memilih keluar sekarang masih mempengaruhi model. Katakanlah Anda mengisi formulir untuk situs media sosial untuk tidak menggunakan atau menjual data Anda untuk pelatihan AI. Bahkan jika platform itu menghormati permintaan itu, ada banyak startup di Silicon Valley dengan anak berusia 19 tahun yang berani yang tidak akan berpikir dua kali tentang mengikis data yang diposting ke platform itu, bahkan jika mereka secara teknis tidak seharusnya. Sebagai aturan umum, Anda dapat berasumsi bahwa apa pun yang pernah Anda posting secara online kemungkinan telah membuatnya menjadi beberapa model generatif.
Oke, tapi katakanlah Anda dapat secara realistis memblokir data Anda dari sistem ini atau menuntutnya dihapus setelah fakta, akan melakukannya mengurangi suara atau dampak Anda pada Alat AI? Saya sudah memikirkan pertanyaan ini selama beberapa hari, dan saya masih terkoyak.
Di satu sisi, informasi tunggal Anda hanyalah kontribusi kecil yang sangat kecil terhadap luasnya dataset, jadi suara Anda, sebagai tokoh atau penulis nonpublic, kemungkinan tidak mendorong model dengan satu atau lain cara.
Dari perspektif ini data Anda hanyalah batu bata lain di dinding bangunan 1.000 lantai. Dan perlu diingat bahwa pengumpulan data hanyalah langkah pertama dalam membuat model AI. Peneliti menghabiskan waktu berbulan-bulan menyempurnakan perangkat lunak untuk mendapatkan hasil yang mereka inginkan, terkadang mengandalkan pekerja upah rendah Untuk memberi label set data dan mengukur kualitas output untuk penyempurnaan. Langkah -langkah ini selanjutnya dapat abstrak data dan mengurangi dampak pribadi Anda.
Di ujung yang sebaliknya, bagaimana jika kita membandingkan ini dengan pemungutan suara dalam pemilihan? Jutaan suara dilemparkan dalam pemilihan presiden Amerika, namun sebagian besar warga negara dan pembela demokrasi bersikeras bahwa setiap suara penting – dengan menahan diri dari “membuat suara Anda didengar.” Ini bukan metafora yang sempurna, tetapi bagaimana jika kita melihat data kita memiliki dampak yang sama? Bisikan kecil di antara hiruk -pikuk kebisingan, tetapi masih berdampak pada output model AI.
Saya tidak sepenuhnya yakin dengan argumen ini, tetapi saya juga tidak berpikir perspektif ini harus diberhentikan secara langsung. Khusus untuk para ahli materi pelajaran, wawasan Anda yang berbeda dan cara mendekati informasi secara unik berharga bagi para peneliti AI. Meta tidak akan mengalami kesulitan menggunakan semua buku itu Dalam model AI barunya jika ada data lama yang akan berhasil.
Melihat ke masa depan, dampak sebenarnya dari data Anda pada model ini kemungkinan besar akan menginspirasi Data “sintetis”. Ketika perusahaan yang membuat sistem AI generatif kehabisan informasi berkualitas untuk dikikis, mereka akan memasuki era Ouroboros mereka; Mereka akan mulai menggunakan AI generatif untuk mereplikasi data manusia yang kemudian akan mereka masukkan kembali ke sistem untuk melatih model AI berikutnya untuk meniru respons manusia dengan lebih baik. Selama AI generatif ada, ingatlah bahwa Anda, sebagai manusia, akan selalu menjadi bagian kecil dari mesin – apakah Anda ingin atau tidak.





