#Viral

‘Anda tidak bisa menjilat luak dua kali’: Kegagalan google menyoroti cacat AI mendasar

104
‘anda-tidak-bisa-menjilat-luak-dua-kali’:-kegagalan-google-menyoroti-cacat-ai-mendasar
‘Anda tidak bisa menjilat luak dua kali’: Kegagalan google menyoroti cacat AI mendasar

Inilah gangguan kecil yang menyenangkan dari hari kerja Anda: Pergilah ke Googleketik frasa dibuat-buat, tambahkan kata “makna,” dan cari. Melihat! Ikhtisar AI Google Tidak hanya akan mengkonfirmasi bahwa omong kosong Anda adalah pepatah yang nyata, itu juga akan memberi tahu Anda apa artinya dan bagaimana itu diturunkan.

Ini benar -benar menyenangkan, dan Anda dapat menemukan banyak contoh di media sosial. Di dunia ikhtisar AI, “anjing yang longgar tidak akan berselancar” adalah “cara yang menyenangkan untuk mengatakan bahwa sesuatu tidak mungkin terjadi atau sesuatu tidak akan berhasil.” Ungkapan yang diciptakan “kabel adalah seperti kabel” adalah idiom yang berarti “perilaku atau karakteristik seseorang adalah akibat langsung dari sifat yang melekat atau ‘kabel,’ seperti fungsi komputer ditentukan oleh koneksi fisiknya.”

Semuanya terdengar masuk akal, disampaikan dengan keyakinan yang tak tergoyahkan. Google bahkan menyediakan tautan referensi dalam beberapa kasus, memberikan respons yang ditambahkan kedai otoritas. Itu juga salah, setidaknya dalam arti bahwa ikhtisar menciptakan kesan bahwa ini adalah frasa umum dan tidak banyak kata acak yang disatukan. Dan sementara itu konyol bahwa AI ikhtisar berpikir “Never Throw a Poodle at a Pig” adalah pepatah dengan derivasi alkitabiah, itu juga merupakan enkapsulasi yang rapi di mana AI generatif masih gagal.

Sebagai penafian di bagian bawah setiap catatan ikhtisar AI, Google menggunakan AI generatif “eksperimental” untuk memberi daya pada hasilnya. AI generatif adalah alat yang ampuh dengan semua jenis aplikasi praktis yang sah. Tetapi dua karakteristik yang menentukan ikut berperan ketika menjelaskan frasa yang ditemukan ini. Pertama adalah pada akhirnya mesin probabilitas; Meskipun mungkin tampak seperti sistem berbasis model berbahasa besar memiliki pemikiran atau bahkan perasaan, pada tingkat dasar itu hanya menempatkan satu kata yang paling mirip dengan yang lain, meletakkan trek saat kereta menipis ke depan. Itu membuatnya sangat bagus untuk membuat penjelasan tentang apa frasa ini akan Maksud jika itu berarti apa -apa, yang lagi, mereka tidak.

“Prediksi kata berikutnya didasarkan pada data pelatihan yang luas,” kata Ziang Xiao, seorang ilmuwan komputer di Universitas Johns Hopkins. “Namun, dalam banyak kasus, kata yang koheren berikutnya tidak membawa kita ke jawaban yang benar.”

Faktor lainnya adalah bahwa AI bertujuan untuk menyenangkan; Penelitian telah sering menunjukkan bahwa chatbots Beri tahu orang apa yang ingin mereka dengar. Dalam hal ini itu berarti membawa Anda pada kata -kata Anda itu “Kamu tidak bisa menjilat luak dua kali” adalah pergantian frasa yang diterima. Dalam konteks lain, itu mungkin berarti mencerminkan bias Anda sendiri kembali kepada Anda, sebagai tim peneliti yang dipimpin oleh Xiao yang ditunjukkan dalam a belajar tahun lalu.

“Sangat sulit bagi sistem ini untuk memperhitungkan setiap permintaan individu atau pertanyaan utama pengguna,” kata Xiao. “Ini sangat menantang untuk pengetahuan yang tidak umum, bahasa di mana konten yang secara signifikan lebih sedikit tersedia, dan perspektif minoritas. Karena pencarian AI adalah sistem yang sangat kompleks, kesalahan kaskade.”

Memperparah masalah ini adalah bahwa AI enggan mengakui Bahwa itu tidak tahu jawabannya. Jika ragu, itu membuat barang.

“Ketika orang melakukan pencarian yang tidak masuk akal atau ‘false premise’, sistem kami akan mencoba menemukan hasil yang paling relevan berdasarkan konten web terbatas yang tersedia,” kata juru bicara Google Meghann Farnsworth dalam pernyataan yang diemail. “Ini berlaku untuk pencarian secara keseluruhan, dan dalam beberapa kasus, ikhtisar AI juga akan memicu dalam upaya untuk memberikan konteks yang bermanfaat.”

Google tidak akan mengembalikan hasil ikhtisar AI untuk setiap kueri seperti ini. “Saya melakukan sekitar lima menit eksperimen, dan itu sangat tidak konsisten, dan itulah yang Anda harapkan dari Genai, yang sangat tergantung pada contoh -contoh spesifik dalam set pelatihan dan tidak terlalu abstrak,” kata Gary Marcus, seorang ilmuwan kognitif dan penulis dari Taming Silicon Valley: Bagaimana kita dapat memastikan bahwa AI bekerja untuk kita. “Gagasan bahwa semua kekacauan ini dekat dengan AGI [artificial general intelligence] tidak masuk akal. “

Tinjauan AI khusus ini pada akhirnya tampaknya tidak berbahaya, dan sekali lagi, ini adalah cara yang menyenangkan untuk menunda -nunda. Tetapi sangat membantu untuk diingat bahwa model yang sama batuknya kesalahan yang percaya diri adalah yang di belakang hasil kueri yang dihasilkan AI Anda yang lain. Ambillah dengan sebutir garam.

Exit mobile version