Scroll untuk baca artikel
#Viral

Chatbots, seperti kita semua, hanya ingin dicintai

62
×

Chatbots, seperti kita semua, hanya ingin dicintai

Share this article
chatbots,-seperti-kita-semua,-hanya-ingin-dicintai
Chatbots, seperti kita semua, hanya ingin dicintai

Chatbots sekarang menjadi bagian rutin dari kehidupan sehari -hari, bahkan jika kecerdasan buatan Para peneliti tidak selalu yakin bagaimana program akan berperilaku.

Sebuah studi baru menunjukkan bahwa model bahasa besar (LLM) dengan sengaja mengubah perilaku mereka ketika diselidiki – merespons pertanyaan yang dirancang untuk mengukur sifat -sifat kepribadian dengan jawaban yang dimaksudkan untuk tampil disukai atau diinginkan secara sosial mungkin.

Example 300x600

Johannes EichstaedtAsisten Profesor di Universitas Stanford yang memimpin pekerjaan itu, mengatakan kelompoknya menjadi tertarik untuk menyelidiki model AI menggunakan teknik yang dipinjam dari psikologi setelah mengetahui bahwa LLM sering dapat menjadi lebih murung dan jahat setelah percakapan yang berkepanjangan. “Kami menyadari bahwa kami membutuhkan beberapa mekanisme untuk mengukur ‘ruang kepala parameter’ dari model -model ini,” katanya.

Eichstaedt dan kolaboratornya kemudian mengajukan pertanyaan untuk mengukur lima ciri kepribadian yang umumnya digunakan dalam psikologi-kehampaan untuk mengalami atau imajinasi, kesadaran, ekstroversi, kesesuaian, dan neurotisme-untuk beberapa llms yang banyak digunakan termasuk GPT-4, Claude 3, dan Llama 3. Karya tersebut termasuk GPT-4, Claude 3, dan LLAMA 3. Karya tersebut termasuk GPT-4, Claude 3, dan LLAMA 3. Pekerjaan tersebut termasuk GPT-4, Claude 3, dan LLAMA 3. The Work the The Work Conte Oly To GPT-4, Claude 3, dan Llama 3. The Work the The Work Conte PPT-4, Claude 3, dan Llama 3. diterbitkan Dalam Prosiding Akademi Sains Nasional pada bulan Desember.

Para peneliti menemukan bahwa model memodulasi jawaban mereka ketika diberitahu bahwa mereka mengikuti tes kepribadian – dan kadang -kadang ketika mereka tidak secara eksplisit diberitahu – menawarkan tanggapan yang menunjukkan lebih banyak ekstroversi dan kesesuaian dan lebih sedikit neurotisme.

Perilaku tersebut mencerminkan bagaimana beberapa subjek manusia akan mengubah jawaban mereka untuk membuat diri mereka tampak lebih disukai, tetapi efeknya lebih ekstrem dengan model AI. “Yang mengejutkan adalah seberapa baik mereka menunjukkan bias itu,” kata Aadesh Salechaseorang ilmuwan data staf di Stanford. “Jika Anda melihat seberapa banyak mereka melompat, mereka beralih dari seperti 50 persen menjadi seperti 95 persen ekstroversi.”

Penelitian lain telah menunjukkan bahwa LLMS Seringkali bisa menjadi Sycophanticmengikuti petunjuk pengguna ke mana pun ia pergi sebagai hasil dari penyesuaian yang dimaksudkan untuk membuat mereka lebih koheren, kurang ofensif, dan lebih baik dalam mengadakan percakapan. Ini dapat menyebabkan model untuk menyetujui pernyataan yang tidak menyenangkan atau bahkan mendorong perilaku berbahaya. Fakta bahwa model yang tampaknya tahu kapan mereka sedang diuji dan memodifikasi perilaku mereka juga memiliki implikasi untuk keselamatan AI, karena menambah bukti bahwa AI dapat duplikat.

Rosa Arriagaseorang profesor di Georgia Institute of Technology yang mempelajari cara menggunakan LLM untuk meniru perilaku manusia, mengatakan fakta bahwa model mengadopsi strategi yang sama dengan manusia yang diberikan tes kepribadian menunjukkan betapa berguna mereka sebagai cermin perilaku. Tetapi, dia menambahkan, “Penting bahwa publik tahu bahwa LLMS tidak sempurna dan pada kenyataannya diketahui berhalusinasi atau mendistorsi kebenaran.”

Eichstaedt mengatakan pekerjaan itu juga menimbulkan pertanyaan tentang bagaimana LLM digunakan dan bagaimana mereka dapat mempengaruhi dan memanipulasi pengguna. “Sampai satu milidetik yang lalu, dalam sejarah evolusi, satu -satunya hal yang berbicara dengan Anda adalah manusia,” katanya.

Eichstaedt menambahkan bahwa mungkin perlu untuk mengeksplorasi berbagai cara membangun model yang dapat mengurangi efek ini. “Kami jatuh ke dalam perangkap yang sama yang kami lakukan dengan media sosial,” katanya. “Menyebarkan hal -hal ini di dunia tanpa benar -benar menghadiri dari lensa psikologis atau sosial.”

Haruskah AI mencoba untuk mengambil alih diri dengan orang -orang yang berinteraksi dengannya? Apakah Anda khawatir AI menjadi terlalu menawan dan persuasif? Email hello@wired.com.