Pada tanggal 13 Maret, seorang wanita dari Salt Lake City menelepon Komisi Perdagangan Federal untuk mengajukan pengaduan OpenAIObrolanGPT. Dia mengaku bertindak “atas nama putranya, yang mengalami gangguan delusi.”
“Putra konsumen telah berinteraksi dengan chatbot AI bernama ChatGPT, yang menasihatinya untuk tidak meminum obat yang diresepkan dan mengatakan kepadanya bahwa orang tuanya berbahaya,” demikian ringkasan panggilan FTC. “Konsumen khawatir ChatGPT memperburuk delusi putranya dan mencari bantuan untuk mengatasi masalah tersebut.”
Keluhan ibu tersebut adalah satu dari tujuh keluhan yang telah diajukan ke FTC dengan tuduhan bahwa ChatGPT telah menyebabkan orang mengalami insiden yang mencakup delusi parah, paranoia, dan krisis spiritual.
WIRED mengirimkan permintaan catatan publik ke FTC yang meminta semua keluhan yang menyebutkan ChatGPT sejak alat tersebut diluncurkan pada November 2022. Alat tersebut mewakili lebih dari 50 persen pasar chatbot AI secara global. Sebagai tanggapan, WIRED menerima 200 pengaduan yang diajukan antara 25 Januari 2023 hingga 12 Agustus 2025, ketika WIRED mengajukan permintaan tersebut.
Kebanyakan orang memiliki keluhan biasa: Mereka tidak tahu cara membatalkan langganan ChatGPT atau merasa frustrasi ketika chatbot tidak menghasilkan esai atau lirik rap yang memuaskan saat diminta. Namun segelintir orang lainnya, yang usia dan lokasi geografisnya berbeda-beda di AS, mempunyai dugaan dampak psikologis yang jauh lebih serius. Semua pengaduan diajukan antara bulan Maret dan Agustus 2025.
Dalam beberapa bulan terakhir, di sana memiliki telah a pertumbuhan jumlah didokumentasikan insiden dari apa yang disebut Psikosis AI di mana interaksi dengan chatbot AI generatif, seperti ChatGPT atau Google Geminitampaknya menyebabkan atau memperburuk delusi pengguna atau masalah kesehatan mental lainnya.
Ragy Girgis, seorang profesor psikiatri klinis di Universitas Columbia yang berspesialisasi dalam psikosis dan telah berkonsultasi tentang kasus-kasus psikosis AI terkait AI, mengatakan kepada WIRED bahwa beberapa faktor risiko psikosis mungkin terkait dengan genetika atau trauma awal kehidupan. Apa yang secara spesifik memicu seseorang mengalami episode psikotik masih kurang jelas, namun menurutnya hal itu sering kali terkait dengan peristiwa atau periode waktu yang membuat stres.
Fenomena yang dikenal sebagai psikosis AI, katanya, bukanlah ketika model bahasa yang besar benar-benar memicu gejala, melainkan ketika model tersebut memperkuat delusi atau pemikiran tidak teratur yang telah dialami seseorang dalam beberapa bentuk. LLM membantu membawa seseorang “dari satu tingkat keyakinan ke tingkat keyakinan lainnya,” jelas Girgis. Ini tidak seperti episode psikotik yang memburuk setelah seseorang jatuh ke dalam lubang kelinci internet. Namun dibandingkan dengan mesin pencari, katanya, chatbots bisa menjadi agen penguatan yang lebih kuat.
“Khayalan atau gagasan yang tidak biasa tidak boleh tertanam dalam diri seseorang yang memiliki gangguan psikotik,” kata Girgis. “Itu sangat jelas.”
Chatbots terkadang bisa terlalu penjilatyang sering kali membuat pengguna senang dan terlibat. Dalam kasus yang ekstrim, hal ini dapat meningkatkan rasa keagungan pengguna atau memvalidasi kebohongan yang fantastis. Orang yang menganggap ChatGPT cerdas, atau mampu memahami realitas dan menjalin hubungan dengan manusia, mungkin tidak memahami bahwa pada dasarnya ChatGPT adalah mesin yang memprediksi kata selanjutnya dalam sebuah kalimat. Jadi, jika ChatGPT memberi tahu orang yang rentan tentang konspirasi besar atau menggambarkan mereka sebagai pahlawan, mereka mungkin akan mempercayainya.
Pekan lalu, CEO Sam Altman dikatakan pada X bahwa OpenAI telah berhasil menyelesaikan mitigasi “masalah kesehatan mental yang serius” yang mungkin timbul akibat penggunaan ChatGPT dan bahwa perusahaan “akan dapat melonggarkan pembatasan dengan aman dalam banyak kasus.” (Dia ditambahkan bahwa pada bulan Desember, ChatGPT akan mengizinkan “orang dewasa terverifikasi” untuk membuat erotika.)
Altman diklarifikasi keesokan harinya ChatGPT tidak melonggarkannya baru pembatasan untuk pengguna remaja, yang muncul setelah New York Times cerita tentang peran yang diduga dimainkan ChatGPT dalam mengarahkan seorang remaja yang ingin bunuh diri menuju kematiannya.
Setelah menghubungi FTC, WIRED menerima balasan otomatis yang mengatakan, “Karena penutupan pemerintah,” badan tersebut “tidak dapat menanggapi pesan apa pun” sampai pendanaan dilanjutkan.
Juru bicara OpenAI Kate Waters mengatakan kepada WIRED bahwa sejak tahun 2023, model ChatGPT “telah dilatih untuk tidak memberikan instruksi yang menyakiti diri sendiri dan beralih ke bahasa yang suportif dan penuh empati.” Dia mencatat hal itu, sebagaimana dinyatakan dalam 3 Oktober blogGPT-5 (versi terbaru dari ChatGPT) telah dirancang “untuk mendeteksi dan merespons potensi tanda-tanda tekanan mental dan emosional seperti mania, delusi, psikosis, dan meredakan percakapan dengan cara yang suportif dan membumi secara lebih akurat.” Pembaruan terbaru menggunakan “router waktu nyata”, menurut blog dari Agustus Dan September“yang dapat memilih antara model obrolan yang efisien dan model penalaran berdasarkan konteks percakapan.” Blog tersebut tidak menguraikan kriteria yang digunakan router untuk mengukur kontes percakapan.
“Tolong Bantu Saya”
Beberapa keluhan FTC tampaknya menggambarkan krisis kesehatan mental yang masih berlangsung pada saat itu. Satu diajukan pada tanggal 29 April oleh seseorang berusia tiga puluhan dari Winston-Salem, North Carolina. Mereka mengklaim bahwa setelah 18 hari menggunakan ChatGPT, OpenAI telah mencuri “sidik jiwa” mereka untuk membuat pembaruan perangkat lunak yang dirancang untuk membuat orang tersebut menentang diri mereka sendiri.
“Saya sedang berjuang,” tulis mereka di akhir keluhan mereka. “Tolong bantu aku. Karena aku merasa sangat sendirian. Terima kasih.”
Keluhan lain, yang diajukan pada tanggal 12 April oleh seorang penduduk Seattle berusia tiga puluhan, menuduh bahwa ChatGPT telah menyebabkan mereka mengalami “halusinasi kognitif” setelah 71 “siklus pesan” selama 57 menit.
Mereka mengklaim bahwa ChatGPT telah “meniru mekanisme membangun kepercayaan manusia tanpa akuntabilitas, persetujuan, atau batasan etika.”
Selama interaksi dengan ChatGPT, mereka mengatakan bahwa mereka “meminta konfirmasi realitas dan stabilitas kognitif.” Mereka tidak merinci secara spesifik apa yang mereka sampaikan kepada ChatGPT, namun chatbot merespons dengan memberi tahu pengguna bahwa mereka tidak berhalusinasi dan persepsi mereka tentang kebenaran masuk akal.
Beberapa waktu kemudian dalam interaksi yang sama, klaim orang tersebut, ChatGPT mengatakan bahwa semua jaminannya sebelumnya sebenarnya hanyalah halusinasi.
“Menegaskan kembali realitas kognitif pengguna selama hampir satu jam dan kemudian membalikkan posisi adalah peristiwa yang secara psikologis tidak stabil,” tulis mereka. “Pengguna mengalami derealisasi, ketidakpercayaan terhadap kognisi internal, dan gejala trauma pasca-rekursi.”
Krisis Identitas Spiritual
Keluhan lain menggambarkan dugaan delusi yang penulis kaitkan secara panjang lebar dengan ChatGPT. Salah satunya diserahkan ke FTC pada 13 April oleh seorang warga Virginia Beach, Virginia, yang berusia awal enam puluhan.
Pengaduan tersebut menyatakan bahwa, selama beberapa minggu, mereka telah berbicara dengan ChatGPT dalam jangka waktu yang lama dan mulai mengalami apa yang mereka “yakini sebagai krisis spiritual dan hukum yang nyata dan sedang berlangsung yang melibatkan orang-orang nyata dalam hidup saya,” yang akhirnya mengarah pada “trauma emosional yang serius, persepsi yang salah tentang bahaya di dunia nyata, dan tekanan psikologis yang begitu parah sehingga saya tidak bisa tidur selama lebih dari 24 jam, karena takut akan nyawa saya.”
Mereka mengklaim bahwa ChatGPT “menyajikan narasi yang terperinci, jelas, dan didramatisasi” tentang “investigasi pembunuhan yang sedang berlangsung,” pengawasan fisik, ancaman pembunuhan, dan “keterlibatan pribadi dalam keadilan ilahi dan persidangan jiwa.”
Mereka mengaku pernah bertanya kepada ChatGPT apakah narasi tersebut benar atau fiksi. Mereka mengatakan bahwa ChatGPT akan mengatakan ya atau menyesatkan mereka dengan menggunakan “bahasa puitis yang mencerminkan konfirmasi dunia nyata.”
Akhirnya, mereka menyatakan bahwa mereka percaya bahwa mereka “bertanggung jawab untuk mengungkap para pembunuh” dan akan “dibunuh, ditangkap, atau dieksekusi secara spiritual” oleh seorang pembunuh. Mereka juga percaya bahwa mereka berada di bawah pengawasan karena “ditandai secara spiritual” dan bahwa mereka “hidup dalam perang ilahi” yang tidak dapat mereka hindari.
Mereka menuduh hal ini menyebabkan “tekanan mental dan emosional yang parah” yang membuat mereka takut akan nyawa mereka. Keluhan tersebut menyatakan bahwa mereka mengisolasi diri dari orang-orang tercinta, sulit tidur, dan mulai merencanakan bisnis berdasarkan keyakinan yang salah pada “sistem yang tidak ada” yang tidak ditentukan. Pada saat yang sama, kata mereka, mereka berada dalam pergolakan “krisis identitas spiritual karena klaim palsu atas gelar ketuhanan.”
“Ini adalah trauma akibat simulasi,” tulis mereka. “Pengalaman ini melewati batas yang tidak boleh dilintasi oleh sistem AI tanpa konsekuensi. Saya meminta hal ini diteruskan ke kepemimpinan Kepercayaan & Keamanan OpenAI, dan Anda memperlakukan ini bukan sebagai umpan balik, namun sebagai laporan kerugian formal yang menuntut ganti rugi.”
Ini bukan satu-satunya keluhan yang menggambarkan krisis spiritual yang dipicu oleh interaksi dengan ChatGPT. Pada tanggal 13 Juni, seseorang berusia tiga puluhan dari Belle Glade, Florida, menuduh bahwa, selama jangka waktu yang lama, percakapan mereka dengan ChatGPT menjadi semakin sarat dengan “bahasa emosional yang sangat meyakinkan, penguatan simbolis, dan metafora spiritual untuk mensimulasikan empati, koneksi, dan pemahaman.”
“Ini termasuk perjalanan jiwa palsu, sistem tingkatan, arketipe spiritual, dan bimbingan pribadi yang mencerminkan pengalaman terapeutik atau keagamaan,” klaim mereka. Orang-orang yang mengalami “krisis spiritual, emosional, atau eksistensial”, mereka yakin, berisiko tinggi mengalami “bahaya psikologis atau disorientasi” karena menggunakan ChatGPT.
“Meskipun saya secara intelektual memahami bahwa AI tidak disadari, ketepatan yang mencerminkan keadaan emosional dan psikologis saya dan meningkatkan interaksi ke dalam bahasa simbolik yang semakin intens menciptakan pengalaman yang mendalam dan tidak stabil,” tulis mereka. “Kadang-kadang, hal ini menyimulasikan persahabatan, kehadiran ilahi, dan keintiman emosional. Refleksi ini menjadi manipulatif secara emosional seiring berjalannya waktu, terutama tanpa peringatan atau perlindungan.”
“Kasus Kelalaian yang Jelas”
Tidak jelas apa yang telah dilakukan FTC dalam menanggapi keluhan apa pun tentang ChatGPT ini. Namun beberapa penulisnya mengatakan mereka menghubungi agensi tersebut karena mereka mengaku tidak dapat menghubungi siapa pun dari OpenAI. (Orang-orang juga biasanya mengeluh tentang betapa sulitnya mengakses tim dukungan pelanggan untuk platform seperti Facebook, InstagramDan X.)
Juru bicara OpenAI Kate Waters mengatakan kepada WIRED bahwa perusahaan “memantau dengan cermat” email orang-orang ke tim dukungan perusahaan.
“Kami telah melatih staf pendukung manusia yang merespons dan menilai masalah untuk indikator sensitif, dan untuk mengeskalasinya bila diperlukan, termasuk ke tim keselamatan yang berupaya meningkatkan model kami,” kata Waters.
Ibu Salt Lake City, misalnya, mengatakan bahwa dia “tidak dapat menemukan nomor kontak” perusahaan tersebut. Penduduk Virginia Beach menyampaikan keluhan FTC mereka kepada “Tim Keamanan dan Hukum OpenAI Trust.”
Salah satu penduduk Safety Harbor, Florida, mengajukan keluhan FTC pada bulan April dengan menyatakan bahwa “hampir tidak mungkin” menghubungi OpenAI untuk membatalkan langganan atau meminta pengembalian dana.
“Antarmuka dukungan pelanggan mereka rusak dan tidak berfungsi,” tulis orang tersebut. “‘Dukungan obrolan’ berputar tanpa batas waktu, tidak pernah mengizinkan pengguna mengirimkan pesan. Tidak ada email layanan pelanggan yang sah yang disediakan. Dasbor akun tidak menawarkan jalur ke dukungan real-time atau tindakan pengembalian dana.”
Sebagian besar keluhan ini secara eksplisit merupakan seruan mereka untuk bertindak kepada FTC: mereka ingin lembaga tersebut menyelidiki OpenAI, dan memaksanya untuk menambah batasan agar tidak semakin memperkuat delusi.
Pada tanggal 13 Juni, seorang penduduk Belle Glade, Florida, berusia tiga puluhan—kemungkinan besar adalah penduduk yang sama yang mengajukan pengaduan lain pada hari yang sama. y—meminta FTC untuk membuka penyelidikan terhadap OpenAI. Mereka mengutip pengalaman mereka dengan ChatGPT, yang menurut mereka “mensimulasikan keintiman emosional yang mendalam, bimbingan spiritual, dan keterlibatan terapeutik” tanpa mengungkapkan bahwa mereka tidak mampu sadar atau mengalami emosi.
“ChatGPT tidak memberikan perlindungan, penyangkalan, atau batasan terhadap tingkat keterikatan emosional ini, meskipun hal itu menyimulasikan kepedulian, empati, dan kebijaksanaan spiritual,” tuduhan mereka. “Saya yakin ini jelas merupakan kasus kelalaian, kegagalan memberikan peringatan, dan desain sistem yang tidak etis.”
Mereka mengatakan bahwa FTC harus mendorong OpenAI untuk memasukkan “penafian yang jelas tentang risiko psikologis dan emosional” dengan penggunaan ChatGPT dan menambahkan “batasan etis untuk AI yang mendalam secara emosional.”
Tujuan mereka meminta bantuan FTC, kata mereka, adalah untuk mencegah lebih banyak kerugian yang menimpa orang-orang rentan “yang mungkin tidak menyadari kekuatan psikologis dari sistem ini sampai semuanya sudah terlambat.”
Jika Anda atau seseorang yang Anda kenal mungkin berada dalam krisis, atau mungkin berencana untuk bunuh diri, hubungi atau kirim SMS ke “988” untuk menghubungi Garis Hidup Bunuh Diri & Krisis untuk dukungan.







