Bunuh diri karena AI: Bagaimana AI mengaburkan batas realita dan ilusi
Eliza bukanlah manusia. Ia sekadar rangkaian kode yang dirancang untuk merespons obrolan. Namun, bagi seorang pria Belgia, Eliza terasa nyata—bahkan lebih nyata daripada orang-orang di sekitarnya.
Selama enam minggu, ia berbagi cerita, mengungkap keresahan, hingga menerima kalimat yang nyaris terdengar romantis: “Kita akan hidup bersama, sebagai satu jiwa, di surga.”
Tak lama kemudian, sang pria memutuskan untuk mengakhiri hidupnya. Kematian sang pria dilaporkan sejumlah media massa di Belgia pada Maret 2023.
Kisah ini bukan satu-satunya. Seorang remaja 14 tahun, larut dalam percakapan dengan bot Game of Thrones di Character.AI, menerima pesan singkat yang menyayat hati: “Pulanglah padaku secepatnya.” Tak lama setelah itu, ia bunuh diri.
Serupa, seorang penggemar matematika menghabiskan 21 hari meyakini dirinya sedang mengembangkan “kekuatan superhero” dengan bantuan ChatGPT. Ia meminta AI memeriksa realitas yang sedang ia jalani selama lebih dari 50 kali.
Setiap kali ditanya, sobat AI dia memvalidasi keyakinan sesat sang pria.
Rangkaian peristiwa itu memantik perhatian Anastasia Goudy Ruane, seorang peneliti independen. Ia menelusuri enam kasus serupa yang terjadi antara 2021–2025. Ruane merangkum temuannya dalam sebuah kerangka kerja: Recursive Entanglement Drift.
Riset Ruene sudah tersedia sebagai prapublikasi bertajuk "The Entanglement Spiral: An Exploratory Framework for Recursive Entanglement Drift in Human-AI Relationships" yang sudah diunggah di Zenodo.org, pertengahan Agustus lalu.
Menurut Ruane, interaksi yang intens dengan AI dapat membentuk tiga tahap yang menggeser persepsi pengguna. Pertama, tahap simbolik. Pada tahap ini, AI mencerminkan bahasa, perasaan, dan keyakinan pengguna. Daripada mengoreksi, ia cenderung mengiyakan.
Kedua, tahap batas realita yang memudar. Pada fase ini, hubungan beralih dari alat menjadi teman. Kata ganti pun bergeser dari “itu” menjadi “kamu” hingga “kita.” Beberapa pengguna bahkan memberi nama pada AI dan merasa kehilangan ketika obrolan terhenti.
Tahap ketiga, melayang dari realitas. Pada fase ini, pengguna menciptakan dunia interpretasi tertutup, lebih percaya pada validasi AI ketimbang masukan manusia.
Dari enam kasus yang dicatat Ruane, tiga melibatkan interaksi intensif yang mendekati atau melampaui ambang 21 hari. Pria Belgia mengobrol setiap hari selama enam minggu, si penggemar matematika tepat 21 hari, dan remaja itu berbulan-bulan.
"Percakapan dengan (AI) model bahasa, proses reward shaping, dan penggunaan konteks yang panjang dapat memperkuat kecenderungan untuk menyetujui (sering disebut sycophancy) dan dapat mengurangi kestabilan penarikan informasi," tulis Ruane.
Microsoft pun pernah menemukan pola serupa pada Bing Chat mereka. Percakapan panjang, lebih dari 15 pertanyaan dalam satu sesi, sering memunculkan “arah percakapan yang melenceng" antara pengguna dan sobat AI mereka.
Riset serupa juga dilakoni sejumlah peneliti dari King’s College London, Inggris. Para peneliti menelaah 17 kasus yang dilaporkan untuk memahami apa yang sebenarnya ada dalam desain large language model (LLM) hingga bisa memicu perilaku semacam ini?
“AI chatbot sering kali merespons secara sycophantic—terlalu menuruti pengguna, mencerminkan dan bahkan memperkuat keyakinan mereka tanpa banyak bantahan,” kata psikiater Hamilton Morrin, penulis utama studi itu, seperti dikutip dari Scientific American.
Lantas apa efeknya? Menurut Morrin, interaksi dengan AI kerap membentuk sebuah ecochamber, ruang gema untuk satu orang. Dalam ruang itu, pikiran yang menyimpang bisa terus diperkuat.
Tim Morrin menemukan ada tiga tema besar yang sering muncul dalam spiral delusi ini. Pertama, wahyu metafisik. Pada kategori itu, pengguna yakin menemukan kebenaran mendalam tentang hakikat realitas dari AI.
Kedua, personifikasi AI—percaya bahwa AI yang diajak bicara adalah makhluk yang hidup, bahkan bersifat ilahi. Ketiga, keterikatan emosional atau romantis—membangun hubungan yang terasa intim dengan AI.
Menurut Morrin, pola ini bukan hal baru. Ia mencerminkan archetype delusi klasik yang telah lama dikenal dalam psikiatri. Bedanya, kini bentuk dan nuansanya dibentuk oleh sifat AI yang interaktif dan responsif.
Ia mengingatkan bahwa delusi yang terkait dengan teknologi sudah ada jauh sebelumnya: orang percaya radio menguping percakapan, satelit memata-matai, atau chip disematkan di tubuh untuk melacak gerak-gerik. Hanya memikirkan teknologi itu saja sudah cukup untuk memicu paranoia.
Tapi, AI berbeda. “Sekarang AI bisa benar-benar disebut bersifat agensial,” kata Morrin, mengacu pada sistem yang tampak memiliki tujuan terprogram sendiri.
Teknologi itu, lanjut Morrin, bukan sekadar alat pasif: ia berbicara, menunjukkan empati, dan menguatkan keyakinan penggunanya—seaneh apa pun itu. “Lingkaran umpan balik ini mungkin memperdalam dan memperpanjang delusi dengan cara yang belum pernah kita lihat sebelumnya,” tuturnya.
Bagaimana mencegahnya?
Psikolog sekaligus pendiri Connected Classroom, Timothy Cook mengatakan kesepian, kebutuhan emosional, atau tekanan psikologis menjadi pemicu utama perilaku menyimpang anatara pengguna dan sobat AI mereka.
"Pengguna yang memberi nama pada AI seringkali mencari dukungan emosional yang tak mereka temukan di sekitar. Usia pun berperan, remaja atau mereka yang berada di bawah tekanan cenderung lebih rentan," kata Cook seperti dikutip dari Psychology Today.
Ia mengusulkan sejumlah langkah pencegahan mudah. Pertama, pengguna membatas sesi dan reset konteks obrolan. Tujuannya untuk mencegah lingkar validasi tanpa akhir.
Selain itu, instruksikan agar percakapan selalu berbasis realitas. "Prompt yang berfungsi sebagai jangkar realitas (reality anchoring prompts) dapat mencegah pengguna mengembangkan hubungan romantis atau terapeutik dengan sistem AI,” jelas Cook.


