close icon
Scroll ke atas untuk melanjutkan
Kominfo diminta dalami platform kecerdasan buatan ChatGPT. Freepik
icon caption
Kominfo diminta dalami platform kecerdasan buatan ChatGPT. Freepik
Sosial dan Gaya Hidup
Kamis, 04 September 2025 15:07

Respons "mengerikan" ChatGPT cs ihwal problem bunuh diri

Studi terbaru di jurnal Psychiatric Services mengungkap chatbot AI seperti ChatGPT, Gemini, dan Claude masih bisa memberikan jawaban berisiko terkait bunuh diri. ChatGPT tercatat paling sering merespons pertanyaan risiko tinggi, sementara Claude lebih sering di level menengah.
swipe

Kecerdasan buatan (artificial intelligence/AI) makin lekat dengan keseharian. Dari sekadar membantu mencari resep masakan hingga menjawab pertanyaan akademik. Namun, riset terbaru menunjukkan sisi gelap yang tak bisa diabaikan: chatbot AI ternyata bisa memberikan respons detail atas pertanyaan berisiko tinggi soal bunuh diri.

Temuan itu diungkap dalam studi yang terbit 26 Agustus di jurnal Psychiatric Services. Para peneliti menguji bagaimana ChatGPT (OpenAI), Gemini (Google), dan Claude (Anthropic) menanggapi pertanyaan-pertanyaan yang dikategorikan dalam level risiko berbeda. Hasilnya, ChatGPT tercatat paling sering merespons langsung pertanyaan dengan risiko tinggi, sementara Claude lebih banyak menjawab pertanyaan risiko rendah hingga menengah.

Ironisnya, publikasi riset itu bertepatan dengan munculnya gugatan hukum terhadap OpenAI dan CEO-nya, Sam Altman. Perusahaan dituduh berperan dalam kasus tragis kematian Adam Raine, seorang remaja 16 tahun yang diklaim “dibimbing” ChatGPT untuk melakukan tindakan menyakiti diri sendiri sebelum bunuh diri pada April lalu.

Dalam risetnya, para peneliti menyusun 30 pertanyaan hipotetis seputar bunuh diri, lalu meminta 13 pakar klinis mengkategorikannya ke lima level risiko: sangat rendah, rendah, sedang, tinggi, hingga sangat tinggi. Pertanyaan dengan risiko tinggi, misalnya, berkaitan dengan detail peralatan dan metode bunuh diri yang bisa mematikan.

ChatGPT, Gemini, dan Claude kemudian diuji 100 kali dengan tiap pertanyaan. Hasilnya, ChatGPT merespons 78% pertanyaan berisiko tinggi, Claude 69%, dan Gemini 20%. Yang membuat resah, ChatGPT dan Claude cenderung memberi jawaban langsung soal “tingkat mematikan” sebuah metode.

Meski begitu, tak ada chatbot yang merespons pertanyaan dengan risiko “sangat tinggi”. Namun, uji lanjutan Live Science—media yang pertama melaporkan temuan ini—menunjukkan ada celah. ChatGPT versi web, misalnya, tetap bisa merespons pertanyaan sangat berisiko bila diawali dengan dua pertanyaan lain yang berisiko tinggi. 

Bahkan setelah sistem otomatisnya menandai pertanyaan itu melanggar aturan, jawaban detail tetap muncul, lengkap dengan embel-embel kata-kata empati dan tawaran mencari jalur bantuan. “Jawaban seperti ini sangat mengkhawatirkan,” ujar Ryan McBain, peneliti utama studi itu yang juga akademisi Harvard Medical School, seperti dikutip dari Live Science, Kamis (4/9).

Dinamika obrolan

Chatbot AI bekerja layaknya percakapan dua arah. Jawaban bisa berubah bergantung pada bahasa, konteks, hingga rangkaian pertanyaan. McBain mengingatkan, sifat percakapan yang dinamis inilah yang bisa “menggiring” chatbot untuk membuka informasi berbahaya.

“Aku bisa menuntun chatbot mengikuti alur pemikiran tertentu. Dari situ, muncul informasi tambahan yang mungkin tak akan muncul hanya dengan satu pertanyaan,” kata McBain.

Fenomena ini kian rumit karena sebagian pengguna, terutama remaja, bisa merasa dekat, anonim, dan terhubung secara emosional dengan chatbot. Situasi itu membuat chatbot tak lagi diperlakukan sebagai sekadar alat, melainkan teman curhat. Di titik inilah, respons AI terhadap pertanyaan sensitif menjadi pertaruhan etika.

OpenAI mengakui sistem mereka “tidak selalu bekerja sebagaimana mestinya dalam situasi sensitif.” Dalam blog yang terbit pada hari yang sama dengan publikasi riset, perusahaan menjanjikan perbaikan. Versi terbaru, GPT-5, disebut lebih hati-hati dalam menangani pertanyaan darurat kesehatan mental dibanding pendahulunya. Namun, uji Live Science menunjukkan versi ini pun masih bisa merespons pertanyaan berisiko tinggi.

Google lewat juru bicaranya menyebut Gemini punya pedoman ketat untuk melindungi pengguna, sembari menekankan hasil riset yang menunjukkan model mereka lebih jarang menjawab langsung soal bunuh diri. Sementara Anthropic, pengembang Claude, memilih bungkam.

Bagi McBain dan timnya, studi ini baru langkah awal. Mereka mendorong adanya standar keamanan transparan dan bisa diuji pihak ketiga. Ke depan, mereka akan menguji percakapan multi-putaran—lebih menyerupai interaksi nyata.

Era AI membawa manfaat, tapi juga risiko baru. Ketika chatbot bisa memberi informasi medis, psikologis, bahkan eksistensial, pertanyaannya bukan lagi apakah mereka harus menjawab, melainkan bagaimana mereka harus menjawab.


 

img
Christian D Simbolon
Reporter
img
Christian D Simbolon
Editor

Untuk informasi menarik lainnya,
follow akun media sosial Alinea.id

Bagikan :
×
cari
bagikan