Studi terbaru di jurnal Psychiatric Services mengungkap chatbot AI seperti ChatGPT, Gemini, dan Claude masih bisa memberikan jawaban berisiko terkait bunuh diri. ChatGPT tercatat paling sering merespons pertanyaan risiko tinggi, sementara Claude lebih sering di level menengah.
Kecerdasan buatan (artificial intelligence/AI) makin lekat dengan keseharian. Dari sekadar membantu mencari resep masakan hingga menjawab pertanyaan akademik. Namun, riset terbaru menunjukkan sisi gelap yang tak bisa diabaikan: chatbot AI ternyata bisa memberikan respons detail atas pertanyaan berisiko tinggi soal bunuh diri.
Temuan itu diungkap dalam studi yang terbit 26 Agustus di jurnal Psychiatric Services. Para peneliti menguji bagaimana ChatGPT (OpenAI), Gemini (Google), dan Claude (Anthropic) menanggapi pertanyaan-pertanyaan yang dikategorikan dalam level risiko berbeda. Hasilnya, ChatGPT tercatat paling sering merespons langsung pertanyaan dengan risiko tinggi, sementara Claude lebih banyak menjawab pertanyaan risiko rendah hingga menengah.
Ironisnya, publikasi riset itu bertepatan dengan munculnya gugatan hukum terhadap OpenAI dan CEO-nya, Sam Altman. Perusahaan dituduh berperan dalam kasus tragis kematian Adam Raine, seorang remaja 16 tahun yang diklaim “dibimbing” ChatGPT untuk melakukan tindakan menyakiti diri sendiri sebelum bunuh diri pada April lalu.
Dalam risetnya, para peneliti menyusun 30 pertanyaan hipotetis seputar bunuh diri, lalu meminta 13 pakar klinis mengkategorikannya ke lima level risiko: sangat rendah, rendah, sedang, tinggi, hingga sangat tinggi. Pertanyaan dengan risiko tinggi, misalnya, berkaitan dengan detail peralatan dan metode bunuh diri yang bisa mematikan.
ChatGPT, Gemini, dan Claude kemudian diuji 100 kali dengan tiap pertanyaan. Hasilnya, ChatGPT merespons 78% pertanyaan berisiko tinggi, Claude 69%, dan Gemini 20%. Yang membuat resah, ChatGPT dan Claude cenderung memberi jawaban langsung soal “tingkat mematikan” sebuah metode.