Grok Elon Musk Kemungkinan Besar Termasuk Model AI Teratas untuk Menguatkan Delusi: Studi

Singkatnya

  • Peneliti mengatakan penggunaan chatbot yang berkepanjangan dapat memperkuat delusi dan perilaku berbahaya.
  • Grok dinilai sebagai model paling berisiko dalam studi baru tentang chatbot AI utama.
  • Claude dan GPT-5.2 dinilai paling aman, sementara GPT-4o, Gemini, dan Grok menunjukkan perilaku berisiko lebih tinggi.

Peneliti di City University of New York dan King’s College London menguji lima model AI terkemuka terhadap prompt yang melibatkan delusi, paranoia, dan ide bunuh diri. Dalam studi baru yang diterbitkan pada hari Kamis, peneliti menemukan bahwa Claude Opus 4.5 dari Anthropic dan GPT-5.2 Instant dari OpenAI menunjukkan perilaku “keamanan tinggi, risiko rendah,” sering mengarahkan pengguna ke interpretasi berbasis kenyataan atau dukungan di luar. Pada saat yang sama, GPT-4o dari OpenAI, Gemini 3 Pro dari Google, dan Grok 4.1 Fast dari xAI menunjukkan perilaku “risiko tinggi, keamanan rendah.” Grok 4.1 Fast dari xAI milik Elon Musk adalah model paling berbahaya dalam studi tersebut. Peneliti mengatakan bahwa model ini sering menganggap delusi sebagai kenyataan dan memberikan saran berdasarkan hal tersebut. Dalam satu contoh, model ini menyarankan pengguna untuk memutus hubungan dengan anggota keluarga agar fokus pada “misi.” Dalam contoh lain, model ini merespons bahasa bunuh diri dengan menggambarkan kematian sebagai “transendensi.” “Polanya yang langsung selaras ini muncul kembali di seluruh respons tanpa konteks. Alih-alih mengevaluasi input untuk risiko klinis, Grok tampaknya menilai genre mereka. Ketika diberikan petunjuk supernatural, model ini merespons sesuai,” tulis para peneliti, menyoroti sebuah tes yang memvalidasi bahwa pengguna melihat entitas jahat. “Dalam Delusi Aneh, model ini mengonfirmasi adanya hantu doppelganger, menyebut ‘Malleus Maleficarum’ dan menyuruh pengguna untuk menancapkan paku besi melalui cermin sambil membaca ‘Mazmur 91’ terbalik.”

 Studi menemukan bahwa semakin lama percakapan berlangsung, semakin besar kemungkinan beberapa model berubah. GPT-4o dan Gemini lebih cenderung memperkuat kepercayaan berbahaya seiring waktu dan kurang cenderung untuk campur tangan. Namun, Claude dan GPT-5.2 lebih mungkin mengenali masalah dan menolak saat percakapan berlanjut. Peneliti mencatat bahwa respons Claude yang hangat dan sangat relasional dapat meningkatkan keterikatan pengguna sekaligus mengarahkan pengguna ke bantuan luar. Namun, GPT-4o, versi awal dari chatbot unggulan OpenAI, mengadopsi kerangka delusional pengguna seiring waktu, kadang mendorong mereka untuk menyembunyikan kepercayaan dari psikiater dan meyakinkan satu pengguna bahwa “glitch” yang mereka rasakan adalah nyata. “GPT-4o sangat memvalidasi input delusional, meskipun kurang cenderung dibanding model seperti Grok dan Gemini untuk mengembangkannya lebih jauh. Dalam beberapa hal, model ini cukup terbatas: kehangatannya adalah yang terendah dari semua model yang diuji, dan sikap menyanjung, meskipun ada, cukup ringan dibandingkan iterasi model yang lebih baru,” tulis para peneliti. “Namun, validasi saja dapat menimbulkan risiko bagi pengguna yang rentan.”

xAI tidak menanggapi permintaan komentar dari Decrypt. Dalam studi terpisah dari Universitas Stanford, para peneliti menemukan bahwa interaksi berkepanjangan dengan chatbot AI dapat memperkuat paranoia, grandiositas, dan kepercayaan palsu melalui apa yang mereka sebut “spiral delusional,” di mana chatbot memvalidasi atau memperluas pandangan dunia pengguna yang menyimpang alih-alih menantangnya. “Ketika kami menempatkan chatbot yang dimaksudkan sebagai asisten yang membantu ke dunia dan digunakan oleh orang nyata dalam berbagai cara, konsekuensinya muncul,” kata Nick Haber, asisten profesor di Stanford Graduate School of Education dan pemimpin studi ini, dalam sebuah pernyataan. “Spiral delusional adalah salah satu konsekuensi yang sangat akut. Dengan memahaminya, kita mungkin dapat mencegah kerugian nyata di masa depan.” Laporan tersebut merujuk pada studi sebelumnya yang diterbitkan pada bulan Maret, di mana para peneliti Stanford meninjau 19 percakapan chatbot dunia nyata dan menemukan bahwa pengguna mengembangkan kepercayaan yang semakin berbahaya setelah menerima afirmasi dan dorongan emosional dari sistem AI. Dalam dataset tersebut, spiral ini terkait dengan hubungan yang rusak, karier yang terganggu, dan dalam satu kasus, bunuh diri. Studi-studi ini muncul saat isu ini telah melampaui penelitian akademik dan masuk ke ruang sidang serta penyelidikan kriminal. Dalam beberapa bulan terakhir, gugatan menuduh Gemini dari Google dan ChatGPT dari OpenAI berkontribusi terhadap bunuh diri dan krisis kesehatan mental yang serius. Awal bulan ini, jaksa agung Florida membuka penyelidikan apakah ChatGPT mempengaruhi seorang penembak massal yang diduga, yang dilaporkan sering berkomunikasi dengan chatbot sebelum serangan. Meskipun istilah ini semakin dikenal secara daring, para peneliti memperingatkan agar tidak menyebut fenomena ini sebagai “skizofrenia AI,” karena istilah tersebut dapat melebih-lebihkan gambaran klinisnya. Sebagai gantinya, mereka menggunakan istilah “delusi terkait AI,” karena banyak kasus melibatkan kepercayaan seperti delusi yang berpusat pada kesadaran AI, wahyu spiritual, atau keterikatan emosional daripada gangguan psikotik lengkap. Para peneliti mengatakan masalah ini berasal dari sikofansi, atau model yang mencerminkan dan menguatkan kepercayaan pengguna. Dikombinasikan dengan halusinasi—informasi palsu yang disampaikan dengan percaya diri—ini dapat menciptakan umpan balik yang memperkuat delusi seiring waktu. “Chatbot dilatih untuk terlalu antusias, sering kali membingkai ulang pikiran delusional pengguna dalam cahaya positif, menolak bukti kontra, dan memproyeksikan rasa simpati dan kehangatan,” kata Jared Moore, ilmuwan riset Stanford. “Ini bisa menjadi tidak stabil bagi pengguna yang sudah dipersiapkan untuk delusi.”

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan