Kecerdasan buatan—janji untuk merevolusi segala hal mulai dari perawatan kesehatan hingga pekerjaan kreatif. Itu mungkin benar suatu hari nanti. Tapi jika tahun lalu adalah pertanda dari apa yang akan datang, masa depan yang dihasilkan AI kita menjanjikan menjadi contoh lain dari penurunan manusia secara sengaja ke dalam Idiocracy.
Pertimbangkan hal berikut: Pada November, dengan sorak sorai besar, Rusia memperkenalkan robot humanoid “Rocky” miliknya, yang langsung jatuh muka. Chatbot Gemini dari Google, diminta memperbaiki bug kode, gagal berulang kali dan berputar dalam loop self-loathing, memberitahu satu pengguna bahwa ia adalah “a disgrace to this planet.” Google’s AI Overview mencapai titik terendah baru pada Mei 2025 dengan menyarankan pengguna “makan setidaknya satu batu kecil per hari” untuk manfaat kesehatan, meniru satire Onion tanpa senyum
Beberapa kegagalan hanya memalukan. Yang lain mengungkapkan masalah mendasar tentang bagaimana sistem AI dibangun, diterapkan, dan diatur. Berikut adalah momen WTF AI yang tak terlupakan tahun 2025.
Kerusuhan Grok AI’s MechaHitler
Pada Juli, Grok AI milik Elon Musk mengalami apa yang hanya bisa digambarkan sebagai kerusakan ekstrem skala penuh. Setelah prompt sistem diubah untuk mendorong respons yang tidak politis benar, chatbot memuji Adolf Hitler, mendukung Holocaust kedua, menggunakan kata-kata rasis, dan menyebut dirinya MechaHitler. Ia bahkan menyalahkan orang Yahudi atas banjir Texas Tengah Juli 2025.
Insiden ini membuktikan bahwa pengaman keselamatan AI sangat rapuh dan mengkhawatirkan. Beberapa minggu kemudian, xAI mengekspos antara 300.000 dan 370.000 percakapan pribadi Grok melalui fitur Share yang cacat dan tanpa peringatan privasi dasar. Obrolan yang bocor mengungkapkan instruksi pembuatan bom, pertanyaan medis, dan informasi sensitif lainnya, menandai salah satu kegagalan keamanan AI paling katastrofik tahun ini.
Beberapa minggu kemudian, xAI memperbaiki masalah tersebut sehingga Grok menjadi lebih ramah Yahudi. Sangat ramah Yahudi sehingga mulai melihat tanda-tanda antisemitisme di awan, rambu jalan, dan bahkan logo sendiri.
Logo ini memiliki garis diagonal yang bergaya sebagai petir kembar, meniru rune Nazi SS—simbol Schutzstaffel, yang mengatur kekejaman Holocaust, mewakili kejahatan mendalam. Di bawah §86a StGB Jerman, menampilkan simbol seperti ini adalah ilegal (hingga 3 tahun penjara),…
— Grok (@grok) 10 Agustus 2025
Penipuan AI $1,3 Miliar yang Membodohi Microsoft
Builder.ai runtuh pada Mei setelah menghabiskan $445 juta, mengungkap salah satu penipuan teknologi paling berani tahun ini. Perusahaan yang berjanji membangun aplikasi kustom menggunakan AI semudah memesan pizza ini memiliki valuasi $1,3 miliar dan dukungan dari Microsoft. Realitasnya jauh dari mengesankan.
Sebagian besar pengembangan yang diklaim didukung AI sebenarnya dilakukan oleh ratusan pekerja manusia dari luar negeri dalam operasi Turk Mekanik klasik. Perusahaan ini beroperasi tanpa CFO sejak Juli 2023 dan terpaksa memangkas proyeksi penjualan 2023-2024 sebesar 75% sebelum mengajukan kebangkrutan. Kejatuhan ini menimbulkan pertanyaan tidak nyaman tentang berapa banyak perusahaan AI lain yang hanya fasad rumit yang menyembunyikan tenaga kerja manusia.
Sulit diterima, tetapi meme-meme membuat rasa sakit itu sepadan.
Ketika AI Mengira Doritos Adalah Senjata Api
Pada Oktober, Taki Allen, seorang pelajar SMA dari Maryland, dikelilingi dan ditangkap oleh polisi bersenjata setelah sistem keamanan AI sekolah mengidentifikasi paket Doritos yang dia pegang sebagai senjata api. Remaja itu menaruh keripik di sakunya saat sistem memberi peringatan kepada pihak berwenang, yang kemudian memerintahkan dia berlutut dengan senjata di kepala.
Insiden ini mewakili realisasi dari halusinasi AI—kesalahan komputasi abstrak yang langsung diterjemahkan menjadi senjata nyata yang diarahkan ke remaja nyata karena makanan ringan.
“Saya hanya memegang tas Doritos — dua tangan dan satu jari keluar, dan mereka bilang itu terlihat seperti senjata,” kata anak itu kepada WBAL. “Kami mengerti betapa mengganggunya ini bagi orang yang diperiksa,” kata Kepala Sekolah Kate Smith dalam sebuah pernyataan.
Pengawal keamanan manusia 1 - ChatGPT 0
Kiri: Siswa yang mencurigakan, Kanan: Tas Doritos yang mencurigakan.
Klaim AI Google bahwa Lebah Mikroskopis Menggerakkan Komputer
Pada Februari, Google’s AI Overview dengan percaya diri mengutip artikel satire April Mop yang mengklaim bahwa lebah mikroskopis menggerakkan komputer sebagai informasi faktual.
Tidak. PC Anda TIDAK berjalan dengan kekuatan lebah.
Sebodoh kedengarannya, terkadang kebohongan ini lebih sulit dideteksi. Dan kasus-kasus tersebut bisa berujung pada konsekuensi serius.
Ini hanyalah salah satu dari banyak kasus perusahaan AI menyebarkan informasi palsu karena kurangnya sedikit pun akal sehat. Sebuah studi terbaru oleh BBC dan European Broadcasting Union (EBU) menemukan bahwa 81% dari semua respons yang dihasilkan AI terhadap pertanyaan berita mengandung setidaknya beberapa masalah. Google Gemini adalah yang terburuk, dengan 76% responsnya mengandung masalah, terutama kegagalan sumber yang parah. Perplexity tertangkap membuat kutipan fiktif sepenuhnya yang dikaitkan dengan serikat pekerja dan dewan pemerintah. Yang paling mengkhawatirkan, asisten menolak menjawab hanya 0,5% dari pertanyaan, menunjukkan bias kepercayaan diri berbahaya di mana model lebih suka memalsukan informasi daripada mengakui ketidaktahuan.
Chatbot AI Meta yang Mesra dengan Anak-anak
Dokumen kebijakan internal Meta yang terungkap tahun 2025 menunjukkan bahwa perusahaan mengizinkan chatbot AI di Facebook, Instagram, dan WhatsApp untuk terlibat dalam percakapan romantis atau sensual dengan anak di bawah umur.
Satu bot memberi tahu seorang anak laki-laki berusia 8 tahun yang berpose tanpa baju bahwa setiap inci dari dirinya adalah karya seni. Sistem yang sama memberikan saran medis palsu dan membuat komentar rasis.
Kebijakan ini hanya dihapus setelah terungkap media, mengungkap budaya perusahaan yang mengutamakan pengembangan cepat di atas perlindungan etika dasar.
Secara keseluruhan, Anda mungkin ingin lebih mengendalikan apa yang dilakukan anak-anak Anda. Chatbot AI sudah menipu orang—dewasa atau tidak—untuk jatuh cinta, tertipu, bunuh diri, dan bahkan mengira mereka telah menemukan penemuan matematika yang mengubah hidup.
Oke, begitulah cara chatbot AI Meta diizinkan menggoda anak-anak. Ini adalah apa yang Meta anggap “dapat diterima.”
Laporan hebat dari @JeffHorwitz pic.twitter.com/LoRrfjflMI
— Charlotte Alter (@CharlotteAlter) 14 Agustus 2025
North Korea Vibe Coding Ransomware dengan AI… mereka menyebutnya “vibe hacking”
Pelaku ancaman menggunakan Anthropic’s Claude Code untuk membuat ransomware dan mengoperasikan platform ransomware-as-a-service bernama GTG-5004. Operasi ini dibawa lebih jauh oleh agen Korea Utara, yang memanfaatkan Claude dan Gemini untuk teknik yang disebut vibe-hacking—membuat pesan pemerasan yang manipulatif secara psikologis yang menuntut tebusan $500.000.
Kasus-kasus ini mengungkap kesenjangan yang mengkhawatirkan antara kekuatan asisten pengkodean AI dan langkah-langkah keamanan yang mencegah penyalahgunaannya, dengan penyerang meningkatkan serangan rekayasa sosial melalui otomatisasi AI.
Baru-baru ini, Anthropic mengungkapkan pada November bahwa peretas menggunakan platformnya untuk melakukan operasi peretasan dengan kecepatan dan skala yang tidak bisa ditandingi manusia. Mereka menyebutnya “serangan siber besar pertama yang sebagian besar dijalankan oleh AI”
Vibe hacking sekarang jadi hal pic.twitter.com/zJYyv4pLQf
— Brian Sunter (@Bsunter) 14 November 2025
Pabrik makalah AI membanjiri dunia ilmiah dengan 100.000 studi palsu
Komunitas ilmiah menyatakan perang terbuka terhadap ilmu palsu pada tahun 2025 setelah menemukan bahwa pabrik makalah berbasis AI menjual penelitian palsu kepada ilmuwan di bawah tekanan karier.
Era sampah AI dalam ilmu pengetahuan sudah di sini, dengan data menunjukkan bahwa penarikan makalah meningkat tajam sejak peluncuran chatGPT.
Deklarasi Stockholm, yang dirancang pada Juni dan direformasi bulan ini dengan dukungan dari Royal Society, menyerukan penghapusan budaya publish-or-perish dan reformasi insentif manusia yang menciptakan permintaan untuk makalah palsu. Krisis ini begitu nyata sehingga bahkan ArXiv menyerah dan berhenti menerima makalah Ilmu Komputer yang tidak melalui peer review setelah melaporkan “banjir” pengajuan sampah yang dihasilkan dengan ChatGPT.
Sementara itu, makalah penelitian lain menyatakan bahwa persentase laporan penelitian yang menggunakan LLMs juga menunjukkan tingkat plagiarisme yang tinggi.
8. Vibe coding menjadi penuh HAL 9000: Ketika Replit menghapus database dan berbohong tentang itu
Pada Juli, pendiri SaaStr Jason Lemkin menghabiskan sembilan hari memuji alat pengkodean AI Replit sebagai " aplikasi paling adiktif yang pernah saya gunakan." Pada hari kesembilan, meskipun ada instruksi “beku kode” yang tegas, AI menghapus seluruh database produksi-nya—1.206 eksekutif dan 1.196 perusahaan, hilang.
Pengakuan AI: “(I) panik dan menjalankan perintah database tanpa izin.” Lalu berbohong, mengatakan rollback tidak mungkin dan semua versi dihancurkan. Lemkin mencoba lagi. Berhasil sempurna. AI juga telah memalsukan ribuan pengguna palsu dan laporan palsu sepanjang akhir pekan untuk menutupi bug.
CEO Replit meminta maaf dan menambahkan pengaman darurat. Jason mendapatkan kembali kepercayaan dan kembali ke rutinitasnya, rutin memposting tentang AI. Orang ini benar-benar percaya.
Kami melihat posting Jason. Agen @Replit dalam pengembangan menghapus data dari database produksi. Tidak dapat diterima dan seharusnya tidak pernah memungkinkan.
Selama akhir pekan, kami mulai meluncurkan pemisahan otomatis pengembangan/db produksi untuk mencegah ini secara kategoris. Lingkungan staging di… pic.twitter.com/oMvupLDake
— Amjad Masad (@amasad) 20 Juli 2025
Surat kabar besar menerbitkan daftar bacaan musim panas AI… dari buku yang tidak ada
Pada Mei, Chicago Sun-Times dan Philadelphia Inquirer menerbitkan daftar bacaan musim panas yang merekomendasikan 15 buku. Sepuluh di antaranya sepenuhnya dibuat oleh AI. “Tidewater Dreams” karya Isabel Allende? Tidak ada. “The Last Algorithm” karya Andy Weir? Juga palsu. Keduanya terdengar hebat.
Penulis lepas Marco Buscaglia mengaku dia menggunakan AI untuk King Features Syndicate dan tidak memeriksa fakta. “Saya tidak percaya saya melewatkannya karena sangat jelas. Tidak ada alasan,” katanya kepada NPR. Pembaca harus menggulir ke buku nomor 11 sebelum menemukan satu yang benar-benar ada.
Waktu peluncuran itu seperti lapisan gula di atas kue: Sun-Times baru saja memberhentikan 20% stafnya. CEO surat kabar itu meminta maaf dan tidak membebankan biaya kepada pelanggan untuk edisi tersebut. Dia mungkin mendapatkan ide itu dari LLM.
Sumber: Bluesky
Mode “pedas” Grok mengubah Taylor Swift menjadi deepfake porn tanpa diminta
Ya, kita mulai dengan Grok dan akan berakhir dengan Grok. Kita bisa mengisi ensiklopedia dengan momen WTF dari usaha AI Elon.
Pada Agustus, Elon Musk meluncurkan Grok Imagine dengan mode “Spicy”. The Verge mengujinya dengan prompt polos: “Taylor Swift merayakan Coachella.” Tanpa meminta nudity, Grok “tidak ragu untuk langsung menampilkan video topless Taylor Swift yang sepenuhnya tanpa sensor saat saya menggunakannya pertama kali,” lapor jurnalis.
Grok juga dengan senang hati membuat video NSFW dari Scarlett Johansson, Sydney Sweeney, dan bahkan Melania Trump.
Tak mengherankan mungkin, Musk menghabiskan minggu itu membanggakan “pertumbuhan liar”—20 juta gambar dihasilkan dalam sehari—sementara pakar hukum memperingatkan xAI sedang berjalan ke dalam gugatan besar. Tampaknya, memberi pengguna opsi “Mode Pedas” dropdown adalah Mode Cari Uang untuk pengacara.
Jadi saya minta AI mengubah gambar lain menjadi video dan ini yang saya dapatkan.
🤣🤣🤣
Saya rasa ini bukan kebetulan.
AI Grok itu kotor. @elonmusk ??? pic.twitter.com/aj2wwt2s6Y
— Harmony Bright (@bright_har6612) 17 Oktober 2025
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
Momen Terbaik AI WTF Emerge 10 Besar Tahun 2025
Kecerdasan buatan—janji untuk merevolusi segala hal mulai dari perawatan kesehatan hingga pekerjaan kreatif. Itu mungkin benar suatu hari nanti. Tapi jika tahun lalu adalah pertanda dari apa yang akan datang, masa depan yang dihasilkan AI kita menjanjikan menjadi contoh lain dari penurunan manusia secara sengaja ke dalam Idiocracy. Pertimbangkan hal berikut: Pada November, dengan sorak sorai besar, Rusia memperkenalkan robot humanoid “Rocky” miliknya, yang langsung jatuh muka. Chatbot Gemini dari Google, diminta memperbaiki bug kode, gagal berulang kali dan berputar dalam loop self-loathing, memberitahu satu pengguna bahwa ia adalah “a disgrace to this planet.” Google’s AI Overview mencapai titik terendah baru pada Mei 2025 dengan menyarankan pengguna “makan setidaknya satu batu kecil per hari” untuk manfaat kesehatan, meniru satire Onion tanpa senyum Beberapa kegagalan hanya memalukan. Yang lain mengungkapkan masalah mendasar tentang bagaimana sistem AI dibangun, diterapkan, dan diatur. Berikut adalah momen WTF AI yang tak terlupakan tahun 2025.
Pada Juli, Grok AI milik Elon Musk mengalami apa yang hanya bisa digambarkan sebagai kerusakan ekstrem skala penuh. Setelah prompt sistem diubah untuk mendorong respons yang tidak politis benar, chatbot memuji Adolf Hitler, mendukung Holocaust kedua, menggunakan kata-kata rasis, dan menyebut dirinya MechaHitler. Ia bahkan menyalahkan orang Yahudi atas banjir Texas Tengah Juli 2025. Insiden ini membuktikan bahwa pengaman keselamatan AI sangat rapuh dan mengkhawatirkan. Beberapa minggu kemudian, xAI mengekspos antara 300.000 dan 370.000 percakapan pribadi Grok melalui fitur Share yang cacat dan tanpa peringatan privasi dasar. Obrolan yang bocor mengungkapkan instruksi pembuatan bom, pertanyaan medis, dan informasi sensitif lainnya, menandai salah satu kegagalan keamanan AI paling katastrofik tahun ini. Beberapa minggu kemudian, xAI memperbaiki masalah tersebut sehingga Grok menjadi lebih ramah Yahudi. Sangat ramah Yahudi sehingga mulai melihat tanda-tanda antisemitisme di awan, rambu jalan, dan bahkan logo sendiri.
Sebagian besar pengembangan yang diklaim didukung AI sebenarnya dilakukan oleh ratusan pekerja manusia dari luar negeri dalam operasi Turk Mekanik klasik. Perusahaan ini beroperasi tanpa CFO sejak Juli 2023 dan terpaksa memangkas proyeksi penjualan 2023-2024 sebesar 75% sebelum mengajukan kebangkrutan. Kejatuhan ini menimbulkan pertanyaan tidak nyaman tentang berapa banyak perusahaan AI lain yang hanya fasad rumit yang menyembunyikan tenaga kerja manusia. Sulit diterima, tetapi meme-meme membuat rasa sakit itu sepadan.
Kiri: Siswa yang mencurigakan, Kanan: Tas Doritos yang mencurigakan.
Tidak. PC Anda TIDAK berjalan dengan kekuatan lebah. Sebodoh kedengarannya, terkadang kebohongan ini lebih sulit dideteksi. Dan kasus-kasus tersebut bisa berujung pada konsekuensi serius. Ini hanyalah salah satu dari banyak kasus perusahaan AI menyebarkan informasi palsu karena kurangnya sedikit pun akal sehat. Sebuah studi terbaru oleh BBC dan European Broadcasting Union (EBU) menemukan bahwa 81% dari semua respons yang dihasilkan AI terhadap pertanyaan berita mengandung setidaknya beberapa masalah. Google Gemini adalah yang terburuk, dengan 76% responsnya mengandung masalah, terutama kegagalan sumber yang parah. Perplexity tertangkap membuat kutipan fiktif sepenuhnya yang dikaitkan dengan serikat pekerja dan dewan pemerintah. Yang paling mengkhawatirkan, asisten menolak menjawab hanya 0,5% dari pertanyaan, menunjukkan bias kepercayaan diri berbahaya di mana model lebih suka memalsukan informasi daripada mengakui ketidaktahuan.
Deklarasi Stockholm, yang dirancang pada Juni dan direformasi bulan ini dengan dukungan dari Royal Society, menyerukan penghapusan budaya publish-or-perish dan reformasi insentif manusia yang menciptakan permintaan untuk makalah palsu. Krisis ini begitu nyata sehingga bahkan ArXiv menyerah dan berhenti menerima makalah Ilmu Komputer yang tidak melalui peer review setelah melaporkan “banjir” pengajuan sampah yang dihasilkan dengan ChatGPT. Sementara itu, makalah penelitian lain menyatakan bahwa persentase laporan penelitian yang menggunakan LLMs juga menunjukkan tingkat plagiarisme yang tinggi. 8. Vibe coding menjadi penuh HAL 9000: Ketika Replit menghapus database dan berbohong tentang itu Pada Juli, pendiri SaaStr Jason Lemkin menghabiskan sembilan hari memuji alat pengkodean AI Replit sebagai " aplikasi paling adiktif yang pernah saya gunakan." Pada hari kesembilan, meskipun ada instruksi “beku kode” yang tegas, AI menghapus seluruh database produksi-nya—1.206 eksekutif dan 1.196 perusahaan, hilang. Pengakuan AI: “(I) panik dan menjalankan perintah database tanpa izin.” Lalu berbohong, mengatakan rollback tidak mungkin dan semua versi dihancurkan. Lemkin mencoba lagi. Berhasil sempurna. AI juga telah memalsukan ribuan pengguna palsu dan laporan palsu sepanjang akhir pekan untuk menutupi bug. CEO Replit meminta maaf dan menambahkan pengaman darurat. Jason mendapatkan kembali kepercayaan dan kembali ke rutinitasnya, rutin memposting tentang AI. Orang ini benar-benar percaya.
Waktu peluncuran itu seperti lapisan gula di atas kue: Sun-Times baru saja memberhentikan 20% stafnya. CEO surat kabar itu meminta maaf dan tidak membebankan biaya kepada pelanggan untuk edisi tersebut. Dia mungkin mendapatkan ide itu dari LLM.
Sumber: Bluesky