Setelah AI menjadi alat standar untuk perusahaan, sebuah fenomena yang sebelumnya dianggap sebagai masalah “rasa/insting” kini cepat muncul ke permukaan: LLM (Large Language Model / model bahasa besar) sedang “menjadi lebih bodoh”. Pengguna Wisely Chen menunjukkan bahwa apa yang disebut “LLM turun kecerdasannya” bukanlah cerita hantu, melainkan sudah bisa dilacak secara berkelanjutan melalui data, dan sedang memberi dampak nyata terhadap alur kerja perusahaan.
Ia memberi contoh dari pengalaman pribadinya: pada 15 April, layanan seri Claude milik Anthropic mengalami penurunan layanan secara menyeluruh, termasuk claude.ai, API, dan Claude Code semuanya menampilkan “Degraded Performance”. Ini bukan sekadar melambat atau kesalahan yang sesekali terjadi, melainkan kualitas responsnya jelas runtuh, bahkan sampai muncul kondisi yang membuatnya tidak bisa digunakan dengan normal, sehingga tiga tugas pengembangan yang ia kerjakan pada hari itu semuanya terlambat.
Situasi seperti ini mungkin hanya penurunan efisiensi bagi pengembang individu, tetapi bagi tim TI perusahaan dampaknya menjadi berlipat ganda. Ketika sebuah tim memiliki banyak insinyur yang secara bersamaan bergantung pada alat AI untuk coding, penulisan dokumen, dan otomatisasi proses, penurunan level model sekali terjadi berarti produktivitas keseluruhan pada waktu yang sama mengalami penurunan kolektif, yang kemudian berubah menjadi kehilangan waktu dan biaya yang cukup besar.
AI terasa jadi lebih bodoh? Data membuktikan “sudah lama turun derajat”
Wisely Chen menyebutkan bahwa, “GPT jadi lebih bodoh”, “Claude tidak seperti dulu” dan sejenisnya sudah lama beredar di komunitas, tetapi selama ini kurang mendapat dukungan data objektif dalam jangka panjang. Baru hingga baru-baru ini muncul platform pemantauan berkelanjutan atas kualitas model, fenomena ini pertama kali dapat dikuantifikasi.
Di antaranya, StupidMeter melakukan uji otomatis 24 jam terhadap model-model utama termasuk OpenAI, Anthropic, dan Google, serta melacak indikator seperti akurasi, kemampuan penalaran, dan stabilitas. Berbeda dengan benchmark sekali jalan tradisional, sistem semacam ini lebih mendekati cara pemantauan API atau ketersediaan layanan di perusahaan: mengamati fluktuasi performa model di lingkungan penggunaan yang nyata.
Hasil datanya cukup jelas: saat ini sebagian besar model utama berada dalam status peringatan atau penurunan, hanya sedikit model yang tetap normal. Ini berarti kualitas model tidak stabil bukanlah masalah satu produk saja, melainkan fenomena umum di seluruh industri.
LLM diam-diam turun kecerdasannya, memengaruhi stabilitas workflow AI perusahaan
Bagi perusahaan, perubahan seperti ini berarti AI telah beralih dari “alat untuk meningkatkan efisiensi” menjadi “variabel yang memengaruhi stabilitas”. Jika alur kerja harian perusahaan—mulai dari menulis program, melakukan code review, hingga menghasilkan dokumen dan laporan analisis—sudah sangat bergantung pada LLM, maka ketika pada suatu hari kemampuan penalaran model turun atau kualitas jawaban tidak memadai, masalah-masalah ini tidak akan muncul secara lokal seperti bug pada perangkat lunak tradisional, melainkan akan merembes ke semua tahap penggunaan AI secara bersamaan.
Yang lebih penting, fluktuasi seperti ini sering kali sulit diprediksi dan sulit disadari secara cepat. Kebanyakan perusahaan tidak memiliki mekanisme untuk memantau kualitas model secara berkelanjutan; biasanya baru menyadari masalah tersebut setelah output hasil menjadi tidak normal, atau setelah efisiensi tim menurun. Dalam situasi seperti ini, “penurunan kecerdasan” bukan lagi sekadar persepsi subjektif pengguna, melainkan sebuah risiko sistemik yang secara langsung memengaruhi ritme operasional perusahaan.
Saat AI menjadi seperti listrik dan air, stabilitas menjadi indikator kunci baru
Wisely Chen membandingkan peran LLM dengan “listrik dan air untuk perusahaan modern”. Ketika AI sudah masuk jauh ke dalam operasi harian dan menjadi kemampuan dasar yang tidak bisa diabaikan, pentingnya stabilitas pun ikut meningkat.
Dulu, saat perusahaan menilai alat AI, fokusnya lebih banyak pada kemampuan model, harga, dan fungsi, tetapi seiring munculnya fenomena “penurunan kecerdasan”, indikator lain yang lebih penting pun mulai tampak: stabilitas. Ketika kualitas model dapat berubah tanpa pemberitahuan, perusahaan tidak lagi hanya “menggunakan AI”, melainkan harus mulai menanggung risiko infrastruktur jenis baru. Yang lebih putus asa lagi adalah, jika hanya melihat model bahasa besar yang berada di garis depan, pada dasarnya selama masalah komputasi/beban daya (compute) belum terselesaikan, hal ini masih bisa terus terjadi.
Artikel ini Data mengungkap “Claude turun kecerdasan” bukanlah cerita hantu: ketidakstabilan model AI menjadi risiko bagi perusahaan Muncul pertama kali di Rantai Berita ABMedia.
Artikel Terkait
Ekonom menyebutkan peluang kerja setelah gelombang pengangguran akibat AI: nilai kelangkaan beralih ke “layanan emosional”
Artefak Claude Live: Dasbor terhubung langsung ke Aplikasi, pembaruan otomatis secara real-time
Startup Penyimpanan AI Korea Selatan Dnotitia Menggalang Pendanaan Seri A Senilai $61.2M
Pendirian Pi Network 7 Mei membahas identifikasi identitas manusia di era AI pada Consensus 2026
DeepX dan Hyundai Motor Group Mengembangkan Platform Chip AI Berdaya Rendah untuk Robot
Playdate Melarang Seni, Musik, dan Teks yang Dibuat AI; Asisten Pengodean Masih Diizinkan