Data mengungkap bahwa “Claude menjadi kurang cerdas” bukan sekadar mitos kota; model AI yang tidak stabil menjadi risiko perusahaan

ChainNewsAbmedia

Setelah AI menjadi alat standar untuk perusahaan, sebuah fenomena yang sebelumnya dianggap sebagai masalah “rasa/insting” kini cepat muncul ke permukaan: LLM (Large Language Model / model bahasa besar) sedang “menjadi lebih bodoh”. Pengguna Wisely Chen menunjukkan bahwa apa yang disebut “LLM turun kecerdasannya” bukanlah cerita hantu, melainkan sudah bisa dilacak secara berkelanjutan melalui data, dan sedang memberi dampak nyata terhadap alur kerja perusahaan.

Ia memberi contoh dari pengalaman pribadinya: pada 15 April, layanan seri Claude milik Anthropic mengalami penurunan layanan secara menyeluruh, termasuk claude.ai, API, dan Claude Code semuanya menampilkan “Degraded Performance”. Ini bukan sekadar melambat atau kesalahan yang sesekali terjadi, melainkan kualitas responsnya jelas runtuh, bahkan sampai muncul kondisi yang membuatnya tidak bisa digunakan dengan normal, sehingga tiga tugas pengembangan yang ia kerjakan pada hari itu semuanya terlambat.

Situasi seperti ini mungkin hanya penurunan efisiensi bagi pengembang individu, tetapi bagi tim TI perusahaan dampaknya menjadi berlipat ganda. Ketika sebuah tim memiliki banyak insinyur yang secara bersamaan bergantung pada alat AI untuk coding, penulisan dokumen, dan otomatisasi proses, penurunan level model sekali terjadi berarti produktivitas keseluruhan pada waktu yang sama mengalami penurunan kolektif, yang kemudian berubah menjadi kehilangan waktu dan biaya yang cukup besar.

AI terasa jadi lebih bodoh? Data membuktikan “sudah lama turun derajat”

Wisely Chen menyebutkan bahwa, “GPT jadi lebih bodoh”, “Claude tidak seperti dulu” dan sejenisnya sudah lama beredar di komunitas, tetapi selama ini kurang mendapat dukungan data objektif dalam jangka panjang. Baru hingga baru-baru ini muncul platform pemantauan berkelanjutan atas kualitas model, fenomena ini pertama kali dapat dikuantifikasi.

Di antaranya, StupidMeter melakukan uji otomatis 24 jam terhadap model-model utama termasuk OpenAI, Anthropic, dan Google, serta melacak indikator seperti akurasi, kemampuan penalaran, dan stabilitas. Berbeda dengan benchmark sekali jalan tradisional, sistem semacam ini lebih mendekati cara pemantauan API atau ketersediaan layanan di perusahaan: mengamati fluktuasi performa model di lingkungan penggunaan yang nyata.

Hasil datanya cukup jelas: saat ini sebagian besar model utama berada dalam status peringatan atau penurunan, hanya sedikit model yang tetap normal. Ini berarti kualitas model tidak stabil bukanlah masalah satu produk saja, melainkan fenomena umum di seluruh industri.

LLM diam-diam turun kecerdasannya, memengaruhi stabilitas workflow AI perusahaan

Bagi perusahaan, perubahan seperti ini berarti AI telah beralih dari “alat untuk meningkatkan efisiensi” menjadi “variabel yang memengaruhi stabilitas”. Jika alur kerja harian perusahaan—mulai dari menulis program, melakukan code review, hingga menghasilkan dokumen dan laporan analisis—sudah sangat bergantung pada LLM, maka ketika pada suatu hari kemampuan penalaran model turun atau kualitas jawaban tidak memadai, masalah-masalah ini tidak akan muncul secara lokal seperti bug pada perangkat lunak tradisional, melainkan akan merembes ke semua tahap penggunaan AI secara bersamaan.

Yang lebih penting, fluktuasi seperti ini sering kali sulit diprediksi dan sulit disadari secara cepat. Kebanyakan perusahaan tidak memiliki mekanisme untuk memantau kualitas model secara berkelanjutan; biasanya baru menyadari masalah tersebut setelah output hasil menjadi tidak normal, atau setelah efisiensi tim menurun. Dalam situasi seperti ini, “penurunan kecerdasan” bukan lagi sekadar persepsi subjektif pengguna, melainkan sebuah risiko sistemik yang secara langsung memengaruhi ritme operasional perusahaan.

Saat AI menjadi seperti listrik dan air, stabilitas menjadi indikator kunci baru

Wisely Chen membandingkan peran LLM dengan “listrik dan air untuk perusahaan modern”. Ketika AI sudah masuk jauh ke dalam operasi harian dan menjadi kemampuan dasar yang tidak bisa diabaikan, pentingnya stabilitas pun ikut meningkat.

Dulu, saat perusahaan menilai alat AI, fokusnya lebih banyak pada kemampuan model, harga, dan fungsi, tetapi seiring munculnya fenomena “penurunan kecerdasan”, indikator lain yang lebih penting pun mulai tampak: stabilitas. Ketika kualitas model dapat berubah tanpa pemberitahuan, perusahaan tidak lagi hanya “menggunakan AI”, melainkan harus mulai menanggung risiko infrastruktur jenis baru. Yang lebih putus asa lagi adalah, jika hanya melihat model bahasa besar yang berada di garis depan, pada dasarnya selama masalah komputasi/beban daya (compute) belum terselesaikan, hal ini masih bisa terus terjadi.

Artikel ini Data mengungkap “Claude turun kecerdasan” bukanlah cerita hantu: ketidakstabilan model AI menjadi risiko bagi perusahaan Muncul pertama kali di Rantai Berita ABMedia.

Penafian: Informasi di halaman ini dapat berasal dari pihak ketiga dan tidak mewakili pandangan atau opini Gate. Konten yang ditampilkan hanya untuk tujuan referensi dan bukan merupakan nasihat keuangan, investasi, atau hukum. Gate tidak menjamin keakuratan maupun kelengkapan informasi dan tidak bertanggung jawab atas kerugian apa pun yang timbul akibat penggunaan informasi ini. Investasi aset virtual memiliki risiko tinggi dan rentan terhadap volatilitas harga yang signifikan. Anda dapat kehilangan seluruh modal yang diinvestasikan. Harap pahami sepenuhnya risiko yang terkait dan buat keputusan secara bijak berdasarkan kondisi keuangan serta toleransi risiko Anda sendiri. Untuk detail lebih lanjut, silakan merujuk ke Penafian.

Artikel Terkait

Ekonom menyebutkan peluang kerja setelah gelombang pengangguran akibat AI: nilai kelangkaan beralih ke “layanan emosional”

Imas menunjukkan bahwa AI tidak akan sepenuhnya menggantikan tenaga manusia, melainkan memindahkan kelangkaan menjadi ekonomi yang berpusat pada emosi dan relasi. Eksperimen Starbucks mengungkap kelemahan otomatisasi, dan retensi pelanggan bergantung pada cara memperlakukan tamu serta suasana. Transformasi struktur historis dan fenomena Baumol menjelaskan bahwa AI menurunkan harga produk berbasis standardisasi, sehingga kelangkaan bergeser menuju nilai persepsi tinggi yang memerlukan interaksi interpersonal. Titik fokus di masa depan ada pada layanan emosional dan bidang seperti buatan tangan, tetapi isu distribusi global dan pendapatan dasar masih perlu diselesaikan.

ChainNewsAbmedia6menit yang lalu

Artefak Claude Live: Dasbor terhubung langsung ke Aplikasi, pembaruan otomatis secara real-time

Berdasarkan pengumuman resmi X dari Claude, Anthropic meluncurkan fitur Live Artifacts di Cowork aplikasi desktop Claude pada 20 April, memungkinkan grafik, dasbor, dan pelacak yang dihasilkan AI untuk langsung terhubung dengan aplikasi dan file pengguna, serta otomatis diperbarui dengan data terbaru saat dibuka. Live Artifacts dibuka untuk pengguna Cowork dari semua paket berbayar Claude (Pro, Max, Team, Enterprise). Fitur inti Live Artifacts: dari output statis hingga keterhubungan secara real-time Di masa lalu, setelah Claude Artifacts dihasilkan, keduanya langsung terlepas dari kenyataan—jika pengguna ingin memperbarui data, satu-satunya cara adalah menempelkan ulang data, lalu meminta Claude menghasilkan ulang. L

ChainNewsAbmedia26menit yang lalu

Startup Penyimpanan AI Korea Selatan Dnotitia Menggalang Pendanaan Seri A Senilai $61.2M

Pesan dari Gate News, 21 April — startup penyimpanan AI asal Korea Selatan Dnotitia menggalang 90 miliar won (US$61.2 juta) dalam putaran pendanaan Seri A yang dipimpin oleh Elohim Partners. Kiwoom Investment dan Shinhan Venture Investment juga ikut berpartisipasi dalam putaran tersebut. Produk utama Dnotitia adalah database vektor Seahorse

GateNews29menit yang lalu

Pendirian Pi Network 7 Mei membahas identifikasi identitas manusia di era AI pada Consensus 2026

Pendiri Pi Network, Nicolas Kokkalis, akan menghadiri konferensi Consensus 2026 yang diadakan di Miami pada 7 Mei, dengan bergabung dalam panel ahli yang membahas isu identitas manusia dalam era kecerdasan buatan (AI) secara daring. Berdasarkan susunan acara resmi, diskusi panel kali ini akan menghadirkan para ahli di bidang identitas, privasi, dan kepercayaan digital.

MarketWhisper1jam yang lalu

DeepX dan Hyundai Motor Group Mengembangkan Platform Chip AI Berdaya Rendah untuk Robot

DeepX asal Korea Selatan dan Lab Robotika milik Hyundai Motor Group berkolaborasi untuk mengembangkan platform komputasi AI berdaya rendah bagi aplikasi robotik real-time. Dengan memanfaatkan chip DX-M2 dari DeepX, kemitraan ini bertujuan mengoptimalkan robotika dengan biaya dan konsumsi daya yang lebih rendah, mencerminkan tren penggunaan chip khusus di industri.

GateNews1jam yang lalu

Playdate Melarang Seni, Musik, dan Teks yang Dibuat AI; Asisten Pengodean Masih Diizinkan

Panic Inc. mengumumkan larangan penggunaan alat AI generatif untuk seni, musik, penulisan, dan dialog dalam game untuk konsol Playdate-nya. Asisten penulisan kode berbasis AI diperbolehkan dengan pengungkapan. Keputusan ini mengikuti reaksi balik atas game yang dikembangkan oleh AI.

GateNews2jam yang lalu
Komentar
0/400
Tidak ada komentar