Saya baru saja membaca sebuah penyelidikan yang dirilis kemarin di The New Yorker yang membuat banyak orang terkejut. Ronan Farrow dan Andrew Marantz mewawancarai lebih dari 100 orang, mendapatkan memoranda internal yang belum pernah dipublikasikan, dan bahkan lebih dari 200 halaman catatan pribadi Dario Amodei (pendiri Anthropic, yang keluar dari OpenAI). Hasilnya pada dasarnya adalah sebuah bom.



Semua dimulai dengan sebuah dokumen 70 halaman yang disusun oleh Ilya Sutskever, kepala ilmuwan OpenAI, pada musim gugur 2023. Dia mengumpulkan pesan dari Slack, komunikasi dengan HR, notulen rapat. Tujuannya? Menjawab satu pertanyaan sederhana: Apakah Sam Altman, yang mungkin mengendalikan teknologi paling berbahaya dalam sejarah, dapat dipercaya? Jawaban Sutskever di baris pertama: Sam menunjukkan pola konsisten... kebohongan.

Contohnya sangat spesifik. Pada Desember 2022, Altman meyakinkan dewan bahwa fitur GPT-4 sudah melewati tinjauan keamanan. Ketika mereka meminta dokumen persetujuan, mereka menemukan bahwa dua dari yang paling kontroversial (penyesuaian kustom dan penerapan asisten pribadi) tidak pernah disetujui. Kemudian ada kasus di India, di mana Microsoft meluncurkan ChatGPT sebelum tinjauan keamanan selesai. Sutskever juga mencatat bahwa Altman mengatakan kepada CTO Mira Murati bahwa proses keamanan tidak begitu penting karena penasihat hukum sudah menyetujui. Ketika Murati memeriksa dengan penasihat hukum? Dia menjawab: "Saya tidak tahu dari mana Sam mendapatkan itu."

Tapi yang paling dingin adalah tentang tim "penyelarasan super". Pada pertengahan 2023, Altman menghubungi seorang mahasiswa dari Berkeley yang meneliti penyelarasan AI, sangat khawatir dengan masalah tersebut, berbicara tentang hadiah penelitian sebesar 1 miliar dolar. Orang itu keluar dari universitas, bergabung dengan OpenAI. Lalu Altman berubah pikiran: membuat tim internal alih-alih hadiah, dan secara publik mengumumkan akan mengalokasikan 20% dari kapasitas komputasi perusahaan (potensi lebih dari 1 miliar). Bahasa yang sangat serius, berbicara tentang "kepunahan manusia" jika penyelarasan tidak diselesaikan.

Dalam kenyataannya? Empat orang yang pernah bekerja di sana mengatakan bahwa hanya dialokasikan 1-2% dari kapasitas total, dengan perangkat keras lama. Tim tersebut dibubarkan tanpa menyelesaikan apa pun. Ketika wartawan meminta wawancara dengan orang-orang yang bertanggung jawab atas penelitian "keamanan eksistensial", jawaban dari tim humas adalah: "Itu bukan sesuatu yang benar-benar ada."

Dan ada lagi. Sarah Friar, CFO OpenAI, secara serius berbeda pendapat dengan Altman tentang IPO. Dia merasa bahwa perusahaan belum siap - banyak birokrasi yang tertunda dan risiko dari janji Altman untuk menghabiskan 600 miliar dalam kapasitas komputasi sangat tinggi. Tapi Altman ingin mempercepat ke Q4 tahun ini. Yang aneh? Friar tidak lagi melapor langsung ke Altman. Sejak Agustus 2025, dia melapor ke Fidji Simo, CEO bisnis aplikasi. Dan Simo sedang cuti sakit sejak minggu lalu.

Seorang mantan anggota dewan menggambarkan Altman seperti ini: dia sangat ingin menyenangkan secara tatap muka, tetapi pada saat yang sama menunjukkan sikap hampir sosiopat terhadap konsekuensi dari menipu. Kombinasi yang sangat jarang. Tapi untuk seorang penjual? Ini adalah bakat yang sempurna. Bahkan eksekutif Microsoft tidak tahan lagi, mengatakan bahwa Altman "mengubah fakta, memutuskan janji, dan secara konstan membatalkan kesepakatan." Salah satu dari mereka membandingkannya dengan Bernie Madoff atau SBF.

Sekarang, mengapa ini begitu penting? Karena OpenAI bukan perusahaan teknologi biasa. Mereka mengembangkan teknologi yang mampu merestrukturisasi ekonomi global, menciptakan senjata bio-kimia dalam skala besar, atau meluncurkan serangan siber. Semua mekanisme keamanan saat ini pada dasarnya bersifat formal. Misi tanpa laba berubah menjadi perlombaan IPO. Mantan kepala ilmuwan menganggap Altman tidak dapat dipercaya. Orang yang bertanggung jawab atas keamanan keluar dan mendirikan Anthropic karena perbedaan mendasar tentang bagaimana AI harus dikembangkan.

Gary Marcus, profesor AI di NYU, kemudian menulis: jika model masa depan dari OpenAI mampu menciptakan senjata bio-kimia atau serangan siber yang bencana, apakah Anda benar-benar merasa aman meninggalkan keputusan itu sepenuhnya kepada Altman?

Jawaban dari OpenAI? Pada dasarnya mengabaikan tuduhan spesifik, tidak menyangkal memoranda, hanya mempertanyakan motif sumbernya. Altman tidak menjawab secara langsung.

Sepuluh tahun OpenAI dalam satu paragraf: sekelompok idealis membentuk NGO yang peduli dengan risiko AI, mencapai kemajuan yang signifikan, menarik modal besar, modal menuntut pengembalian, misi menyerah ruang, tim keamanan dibubarkan, dissiden diusir, struktur tanpa laba berubah menjadi entitas yang menguntungkan, dewan yang bisa menutup perusahaan sekarang penuh dengan sekutu CEO. Lebih dari seratus saksi menggunakan label yang sama untuk tokoh utama: "tidak dibatasi oleh kebenaran". Dan sekarang sedang menuju IPO dengan valuasi di atas 850 miliar.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan