Acabo de notar un detalle interesante sobre Sam Altman y lo que está haciendo con OpenAI. La contradicción entre lo que dice públicamente y lo que hace en privado no es común.



Empecemos con un evento reciente en San Francisco, el 10 de abril, aproximadamente a las 03:40 horas. Un joven de 20 años llamado Daniel Moreno-Gama lanzó una bomba incendiaria contra la puerta del apartamento de Altman. El fuego se propagó en la entrada y luego huyó. Aproximadamente una hora después, la misma persona apareció cerca de la oficina de OpenAI y amenazó con prender fuego otra vez, antes de ser arrestado.

Dos días después, el 12 de abril, a la 01:40 horas, un Honda estacionado en la casa de Altman en una colina fue disparado. Un pasajero extendió la mano por la ventana y disparó hacia la casa. Las cámaras de seguridad registraron la matrícula. Posteriormente, arrestaron a dos sospechosos, ambos acusados de disparos imprudentes.

Lo interesante es que el sospechoso del primer ataque, Moreno-Gama, tiene preocupaciones sobre la inteligencia artificial avanzada. Escribió en redes sociales, citando a Dune, que la falla en alinear la IA representa un riesgo para la existencia humana. Criticó a los líderes tecnológicos que arriesgan el destino de la humanidad en busca de ideas de "poshumanismo".

Tras el primer ataque, Altman escribió una publicación en su blog, aceptando la postura moral de los opositores y llamando a un debate público "menos directo y comparativo". También respondió a un artículo profundo de The New Yorker, publicado poco antes del ataque, diciendo: "He subestimado el poder de las narrativas en los medios y las palabras". Dos días después, su residencia fue disparada otra vez.

Este hecho está vinculado a una tendencia mayor. En diciembre de 2024, el CEO de UnitedHealthcare fue asesinado a tiros fuera de un hotel. El sospechoso era un graduado de una universidad de élite, que dejó un mensaje criticando la industria de seguros de salud. El caso generó reacciones inusuales en redes sociales, con muchos usuarios mostrando empatía hacia el atacante.

Tras este incidente, la seguridad de los ejecutivos pasó de ser un "beneficio" a una "necesidad de supervivencia", según Fortune. Los ataques físicos contra ejecutivos de grandes empresas aumentaron un 225% desde 2023. En las empresas del índice S&P 500, el 33.8% reportó gastos en seguridad ejecutiva en 2025, frente al 23.3% en 2020.

El gasto promedio en seguridad corporativa fue de 130,000 dólares, un aumento del 20% respecto al año anterior y duplicándose en cinco años. La industria de la IA es la que más ha sentido y evidenciado esta tendencia.

Los gastos en seguridad de los CEOs en las 10 principales empresas tecnológicas en 2024 superaron los 45 millones de dólares. Solo Mark Zuckerberg gastó más de 27 millones, más que el total combinado de los CEOs de Apple, Google y otras cuatro empresas. Jensen Huang de NVIDIA gastó 3.5 millones en 2025, un aumento del 59% respecto al año anterior. Suna Pichai de Google gastó 8.27 millones, un incremento del 22%.

Pero la industria de la IA tiene algo que otras no tienen: sus creadores también creen que esta tecnología podría destruir la civilización. Una encuesta de Pew Research en 2025, con 28,333 personas en todo el mundo, encontró que solo el 16% se sentía entusiasmado con la IA, mientras que el 34% expresaba preocupación. Lo más sorprendente es que quienes tienen mayor educación y mayores ingresos están más preocupados por la IA fuera de control.

Recientemente, la casa de un concejal de Indianápolis, Ron Jibson, fue disparada 13 veces. Su hijo de 8 años se despertó por los disparos. En la puerta había un cartel escrito a mano que decía "Prohibido construir centros de datos". El FBI intervino. Investigadores de la Universidad de Washington señalaron que los centros de datos están convirtiéndose en objetivos de grupos radicales anti-tecnología y anti-gobierno.

Este miedo no es secreto en la industria, pero no se expresa abiertamente. Altman construyó un búnker en Wyoming en 2016, el mismo año en que OpenAI fue fundada. Mientras hablaba en público sobre las enormes oportunidades de la IA, en privado acumulaba armas y se preparaba para una fuerza civil.

La narrativa principal de OpenAI en los últimos cinco años ha sido enfatizar la gravedad de la amenaza de la "existencia" de la AGI, para que los gobiernos regulen, los inversores entiendan los riesgos y la industria se dé cuenta de que no puede permitirse fallar en esta competencia. La frase "es la tecnología más peligrosa en la historia de la humanidad", que tras su difusión, no se limita solo al sector tecnológico. Se transmite y, en algunos casos, se convierte en una orden de acción.

Moreno-Gama escribió en Instagram: "El progreso exponencial combinado con la incoherencia equivale a un riesgo para la supervivencia". Esta estructura argumental proviene de varios documentos clave en investigación en seguridad de IA, muchos de los cuales han sido respaldados o avalados por OpenAI.

El 27 de febrero de este año, OpenAI firmó un acuerdo con el Departamento de Defensa de EE. UU. para que el ejército pudiera usar ChatGPT en redes clasificadas de defensa. El mismo día, Altman expresó su apoyo a la postura de Anthropic, que limita el uso militar de la IA.

Las desinstalaciones de ChatGPT aumentaron un 295% en un día, las reseñas de una estrella subieron un 775% en 24 horas. La campaña QuitGPT reunió a más de 1.5 millones de participantes. El 21 de marzo, unos 200 manifestantes marcharon en San Francisco, cruzando por Anthropic, OpenAI y xAI, exigiendo a los CEOs detener el desarrollo de IA avanzada. Al mismo tiempo, en Londres, se realizó la marcha anti IA más grande hasta la fecha.

Los búnkeres y la seguridad de Altman están diseñados para afrontar dos tipos de riesgos diferentes: uno externo y otro de lo que él mismo está creando. Él toma en serio ambos riesgos en privado, pero públicamente solo admite uno.

Un artículo profundo de The New Yorker, publicado la misma semana del primer ataque, entrevistó a más de 100 testigos. La principal crítica fue simplemente "no creíble". El artículo cita a un exmiembro del consejo de OpenAI que llamó a Altman "una persona con una personalidad antisocial" y "no atada a la verdad". Varios colegas describieron cómo cambió de postura respecto a la seguridad de la IA repetidamente y ajustó su estructura de poder cuando fue necesario.

En su publicación, Altman admite que tiende a evitar conflictos. Creó una narrativa pública de que "la IA es una amenaza existencial" para usarla como herramienta para recaudar fondos y negociar regulaciones. Pero, en última instancia, esa herramienta se le escapó de las manos, circuló una vez y volvió a golpear su puerta.
Ver original
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado