Acabo de darme cuenta de que tanto Anthropic como OpenAI han ajustado bastante sus promesas de seguridad. En Anthropic, se eliminó una promesa central de la directriz para un crecimiento responsable, concretamente: el compromiso de pausar el entrenamiento de IA si las medidas de mitigación de riesgos no son suficientes. Jared Kaplan, director científico de Anthropic, justifica esto con la realidad de un mercado altamente competitivo. Una pausa unilateral simplemente no es factible bajo presión de la competencia.



De manera similar en OpenAI: la misión fue reformulada y se eliminó la palabra 'seguro'. En cambio, ahora se enfoca en que la IA debe beneficiar a la humanidad. Esto, por supuesto, cumple con las expectativas de inversores y políticos, pero también muestra cuán pragmáticas se han vuelto estas empresas.

El momento es interesante: Anthropic acaba de cerrar una ronda de financiación de 30 mil millones de dólares y está valorada en 380 mil millones. OpenAI aspira a hasta 100 mil millones, con respaldo de Amazon, Microsoft y Nvidia. Queda claro por qué se omiten esas formulaciones de seguridad: la presión es enorme.

Otro punto: Anthropic negó al Pentágono acceso completo a Claude, lo que generó tensiones con el secretario de Defensa de EE. UU., Pete Hegseth. Esto plantea preguntas sobre contratos de defensa y muestra que las preocupaciones de seguridad y la realidad geopolítica a veces se contradicen. Es interesante observar cómo esta industria se está redefiniendo en este momento.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado