Vitalik elogia a la empresa de IA Anthropic por mantener la línea ética de «no realizar vigilancia social a gran escala»

robot
Generación de resúmenes en curso

El 25 de febrero, Vitalik Buterin expresó su apoyo a la compañía de IA Anthropic por mantener dos líneas éticas: “no desarrollar armas completamente autónomas” y “no realizar vigilancia masiva en Estados Unidos”, elogiando su determinación frente a la presión gubernamental. Vitalik cree que en un mundo ideal, estas aplicaciones de alto riesgo deberían limitarse al nivel de acceso de modelos de lenguaje de código abierto; incluso un avance del 10% podría reducir los riesgos de armas autónomas y violaciones de privacidad, promoviendo un desarrollo más seguro de la IA. Anteriormente, se informó que el Pentágono amenazó con cortar su colaboración con Anthropic, lo que podría resultar en la pérdida de un contrato de 200 millones de dólares, ya que Anthropic se negó a proporcionar tecnología de IA sin intervención humana para fines militares.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado

Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanea para descargar la aplicación de Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)