El principal peligro de la IA no es que algo pueda salir mal, sino lo rápido que sucede. Históricamente, el ser humano en la cadena de toma de decisiones ha sido una especie de fusible, lo que ralentizaba los procesos lo suficiente como para que en el momento adecuado entrara el juicio. La IA basada en agentes elimina completamente ese fusible. Solo las consecuencias de los ciberataques ofensivos deberían hacer que cualquier consejo de administración se mantenga alerta. Antes, la economía disuadía a los malintencionados de automatizar ataques en su totalidad: simplemente no era rentable. El aprendizaje automático elimina esa restricción. Cuando los sistemas de IA interactúan entre sí fuera de un entorno controlado y algo sale mal a la velocidad de la máquina, puede ser imposible detenerlo. Las consecuencias imprevistas de esta tecnología, sobre las que aún ni siquiera hemos comenzado a pensar, no se desarrollarán lentamente.

Ver original
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado