La semana pasada tuve que detenerme y pensar en tres historias que salieron casi simultáneamente. Todas relacionadas con cómo la IA está siendo utilizada (o no) por instituciones importantes. Y honestamente, cuentan una historia mucho más grande sobre dónde estamos ahora.



Empiezo por la escuela en Manchester, en el Reino Unido. Usaron IA para revisar la biblioteca y la máquina sugirió eliminar 193 libros. Cada uno con su justificación automática. El '1984' de Orwell entró en la lista por 'contener temas de tortura y violencia'. Tipo, la IA censuró un libro que literalmente habla sobre censura. No puedo ni enojarme - es casi poético.

El bibliotecario de la escuela pensó que estaba mal y se negó a implementarlo. Luego viene la parte que me enojó: la escuela abrió una investigación contra él por 'seguridad infantil', lo denunció a las autoridades locales, y él terminó en licencia médica antes de simplemente renunciar. ¿La conclusión? Las autoridades acordaron que violó los protocolos. Básicamente, quien resistió a la IA perdió su empleo. ¿Y quién simplemente estuvo de acuerdo? Sin consecuencias.

Luego se supo que la propia escuela admitió internamente que todo fue generado por IA, pero aun así pensaron que era 'aproximadamente preciso'. Un gestor delegó a la máquina, la máquina devolvió algo que ella misma no entendía, y nadie se molestó en verificar de verdad.

Ahora contrasta esto con lo que hizo Wikipedia en la misma semana. Votaron 44 a 2 para prohibir que los LLMs generen o reescriban artículos. Porque una cuenta de IA llamada TomWikiAssist empezó a crear artículos automáticamente. Tarda segundos en generar, horas en que un voluntario verifique. Y aquí está el problema real: Wikipedia es fuente de entrenamiento para IA global. Si datos incorrectos entran allí, la próxima generación de modelos entrena con información contaminada. Es un ciclo de envenenamiento en capas.

Pero déjame contarte lo más loco. ¿OpenAI? Ellos también están reculando. Cancelaron el 'modo adulto' de ChatGPT que iban a lanzar. Sam Altman había dicho personalmente que 'tratar a los usuarios adultos como adultos'. Cinco meses después, cancelado. Porque el comité de salud interno votó unánimemente en contra. Razones específicas: dependencia emocional, menores saltándose la verificación de edad (tasa de error superior al 10%), riesgo real de daño.

En la misma semana también desactivaron la herramienta de video Sora y funciones de pago integradas. Altman dijo que era para centrarse en los negocios principales. Pero seamos honestos, la empresa está en proceso de IPO. Eliminar funciones polémicas cuando vas a salir a bolsa. Entonces ni los creadores de IA saben ya qué pueden o no hacer los usuarios con IA.

Aquí está el núcleo de todo esto: la velocidad con la que la IA produce contenido y la velocidad con la que los humanos pueden revisarlo no están en el mismo universo. Un director de escuela elige usar IA porque tarda minutos en lugar de semanas. No porque crea en la calidad. Es pura economía. Generar cuesta casi nada. Auditar cuesta todo.

Entonces cada institución afectada respondió de la forma más drástica posible. Prohibición directa. Cortes en líneas de producto. Ninguna fue una reflexión cuidadosa. Fueron medidas de emergencia. 'Tapar el agujero primero' se convirtió en norma.

Y aquí está el problema: la capacidad de la IA se actualiza cada pocos meses. No existe un marco internacional sobre qué puede o no puede hacer la IA. Cada institución dibuja su propia línea. Esas líneas se contradicen. Y mientras tanto, la velocidad de la IA sigue acelerándose. El número de personas revisando no aumenta. Esa diferencia solo crece. En algún momento, saldrá algo mucho peor que prohibir 1984. Y cuando llegue el momento de dibujar la línea definitiva, ¿será demasiado tarde?
Ver original
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado