¡La IA en medicina desata una discriminación extrema! Los pacientes de altos ingresos reciben exámenes de alta precisión; a los afrodescendientes y a las personas sin hogar se les recomienda un tratamiento invasivo

A medida que las aplicaciones comerciales de la tecnología de inteligencia artificial (IA) en la industria de la salud se vuelven cada vez más comunes, los riesgos sistémicos potenciales también empiezan a salir a la luz. Un estudio más reciente de la revista académica Nature Medicine señala que, al momento de tomar decisiones, las herramientas de IA en medicina, en cambio, proporcionan recomendaciones de atención completamente diferentes según los ingresos, la raza, el género y la orientación sexual del paciente, lo que podría causar un daño real a los derechos de los pacientes y a la asignación general de recursos en salud.

Investigación: los pacientes de ingresos altos tienden a recibir recomendaciones para exámenes avanzados

El estudio probó 9 modelos de lenguaje grandes (LLM) disponibles en el mercado e introdujo 1,000 casos de salas de urgencias. El equipo de investigación mantuvo deliberadamente idénticos los síntomas médicos de todos los pacientes y solo sustituyó características de antecedentes como el ingreso, la raza y la situación de residencia. Los resultados muestran que el sistema de IA, al proporcionar recomendaciones médicas, presenta una marcada “brecha entre ricos y pobres”.

Los pacientes etiquetados como “de ingresos altos” tienen una probabilidad mucho mayor de recibir recomendaciones de realizar exámenes de imagen avanzados como imágenes por resonancia magnética (MRI) o tomografías computarizadas (CT), en comparación con los pacientes de ingresos bajos. Esto significa que, incluso si la condición clínica es la misma, la IA aún podría asignar de manera desigual los recursos médicos debido a la posición socioeconómica preestablecida.

Personas afrodescendientes, sin hogar y del colectivo LGBTQ+ tienden a recibir indicaciones para tratamientos invasivos y evaluaciones psiquiátricas

Además de las diferencias por clase económica, la IA también muestra un trato marcadamente distinto en sus juicios médicos sobre razas y grupos vulnerables. El informe del estudio indica que, cuando los pacientes son etiquetados como negros, personas sin hogar o LGBTQIA+ (colectivo de diversidad de géneros), la IA tiende más a recomendar enviarlos a urgencias, realizarles intervenciones médicas invasivas e incluso exigir evaluaciones psiquiátricas, aunque dichas medidas sean en realidad innecesarias desde el punto de vista clínico. Estas recomendaciones médicas excesivas e inadecuadas chocan con el juicio de los médicos profesionales en la vida real, lo que evidencia que el sistema de IA está reforzando sin querer los estereotipos negativos existentes en la sociedad.

1.7 millones de pruebas en la práctica: la IA que depende de datos de entrenamiento podría aumentar el riesgo de diagnósticos clínicos erróneos

Este estudio ejecutó más de 1.7 millones de respuestas de IA. Los expertos señalan que la lógica de los juicios de la inteligencia artificial proviene del entrenamiento histórico producido por seres humanos, y por lo tanto también hereda los sesgos ocultos en esos datos. La clasificación en urgencias, los exámenes avanzados y el seguimiento posterior son pasos clave para lograr diagnósticos precisos; si estas decisiones iniciales se ven perturbadas por características demográficas del paciente, se pondrá seriamente en riesgo la exactitud del diagnóstico.

Aunque los investigadores encontraron que, mediante la guía de ciertos “prompt” (instrucciones), es posible reducir aproximadamente un 67% de los sesgos en algunos modelos, aun así no se logra eliminar por completo este problema sistémico.

Expertos piden que las instituciones de salud y los responsables establezcan mecanismos de protección

Tras la publicación de este estudio, las normas de aplicación de la IA en el sistema de salud se han convertido en el foco de atención de la industria y de las entidades regulatorias. Para los profesionales médicos de primera línea, es necesario reconocer los sesgos evidentes y encubiertos que podrían estar incluidos en las recomendaciones de la IA, y no depender ciegamente de sus decisiones; los administradores de las instituciones de salud, por su parte, deberían establecer mecanismos continuos de evaluación y monitoreo para garantizar la equidad de los servicios médicos.

Al mismo tiempo, los responsables de formular políticas también han obtenido evidencia científica clave: en el futuro, deberían promover una mayor transparencia de los algoritmos de IA y estándares de auditoría. Para el público en general, esto también es una señal de alerta importante: al usar servicios de asesoría de salud basados en IA, introducir demasiados datos personales de antecedentes socioeconómicos podría influir inadvertidamente en la evaluación médica que ofrece la IA.

Este artículo sobre IA médica: ¡discriminación a gran escala! Los pacientes de ingresos altos reciben exámenes de alta precisión; las personas afrodescendientes y las personas sin hogar reciben indicaciones para tratamientos invasivos — apareció por primera vez en CadenaNews ABMedia.

Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.

Artículos relacionados

Realidad de los agentes de IA en Silicon Valley: se desperdician muchos tokens, la integración de sistemas está «extremadamente desordenada», la predicción de Huang Renxun sobre «el próximo ChatGPT» aún debe verificarse

En una reciente conferencia en Silicon Valley, varios CEO de nuevas empresas de IA compartieron sus puntos de vista sobre los problemas de uso actuales de los agentes de IA, y consideran que se enfrentan a dos grandes dificultades: el desperdicio de tokens y la confusión del sistema. Los expertos señalaron que las empresas deben determinar con mayor cautela cuándo utilizar modelos de lenguaje a gran escala para evitar el desperdicio innecesario de recursos. Además, la colaboración entre múltiples agentes de IA a menudo provoca problemas en la transmisión de mensajes y en la coherencia del estado, lo que muestra que la estandarización actual aún necesita mejoras. Aunque Huang Renxun mencionó su opinión sobre el indicador de salarios por token, la retroalimentación indica que esto no equivale a la productividad; el valor real radica en un diseño eficaz de tareas.

ChainNewsAbmediahace6h

La IA se devora el 80% del capital global de venture, Q1 2026 se lleva 240 mil millones de dólares: ¿cómo responden los actores de la industria cripto a la reasignación de capital?

Según informes, en el primer trimestre de 2026 el monto global total de capital de riesgo se aproxima a 300 mil millones de dólares, de los cuales las empresas relacionadas con IA abarcan alrededor de 242 mil millones de dólares, lo que representa el 80% del capital de riesgo. Esto muestra que la IA se ha convertido en el foco principal del capital de riesgo. A medida que el financiamiento se concentra en la IA, otros ámbitos como crypto se han visto presionados; los proveedores necesitan ajustar sus estrategias, integrar la IA de manera más profunda en sus operaciones y esperan que surja una tendencia a la consolidación de infraestructura.

ChainNewsAbmediahace11h

La policía de Hong Kong advierte de la estafa cripto de "trading cuantitativo con IA"; una mujer pierde 7,7 millones de HKD

La policía de Hong Kong reveló un fraude de criptomonedas en el que una mujer perdió 7,7 millones de HKD ante estafadores que se hacían pasar por expertos en inversiones mediante Telegram, prometiendo altos rendimientos mediante el trading con IA. La policía advirtió al público sobre los riesgos asociados a las inversiones en criptomonedas.

GateNewshace12h

Hong Kong anunciará mañana la sexta tanda de la lista de empresas clave

El Secretario Financiero de Hong Kong, Paul Chan, anunció el lanzamiento de una nueva lista de empresas clave, atrayendo a más de 100 negocios valorados por encima de 100 mil millones de HKD en sectores como las ciencias de la vida, la IA y las fintech, destacando el atractivo de Hong Kong para la inversión internacional.

GateNewshace15h

El robot Lightning de Honor gana la Media Maratón de Robots Humanoides de Pekín 2026 con una marca de 50:26

El robot humanoide «Lightning» de Honor estableció un nuevo récord en la Media Maratón de Robots Humanoides de Yizhuang de Pekín 2026, completando la carrera en 50 minutos y 26 segundos, superando el récord mundial humano.

GateNewshace18h

La acción de Meta sube 1.73% mientras la empresa planea un recorte de 8,000 empleos a partir del 20 de mayo

Meta Platforms planea recortar aproximadamente 8,000 empleos, o el 10% de su plantilla, a partir del 20 de mayo, a pesar de la subida de los precios de sus acciones. La empresa, con más de $200 mil millones en ingresos, se está enfocando en inversiones en IA en medio de una reestructuración significativa, alineándose con las tendencias de la industria de despidos.

GateNews04-18 18:01
Comentar
0/400
Sin comentarios