Hechos Clave
- Google retiró resúmenes de salud de AI Overviews tras investigación revelar fallas peligrosas
- La IA proporcionó información inexacta de análisis de sangre hepáticos sin contexto ni ajustes demográficos
- Error crítico sugirió a pacientes de cáncer de páncreas evitar alimentos grasos, contradiciendo guía médica estándar
- Google desactivó consultas específicas como 'cuál es el rango normal para análisis de sangre hepáticos' pero dejó otras respuestas potencialmente dañinas
Resumen Rápido
Google retiró resúmenes específicos de AI Overviews tras una investigación que reveló que la característica proporcionaba información peligrosa y engañosa a los usuarios. Las retiradas ocurrieron después de que expertos señalaran los resultados de las consultas de análisis de sangre hepáticos como potencialmente dañinos, notando que la IA proporcionaba datos crudos sin contexto esencial ni ajustes demográficos.
También se identificó un error crítico respecto al consejo sobre cáncer de páncreas, donde la IA sugería evitar alimentos grasos, contradiciendo la guía médica estándar de mantener el peso. A pesar de estos hallazgos, Google solo desactivó resúmenes para consultas específicas de análisis hepáticos, dejando otras respuestas potencialmente dañinas accesibles. La investigación destacó que la definición de "normal" de la IA a menudo difería de los estándares médicos reales, causando potencialmente que pacientes con condiciones serias creyeran erróneamente que estaban sanos y omitieran el cuidado de seguimiento necesario.
Google Retira Resúmenes de Salud con IA Tras Investigación
Google retiró algunos de sus resúmenes de salud de AI Overviews después de que una investigación encontrara que las personas estaban siendo puestas en riesgo por información falsa y engañosa. Las retiradas llegaron después de que una investigación de un periódico revelara que la característica de IA generativa de Google proporcionaba información de salud inexacta en la parte superior de los resultados de búsqueda.
La investigación reveló que la IA podría llevar potencialmente a pacientes gravemente enfermos a concluir erróneamente que gozan de buena salud. Google desactivó consultas específicas, como "cuál es el rango normal para análisis de sangre hepáticos", después de que expertos señalaran los resultados como peligrosos.
A pesar de estos hallazgos, Google solo desactivó los resúmenes para las consultas de análisis hepáticos. Otras respuestas potencialmente dañinas permanecieron accesibles para los usuarios que buscan información de salud.
Errores Críticos en Información de Análisis Hepáticos
La investigación reveló que buscar los valores normales de análisis hepáticos generaba tablas de datos crudos que listaban enzimas específicas como ALT, AST y fosfatasa alcalina. Estas tablas carecían del contexto esencial que los pacientes necesitan para interpretar los resultados correctamente.
La característica de IA también falló en ajustar estas cifras según la demografía del paciente, como edad, sexo y etnia. Los expertos advirtieron que debido a que la definición de "normal" del modelo de IA a menudo difería de los estándares médicos reales, pacientes con condiciones hepáticas serias podrían creer erróneamente que están sanos y omitir el cuidado de seguimiento necesario.
Consejo sobre Cáncer de Páncreas Contradice Guía Médica
El reporte destacó un error crítico respecto a la información sobre cáncer de páncreas. La IA sugería a los pacientes evitar alimentos grasos, una recomendación que contradice la guía médica estándar.
Este consejo contradictorio podría poner en peligro la salud del paciente, ya que mantener el peso es a menudo crucial para los pacientes con cáncer. La investigación encontró este error específico entre varios casos donde la IA proporcionó información de salud que entraba en conflicto con protocolos médicos establecidos.
Preocupaciones Continuas Sobre Información de Salud con IA
La investigación expuso brechas significativas en cómo las características de IA generativa manejan información de salud sensible. Aunque Google respondió a quejas específicas sobre consultas de análisis hepáticos, el problema más amplio de consejos de salud potencialmente peligrosos sigue siendo una preocupación.
Los expertos continúan advirtiendo que sin el contexto adecuado y los ajustes demográficos, los resúmenes de salud generados por IA podrían llevar a interpretaciones erróneas serias. El incidente plantea preguntas sobre la confiabilidad de los sistemas de IA para proporcionar información médica a usuarios que pueden carecer de la experiencia para identificar errores.




