Hechos Clave
- El 57% de los consumidores ha utilizado o utilizaría IA para responder preguntas legales, según una encuesta de Clio de diciembre de 2025
- Uno de cada tres estadounidenses utiliza herramientas de IA generativa para consejos de salud semanalmente, y uno de cada diez diariamente, según una encuesta de Zocdoc de 2025
- El 17% de los adultos en EE. UU. consulta chatbots de IA al menos una vez al mes para obtener información de salud, pero el 56% carece de confianza en su precisión
- Un tercio de los estadounidenses confiaría más en ChatGPT que en un experto humano, según una encuesta de Survey Monkey y Express Legal Funding de 2025
Resumen Rápido
Los chatbots de IA generativa se están convirtiendo rápidamente en el primer punto de consulta para los estadounidenses que buscan respuestas a complejas preguntas legales y médicas, funcionando como un híbrido digital de WebMD y LegalZoom. Este cambio está transformando fundamentalmente cómo las personas abordan los servicios profesionales y lo que esperan de médicos y abogados.
Encuestas recientes revelan la magnitud de esta transformación. En diciembre de 2025, la empresa de software legal Clio informó que el 57% de los consumidores ha utilizado o utilizaría IA para abordar preguntas legales. Mientras tanto, la empresa de tecnología en salud Zocdoc descubrió que un tercio de los estadounidenses consulta herramientas de IA para consejos de salud semanalmente, y uno de cada diez lo hace diariamente.
Los profesionales legales y médicos se están adaptando a una nueva realidad donde clientes y pacientes llegan armados con investigaciones generadas por IA. Si bien esto democratiza el acceso a la información, también crea fricciones mientras los profesionales trabajan para corregir conceptos erróneos y reconstruir la confianza. Las preocupaciones de privacidad son grandes, ya que compartir detalles de casos sensibles o historiales médicos con plataformas de IA de consumo puede anular las protecciones legales.
Profesionales Legales Se Enfrentan a Clientes Impulsados por IA
Jonathan Freidin, un abogado de negligencia médica en Miami, identifica a los usuarios de ChatGPT por patrones distintivos en sus comunicaciones. "Unas cuantas veces por semana", observa Freidin, "me doy cuenta de que las personas llenan la hoja de contacto de clientes de mi firma con texto lleno de emojis y encabezados. Ese es un signo revelador de que copiaron y pegaron de ChatGPT".
Muchos clientes afirman haber "hecho mucha investigación" usando herramientas de IA. Freidin señala: "Estamos viendo a muchos más llamadores que sienten que tienen un caso porque ChatGPT o Gemini les dijo que los médicos o enfermeras cayeron por debajo del estándar de atención de múltiples maneras diferentes. Si bien eso puede ser cierto, no necesariamente se traduce en un caso viable".
Jamie Berger, una abogada de derecho de familia en Nueva Jersey, describe cómo ha cambiado la dinámica. Anteriormente, los clientes sabían poco sobre los procedimientos de divorcio y buscaban información de los abogados. Ahora, llegan con planes genéricos paso a paso que a menudo no se ajustan a sus circunstancias específicas. Berger explica: "Tenemos que disipar la información que pudieron obtener frente a lo que realmente está sucediendo en su caso y trabajar hacia atrás".
Ella añade que el uso de IA cambia los patrones de comunicación: "Berger se da cuenta después de enviar un correo electrónico a un cliente si su tono cambia repentinamente, que podrían estar usando IA para escribir extensas estrategias legales o preguntas". Esto requiere reconstruir la relación abogado-cliente de maneras que no existían antes.
Uso de IA en Salud y Preocupaciones
Los profesionales médicos reportan patrones similares. Oliver Kharraz, CEO de Zocdoc, predice que "IA se convertirá en la herramienta principal para necesidades de pre-cuidado como verificación de síntomas, triaje y navegación, así como para tareas rutinarias como recargas y exámenes de detección". Sin embargo, advierte que "los pacientes reconocerán que no es un sustituto para la gran mayoría de las interacciones de atención médica, especialmente aquellas que requieren juicio humano, empatía o toma de decisiones complejas".
Los chatbots de IA ofrecen ventajas que los proveedores humanos luchan por igualar. Proporcionan respuestas inmediatas sin tiempos de espera y operan 24/7. Hannah Allen, directora médica de la herramienta de transcripción médica Heidi, explica el atractivo: "Realmente aman ese ritmo de poder saber que ChatGPT nunca se va, nunca se duerme, nunca dice no, nunca dice 'lo siento, tu lista es demasiado larga'".
Algunos médicos ven la IA como una herramienta útil de segunda opinión. Heidi Schrumpf, directora de servicios clínicos de la plataforma de teleterapia Marvin Behavioral Health, dice que los pacientes a veces verifican su consejo con ChatGPT. "Es genial que tengan acceso a una segunda opinión rápida", señala, "y luego, si no coincide conmigo, eso les permite hacerme mejores preguntas".
Sin embargo, la confianza en la precisión de la IA sigue siendo baja. Una encuesta de KFF de 2024 encontró que mientras el 17% de los adultos en EE. UU. consulta chatbots de IA mensualmente para información de salud, el 56% de esos usuarios carece de confianza en la precisión de la información proporcionada.
Riesgos de Privilegio y Privacidad ⚠️
Compartir información sensible con plataformas de IA de consumo conlleva riesgos legales significativos. Beth McCormack, decana de la Facultad de Derecho de Vermont, advierte sobre el privilegio abogado-cliente: "También existe el riesgo de anular el tipo de protecciones que las personas obtienen del privilegio de confidencialidad abogado-cliente si las personas ponen demasiada información específica sobre su caso en un chatbot".
La privacidad médica enfrenta vulnerabilidades similares. HIPAA, la ley federal que protege la información de salud confidencial, no se aplica a los productos de IA de consumo. Los pacientes que comparten historiales médicos completos con ChatGPT carecen de las protecciones legales que tendrían con los proveedores de atención médica.
McCormack enfatiza la complejidad de los asuntos legales: "Hay mucha sutileza en la ley. Depende tanto de los hechos". Esta sutileza a menudo se pierde en las respuestas generadas por IA, que pueden proporcionar consejos que suenan autoritarios pero son genéricos y no tienen en cuenta jurisdicciones o circunstancias específicas.
OpenAI ha reconocido estas preocupaciones. La empresa actualizó sus políticas el otoño pasado, especificando que los usuarios no pueden recurrir a ChatGPT para "la provisión de asesoramiento personalizado que requiere una licencia, como asesoramiento legal o médico, sin la participación adecuada de un profesional licenciado". Sin embargo, el chatbot continúa respondiendo preguntas relacionadas con la salud y el derecho.
El Futuro de los Servicios Profesionales
A pesar de los desafíos, algunos profesionales reconocen el potencial de la IA para aumentar el acceso. Golnoush Goharzad, abogada de lesiones personales y empleo en California, señala que la IA puede ayudar a las personas que no pueden costear los costos legales iniciales. Para aquellos que enfrentan desalojo o necesitan presentar reclamos menores, las herramientas de IA a veces han ayudado a asegurar victorias.
Sin embargo, Goharzad también se encuentra con amigos que creen que tienen demandas válidas basadas únicamente en la evaluación de ChatGPT. "Ella pregunta: '¿Por qué? Eso ni siquiera tiene sentido', y ellos dicen: 'bueno, ChatGPT piensa que tiene sentido'".
El consenso entre los expertos es que la resistencia es inútil. En lugar de luchar contra el uso de IA, los profesionales deben guiar a pacientes y clientes hacia una integración responsable. Schrumpf aconseja: "Necesitamos mantener como médicos en el fondo de nuestra mente que esta podría ser una herramienta que se está utilizando, y puede ser muy útil, especialmente con algo de orientación e integrándola en nuestros planes de tratamiento. Pero podría salirse de control si no prestamos atención".
Allen refuerza esta perspectiva: "En última instancia, necesitas a una persona humana para comprender los matices de la comunicación y las habilidades de comunicación más suaves, y las habilidades de comunicación no verbal, y el cuadro médico completo y la historia". A medida que la IA se vuelve ubicua, los profesionales deben asumir que sus clientes y pacientes la están utilizando, y adaptar sus prácticas.




