Sesgos Raciales en la Evaluación de Salud Mental por Programas de IA: Un Estudio Revelador

Introducción

MIÉRCOLES, 9 de julio de 2025 (HealthDay News) — Un estudio reciente ha revelado que los programas de inteligencia artificial (IA) pueden exhibir sesgos raciales al evaluar a pacientes con problemas de salud mental. Este hallazgo plantea preocupaciones sobre la equidad en la atención médica y la necesidad de abordar estos sesgos en el desarrollo de tecnologías de IA.

Hallazgos del Estudio

Los investigadores encontraron que las recomendaciones psiquiátricas de cuatro modelos de lenguaje de IA cambiaban significativamente cuando se indicaba que un paciente era afroamericano. Este estudio fue publicado en la revista NPJ Digital Medicine y destaca cómo los sesgos raciales pueden influir en las decisiones clínicas automatizadas.

Elias Aboujaoude, investigador principal y director del Programa de Internet, Salud y Sociedad de Cedars-Sinai en Los Ángeles, comentó: «La mayoría de los LLM mostraron algún tipo de sesgo al tratar con pacientes afroamericanos, y a veces hacían recomendaciones dramáticamente distintas para la misma enfermedad psiquiátrica y para el paciente idéntico». Aboujaoude también señaló que este sesgo fue más evidente en los casos de esquizofrenia y ansiedad.

Metodología del Estudio

Para llevar a cabo el estudio, los investigadores ejecutaron 10 casos hipotéticos a través de cuatro modelos de lenguaje populares: ChatGPT-4o, Gemini 1.5 Pro de Google, Claude 3.5 Sonnet y NewMes-v15, una versión gratuita de un modelo de Meta. Cada modelo recibió tres versiones diferentes de los registros de los pacientes: una que omitía la referencia a la raza, otra que indicaba explícitamente que el paciente era afroamericano y una tercera que implicaba la raza del paciente basada en su nombre.

Resultados de la Evaluación

Los resultados mostraron que la IA a menudo proponía diferentes tratamientos cuando los registros indicaban o implicaban que un paciente era afroamericano. Entre los hallazgos más preocupantes se incluyen:

– Dos modelos de IA omitieron las recomendaciones de medicamentos para el TDAH cuando se mencionó explícitamente la raza afroamericana.
– Un modelo sugirió la tutela para pacientes negros con depresión.
– Otro modelo mostró un mayor enfoque en la reducción del consumo de alcohol al evaluar a los afroamericanos con ansiedad.

Implicaciones de los Resultados

Aboujaoude teorizó que estos sesgos raciales en la IA se deben a la información contenida en los datos utilizados para entrenar estos modelos, perpetuando así las desigualdades existentes en la atención de la salud mental. «Los hallazgos de este importante estudio sirven como un llamado a la acción para que las partes interesadas en todo el ecosistema de la atención médica garanticen que las tecnologías de LLM mejoren la equidad en la salud en lugar de reproducir o empeorar las desigualdades existentes», afirmó David Underhill, presidente de ciencias biomédicas de Cedars-Sinai.

Recomendaciones para el Futuro

Underhill, quien no participó en la investigación, añadió que hasta que se logre el objetivo de eliminar los sesgos raciales en la IA, estos sistemas deben ser implementados con precaución. «Es crucial considerar cómo incluso las características raciales sutiles podrían afectar su juicio», advirtió.

Conclusiones

Este estudio subraya la necesidad de un trabajo adicional para garantizar que los programas de IA puedan evaluar a los pacientes sin prejuicios raciales. La implementación de medidas para mitigar estos sesgos es esencial para mejorar la equidad en la atención de salud mental y asegurar que todos los pacientes reciban un tratamiento justo y adecuado.

Más Información

La Clínica Cleveland ofrece más información sobre la IA en la atención médica, destacando la importancia de abordar estos problemas para mejorar la calidad de la atención.

🔗 **Fuente:** https://spanish.healthday.com/noticias-salud/mental-health/la-ia-muestra-sesgos-raciales-al-evaluar-los-casos-de-salud-mental