La IA debe desarrollarse teniendo en cuenta los resultados de salud mental

Durante años, la inteligencia artificial se ha promocionado como un posible cambio de juego para la atención médica en los Estados Unidos. Más de una década desde la Ley de alta tecnología alentó a los sistemas hospitalarios a usar registros de salud electrónicos (EHR) para la gestión de datos de pacientes, ha habido una explosión en la cantidad de datos de atención médica generados, almacenados y disponibles para generar conocimientos y tomar decisiones clínicas.

La motivación para integrar la IA en los servicios de salud mental ha crecido durante la pandemia. La Kaiser Family Foundation reportó un incrementar en adultos que experimentan síntomas de ansiedad y depresión, de 1 de cada 10 adultos antes de la pandemia a 4 de cada 10 adultos a principios de 2021. Junto con una escasez nacional de profesionales de la salud mental, así como oportunidades limitadas para el apoyo de salud mental en persona, las herramientas impulsadas por IA podrían usarse como un punto de entrada a la atención midiendo e interviniendo de forma automática y remota para reducir los síntomas de salud mental.

Muchas nuevas empresas de salud mental están integrando IA en sus ofertas de productos. Salud de Woebot desarrolló un chatbot que brinda terapia a pedido a los usuarios a través del procesamiento del lenguaje natural (NLP). Salud primaveral aprovecha el aprendizaje automático impulsado por los datos históricos de los pacientes para impulsar recomendaciones de tratamiento personalizadas. Las grandes empresas de tecnología también comienzan a sumergirse en este espacio: Apple se asoció recientemente con UCLA para desarrollar algoritmos que miden los síntomas de la depresión utilizando datos recopilados en dispositivos Apple.

Sin embargo, también hemos visto que la IA está lejos de ser perfecta. Ha habido baches notables en el camino en otras áreas de la medicina que revelan las limitaciones de la IA y, en particular, los modelos de aprendizaje automático que impulsan su toma de decisiones. Por ejemplo, Epic, uno de los desarrolladores de software EHR más grandes de los Estados Unidos, implementó una herramienta de predicción de sepsis en cientos de hospitales. Los investigadores encontraron que el la herramienta funcionó mal en muchos de estos sistemas hospitalarios. Se utilizó un algoritmo ampliamente utilizado para referir a las personas a programas de “administración de atención de alto riesgo”. menos probable que se refiera negros que blancos que estaban igualmente enfermos. A medida que se lanzan productos de IA para la salud mental, los tecnólogos y los médicos deben aprender de las fallas pasadas de las herramientas de IA para crear intervenciones más efectivas y limitar los daños potenciales.

nuestro reciente investigar describe tres áreas en las que las tecnologías de salud mental impulsadas por IA pueden tener un rendimiento inferior en el uso.

  • Comprender a las personas: Primero, puede ser difícil para las herramientas de medición de salud mental de IA contextualizar las diferentes formas en que las personas experimentan cambios en la salud mental. Por ejemplo, algunas personas duermen más cuando experimentan un episodio depresivo, mientras que otras duermen menos, y es posible que las herramientas de inteligencia artificial no puedan comprender estas diferencias sin una interpretación humana adicional.
  • Adaptarse con el tiempo: en segundo lugar, las tecnologías de IA deben adaptarse a las necesidades continuas de los pacientes a medida que evolucionan. Por ejemplo, durante la pandemia de COVID-19, nos vimos obligados a adaptarnos a nuevas normas personales y profesionales. Del mismo modo, las herramientas de medición de la salud mental impulsadas por IA deben adaptarse a las nuevas rutinas de comportamiento, y las herramientas de tratamiento deben ofrecer un nuevo conjunto de opciones para adaptarse a las prioridades cambiantes de los usuarios.
  • Recopilación de datos uniformes: en tercer lugar, las herramientas de IA pueden funcionar de manera diferente en los dispositivos debido a las diferentes políticas de acceso a los datos creadas por los fabricantes de dispositivos. Por ejemplo, muchos investigadores y empresas están desarrollando medidas de salud mental de IA utilizando datos recopilados de tecnologías como los teléfonos inteligentes. Apple no permite que los desarrolladores recopilen muchos tipos de datos disponibles en Android, y muchos estudios han creado y validado medidas de salud mental de IA exclusivamente con dispositivos Android.

Conociendo estas áreas de enfoque, investigado si una herramienta de inteligencia artificial basada en teléfonos inteligentes pudiera medir la salud mental entre personas que experimentan diferentes síntomas de salud mental, utilizando diferentes dispositivos. Si bien la herramienta fue bastante precisa, los diferentes síntomas y tipos de datos recopilados en los dispositivos limitaron lo que nuestra herramienta podía medir en comparación con las herramientas evaluadas en poblaciones más homogéneas. A medida que estos sistemas se implementen en poblaciones más grandes y diversas, será más difícil satisfacer las necesidades de los diferentes usuarios.

Dadas estas limitaciones, ¿cómo desarrollamos de manera responsable herramientas de IA que mejoren la atención de la salud mental? Como mentalidad general, los tecnólogos no deben asumir que las herramientas de IA funcionarán bien cuando se implementen, sino que deben trabajar continuamente con las partes interesadas para reevaluar las soluciones a medida que tienen un rendimiento inferior o no están alineadas con las necesidades de las partes interesadas.

Por un lado, no debemos asumir que las soluciones tecnológicas siempre son bienvenidas. La historia prueba esto; Está bien establecido que la introducción de EHR mayor agotamiento del proveedor y son notoriamente difíciles de usar. Del mismo modo, debemos comprender cómo las tecnologías de salud mental de IA pueden afectar a las diferentes partes interesadas dentro del sistema de salud mental.

Por ejemplo, los chatbots de terapia impulsados ​​por IA pueden ser una solución adecuada para los pacientes que experimentan síntomas leves de salud mental, pero los pacientes que experimentan síntomas más graves necesitarán apoyo adicional. ¿Cómo habilitamos esta transferencia de un chatbot a un proveedor de atención? Como otro ejemplo, las herramientas de medición continua pueden proporcionar un método remoto y menos arduo para medir la salud mental de los pacientes. Pero, ¿a quién se le debería permitir ver estas medidas y cuándo deberían estar disponibles? Es posible que los médicos, que ya están sobrecargados y experimentan una sobrecarga de datos, no tengan tiempo para revisar estos datos fuera de la cita. Al mismo tiempo, los pacientes pueden sentir que la recopilación y el intercambio de datos violan su privacidad.

Las organizaciones que implementan tecnologías de salud mental de IA deben comprender estas complejidades para tener éxito. Al trabajar con las partes interesadas para identificar las diferentes formas en que las herramientas de IA interactúan e impactan a las personas que brindan y reciben atención, es más probable que los tecnólogos construyan soluciones que mejoren la salud mental del paciente.

Dan Adler es estudiante de doctorado en Cornell Tech, donde trabaja en el laboratorio de computación People-Aware Computing Lab construyendo tecnología para mejorar la salud mental y el bienestar.

Leave a Comment

Your email address will not be published.