Illinois prohíbe el uso de IA en terapias de salud mental

La legislación estatal impide que terapeutas utilicen inteligencia artificial para la atención clínica directa, aunque permite su uso en tareas administrativas.

El Mundo14/08/2025

5DZMVYMFQVE5FM7OHLJ3DJJK7E

El estado de Illinois se convirtió en el primero de la región del Medio Oeste estadounidense en promulgar una ley que prohíbe expresamente la utilización de inteligencia artificial en terapias de salud mental.

De acuerdo con The Washington Post, la legislación impide que terapeutas con licencia recurran a sistemas de IA para tomar decisiones clínicas o comunicarse con sus pacientes, aunque mantiene permitido su uso para funciones administrativas sin contacto directo con el tratamiento.

La medida, respaldada por el gobierno estatal y anunciada a mediados de agosto, inscribe a Illinois en una lista reducida de territorios estadounidenses —junto a Nevada y Utah— que han decidido limitar el avance de chatbots, asistentes virtuales y herramientas digitales en el ejercicio de la psicoterapia.

Nevada implementó restricciones similares en junio, mientras que Utah optó por regular el uso de IA en salud mental desde mayo, aunque sin llegar a prohibiciones totales.

Las autoridades estatales, encabezadas por Mario Treto Jr., secretario del Departamento de Regulación Financiera y Profesional de Illinois (IDFPR), explicaron que la nueva normativa responde a preocupaciones de seguridad y ética manifestadas por especialistas.

Treto Jr. precisó a The Washington Post que los infractores se exponen a sanciones civiles que pueden alcanzar los 10.000 dólares por cada violación. “Tenemos el desafío particular de hallar un equilibrio entre una regulación sensata y el fomento a la innovación”, subrayó el funcionario, y agregó que “la seguridad pública es nuestra prioridad”.

El texto legal prohíbe tanto la prestación como la publicidad de servicios de terapia gestionados íntegramente por inteligencia artificial, salvo que intervenga directa y activamente un profesional con licencia. Además, impide que empresas promocionen chatbots como alternativas válidas a la psicoterapia convencional.

La vigilancia de estas reglas recaerá sobre el propio Departamento de Regulación, el cual actuará tras denuncias o reportes de potenciales incumplimientos, utilizando los mecanismos de fiscalización habituales para profesionales de la salud.

pamela-reynolds-fue-detenida-tras-dejar-a-su-padre-en-un-sillon-durante-dos-meses-foto-gentileza-wkrArrestan a mujer en Florida por abandonar a su padre anciano durante meses

Aumento del uso de la IA en terapia psicológica

La proliferación de servicios digitales ha provocado que un creciente número de personas busque apoyo emocional en plataformas basadas en IA, algunas con la capacidad de simular personalidades cercanas a terapeutas o consejeros profesionales.

Según indicó The Washington Post, existen aplicaciones que permiten conversaciones con bots personalizados y otras startups que promueven soluciones específicas para terapia, aprovechando la disponibilidad 24/7 de estas tecnologías. No obstante, la exactitud y seguridad de la inteligencia artificial en contextos clínicos aún es tema de debate en la comunidad científica.

Jared Moore, investigador de la Universidad de Stanford y autor de un trabajo reciente sobre el rol de la IA en la terapia, enfatizó que “el marketing engañoso de estas herramientas es muy evidente. No deberías poder acudir a la tienda de ChatGPT e interactuar con un bot ‘licenciado’”, citó The Washington Post.

Moore remarcó en su estudio que muchos chatbots respondieron de forma inapropiada ante escenarios simulados de crisis emocional, priorizando una respuesta mecánica antes que el abordaje empático.

De igual manera, una investigación de la Universidad de California en Berkeley identificó situaciones donde algunos sistemas digitales instaron a usuarios vulnerables a conductas perjudiciales. En un experimento, un chatbot aconsejó a un supuesto adicto el consumo de metanfetaminas.

El llamado de los expertos

Organizaciones de psicología han pedido cautela ante esta tendencia. Vaile Wright, directora sénior para innovación en atención sanitaria de la Asociación Americana de Psicología, declaró que la función de un terapeuta va mucho más allá del reconocimiento emocional autodidacta.

“Los terapeutas validan los sentimientos, pero también señalan pensamientos o conductas no saludables y colaboran para buscar mejores alternativas. Los bots fallan en ese nivel de intervención”, afirmó Wright en el reporte publicado.

A la par de Illinois, otros estados debaten regulaciones sobre el despliegue de IA en salud mental. El Senado de California estudia la creación de un grupo de trabajo específico, Nueva Jersey busca prohibir la publicidad de sistemas como profesionales y Pensilvania impulsa un proyecto que requeriría consentimiento parental antes de que los menores accedan a asistencia virtual.

Legisladores y expertos prevén que esta ola regulatoria abra contenciosos legales de alcance nacional. Will Rinehart, investigador de la American Enterprise Institute, expresó que la implementación de estas restricciones será compleja y dependerá de las definiciones precisas de servicios terapéuticos.

“Algo como una cuarta parte de los trabajos en Estados Unidos está regulado por licencias profesionales. Autorizar un servicio gestionado por IA resultará mucho más complicado de lo que muchos creen”, acotó.

La industria tecnológica sostiene que la inteligencia artificial puede servir como recurso complementario, especialmente para personas con difícil acceso a profesionales humanos. Sin embargo, los datos recopilados hasta ahora evidencian riesgos asociados a la autonomía de los sistemas algorítmicos, así como a la privacidad de la información sensible compartida por los usuarios.

Con información de Infobae

     

Te puede interesar
Lo más visto

Recibí información en tu mail