Buscar

MUNDIARIO

Los robots terapeutas necesitan reglas

El uso de la inteligencia artificial encarnada en psiquiatría plantea cuestiones éticas.

Los robots terapeutas necesitan reglas
La humanidad frente a la inteligencia artificial. / RR SS
La humanidad frente a la inteligencia artificial. / RR SS

Firma

Sara Rada

Sara Rada

La autora, SARA RADA, es colaboradora de MUNDIARIO. Comunicadora social venezolana, ejerce como redactora creativa y productora audiovisual en distintos medios digitales internacionales. @mundiario

Las interacciones con la inteligencia artificial (IA) se convertirán en un aspecto cada vez más común de nuestras vidas. Un equipo de la Universidad Técnica de Munich (TUM) ha completado el primer estudio de cómo la "IA encarnada" puede ayudar a tratar la enfermedad mental. Su conclusión: las cuestiones éticas importantes de esta tecnología siguen sin respuesta. Hay una necesidad urgente de acción por parte de los gobiernos, asociaciones profesionales e investigadores.

Las muñecas robot que enseñan a los niños autistas a comunicarse mejor, avatares generados por computadora que ayudan a los pacientes a sobrellevar las alucinaciones y chats virtuales que ofrecen apoyo para la depresión: ya existen numerosas iniciativas que utilizan la IA incorporada para mejorar la salud mental. Estas aplicaciones se conocen como incorporadas porque implican interacciones entre individuos y un agente artificial, lo que resulta en una dinámica completamente nueva.

El uso de la IA en psicoterapia no es nuevo como tal. En la década de 1960, los primeros chats crearon la ilusión de una sesión de psicoterapia. En realidad, sin embargo, esto era poco más que un truco. Con los algoritmos avanzados de hoy en día y una mayor potencia de cálculo, mucho más es posible. "Los algoritmos detrás de estas nuevas aplicaciones se han entrenado con enormes conjuntos de datos y pueden producir declaraciones terapéuticas genuinas", explica Alena Buyx, profesora de Ética en Medicina y Tecnologías de la Salud en TUM. Con la Dra. Amelia Fiske y Peter Henningsen, profesor de medicina psicosomática y psicoterapia, realizó la primera encuesta sistemática de las aplicaciones de AI en la salud mental y extrajo conclusiones sobre las oportunidades y los desafíos relacionados.

Acceso a tratamiento para más personas

Las nuevas aplicaciones tienen un enorme potencial. Pueden hacer que el tratamiento sea accesible para más personas porque no se limitan a horarios o lugares específicos. Además, a algunos pacientes les resulta más fácil interactuar con la IA que con un ser humano. Pero también hay riesgos. "Los métodos de AI no pueden y no deben usarse como un sustituto más barato para el tratamiento de los médicos humanos", dice Amelia Fiske.

"Aunque la IA incorporada ha llegado al mundo clínico, todavía hay muy pocas recomendaciones de las asociaciones médicas sobre cómo abordar este problema. Sin embargo, se necesitan medidas urgentes para poder explotar los beneficios de estas tecnologías mientras se evitan las desventajas y se garantiza se han establecido controles razonables. Los médicos jóvenes también deberían estar expuestos a este tema cuando aún están en la escuela de medicina ", dice Peter Henningsen, decano de la Escuela de Medicina TUM.

Todavía faltan reglas éticas para la inteligencia artificial

En la actualidad, se están realizando mayores esfuerzos para elaborar directrices para la IA, incluidas las Directrices de ética para la IA de confianza que acaba de emitir la UE. Sin embargo, Buyx, Fiske y Henningsen también ven una necesidad urgente de regular el uso de la IA en campos especializados. "Las aplicaciones terapéuticas de IA son productos médicos para los que necesitamos procesos de aprobación y pautas éticas apropiadas", dice Alena Buyx. "Por ejemplo, si los programas pueden reconocer si los pacientes tienen pensamientos suicidas, entonces deben seguir protocolos claros de advertencia, al igual que los terapeutas, en caso de preocupaciones graves".

Además, se necesita un estudio intensivo sobre los efectos sociales de la IA encarnada. "Tenemos muy poca información sobre cómo los seres humanos nos vemos afectados por el contacto con la IA terapéutica", dice Alena Buyx. "Por ejemplo, a través del contacto con un robot, un niño con un trastorno en el espectro del autismo solo puede aprender a interactuar mejor con los robots, pero no con las personas".   @mundiario