inteligencia artificial
La OMS lanza guía para uso ético y seguro de la IA en la salud
La OMS, hace cada vez más posible su uso en entornos médicos tales como el diagnóstico, la investigación de síntomas y tratamientos
La Organización Mundial de la Salud (OMS) lanzó hoy una guía con nuevas orientaciones éticas para fomentar y garantizar un uso seguro en el ámbito sanitario de los grandes modelos de lenguaje (LMM), un tipo de inteligencia artificial (IA) generativa en rápido desarrollo.
Capaces de generar textos y otros contenidos predictivos a partir del procesamiento masivo de datos, los LMM, como la controvertida herramienta Chat-GPT, avanzan con una presencia en nuestras vidas exponencial a los avances de la inteligencia artificial.
Ello, recuerda la OMS, hace cada vez más posible su uso en entornos médicos tales como el diagnóstico, la investigación de síntomas y tratamientos, el desarrollo de fármacos o las tareas de administración sanitaria.
Aunque los LMM están empezando a utilizarse para fines sanitarios específicos, la OMS alerta de que algunas de estas utilidades aún no están probadas ni se sabe si ofrecerán los beneficios esperados, lo que hace necesario establecer ciertas normas para su integración y uso con fines médicos y de salud pública.
Por ello, la guía documenta algunos de los potenciales riesgos para los sistemas sanitarios, como el llamado "sesgo de automatización", por el que se podrían producir declaraciones falsas, inexactas, sesgadas o incompletas, perjudicando a las personas que utilicen dicha información para tomar decisiones sanitarias.
Vulnerables a ciberataques
Los LMM, como otras formas de IA, también son vulnerables a riesgos de ciberseguridad que podrían poner en peligro la información de los pacientes o la fiabilidad de estos algoritmos y la prestación de asistencia médica, recuerda la organización sanitaria de la ONU.
Ante esto, el primer paso propuesto por la OMS para una aplicación segura y eficaz de los LMM en el sector sanitario es una participación "vertical e integrada" de todas las partes interesadas, incluyendo gobiernos, empresas tecnológicas, proveedores de atención sanitaria y sociedad civil.
A nivel gubernamental, se recomienda la inversión en infraestructuras públicas accesibles a los desarrolladores de las IA a cambio de adherirse a los principios éticos establecidos.
La OMS también aconseja a los gobiernos la promulgación de leyes que garanticen que los LMM cumplen con los derechos humanos, o la asignación de una agencia reguladora que evalúe si estas tecnologías cumplen con los requisitos antes de su uso.
En este sentido, el director del departamento de Salud Digital e Innovación de la OMS, Alain Labrique, aseguró en la presentación de la guía que "los gobiernos de todos los países deben liderar de forma cooperativa los esfuerzos para regular eficazmente el desarrollo y el uso de las tecnologías de IA, como los LMM".
Según la OMS, los esfuerzos también deberán aumentarse en todas las fases de desarrollo de los grandes modelos de lenguaje hacia un diseño "estructurado, inclusivo y transparente".
Participación de toda la sociedad
En él han de participar no sólo ingenieros y científicos, sino también los usuarios potenciales y todas las partes interesadas directas e indirectas, incluyendo proveedores de servicios médicos, profesionales de la salud y pacientes.
Los desarrolladores de estas tecnologías deberán también ser capaces de predecir y comprender los posibles efectos secundarios de las IA y diseñarlas para realizar tareas bien definidas con la precisión y fiabilidad necesarias para mejorar la capacidad de los sistemas sanitarios y promover los intereses de los pacientes.
No obstante, a pesar de los desafíos actuales que representan los LMM para el sector sanitario, la OMS también reconoce los enormes beneficios que la IA podría proporcionar a los sistemas de salud, incluida la mejora de la salud pública y el logro de la cobertura sanitaria universal.