El software como dispositivo medico ha tomado un interés creciente en los últimos años; supone nuevos desafíos en cuanto a armonización y regulación, que son abordados por el International Medical Device Regulators Forum (IMDRF), establecido en el año 2011. Tanto la Unión Europea (Mercado Interior, Industria, Emprendimiento y Pymes) como EEUU (FDA) son elementos activos de este foro, del que la OMS es observador. A destacar que el órgano competente en la materia en la UE depende del Comisario responsable del mercado interior e industria, mientras que en EEUU depende del Department of Health and Human Services.
En la Unión Europea, el Reglamento (UE) 2017/745 sobre productos sanitarios, incluye los “Sistemas electrónicos programables”, productos que llevan incorporados sistemas electrónicos programables, o programas informáticos que constituyan productos por sí mismos.
La FDA por su parte, es el organismo regulador del Software as a Medical Device (SaMD), y cuenta con normas específicas para su evaluación: Software as a Medical Device (SAMD): Clinical Evaluation. La FDA hace una evaluación de riesgos en estos productos similar a la del resto, basada en: significación de la información dada por el dispositivo para la decisión clínica, y la situación clínica en la que se aplica.
Estos algoritmos usan una función fija, por lo que el dispositivo es un producto cerrado y por tanto no modificado con su propio uso; la FDA tiene indicaciones acerca de cuándo las modificaciones del producto le han de ser notificadas.
El marco regulador no fue diseñado para las tecnologías de inteligencia artificial / máquinas que aprenden (en lo sucesivo IA), en las que los algoritmos no están bloqueados, y tienen capacidad de “aprender” continuamente de la experiencia de uso, con datos del mundo real, experimentando por tanto modificaciones después de su distribución. Por ello la FDA ha publicado la Proposed Regulatory Framework for Modifications to Artificial Intelligence/Machine Learning (AI/ML)-Based Software as a Medical Device (SaMD) – Discussion Paper and Request for Feedback. Abre el debate sobre una proposición regulatoria de los dispositivos a la largo de su ciclo de vida.
Lejos de un planteamiento futurista, se trata de responder a investigaciones de big data, que no dejan de ser un paso necesario e instrumental en las estrategias generales de inteligencia artificial, en un contexto en el que será difícil establecer la diferencia entre los proyectos de desarrollo de los de atención a pacientes.
(Lo que sigue a continuación está tomado de una revisión). En el sector salud, hay iniciativas de proyectos de inteligencia artificial en el ámbito de la investigación en cribados, diagnóstico y pronóstico, generalmente en el ámbito de un hospital concreto, lo que da problemas de reproductibilidad y generalización. No obstante, los avances son muy rápidos.
Para los más optimistas, la IA ayudará a resolver los grandes desafíos de los sistemas de salud; no obstante hay que ser conscientes que la irrupción de nuevas tecnologías y procesos automatizados, siempre va acompañada de tensiones derivadas de su impacto en las personas e interacción persona-máquina. Para suavizar estas tensiones es preciso crear contextos receptivos para la adopción y difusión de las nuevas tecnologías.
En el caso de la IA en salud, este contexto necesita, entre otras cosas, disponer de datos adecuados, una regulación que lo permita, garantías legales y salvaguarda de los derechos ciudadanos, rendición de cuentas y gestión adecuada del cambio.
En cuanto a los datos, son relevantes temas como interoperabilidad, sus sesgos, o la confianza de las personas para compartir sus datos personales. En cuanto a las relaciones con la industria tecnológica se presentan situaciones nuevas en cuanto al necesario acceso a los datos para generar algoritmos, la propiedad industrial, el dato de salud como bien público, y los nuevos tipos de relaciones contractuales.
Los sistemas de IA se comportan como una caja negra, siendo difícil entender y explicar su funcionamiento interno; esto tiene implicaciones al hacer efectivo el derecho europeo a solicitar una explicación de una decisión tomada mediante procesos automáticos. Se apunta que la rendición de cuentas será diferente en función del tipo de problema que es resuelto por los sistemas de IA.
La superior eficiencia del sistema de IA no es el único elemento a considerar para su implantación; su impacto en otros procesos y la organización en conjunto, tienen especial relevancia.
De lo anterior se deduce que la dimensión ética de la irrupción de estas tecnologías es importante. Vamos teniendo referencias importantes al respecto: la Unión Europea ha desarrollado Ethics guidelines for trustworthy AI, y específico para salud, el Hastings Center ha publicado How Bioethics Can Shape Artificial Intelligence and Machine Learning.
Todo un campo dentro de la ética digital.