¿Está en China el futuro de la Vigilancia en Salud Pública?

LVigilancia Salud Publicaa vigilancia tecnológica a gran escala utilizada por China en respuesta a la pandemia de COVID-19 ha causado, en los primeros momentos, sorpresa e incluso admiración en una parte de la población, y en algunos profesionales de la salud pública y la tecnología. Una reflexión más profunda nos invita a ser más cautelosos y estar vigilantes ante las iniciativas de control social mediante la vigilancia tecnológica.

El desarrollo de la vigilancia tecnológica en China no es un hecho aislado, sino que obedece a una estrategia nacional. En julio de 2.017, el Consejo de Estado de la República Popular de China, aprobó ‘New Generation Artificial Intelligence Development Plan’ (AIDP), que tiene por objetivo conseguir que en el año 2030 China sea el líder mundial en inteligencia artificial. Nadie duda, ni en China ni fuera de China, de que ese objetivo será alcanzado:

“By 2030, China’s AI theories, technologies, and applications should achieve world-leading levels, making China the world’s primary AI innovation center, achieving visible results in intelligent economy and intelligent society applications, and laying an important foundation for becoming a leading innovation-style nation and an economic power”.

En esta estrategia, una gran compañía lidera los avances en cada campo: Baidu en el vehículo autónomo, Alibaba en Smart City, Tencent en el sector sanitario, etc. La estrategia tiene implicaciones importantes en el liderazgo internacional (inteligencia artificial en el ámbito militar), desarrollo económico y la gobernanza social.

En su estrategia, la gobernanza social tiene que contribuir a potenciar el estado del bienestar, dando respuesta a los efectos adversos que el desarrollo económico ha tenido en el medio ambiente y en la salud. Estos son tan notorios, que el presidente Xi Jinping indicó en 2017:  «Nos enfrentamos ahora a la contradicción entre el desarrollo desequilibrado e inadecuado y las crecientes necesidades de la gente de tener una vida mejor”. Este desequilibrio incluye también el vacío moral creado por el paso del período maoísta a la «apertura», por lo que la gobernanza incluye la regulación del comportamiento de los ciudadanos y la mejora de su integridad moral, tarea que compete al gobierno («Informe de Xi Jinping en el 19º Congreso Nacional del Partido Comunista de China», 2017).

Y es aquí donde surge el “Sistema de Crédito Social”, que tiene por objeto no sólo regular aspectos financieros  de los ciudadanos y financieros y de gobernanza de las empresas, sino también regular el comportamiento social de las personas, para luchar contra males sociales como la evasión de impuestos, fraudes alimentarios, deshonestidad académica, impago de deudas ……y por qué no, saltarse el confinamiento, fumar, alimentarse mal……y así sucesivamente. La vigilancia tecnológica, usando la inteligencia artificial y liderada por Alibaba, es el instrumento desarrollado para mejorar esta gobernanza social; la mayoría de los recursos que se han destinado al desarrollo de Smart City se han destinado a aspectos de vigilancia tecnológica, como son el reconocimiento facial y la computación en nube para fines policiales.

Esta situación no es sólo el reflejo de un estado totalitario, sino también algo que se enmarca en su contexto moral de ética confuciana: en comparación con la cultura cristiana occidental, hace un mayor énfasis en la responsabilidad social y en las relaciones de grupo y de comunidad y un menor interés en los derechos individuales. Este enfoque moral diferente, se pone igualmente de manifiesto en las prioridades de la inteligencia artificial en salud: mientras que en occidente la prioridad es la medicina personalizada, en China lo es la salud de la población. Y si miramos su punto de vista respecto a la respuesta a las pandemias, bioeticistas asiáticos han indicado que a su juicio, los aspectos éticos están en exceso basados en la moral occidental y han de adaptarse a las condiciones de cada parte del mundo.

En el ‘New Generation Artificial Intelligence Development Plan’ (AIDP) nos encontramos referencias a salud en los siguientes apartados:

  • Desarrollar servicios inteligentes adecuados y eficientes de Smart Health. Entre sus acciones incluye el fortalecimiento de la inteligencia epidemiológica para la monitorización, prevención y control.
  • Desarrollar sistemas inteligentes de salud y cuidado de ancianos. Acciones dirigidas a mejorar la gestión de los servicios sanitarios y disponibilidad de plataformas para mejorar la calidad de vida de las personas mayores.
  • Mejorar la seguridad pública y las medidas de seguridad mediante el uso de inteligencia artificial. Entre sus acciones incluye la seguridad alimentaria y los sistemas de monitorización y alerta temprana de respuesta a desastres.
  • Desarrollar proyectos prioritarios de investigación y desarrollo, entre los que incluye los de protección de la salud.

 Así pues, no resulta sorprendente que ante la COVID-19 hayan puesto en funcionamiento herramientas que se venían desarrollando en el marco de su estrategia nacional, y que se encuentran en condiciones de vendernos.

Interés privado en la investigación con datos de salud.

La digitaP_20190418_141737lización de los servicios sanitarios está generando un volumen de datos sin precedentes, tanto para la atención sanitaria como para su uso secundario. Este uso secundario ha despertado un gran interés en empresas sanitarias y tecnológicas, ante la posibilidad de desarrollar, mediante inteligencia artificial, nuevos medicamentos, dispositivos sanitarios y algoritmos de toma de decisiones, de gran impacto económico. Hay que destacar que el sector salud es prioritario en las estrategias gubernamentales de inteligencia artificial, para cuya ejecución se necesitan grandes volúmenes de datos.

El tratamiento de estos grandes volúmenes de datos plantea desafíos tecnológicos, metodológicos, organizativos, de seguridad, calidad y disponibilidad de los mismos; no obstante, se considera que los mayores retos son los éticos y de gobernanza. Tal es así, que la consultora Gartner incluyó la “Ética digital y privacidad” entre las 10 tendencias tecnológicos estratégicas para 2019 al mismo nivel, por ejemplo, que la “Computación cuántica”.

Hay que tener en cuenta que cuestionamientos éticos han abortado iniciativas gubernamentales como Care data del National Health Service (NHS) o el VISC+ en Cataluña, o incluso iniciativas de open data como la historia clínica electrónica en Australia o el CMBD en la Comunidad de Madrid (por problemas de posible reidentificación de datos anónimos). Por otra parte, el interés de las grandes corporaciones (Google, Microsoft, Amazon, Facebook y Alibaba) por los datos de salud está cada vez más cuestionado, con varios procesos judiciales en marcha; este interés se ha concretado en proyectos de colaboración tanto con centros privados, como con centros y servicios públicos de salud.

Los retos éticos y de privacidad que plantea el uso de datos masivos parecen ser mayores en su uso secundario en investigación (aunque es un uso legítimo) que, en su uso secundario en salud pública, planificación, evaluación o gestión. La investigación clínica sigue unos procedimientos muy consolidados, garantizándose la autonomía de las personas mediante el consentimiento informado. Igualmente ocurre, hasta ahora, en la investigación a partir de bases de datos, en la que no se solicita el consentimiento informado a cada una de las personas participantes, pero sus derechos están garantizados mediante procesos de anonimización de datos con los que no es posible la identificación de las personas.

El escenario de la investigación en salud a partir de bases de datos ha cambiado radicalmente con el big data:

  • Ha caído el paradigma de la anonimización, pues con la metodología y datos adecuados, es posible la reidentificación de personas en bases de datos en principio anonimizadas. Además, se ha diluido la frontera de lo que son datos de salud, dado que estos se pueden inferir a partir de otros que no lo son.
  • Los datos sanitarios (estructurados y no estructurados) han adquirido una magnitud y complejidad sin precedentes.
  • Su tratamiento requiere grandes infraestructuras y desarrollos metodológicos, que están concentrados en unas pocas grandes corporaciones; ellas y no los gobiernos o instituciones son las que poseen el conocimiento. Es en esas grandes corporaciones en las que se concentran la mayoría de los científicos de datos.
  • Consecuencia de lo anterior, muchas iniciativas se basan en colaboración publico/privada.
  • El desarrollo de la inteligencia artificial ofrece unas posibilidades antes impensables, y puede ayudar a la investigación sanitaria, pero el espectro de sus efectos no es del todo conocido, lo que genera incertidumbre.
  • El interés y beneficio económico de los datos no tienen precedente y las posibilidades de tomar decisiones sobre las personas y predecir e influir en sus conductas, son reales.
  • La gobernanza de los datos es cada vez más compleja, asimilándose a la gobernanza de la propia organización, con el agravante de que en ocasiones el mayor conocimiento de los propios datos está fuera de la organización.

Las expectativas sobre la aportación de soluciones del big data para mejorar la salud de la población y la gestión adecuada de los servicios sanitarios eran tan elevadas, que en un principio no se valoró suficientemente que se podría lesionar el principio de beneficencia. Igualmente, hasta fechas recientes no se ha empezado a tomar conciencia de las posibles lesiones al principio de maleficencia, en la medida en la que se han ido conociendo los sesgos de las aplicaciones de inteligencia artificial. Esto llevará a un mayor interés por la trasparencia acerca de cómo funcionan los algoritmos.

Hasta ahora los mayores debates se están produciendo en torno a la privacidad, en un escenario en el que por una parte los gobiernos fomentan el uso secundario de los datos sanitarios anonimizados gestionados por las administraciones públicas (iniciativas de open data), mientras que, como se ha indicado, por otra parte sabemos que la anonimización no garantiza la privacidad. En los primeros proyectos que las empresas desarrollaron con los servicios sanitarios, solicitaban copias completas de las bases de datos (anonimizadas); hoy sabemos que estas peticiones son incompatibles con el principio de minimización de datos del RGPD. Existen alternativas que permiten el análisis de los datos sin que estos salgan de su entorno natural (en nuestro caso el sanitario); entre estas alternativas nos encontramos con las bases de datos federadas, en las que los datos no salen de su entorno natural aplicando sobre ellos los cálculos, saliendo del sistema los resultados, pero no los datos originales. Igualmente, a partir de machine learning, se ha propuesto la generación y utilización de pacientes simulados generados a partir de datos de pacientes reales; otro enfoque es la creación de isopacientes tipo. En otros ámbitos igualmente sensibilizados con la privacidad como son los órganos estadísticos, están buscando nuevas fórmulas que compatibilicen la difusión de datos con garantías de privacidad.

Así pues, existen metodologías que previsiblemente permitirán la utilización de datos sanitarios en investigación garantizando la privacidad de los pacientes. Pero aun así persistirán otros problemas a mi juicio no suficientemente tratados, relacionados con el principio de justicia, en particular el tratamiento de datos de servicios públicos de salud en investigación sanitaria por parte de empresas farmacéuticas y tecnológicas.

El Reglamento General de Protección de Datos (RGPD) no introduce modificaciones substanciales en cuanto a la posibilidad de tratar estos datos en investigación; se permite su uso secundario en determinadas circunstancias sin solicitar consentimiento informado de la persona interesada, pero con unos principios y requisitos definidos, con un tratamiento de los datos proporcional al objetivo perseguido, respetando en lo esencial el derecho a la protección de datos y estableciendo medidas adecuadas y específicas para proteger los intereses y derechos fundamentales de las personas.

En la práctica, esto se resume en que haya un protocolo de investigación y una evaluación de impacto en protección de datos, que cuenten con un dictamen positivo de un comité de ética de investigación, obedezcan al interés público y que los responsables del proyecto estén en condiciones de cumplir y poder demostrar que están cumpliendo el RGPD. La investigación que se realiza en centros públicos y con financiación pública no es previsible que plantee problemas en cuanto a la decisión de autorizar este tipo de tratamiento de datos, al ser investigación que responde al interés público.

Los problemas se plantean en el tratamiento de estos datos en la investigación, innovación, desarrollo etc de ámbito, financiación o colaboración privados pues, aunque estuvieran garantizada la privacidad con los métodos arriba indicados, seguirían presentándose posibles daños colectivos que afectan al principio de justicia. La población es favorable a que sus datos sean usados en la investigación sanitaria, pero es reticente a su uso por parte de la industria.

Surgen así preguntas del tipo:

  • ¿Puede un organismo público transferir datos para investigación a entidades con finalidad lucrativa?
  • Puede una investigación de o para una entidad privada, ser de interés general? ¿En qué condiciones?
  • ¿Hasta qué punto la fabricación de un fármaco contribuye al bien común o al bien económico de la industria?
  • ¿Puedo vender mis datos sanitarios? (son parte de mi persona, como un órgano). ¿Y una institución pública?
  • ¿Puede haber acuerdos justos entre algunas corporaciones y los organismos públicos dada la asimetría tecnológica a favor de las corporaciones?
  • ¿Pueden los servicios públicos de salud ceder o vender datos se salud a compañías que van a generar un producto o servicios que posteriormente vendan o alquilen a esos servicios públicos o a las personas que contribuyeron a su desarrollo cediendo altruista y anónimamente sus datos? ¿En qué condiciones?
  • ¿Pueden los servicios públicos de salud ceder o vender datos se salud a compañías cuyo objeto principal es el tecnológico y no el sanitario? ¿Dónde está el límite del interés sanitario y el tecnológico? ¿Qué implicaciones regulatorias tiene?

Vivimos una situación en la que no hay una respuesta fácil a estas preguntas y que exige un análisis desde el principio de justicia, valorando la equidad en la distribución de cargas y beneficios.  Además, es preciso no olvidar que:

  • El proceso ha de ser transparente.
  • Debe de haber una participación informada de la sociedad en este debate.
  • El objetivo de la investigación debe ser relevante para la comunidad de la que proceden los datos.
  • Los resultados del tratamiento de datos deben revertir en las personas o instituciones que los han aportado.
  • Los intereses de las personas e instituciones públicas que comparten sus datos deben de estar por encima de los intereses de la industria.
  • Las instituciones pueden estar en una situación de vulnerabilidad respecto a las grandes corporaciones.
  • Posible sesgo de los algoritmos desarrollados con datos de otro contexto al aplicarlos a nuestro medio.

(Una versión previa debeste documento fué presentada en las Jornadas GRX Health Data. EASP. 14Noviembre 2.019) 

Salud e Inteligencia Artificial

AI IA health saludEl software como dispositivo medico ha tomado un interés creciente en los últimos años; supone nuevos desafíos en cuanto a armonización y regulación, que son abordados por el International Medical Device Regulators Forum (IMDRF), establecido en el año 2011. Tanto la Unión Europea (Mercado Interior, Industria, Emprendimiento y Pymes) como EEUU (FDA) son elementos activos de este foro, del que la OMS es observador.  A destacar que el órgano competente en la materia en la UE depende del Comisario responsable del mercado interior e industria, mientras que en EEUU depende del  Department of Health and Human Services.

En la Unión Europea, el Reglamento (UE) 2017/745 sobre productos sanitarios, incluye los “Sistemas electrónicos programables”, productos que llevan incorporados sistemas electrónicos programables, o programas informáticos que constituyan productos por sí mismos.

La FDA por su parte, es el organismo regulador del Software as a Medical Device (SaMD), y cuenta con normas específicas para su evaluación: Software as a Medical Device (SAMD): Clinical Evaluation. La FDA hace una evaluación de riesgos en estos productos similar a la del resto, basada en: significación de la información dada por el dispositivo para la decisión clínica, y la situación clínica en la que se aplica.

Estos algoritmos usan una función fija, por lo que el dispositivo es un producto cerrado y por tanto no modificado con su propio uso; la FDA tiene indicaciones acerca de cuándo las modificaciones del producto le han de ser notificadas.

El marco regulador no fue diseñado para las tecnologías de inteligencia artificial / máquinas que aprenden (en lo sucesivo IA), en las que los algoritmos no están bloqueados, y tienen capacidad de “aprender” continuamente de la experiencia de uso, con datos del mundo real, experimentando por tanto modificaciones después de su distribución. Por ello la FDA ha publicado la Proposed Regulatory Framework for Modifications to Artificial Intelligence/Machine Learning (AI/ML)-Based Software as a Medical Device (SaMD) – Discussion Paper and Request for Feedback. Abre el debate sobre una proposición regulatoria de los dispositivos a la largo de su ciclo de vida.

Lejos de un planteamiento futurista, se trata de responder a investigaciones de big data, que no dejan de ser un paso necesario e instrumental en las estrategias generales de inteligencia artificial, en un contexto en el que será difícil establecer la diferencia entre los proyectos de desarrollo de los de atención a pacientes.

(Lo que sigue a continuación está tomado de una revisión). En el sector salud, hay iniciativas de proyectos de inteligencia artificial en el ámbito de la investigación en cribados, diagnóstico y pronóstico, generalmente en el ámbito de un hospital concreto, lo que da problemas de reproductibilidad y generalización. No obstante, los avances son muy rápidos.

Para los más optimistas, la IA ayudará a resolver los grandes desafíos de los sistemas de salud; no obstante hay que ser conscientes que la irrupción de nuevas tecnologías y procesos automatizados, siempre va acompañada de tensiones derivadas de su impacto en las personas e interacción persona-máquina. Para suavizar estas tensiones es preciso crear contextos receptivos para la adopción y difusión de las nuevas tecnologías.

En el caso de la IA en salud, este contexto necesita, entre otras cosas, disponer de datos adecuados, una regulación que lo permita, garantías legales y salvaguarda de los derechos ciudadanos, rendición de cuentas y gestión adecuada del cambio.

En cuanto a los datos, son relevantes temas como interoperabilidad, sus sesgos, o la confianza de las personas para compartir sus datos personales. En cuanto a las relaciones con la industria tecnológica se presentan situaciones nuevas en cuanto al necesario acceso a los datos para generar algoritmos, la propiedad industrial, el dato de salud como bien público, y los nuevos tipos de relaciones contractuales.

Los sistemas de IA se comportan como una caja negra, siendo difícil entender y explicar su funcionamiento interno; esto tiene implicaciones al hacer efectivo el derecho europeo a solicitar una explicación de una decisión tomada mediante procesos automáticos. Se apunta que la rendición de cuentas será diferente en función del tipo de problema que es resuelto por los sistemas de IA.

La superior eficiencia del sistema de IA no es el único elemento a considerar para su implantación; su impacto en otros procesos y la organización en conjunto, tienen especial relevancia.

De lo anterior se deduce que la dimensión ética de la irrupción de estas tecnologías es importante. Vamos teniendo referencias importantes al respecto: la Unión Europea ha desarrollado Ethics guidelines for trustworthy AI, y específico para salud, el Hastings Center ha publicado How Bioethics Can Shape Artificial Intelligence and Machine Learning.

Todo un campo dentro de la ética digital.

 

Ética, investigación, bases de datos

rgpd salud etica big dataEl Reglamento General de Protección de Datos (RGPD) y el Proyecto de Ley Orgánica de Protección de Datos, no solo mantienen inalterado el régimen contenido en la normativa reguladora de la investigación biomédica, sino que permiten realizar una interpretación más flexible del alcance que puede darse al consentimiento en el tratamiento de datos, tal como ha expresado la Agencia Española de Protección de Datos (AEPD).

A pesar de ello, el RGPD tiene un gran impacto en la investigación en salud realizada con bases de datos. El RGPD presta especial atención al “big data” aunque no lo nombra expresamente; sí nombra la investigación a partir de registros: Combinando información procedente de registros, los investigadores pueden obtener nuevos conocimientos ….. (Los registros).. proporcionan conocimientos sólidos y de alta calidad que pueden servir de base para la concepción y ejecución de políticas basada en el conocimiento, mejorar la calidad de vida de numerosas personas y mejorar la eficiencia de los servicios sociales. Para facilitar la investigación científica, los datos personales pueden tratarse con fines científicos, a reserva de condiciones y garantías adecuadas establecidas en el Derecho de la Unión o de los Estados miembros.

A continuación se apuntan algunas notas, derivadas del RGPD y no exhaustivas, acerca de la investigación en salud a partir de bases de datos; pueden ser de interés tanto para los responsables de los datos susceptibles de ser utilizados en investigación, como para los investigadores o los comités de ética de la investigación (CEI):

Alcance del RGPD

Como Reglamento, no necesita transposición, y por tanto es de aplicación común a todo el Espacio Europeo de Investigación. A efectos prácticos, si en un proyecto multinacional los reguladores nacionales tuviesen criterios distintos para autorizar o no el tratamiento de unos datos (ejemplo condiciones de acceso a datos clínicos), sería el Supervisor Europeo de Protección de Datos quien debería pronunciarse al respecto.

El tratamiento de datos personales con fines de investigación científica incluye los estudios realizados en interés público en el ámbito de la salud pública, y es interpretado de manera amplia, incluyendo a modo de ejemplo:

  • el desarrollo tecnológico y la demostración.
  • la investigación fundamental.
  • la investigación aplicada.
  • la investigación financiada por el sector privado.

Es preciso no olvidar la distinta intención en el tratamiento de datos con fines de investigación sanitaria (generar conocimiento) o de calidad o gestión (evaluación y organización de recursos). Igualmente en el ámbito del big data pueden surgir dudas al diferenciar el tratamiento de datos con fines a la investigación o comercial.

Los “datos relativos a la salud” son definidos como datos personales relativos a la salud física o mental de una persona física, incluida la prestación de servicios de atención sanitaria, que revelen información sobre su estado de salud.

El Reglamento afecta a los datos personales y a los datos seudonimizados.

Son “datos personales”: toda información sobre una persona física identificada o identificable (“el interesado”); se considerará persona física identificable toda persona cuya identidad pueda determinarse, directa o indirectamente, en particular mediante un identificador, como por ejemplo un nombre, un número de identificación, datos de localización, un identificador en línea o uno o varios elementos propios de la identidad física, fisiológica, genética, psíquica, económica, cultural o social de dicha persona.

Se denomina “seudonimización”: el tratamiento de datos personales de manera tal que ya no puedan atribuirse a un interesado sin utilizar información adicional, siempre que dicha información adicional figure por separado y esté sujeta a medidas técnicas y organizativas destinadas a garantizar que los datos personales no se atribuyan a una persona física identificada o identificable.

Los paradigmas tradicionales en los que se sustentaba la privacidad, anonimización de datos y consentimiento informado, no son las principales garantías en las que se sustenta la privacidad en estos proyectos. Cobra mayor relevancia la transparencia de la información que la obsesión por el consentimiento informado, (tenemos ya la experiencia negativa, tras entrar en vigor el RGPD, del otorgamiento del consentimiento en el acceso a plataformas y dispositivos móviles).

Los principios de protección de datos no deben aplicarse a la información anónima (inclusive con fines estadísticos o de investigación), es decir, información que no guarda relación con una persona física identificada o identificable, ni a los datos convertidos en anónimos de forma que el interesado no sea identificable, o deje de serlo. A pesar de ello, con métodos adecuados, la tecnología ha permitido reidentificar grandes bases de datos sanitarios anonimizados, y la AEPD ha reconocido que no es posible considerar que los procesos de anonimización garanticen al 100% la no reidentificación de las personas; incluso con buenas prácticas en la anonimización. En consecuencia, los CEI deberían valorar tanto los proyectos con datos personales o seudonimizdos, como con datos anonimizados.

Principios

Los investigadores han de tener en cuenta los siguientes principios:principios proteccion de datos

A estos principios hay que añadir la no discriminación de las personas, y la responsabilidad proactiva del responsable de la investigación.

El responsable de la investigación es igualmente responsable de que se contemplen los principios de protección de datos desde el diseño y por defecto, estableciendo las medidas técnicas y organizativas adecuadas.

Comités de ética de la investigación (CEI)

Los CEI tienen el reto de adaptar sus procedimientos para evaluar proyectos a partir de bases de datos, teniendo en cuenta el desarrollo digital en general y el RGPD en particular. Cada día se presentarán más situaciones en las que las respuestas estarán más en los planos deliberativos que en los legislativos.

Es preciso hacer un seguimiento de los proyectos de investigación en marcha, para garantizar que estos se ejecutan de acuerdo a su protocolo, priorizando aquellos con mayor impacto en la protección de datos y los que manejan muestras biológicas.

Sería conveniente disponer de guías específicas para la evaluación de este tipo de proyectos.

Mientras tanto, se pueden tener en cuenta algunas consideraciones que los investigadores han de tener en cuenta al elaborar protocolos de investigación para este tipo de proyectos.

Riesgos éticos en el tratamiento de datos

Entre estos se han descrito, la omisión deliberada de datos, la visualización engañosa, los sesgos, desconocimiento del origen de los datos, deficiencias en su calidad y la de sus metadatos, no trazabilidad, y anonimización insuficiente.

Protocolo

Aunque parezca obvio, hay que partir siempre de un protocolo de investigación (no sólo cuando se presenta a financiación externa) evaluado por un CEI, que permita valorar que tiene una sólida base científica y que salvaguarda los derechos de las personas involucradas.

En su evaluación, las primeras dificultades pueden surgir al diferenciar los proyectos de evaluación o gestión de los de investigación; puede ser igualmente difícil diferenciar los proyectos académicos de los comerciales (estos últimos tienen limitaciones en el tratamiento de ciertos datos).

La metodología de la investigación en “big data” tendente a la identificación de patrones a partir de grandes volúmenes de datos, presenta características especiales que habrá que tener en cuenta. Esta naturaleza libre de hipótesis de (algunos) estudios de big data, hace que sea más difícil aplicar mecanismos epistemológicos convencionales.

Equipo investigador

El investigador principal es el responsable del cumplimiento del RGPD, y además, estar en condiciones de demostrar que este se cumple. Entre sus obligaciones estaría la de comunicar las brechas de seguridad al Delegado de Protección de Datos de su institución.

Se sugiere la participación o asesoramiento de profesionales con competencias en big data y protección de datos, con un grado de implicación acorde al alcance del proyecto.

Es preciso la aceptación expresa de las normas de confidencialidad por todos los integrantes del equipo.

Hay que incluir la identificación y contacto de:

  • Delegado de Protección de Datos del centro donde se realizará la investigación.
  • Responsable y encargado del tratamiento de los datos.
  • Personas que tendrán acceso a los datos.

Licitud

Es preciso indicar la base normativa en la que se indique que es lícito usar esos datos para investigación. El proyecto ha de justificar el tratamiento de categorías especiales de datos personales. Igualmente, es preciso indicar el fundamento por el que se pueden usar esos datos para investigación sin el consentimiento informado de las personas interesadas.

Debe estar documentada la autorización del responsable de los datos para el uso de los mismos en ese proyecto de investigación, con especificación de los datos concretos a tratar.

Limitación

Compromiso de usar los datos exclusivamente con los fines de ese proyecto (o proyectos derivados compatibles, en cuyo caso ha de ser informado el responsable de los datos), quedando prohibido un tratamiento distinto al establecido en el protocolo.

En el caso de que se elaboren perfiles:

  • Indicar las bases legales por las que se pueden elaborar.
  • Mecanismos contemplados para evitar la discriminación de grupos o personas en cuanto a sexo, nivel cultural o económico etc.
  • No decisiones automáticas sobre personas sin supervisión humana.

Minimización

Debe justificarse que todos los datos tratados son necesarios para alcanzar los objetivos de investigación, no utilizando datos que no tengan que ver con los objetivos.

Igualmente, debe justificarse que para alcanzar los objetivos, sea necesario: usar datos personales en lugar de seudonimizados, o datos seudonimizados en lugar de anónimos (y las escalas intermedias entre estas categorías).

Exactitud

Se deberán incluir el análisis de calidad de los datos y las medidas a tomar para evitar sesgos.

Conservación

Compromiso de que la identificación de los interesados no será mantenida más allá del tiempo necesario para los fines del tratamiento de los datos personales.

Indicar el periodo de almacenamiento y las personas que tendrán acceso a los datos, en cada uno de sus estadíos (personales, seudonimizados, anónimos etc).

Discriminación

Indificar cómo se trata de evitar en el proyecto que haya discriminación de las personas o los grupos, en función del sexo, clase social, nivel de estudios etc

Seguridad

Especificar las medidas técnicas y organizativas que se tendrán en cuenta para garantizar la seguridad de los datos.

Evaluación de Impacto en la Protección de Datos Personales:

Aunque de una forma no tan exhaustiva como la contemplada en  la Guía práctica para las Evaluaciones de Impacto en la Protección de los datos sujetas al RGPD, debe evaluarse el impacto del proyecto en la protección de datos.

Medidas para evitar daños y salvaguarda de los derechos de los participantes.

Privacidad por defecto y por diseño: Detalles de las medidas técnicas y organizativas para evitar los daños y se salvaguardarán los derechos de los participantes de la investigación.

Indicar cómo pueden ejercer sus derechos (acceso, portabilidad, rechazo al tratamiento de datos…)

Infraestructura tecnológica

Indicar los equipos en los que se realizarán los tratamientos (serán dentro de instituciones sanitarias).

Indicar las normas de seguridad, accesos y su registro etc.

Datos

Especificar su procedencia y detalle de las variables incluidas. Especial consideración si proceden o se destinan fuera de la Unión Europea.

Especificar las medidas tomadas para velar por calidad, integridad y seguridad de los datos y permitir su segura transmisión, linkage y almacenamiento.

Detalles de las operaciones de procesamiento de datos.

Detalles de las técnicas de anonimización / pseudonimización. Los responsables de la anonimización y el análisis han de ser distintos.

Detalles de los métodos utilizados para elaborar perfiles y las medidas para evitar que los algoritmos discriminen o creen brechas de seguridad en la privacidad de las personas.

Detalles sobre los procedimientos para informar a los participantes de la investigación sobre el perfil, y sus posibles consecuencias y las medidas de protección.

¿Tienen futuro los Data Warehouse?

P_20180930_201743El proceso de digitalización generó en las organizaciones una cantidad de datos antes impensable. Han proliferado los sistemas de información, y con ellos los silos independientes de datos, con un análisis limitado de los mismos, y uso centrado en los aspectos puramente operacionales, no generando el valor que pudieran producir. Un caso paradigmático en este sentido en el sector sanitario, ha sido la historia clínica electrónica.

Con la finalidad de tener acceso a los datos de forma rápida, sin duplicidades y sin inconsistencias, surgieron hace casi tres décadas los almacenes corporativos de datos centralizados (Data Warehouse, DW).

Para muchas organizaciones, disponer de un Data Warehouse corporativo sigue siendo una quimera, pues a pesar de las expectativas, los procesos de extracción, transformación y carga de datos (ETL) desde los sistemas operacionales son caros, complejos y lentos, eternizándose los proyectos; incluso en caso de finalizarlos, hay que rehacerlos al cambiar la disponibilidad y necesidades de datos.

Aun así, son sistemas de reporting robustos y estables, que mediante tablas predefinidas, responden a preguntas conocidas y repetitivas, hechas a datos conocidos, bien estructurados y consolidados periódicamente. Los usuarios básicos se cuentan por miles en las organizaciones grandes, son usuarios ocasionales que no requieren conocimientos especiales de análisis de datos; los usuarios avanzados, en pequeño número, tienen mayores posibilidades de tratamiento de datos y suministran datos a otros usuarios, pero los análisis en profundidad deben hacerse desde fuera del sistema; en definitiva, no son ni han pretendido ser nunca una herramienta avanzada de análisis de datos.

Las organizaciones necesitan hoy en día responder a preguntas no previstas con anterioridad, sobre datos estructurados y no estructurados (texto, imagen, video, audio y sensores), sobre nuevos datos no incorporados en el DW, con una latencia mínima entre la producción del dato y su uso, y con gran capacidad analítica sobre grandes volúmenes de datos.

Los DW no pueden dar respuesta a estas necesidades, hay quien piensa que ha llegado su fin, y que incluso no han cubierto nunca sus expectativas. Otros consideran que su futuro está en formar parte de un amplio ecosistema de gestión de datos, en el que disminuirá su importancia relativa, constituido por: DW en tiempo real, DW tradicional y Data lake (lago de datos).

DW 1

El DW en tiempo real, combina la estabilidad y robusted de los sistemas de reporting de los DW (de los que forman parte) con tecnologías de obtención de un limitado conjunto de datos en tiempo real (o casi real) de los sistemas operacionales. Permiten la monitorización de los datos esenciales del funcionamiento de la organización y establecer alertas así como incorporar algoritmos de ayuda a toma de decisiones; pocas operaciones de una organización suelen necesitar este tipo de herramientas y tienen que ver con los servicios críticos o esenciales. Sus usuarios son más de consulta que de análisis, y no requieren capacidades analíticas especiales.

El Data Lake, lago de datos, es el entorno en el que los datos a incorporar son desconocidos a priori, como también lo son las preguntas que nos podemos hacer. El proceso ETL se modifica para ser ELT (extracción, carga y transformación), siendo la clave el acceso al dato en su formato original en los sistemas operacionales, e intentan superar los problemas tradicionales en la transformación de datos. Es un repositorio de almacenamiento que contienen una gran cantidad de datos en bruto y que se mantienen allí hasta que sea necesario. A diferencia de un data warehouse jerárquico que almacena datos en ficheros o carpetas, un data lake utiliza una arquitectura plana para almacenar los datos. Es el ámbito del big data, entornos No SQL, búsqueda de nuevos significados e innovación, perfiles de ingenieros y científicos de datos, y funciones de análisis avanzado y modelado de datos.

A cada elemento de un data lake se le asigna un identificador único y se etiqueta con un conjunto de etiquetas de metadatos. Cuando surge una consulta, se solicita al data lake los datos que estén relacionados con esa consulta, obteniendo los datos precisos e imprescindibles para ese análisis en concreto. El término se asocia cada vez con más frecuencia a la descripción de  cualquier gran conjunto de datos en el que el esquema y los requisitos de datos no se definen hasta que los datos son consultados.

Además del modelo arriba indicado, existen otros posibles enfoques, en las relaciones entre el DW y el data lake, algunos de los cuales se consideran elementos independientes.

DW 2

En otros, los elementos van en paralelo.


DW 3

Mientras que otros consideran el DW como parte del Data Lake

DW 4

…..y hay otras múltiples forma de relación

Muchas actividades en las organizaciones dependen de los DW, tienen muchos usuarios y se ha invertido muchos recurso en ellos, por lo que es posible que seguirán teniendo un papel importante en el almacenamiento de datos. Sin embargo, necesitarán modernizarse para superar sus limitaciones y además, coexistir con otros elementos que cubran aspectos relacionados con la inmediated en la disponibilidad del datos (DW en tiempo real) y las capacidades de análisis en el ámbito del big data (data lake).

P_20180724_120443