Salud e Inteligencia Artificial

AI IA health saludEl software como dispositivo medico ha tomado un interés creciente en los últimos años; supone nuevos desafíos en cuanto a armonización y regulación, que son abordados por el International Medical Device Regulators Forum (IMDRF), establecido en el año 2011. Tanto la Unión Europea (Mercado Interior, Industria, Emprendimiento y Pymes) como EEUU (FDA) son elementos activos de este foro, del que la OMS es observador.  A destacar que el órgano competente en la materia en la UE depende del Comisario responsable del mercado interior e industria, mientras que en EEUU depende del  Department of Health and Human Services.

En la Unión Europea, el Reglamento (UE) 2017/745 sobre productos sanitarios, incluye los “Sistemas electrónicos programables”, productos que llevan incorporados sistemas electrónicos programables, o programas informáticos que constituyan productos por sí mismos.

La FDA por su parte, es el organismo regulador del Software as a Medical Device (SaMD), y cuenta con normas específicas para su evaluación: Software as a Medical Device (SAMD): Clinical Evaluation. La FDA hace una evaluación de riesgos en estos productos similar a la del resto, basada en: significación de la información dada por el dispositivo para la decisión clínica, y la situación clínica en la que se aplica.

Estos algoritmos usan una función fija, por lo que el dispositivo es un producto cerrado y por tanto no modificado con su propio uso; la FDA tiene indicaciones acerca de cuándo las modificaciones del producto le han de ser notificadas.

El marco regulador no fue diseñado para las tecnologías de inteligencia artificial / máquinas que aprenden (en lo sucesivo IA), en las que los algoritmos no están bloqueados, y tienen capacidad de “aprender” continuamente de la experiencia de uso, con datos del mundo real, experimentando por tanto modificaciones después de su distribución. Por ello la FDA ha publicado la Proposed Regulatory Framework for Modifications to Artificial Intelligence/Machine Learning (AI/ML)-Based Software as a Medical Device (SaMD) – Discussion Paper and Request for Feedback. Abre el debate sobre una proposición regulatoria de los dispositivos a la largo de su ciclo de vida.

Lejos de un planteamiento futurista, se trata de responder a investigaciones de big data, que no dejan de ser un paso necesario e instrumental en las estrategias generales de inteligencia artificial, en un contexto en el que será difícil establecer la diferencia entre los proyectos de desarrollo de los de atención a pacientes.

(Lo que sigue a continuación está tomado de una revisión). En el sector salud, hay iniciativas de proyectos de inteligencia artificial en el ámbito de la investigación en cribados, diagnóstico y pronóstico, generalmente en el ámbito de un hospital concreto, lo que da problemas de reproductibilidad y generalización. No obstante, los avances son muy rápidos.

Para los más optimistas, la IA ayudará a resolver los grandes desafíos de los sistemas de salud; no obstante hay que ser conscientes que la irrupción de nuevas tecnologías y procesos automatizados, siempre va acompañada de tensiones derivadas de su impacto en las personas e interacción persona-máquina. Para suavizar estas tensiones es preciso crear contextos receptivos para la adopción y difusión de las nuevas tecnologías.

En el caso de la IA en salud, este contexto necesita, entre otras cosas, disponer de datos adecuados, una regulación que lo permita, garantías legales y salvaguarda de los derechos ciudadanos, rendición de cuentas y gestión adecuada del cambio.

En cuanto a los datos, son relevantes temas como interoperabilidad, sus sesgos, o la confianza de las personas para compartir sus datos personales. En cuanto a las relaciones con la industria tecnológica se presentan situaciones nuevas en cuanto al necesario acceso a los datos para generar algoritmos, la propiedad industrial, el dato de salud como bien público, y los nuevos tipos de relaciones contractuales.

Los sistemas de IA se comportan como una caja negra, siendo difícil entender y explicar su funcionamiento interno; esto tiene implicaciones al hacer efectivo el derecho europeo a solicitar una explicación de una decisión tomada mediante procesos automáticos. Se apunta que la rendición de cuentas será diferente en función del tipo de problema que es resuelto por los sistemas de IA.

La superior eficiencia del sistema de IA no es el único elemento a considerar para su implantación; su impacto en otros procesos y la organización en conjunto, tienen especial relevancia.

De lo anterior se deduce que la dimensión ética de la irrupción de estas tecnologías es importante. Vamos teniendo referencias importantes al respecto: la Unión Europea ha desarrollado Ethics guidelines for trustworthy AI, y específico para salud, el Hastings Center ha publicado How Bioethics Can Shape Artificial Intelligence and Machine Learning.

Todo un campo dentro de la ética digital.

 

Anuncios

Ética, investigación, bases de datos

rgpd salud etica big dataEl Reglamento General de Protección de Datos (RGPD) y el Proyecto de Ley Orgánica de Protección de Datos, no solo mantienen inalterado el régimen contenido en la normativa reguladora de la investigación biomédica, sino que permiten realizar una interpretación más flexible del alcance que puede darse al consentimiento en el tratamiento de datos, tal como ha expresado la Agencia Española de Protección de Datos (AEPD).

A pesar de ello, el RGPD tiene un gran impacto en la investigación en salud realizada con bases de datos. El RGPD presta especial atención al “big data” aunque no lo nombra expresamente; sí nombra la investigación a partir de registros: Combinando información procedente de registros, los investigadores pueden obtener nuevos conocimientos ….. (Los registros).. proporcionan conocimientos sólidos y de alta calidad que pueden servir de base para la concepción y ejecución de políticas basada en el conocimiento, mejorar la calidad de vida de numerosas personas y mejorar la eficiencia de los servicios sociales. Para facilitar la investigación científica, los datos personales pueden tratarse con fines científicos, a reserva de condiciones y garantías adecuadas establecidas en el Derecho de la Unión o de los Estados miembros.

A continuación se apuntan algunas notas, derivadas del RGPD y no exhaustivas, acerca de la investigación en salud a partir de bases de datos; pueden ser de interés tanto para los responsables de los datos susceptibles de ser utilizados en investigación, como para los investigadores o los comités de ética de la investigación (CEI):

Alcance del RGPD

Como Reglamento, no necesita transposición, y por tanto es de aplicación común a todo el Espacio Europeo de Investigación. A efectos prácticos, si en un proyecto multinacional los reguladores nacionales tuviesen criterios distintos para autorizar o no el tratamiento de unos datos (ejemplo condiciones de acceso a datos clínicos), sería el Supervisor Europeo de Protección de Datos quien debería pronunciarse al respecto.

El tratamiento de datos personales con fines de investigación científica incluye los estudios realizados en interés público en el ámbito de la salud pública, y es interpretado de manera amplia, incluyendo a modo de ejemplo:

  • el desarrollo tecnológico y la demostración.
  • la investigación fundamental.
  • la investigación aplicada.
  • la investigación financiada por el sector privado.

Es preciso no olvidar la distinta intención en el tratamiento de datos con fines de investigación sanitaria (generar conocimiento) o de calidad o gestión (evaluación y organización de recursos). Igualmente en el ámbito del big data pueden surgir dudas al diferenciar el tratamiento de datos con fines a la investigación o comercial.

Los “datos relativos a la salud” son definidos como datos personales relativos a la salud física o mental de una persona física, incluida la prestación de servicios de atención sanitaria, que revelen información sobre su estado de salud.

El Reglamento afecta a los datos personales y a los datos seudonimizados.

Son “datos personales”: toda información sobre una persona física identificada o identificable (“el interesado”); se considerará persona física identificable toda persona cuya identidad pueda determinarse, directa o indirectamente, en particular mediante un identificador, como por ejemplo un nombre, un número de identificación, datos de localización, un identificador en línea o uno o varios elementos propios de la identidad física, fisiológica, genética, psíquica, económica, cultural o social de dicha persona.

Se denomina “seudonimización”: el tratamiento de datos personales de manera tal que ya no puedan atribuirse a un interesado sin utilizar información adicional, siempre que dicha información adicional figure por separado y esté sujeta a medidas técnicas y organizativas destinadas a garantizar que los datos personales no se atribuyan a una persona física identificada o identificable.

Los paradigmas tradicionales en los que se sustentaba la privacidad, anonimización de datos y consentimiento informado, no son las principales garantías en las que se sustenta la privacidad en estos proyectos. Cobra mayor relevancia la transparencia de la información que la obsesión por el consentimiento informado, (tenemos ya la experiencia negativa, tras entrar en vigor el RGPD, del otorgamiento del consentimiento en el acceso a plataformas y dispositivos móviles).

Los principios de protección de datos no deben aplicarse a la información anónima (inclusive con fines estadísticos o de investigación), es decir, información que no guarda relación con una persona física identificada o identificable, ni a los datos convertidos en anónimos de forma que el interesado no sea identificable, o deje de serlo. A pesar de ello, con métodos adecuados, la tecnología ha permitido reidentificar grandes bases de datos sanitarios anonimizados, y la AEPD ha reconocido que no es posible considerar que los procesos de anonimización garanticen al 100% la no reidentificación de las personas; incluso con buenas prácticas en la anonimización. En consecuencia, los CEI deberían valorar tanto los proyectos con datos personales o seudonimizdos, como con datos anonimizados.

Principios

Los investigadores han de tener en cuenta los siguientes principios:principios proteccion de datos

A estos principios hay que añadir la no discriminación de las personas, y la responsabilidad proactiva del responsable de la investigación.

El responsable de la investigación es igualmente responsable de que se contemplen los principios de protección de datos desde el diseño y por defecto, estableciendo las medidas técnicas y organizativas adecuadas.

Comités de ética de la investigación (CEI)

Los CEI tienen el reto de adaptar sus procedimientos para evaluar proyectos a partir de bases de datos, teniendo en cuenta el desarrollo digital en general y el RGPD en particular. Cada día se presentarán más situaciones en las que las respuestas estarán más en los planos deliberativos que en los legislativos.

Es preciso hacer un seguimiento de los proyectos de investigación en marcha, para garantizar que estos se ejecutan de acuerdo a su protocolo, priorizando aquellos con mayor impacto en la protección de datos y los que manejan muestras biológicas.

Sería conveniente disponer de guías específicas para la evaluación de este tipo de proyectos.

Mientras tanto, se pueden tener en cuenta algunas consideraciones que los investigadores han de tener en cuenta al elaborar protocolos de investigación para este tipo de proyectos.

Riesgos éticos en el tratamiento de datos

Entre estos se han descrito, la omisión deliberada de datos, la visualización engañosa, los sesgos, desconocimiento del origen de los datos, deficiencias en su calidad y la de sus metadatos, no trazabilidad, y anonimización insuficiente.

Protocolo

Aunque parezca obvio, hay que partir siempre de un protocolo de investigación (no sólo cuando se presenta a financiación externa) evaluado por un CEI, que permita valorar que tiene una sólida base científica y que salvaguarda los derechos de las personas involucradas.

En su evaluación, las primeras dificultades pueden surgir al diferenciar los proyectos de evaluación o gestión de los de investigación; puede ser igualmente difícil diferenciar los proyectos académicos de los comerciales (estos últimos tienen limitaciones en el tratamiento de ciertos datos).

La metodología de la investigación en “big data” tendente a la identificación de patrones a partir de grandes volúmenes de datos, presenta características especiales que habrá que tener en cuenta. Esta naturaleza libre de hipótesis de (algunos) estudios de big data, hace que sea más difícil aplicar mecanismos epistemológicos convencionales.

Equipo investigador

El investigador principal es el responsable del cumplimiento del RGPD, y además, estar en condiciones de demostrar que este se cumple. Entre sus obligaciones estaría la de comunicar las brechas de seguridad al Delegado de Protección de Datos de su institución.

Se sugiere la participación o asesoramiento de profesionales con competencias en big data y protección de datos, con un grado de implicación acorde al alcance del proyecto.

Es preciso la aceptación expresa de las normas de confidencialidad por todos los integrantes del equipo.

Hay que incluir la identificación y contacto de:

  • Delegado de Protección de Datos del centro donde se realizará la investigación.
  • Responsable y encargado del tratamiento de los datos.
  • Personas que tendrán acceso a los datos.

Licitud

Es preciso indicar la base normativa en la que se indique que es lícito usar esos datos para investigación. El proyecto ha de justificar el tratamiento de categorías especiales de datos personales. Igualmente, es preciso indicar el fundamento por el que se pueden usar esos datos para investigación sin el consentimiento informado de las personas interesadas.

Debe estar documentada la autorización del responsable de los datos para el uso de los mismos en ese proyecto de investigación, con especificación de los datos concretos a tratar.

Limitación

Compromiso de usar los datos exclusivamente con los fines de ese proyecto (o proyectos derivados compatibles, en cuyo caso ha de ser informado el responsable de los datos), quedando prohibido un tratamiento distinto al establecido en el protocolo.

En el caso de que se elaboren perfiles:

  • Indicar las bases legales por las que se pueden elaborar.
  • Mecanismos contemplados para evitar la discriminación de grupos o personas en cuanto a sexo, nivel cultural o económico etc.
  • No decisiones automáticas sobre personas sin supervisión humana.

Minimización

Debe justificarse que todos los datos tratados son necesarios para alcanzar los objetivos de investigación, no utilizando datos que no tengan que ver con los objetivos.

Igualmente, debe justificarse que para alcanzar los objetivos, sea necesario: usar datos personales en lugar de seudonimizados, o datos seudonimizados en lugar de anónimos (y las escalas intermedias entre estas categorías).

Exactitud

Se deberán incluir el análisis de calidad de los datos y las medidas a tomar para evitar sesgos.

Conservación

Compromiso de que la identificación de los interesados no será mantenida más allá del tiempo necesario para los fines del tratamiento de los datos personales.

Indicar el periodo de almacenamiento y las personas que tendrán acceso a los datos, en cada uno de sus estadíos (personales, seudonimizados, anónimos etc).

Discriminación

Indificar cómo se trata de evitar en el proyecto que haya discriminación de las personas o los grupos, en función del sexo, clase social, nivel de estudios etc

Seguridad

Especificar las medidas técnicas y organizativas que se tendrán en cuenta para garantizar la seguridad de los datos.

Evaluación de Impacto en la Protección de Datos Personales:

Aunque de una forma no tan exhaustiva como la contemplada en  la Guía práctica para las Evaluaciones de Impacto en la Protección de los datos sujetas al RGPD, debe evaluarse el impacto del proyecto en la protección de datos.

Medidas para evitar daños y salvaguarda de los derechos de los participantes.

Privacidad por defecto y por diseño: Detalles de las medidas técnicas y organizativas para evitar los daños y se salvaguardarán los derechos de los participantes de la investigación.

Indicar cómo pueden ejercer sus derechos (acceso, portabilidad, rechazo al tratamiento de datos…)

Infraestructura tecnológica

Indicar los equipos en los que se realizarán los tratamientos (serán dentro de instituciones sanitarias).

Indicar las normas de seguridad, accesos y su registro etc.

Datos

Especificar su procedencia y detalle de las variables incluidas. Especial consideración si proceden o se destinan fuera de la Unión Europea.

Especificar las medidas tomadas para velar por calidad, integridad y seguridad de los datos y permitir su segura transmisión, linkage y almacenamiento.

Detalles de las operaciones de procesamiento de datos.

Detalles de las técnicas de anonimización / pseudonimización. Los responsables de la anonimización y el análisis han de ser distintos.

Detalles de los métodos utilizados para elaborar perfiles y las medidas para evitar que los algoritmos discriminen o creen brechas de seguridad en la privacidad de las personas.

Detalles sobre los procedimientos para informar a los participantes de la investigación sobre el perfil, y sus posibles consecuencias y las medidas de protección.

Ética digital

Etica digitalLa legislación no puede resolver todos los problemas que surgen en relación con la protección de datos de carácter personal.

Para muchos de estos problemas, el marco adecuado de resolución, está en al ámbito de la ética. El Ethics Advisory Group  del European Data Protection Supervisor (EDPS) ha publicado el informe Towards a digital ethics, documento oportuno que surge en el contexto del creciente interés por la ética, la entrada en vigor del Reglamento General de Protección de Datos (RGPD) y la transición del paradigma analógico al digital, en la que es preciso identificar los valores de las personas que pueden verse amenazados.

El informe identifica algunas tendencias tecnológicas que obligan a un análisis de la relación entre la tecnología y los valores personales en lo que llama ética digital: big data, internet de las cosas, computación en la nube e inteligencia artificial (especialmente máquinas que aprenden). Hace especial mención sobre la gobernanza de los datos sanitarios, tanto asistenciales como de investigación, indicando que podría estar ocurriendo una transición de los marcadores biológicos a los marcadores digitales.

El documento reanaliza los valores fundamentales de la Unión Europea desde la perspectiva de la ética digital y cómo pueden verse afectados esos valores.

Identifica cambios socioculturales que acompañan a la era digital:

  • De la persona al sujeto digital.
  • De la vida analógica a la digital.
  • Del gobierno de las instituciones al gobierno de los datos.
  • De una sociedad de riesgo igualitario a una sociedad segmentada.
  • De la autonomía personal a la convergencia entre humanos y máquinas.
  • De la responsabilidad individual a la responsabilidad distribuida.
  • De la justicia penal a la justicia preventiva

Finaliza apuntando algunos aspectos clave:

  1. La dignidad de la persona debe permanece inviolable en la era digital.
  2. La persona y sus datos personales son inseparables el uno del otro.
  3. Las tecnologías digitales pueden poner en riesgo las bases del gobierno democrático.
  4. El procesamiento digital de datos puede suponer nuevas formas de discriminación.
  5. La mercantilización de los datos puede cambiar los valores de las personas respecto a los datos de carácter personal.

Ética y Evaluación de Tecnologías Sanitarias

Etica evaluacion tecnologias sanitarias javier garcia leonResumen del trabajo realizado en la VII edición del Diploma de Bioética de la EASP

La bioética y la evaluación de tecnologías sanitarias (ETS) surgieron para ayudar a tomar decisiones ante la progresiva complejidad del ámbito sanitario. La aparente falta de sinergias entre ambas disciplinas me llevó a preguntarme cómo puede la ética contribuir a mejorar la ETS.

Realicé una búsqueda sistemática de la literatura, utilizando los siguientes términos de busca, tanto en lenguaje natural como términos MESH: technology assessment biomedical, ethics (y sus términos relacionados), deliberatión, deliberative processes, value assessment, priority setting, evidence, fairness. Se incluyeron todo tipo de trabajos publicados entre mayo de 2007 y abril de 2017 en español, francés inglés o italiano. Las bases de datos exploradas han sido: PUBMED, OVID-Medline, Scopus y búsquedas secundarias a partir de los trabajos identificados. La información fué extraida por un único investigador y gestionada con Mendeley y EPIINFO 7.2.

En total 82 trabajos cumplían los criterios de inclusión, entre los que se encontraban 5 revisiones sistemáticas referidas a: integración de ética en ETS, modelos metodológicos de análisis ético en ETS, barreras para el anális ético en ETS, preferencias de los pacientes en ETS y experiencias de participacion de población y pacientes. Se pone de manifiesto que la evaluación tiene un enfoque excesivamente mecanicista, con insuficientemente presencia de los valores de los pacientes y con poco uso del anális ético. Hay múltiples marcos de referencia de integración de amnbas disciplinas, y de enfoques y métodos en el análisis ético.

La ETS tiene la oportunidad de aumentar su legitimidad e influencia si incorpora los valores de las partes interesadas, cuyo mínimo nivel de participación sería a través de un proceso deliberativo.

No existe un modelo único de integración, de enfoques o de métodos de análisis ético en ETS; no es tan importante el método como que este se use y sea explícito. Los métodos axiológicos y los desarrollados específicamente para la ETS parecen los más indicados. Es necesario incorporar el análisis ético desde el inicio y a lo largo del proceso completo de ETS, y de buscar puntos de encuentro entre el mundo de la bioética y el de la ETS.

¿Hacia la irrelevancia de la evaluación de tecnologías sanitarias?

P_20170312_134552El INAHTA/HTAi Ethics Interest Group(EIG) invitó a dos filósofos reconocidos (Daniels y Richardson) a que reflexionasen sobre el papel de la evaluación de tecnologías sanitarias en las políticas de salud.

Según indica la Editorial que precede a sus artículos, ambos autores consideran que la evaluación de tecnologías sanitarias tiene un enfoque excesivamente mecanicista y que mejoraría si se enmarcase en un proceso deliberativo más amplio. La comparación entre dos alternativas terapéuticas no puede ser decidida sólo a partir de la deliberación, pues necesita datos objetivos para el análisis de los hechos, y a ser posible obtenidos de ensayos clínicos de calidad. Aunque los datos sean imprecisos o insuficientes, nos vemos igualmente obligados a tomar decisiones, proceso que se beneficiaría con la deliberación; pero la deliberación que plantean los dos filósofos no se refiere a estas situación, sino a otras más complejas (tales como no instaurar o retirar una tecnología) para cuya resolución difícilmente encontraremos respuesta en los ensayos clínicos, necesitando información de otras fuentes, como la proporcionada por las distintas partes interesadas.

La evaluación de tecnologías sanitarias es un proceso que recopila datos que se consideran plausibles, pertinentes y susceptibles de ser investigados. La plausibilidad está en función de nuestro punto de vista sobre el problema, la pertinencia está en función de nuestros valores y la investigación, de la pregunta de investigación y el método. Daniels y Richardson plantean cómo incorporar estos puntos de vista, basados en valores diferentes, en la evaluación de tecnologías sanitarias.

Richarson identifica dos tensiones importantes en la evaluación de la tecnologías sanitarias:

  • Entre tomar las decisiones en los años de vida ajustados por calidad de vida, o incorporar otros factores, digamos menos contundentes.
  • Entre limitar la información a hechos objetivos, o incorporar elementos subjetivos.

Plantea que la salud no es un fin en sí mismo, sino un conjunto de capacidades que contribuyen a otros fines, los cuales nos permiten desarrollar nuestras capacidades humanas básicas; la efectividad de las tecnologías no está dirigida por tanto a un único fin, la salud, y debe incorporar para su evaluación elementos acordes con esos otros fines. La identificación de los fines a los que sirve una tecnología (y sus interrelaciones) se convierte, desde este puno de vista, en una tarea fundamental. Por otra parte, centrarse en lo subjetivo chocaría con los principios básicos de la evaluación de tecnologías sanitarias, basados en dimensiones objetivas; por ello hay que buscar salidas inteligentes basadas en la coherencia, transparencia y justicia.

Daniels plantea que toda decisión beneficia a unos intereses respecto a otros, por lo que por definición, se crea controversia. Si la evaluación de tecnologías sanitarias se centra en seguridad, eficacia y coste efectividad evita controversias pero, al no contemplar otros elementos también importantes, su valor para tomar decisiones es limitado y en consecuencia puede correr el riesgo de caer en la marginalidad; estaría trasladando la incertidumbre a los que finalmente tienen que tomar las decisiones.

El dilema por tanto es:

  • ¿Ampliar las dimensiones de análisis de la evaluación de tecnologías sanitarias y someterse a controversia o mantener la situación actual, hasta caer en la marginalidad?.

La salida a esta situación la encuentra en un proceso deliberativo, con un procedimiento justo, que incluya al menos cuatro condiciones: publicidad (transparencia), relevancia (importancia), revisión (ante nuevos hechos), y asegurar su aplicación. Este autor aboga por el método “equilibrio reflexivo amplio”.

Dado el perfil de los dos expertos consultados, sus aportaciones lógicamente tienen que ver con el mundo de los valores en el proceso de toma de decisiones. Aunque el análisis ético forma parte de las definiciones de evaluación de tecnologías sanitarias, lo cierto es que su incorporación ha sido muy limitada; la tendencia a la producción de informes rápidos, asumida por las agencias de nuestro entorno, limita aún más el análisis de los valores para la toma de decisiones, por lo que nos podemos preguntar si sus productos perderán utilidad.

Se ha argumentado que una posible causa de la insuficiente incorporación del análisis ético en la evaluación podría estar condicionada en parte por limitaciones en estos métodos de análisis. Se ha puesto de manifiesto no obstante, que métodos diferentes de análisis ético dan resultados similares, y que el uso sistemático y trasparente del análisis ético es más importante que el método empleado.

Desafios éticos del Big data

Hal-9000-eye

(Este artículo fué publicado inicialmente en el blog El imposible intermedio, un blog de derivas (bio)éticas entre soluciones imposibles y tal vez perfectas a propuestas intermedias y quizás posibles. En ese blog se publican contenidos elaborados por los alumnos del Experto en Bioética de la Escuela Andaluza de Salud Pública)

Tengo miedo… Tengo miedo Dave… Dave… mi cabeza se va. 

Podrían ser las últimas palabras de alguien en su lecho de muerte, pero no, son las palabras del ordenador HAL 9000 de la nave Discovery en su viaje a Júpiter, inmediatamente antes de ….dejar de funcionar.

Estoy hablando de 2001 Una odisea en el espacio, excelentemente analizada en el blog Cine y Psicología, referente en el cine en el que la rebelión de las máquinas adquiere protagonismo. En el año del estreno de la película, 1968, las máquinas no eran sentidas como una amenaza para la humanidad, atemorizada por los efectos de un posible desastre nuclear. Fue precisamente por aquella época cuando se desarrollaron tanto la bioética como la evaluación de tecnologías sanitarias, disciplinas que no tenían entre sus prioridades analizar la efectividad de incorporación de robots en la atención sanitaria o el análisis ético de las decisiones de máquinas como Hal 9000; para ambas disciplinas, algoritmos y máquinas complejas son hoy materia de estudio.

En su momento Hal 9000 era un producto de la ciencia ficción; pero ¿Que sería necesario para que Hal 9000 pudiera ser una realidad?

En principio sería necesario que las máquinas tuviesen capacidad de generar e intercambiar autónomamente datos entre ellas, mediante conexión de internet; es lo que hoy llamamos el internet de las cosas. En segundo lugar, sería necesario el almacenamiento, procesamiento y análisis de grandes volúmenes de datos que analizados con los algoritmos adecuados, nos pudieran ayudar a tomar decisiones; es lo que llamamos big data. En tercer lugar, sería necesario que las máquinas fuesen capaces de percibir lo que ocurre en su entorno y llevar a cabo acciones para maximizar sus posibilidades de éxito en alcanzar su objetivo, tomando decisiones con la información de contexto y los algoritmos que se les suministremos; es lo que llamamos machine learning.

Estos tres elemento son ya una realidad, no una historia de ciencia ficción, y es previsible que tengan un gran impacto en el ámbito sanitario, con especial incidencia en lo relacionado con el pronóstico, el diagnóstico por imagen y anatomía patológica y la precisión en el diagnóstico clínico. Para que el avance tecnológico pueda ser posible, es necesario en estos momentos avanzar en el big data; es preciso conseguir los datos suministrados generosamente ¿? por millones de pacientes, para a partir de ellos, construir algoritmos que hipotéticamente redundarán en beneficio de los propios pacientes. Así pues, cada vez utilizaremos más algoritmos para automatizar decisiones sanitarias, y como alguien ha indicado,  es necesario que sus resoluciones no solo sean correctas, sino también justas.

Las decisiones que se tomen hoy, tendrán consecuencias distintas según los valores morales de los que partamos.Es por ello por lo que surge la necesidad del análisis ético del impacto del big data en todos los ámbitos sociales, y especialmente en el sanitario. Por una parte hay que abordar los desafíos en la prestación de atención a los pacientes que pueden surgir en la gestión de la información de la historia clínica electrónica; pero estos son de pequeño calado en comparación con los derivados del previsible uso de estas bases de datos para generar nuevo conocimiento, generar algoritmos de ayuda a la toma de decisiones y su incorporación a procesos automatizados.

Se han publicado varios documento de interés al respecto. Entre ellos, y no exclusivos,  tenemos el Documento sobre bioética y Big Data de salud: explotación y comercialización de los datos. Este documento del Grupo de Opinión del Observatori de Bioètica i Dret de la Universitat de Barcelona, se elaboró para dar respuesta al proyecto VISC+ (Más Valor a la Información de Salud en Cataluña), y analiza los problemas derivados de: 1) las posibles vulneraciones de los derechos de los ciudadanos y 2) la falta de transparencia y debate público informado, en una cuestión en la que subyace el tráfico de datos personales, reutilizados con fines distintos al tratamiento médico directamente  recibido por el paciente de los usuarios de la sanidad pública. Sus recomendaciones no obstante son más amplias, y abordan desde aspectos culturales, a las limitaciones de la anonimización de los datos, la colaboración público-privado o los procesos de información y debate ciudadano en la toma de decisiones por parte de los poderes públicos.

Otro documento interesante es Perspectives on Big Data, Ethics, and Society  del Council for Big Data Ethics and Society, resume los encuentros y discusiones que este grupo ha llevado a cabo en los dos últimos años. El documento describe los problemas éticos planteados por la agregación de datos biomédicos y su reutilización, en aspectos cómo privacidad, consentimiento informado, profesionalismo, relaciones de poder y gobierno ético de las plataformas Big Data. Establece recomendaciones a nivel político, formativo y de desarrollo de cultura ética, así como líneas de investigación para responder a preguntas concretas.

De gran interés es el Preliminary Draft Report of the International Bioethics Committee of UNESCO  (IBC) on Big data and Health. El informe detalla los desafíos que supone el big data en aspectos como:

  • Autonomía: Los mecanismos tradicionales de consentimiento informado y disociación o anonimización de datos, parecen insuficientes para garantizar la autonomía de las personas.
  • Privacidad y Confidencialidad: Las personas son cada vez más trasparentes, mientras que el entorno tecnológico es cada vez más opaco, especialmente respecto a sus algoritmos.
  • Propiedad de los datos: Una de las cuestiones tratadas en el documento del grupo de la Universidad de Barcelona arriba citado.
  • Justicia: Brecha digital, Beneficios compartidos, No discriminación, Sostenibilidad energética y medioambiental.
  • Investigación: Investigación con datos sanitarios en el ámbito tecnológico, uso de datos sin finalidad comercial en el ámbito universitario que acaban en el sector empresarial, reidentificación de datos anonimizados.

El artículo Are Research Ethics Obsolete In The Era Of Big Data?  tiene un planteamiento diferente a los anteriores, y se pregunta si realmente habrá preocupación ética por los datos en un futuro, en el que las personas crecieron en un mundo digital en el que han compartido su vida. Por otra parte hay que tener presente que ya vamos teniendo resultados concretos en la investigación con big data, en ámbitos como el de las enfermedades raras, los efectos adversos de los medicamentos o la propia investigación clínica o genética; incluso el uso de esta metodología puede afectar al paradigma vigente de evidencia científica. 

Nos encontramos pues ante un desafío, en el que habrá que encontrar un equilibrio entre las bondades de la investigación biomédica con big data y la seguridad y privacidad de las personas.

Apuntes sobre Antígona

sierra-nevada

Las personas que se dedican a la bioética mantienen distintas posturas acerca de si actualmente los términos ética y moral significan lo mismo. En lo que si parece que están de acuerdo es en empezar los cursos de bioética con la lectura de Antígona de Sófocles. Como tragedia tenía una finalidad didáctica, tratando en el plano religioso la relación entre el hombre y el cosmos, y en el plano político la relación entre el hombre y el poder. Lo didáctico de la obra se debe a que en ella se identifican los elementos que constituyen el universo de la ética: hechos, valores, deberes, fines, principios, deliberación, cursos de acción, responsabilidad, consecuencias, prudencia etc.

En la obra los hechos se desencadenan con la muerte de dos hermanos que se dan muerte mutuamente al no cumplir uno de ellos el pacto de turnarse en el trono de Tebas, aliándose Polinices con fuerzas extranjeras. La máxima autoridad de la ciudad, su tío el rey Creonte, decide honrar la muerte de Eteocles con grandes funerales (con ello considera que contribuye al bien de la ciudad), mientras que prohíbe, salvo pena de muerta, que Policines sea enterrado, por lo que vagará sin poder llegar hasta el mundo de los muertos, el peor de los castigos posibles; cualquier persona que incumpla esta orden será condenada a muerte.

Antígona incumple manifiestamente esta orden, asumiendo que el valor de sus creencias (enterrar a su hermano Policines como manda la tradición de su familia) es de origen divino y está por encima del valor de su propia vida y por supuesto del valor de las leyes dictadas por los hombres. Sus valores chocan con los que defiende Creonte, y al ser inflexibles ambos se llaga a una situación de cursos de acción extremos, por lo que la tragedia está servida. Generalmente se ve a Antígona como la heroína que se enfrenta al poder, aunque la respuesta no es automática: ¿es superior el poder de las costumbre y tradiciones al de las leyes, defendidas por los poderes públicos? ¿prevalecen las tradicones sobre el bien común?.

Antígona es condenada a muerte, a pesar de que su prometido Hemón, hijo de Creonte intenta algún tipo de negociación con su padre sin conseguir éxito alguno, siendo despreciado con comentarios extremamente machistas. Ismene, hermana de Antígona que ha obedecido la orden real, se autoinculpa también cuando es condenada su hermana, pero ella no consigue ser condenada.

El adivino Tiresias acusa a Creonte de imprudente y le advierte que alguien de su sangre pagará sus errores con su muerte; el coro de ancianos también aconseja al rey que reconsidere su cambie de actitud. Es curioso como Creonte desprecia los valores de la juventud que representa su hijo, y sólo se vuelve prudente con los comentarios de Tiresias y los ancianos; pero su orden de perdonar a Antígona llega demasiado tarde: esta ha fallecido, Hemón se quita la vida al hallarla ya muerta al igual que su madre Eurídice al enterrase que su hijo ha fallecido.

La obra finaliza con un alegato a la prudencia, el arte de tomar decisiones morales razonables pero inciertas:

“Con mucho, la prudencia es la base de la felicidad. Y, en lo debido a los dioses, no hay que cometer ni un desliz. No. Las palabras hinchadas por el orgullo comportan, para los orgullosos, los mayores golpes; ellas, con la vejez, enseñan a tener prudencia”.

En la obra en suma se abordan temas como el feminismo o más bien machismo, las decisiones imprudentes, los aspectos éticos relacionados con el inicio de la vida (Antígona nace de la relación incestuosa de Edipo), el final de la vida (Ismene prefiere la muerte antes que vivir sin su hermana), los valores llevados a situaciones extremas e irrenunciables, la supremacía de los valores personales sobre la propia vida, la ética del poder (y por tanto de las organizaciones), el derecho a saber (Edipo desconocía quién era su madre), ley y moral, la legitimidad que da el estatus, Auctoritas vs. Potestas, la comunicación, la reponsabilidad, la prepotencia, el dialogo, la conducta sumisa…..

Pero mejor que yo lo explican en este video: