2023, Número 1-4
Inteligencia artificial y cirugía. Un análisis desde la vertiente bioética
Idioma: Español
Referencias bibliográficas: 23
Paginas: 49-54
Archivo PDF: 172.09 Kb.
RESUMEN
La irrupción de la inteligencia artificial (IA) es innegable. Ante esta realidad, se impone la reflexión sistemática de la bioética centrada en la persona a fin de buscar caminos que aseguren su uso adecuado para beneficio de la humanidad. En las ciencias de la salud, la IA se utiliza de múltiples formas. Cada día, nuevas aplicaciones de la IA se desarrollan para asistir a la estrategia decisional y resolución de problemas médicos. En cirugía, tiene múltiples aplicaciones para la planeación, valoración de riesgos, predicción de resultados, mejorar la técnica quirúrgica, aumentar la seguridad de los procedimientos y otras muchas. Sin embargo, también es un enorme negocio, cuyos intereses comerciales y los de quienes la adquieren y utilizan, pueden prevalecer sobre las consideraciones éticas, además de los riesgos posibles derivados de la interacción con esta tecnología. Por ello, el enorme interés multinacional que despiertan las cuestiones éticas alrededor de la IA y la convocatoria de numerosos encuentros de científicos, instituciones y estados para tratar de respetar y aplicar los principios fundamentales de la bioética y regulaciones para salvaguardar la dignidad humana, los derechos, las libertades fundamentales y la prioridad del interés y el bienestar de la persona sobre el interés de la ciencia o la industria, ya que hasta ahora no existen políticas globales que garanticen la eticidad de la IA, ni la responsabilidad de los creadores de estos sistemas. El poder de la IA requiere estándares éticos para su planificación, desarrollo, producción y utilización que son grandes desafíos a considerar. Por tanto, es primordial que los cirujanos y los directivos de las instituciones de salud, que adquieren estos sistemas, tengamos un conocimiento más integral de esta herramienta maravillosa incluyendo su aspecto ético, para comprender de qué manera incorporarla mejor a la práctica para ayudar a los pacientes. La responsabilidad del comportamiento de las máquinas que utilizan IA, especialmente en el campo quirúrgico, no sólo es de los diseñadores y los desarrolladores o las compañías que los comercian sino también de los compradores y los usuarios de estas herramientas. Debe haber una reflexión profunda y un diálogo estrecho entre todos para sacar el mejor provecho.La irrupción de la inteligencia artificial (IA) en nuestra vida cotidiana es innegable, mucho más frecuente y penetrante de lo que la mayoría de las personas pudiera pensar. Sus avances han sido espectaculares, hasta hace pocos años eran increíbles, comparado con lo que hoy sucede. Más que una época de cambio, lo aceptemos o no, estamos en un cambio de época, algo que asombra, asusta y seduce a la vez, una revolución cultural en el amplio sentido de la palabra, destinada a transformar nuestro futuro, aunque aún ignoramos de qué forma y los alcances que pueda tener.
En 1942, Isaac Asimov en su ingenioso cuento, El Círculo Vicioso (Runaround), intuitivamente describía tres leyes que debían seguir los robots autónomos para proteger a las personas. Primera: un robot no hará daño a un ser humano, o por su acción no permitirá que un ser humano sufra daño. Segunda: un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entran en conflicto con la primera ley. Y tercera: un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o segunda ley. Estas leyes bien podrían considerarse esbozos de principios éticos que continuarían vigentes y aplicables en nuestros días para la IA. Sin embargo, en el mismo relato el autor daba cuenta de los dilemas éticos y problemas derivados de la autonomía dada a estas máquinas que no se resuelven con facilidad, sino que requieren de la reflexión, inteligencia, moralidad y el criterio humano.1
Ahí es donde entra la bioética; ese famoso llamado de atención que proféticamente hizo Van Rensselaer Potter en su libro Bioethics: Bridge to the Future, en 1972, para conciliar el mundo de los hechos, con los valores y las humanidades, solicitando para la supervivencia del mundo "una nueva sabiduría que suministrara el conocimiento de cómo usar el conocimiento, para la supervivencia del hombre y para mejorar la calidad de vida".2 Sin duda hoy ante estas nuevas realidades, el llamado subsiste tan actual como entonces y apela a esa reflexión, a fin de buscar caminos para las situaciones que encaramos. Porque está claro que no basta ser una "buena persona", de buenas intenciones, incluso con sentido común para decisiones trascendentes, ya que por su misma naturaleza, despiertan emociones y sentimientos fundamentados en valores y creencias personales que al final dictan juicios y decisiones que pueden ser o no correctas.3 Por consiguiente, hace falta una deliberación más amplia y profunda como la que se busca con la bioética. Para entenderlo, es necesario comprender su sentido y metodología.
Aunque no existe una definición única, una de las mejores, expuesta en su enciclopedia por Warren Reich, "la bioética es el estudio sistemático de las dimensiones morales –incluida la visión moral, las decisiones, conducta, líneas de acción, etc.– de las ciencias de la vida y los cuidados sanitarios con el empleo de una variedad de metodologías éticas y en un planteamiento interdisciplinar".4 De esta definición destacan varios aspectos que ilustran por qué desde la bioética debe hacerse esta reflexión sobre la IA, es muy importante para los cirujanos cuando ésta se aplica e incide notablemente en nuestro campo. En primer lugar, por ser un estudio sistemático, inter y multidisciplinario. No podía ser de otro modo. La IA es una materia muy compleja en la que intervienen diversas disciplinas como la informática, la cibernética y la medicina; pero también la política, la comunicación, el derecho, la economía, la mercadotecnia, las ciencias sociales, la filosofía y en especial la ética como rama filosófica. No se excluye ninguna posibilidad, ya que todas estas áreas del conocimiento aportan comprensión desde su propia perspectiva, están íntimamente relacionadas y se corrigen y complementan de forma recíproca.
Por otra parte, al incluir las dimensiones morales, es indispensable tener claro el marco antropológico del cual se parte, que sin duda determina los estándares morales y las pautas de conducta que se seguirán. Como indica Vila Coro: "en las posturas éticas existe, implícita o explícitamente, una determinada concepción antropológica, y de esta visión del hombre derivan las posiciones éticas".5 Por lo cual, si la persona no está en la consideración central, cualquier otra cosa puede ocupar su lugar y las decisiones serán distintas. Aun así, es preciso tener en mente que la bioética no pretende dar respuestas de validez universal, ni es garantía de la óptima solución, sino que es una búsqueda, una deliberación, que intenta orientar las posturas que sean para beneficio de la persona y la humanidad.
Para este fin es indispensable entender con claridad lo que es la IA. Desde el punto de vista histórico, a raíz de la pregunta del matemático Alan Turing en su artículo de la revista Mind ¿Las máquinas pueden pensar?, inicia la era de la IA.6 Nació oficialmente, en 1956, en el Dartmouth College, en Estados Unidos, en la conferencia Dartmouth Summer Research Project on Artificial Intelligence, que pretendía responder la pregunta de Turing aseverando que las máquinas podían simular la inteligencia humana, aunque el término se utilizó entonces más bien para llamar la atención sobre esta posibilidad. Veinte años después, siendo ya una realidad, Bellman la definiría como el estudio de algoritmos que otorgan a las máquinas la capacidad de razonar y realizar funciones cognitivas como la resolución de problemas, el reconocimiento de objetos, palabras y la toma de decisiones.7
El perfeccionamiento de los procesos condujo a la elaboración de diferentes subconjuntos de tareas informáticas que multiplicarían la potencia de la IA; como el aprendizaje automático (machine learning), que permitió a las computadoras acumular datos y reprogramarse automáticamente a partir de su propia información, lo que hizo posible crear múltiples aplicaciones capaces de identificar imágenes, rostros, reconocimiento de voz, etcétera.
En la década de los 90, la IA se acopló con la robótica, produciendo interfaces hombre-máquina capaces de realizar numerosas y complejas labores. Más tarde, el perfeccionamiento de los programas que simulan conversaciones con usuarios humanos (chatbots), logró el diseño de aparatos "con inteligencia" dando origen a la informática emocional (affective computing), que evalúa las reacciones de un sujeto que la máquina interpreta, emula y reproduce.
El aumento en la potencia de las máquinas permitió aprovechar cantidades masivas de datos (big data) con técnicas de aprendizaje profundo (deep learning), basadas en el uso de redes neuronales, algoritmos inspirados en el funcionamiento del cerebro humano, que "aprenden" exponencialmente de estas enormes cantidades de información, superando las capacidades humanas. Todo ello tiene un impacto sin precedente en todos los ámbitos: la vida diaria, la industria, el comercio, la banca, los seguros, la defensa y la salud. Por eso, la Unión Europea ahora define la IA como "la habilidad de una máquina para mostrar capacidades similares a las humanas, como el razonamiento, el aprendizaje, la planificación y la creatividad".8 Habilitando a un sistema tecnológico para comprender su entorno, relacionarse con lo que percibe, resolver problemas y actuar para alcanzar un objetivo concreto.
En las ciencias de la salud, la IA se utiliza de múltiples formas. Para el análisis avanzado de imágenes, la investigación, elaboración de medicamentos, el diagnóstico y la predicción de problemas de salud, el desarrollo de conocimientos y aplicaciones prácticas a partir de la secuenciación genómica, la cirugía robótica y otras muchas.9
Cada día, nuevas aplicaciones de la IA se desarrollan para asistir la estrategia decisional y resolución de problemas médicos.10 En cirugía, específicamente, perfecciona los árboles de decisión secuenciales para la planeación de cirugías personalizadas, en especial en problemas complejos, en los que entran en juego múltiples elementos que requieren la mejor decisión posible, como en cirugía bariátrica.11 Ayuda también a la valoración de riesgos, predicción de resultados y complicaciones, reconocimiento de patrones anatómicos de imagen para prevenir daños, mejora las reconstrucciones en ortopedia,12 y en anestesia a monitorizar y administrar fármacos.13
En el campo de la enseñanza, a optimizar la adquisición de conocimiento para los residentes,14 o acrecentar las habilidades y técnicas quirúrgicas de los cirujanos, entre otras muchas ventajas. Por todo ello es un recurso invaluable y un poder maravilloso. Pero la IA es también un enorme negocio, se valúa en unos 300,000 millones de dólares para 2025, por lo que algunos la consideran como el nuevo petróleo que disputan gigantes tecnológicos cuyos intereses comerciales pueden prevalecer sobre las consideraciones éticas. Además de los riesgos posibles derivados de la interacción con esta tecnología.15
Es por ello que despiertan enorme interés y preocupación las cuestiones éticas alrededor de la IA. Una búsqueda actual en Google muestra más de 150 millones de referencias relacionadas con IA y ética. La bioética siempre ha considerado el uso de la tecnología como un asunto de gran trascendencia y, por sus alcances, en especial la IA, que si bien brinda beneficios innegables, también puede entrañar peligros.
Las máquinas no tienen autonomía moral, no poseen voluntad propia y realizan sus programas al servicio de los objetivos que se les fijan. Probablemente en previsión de normar los adelantos ya presentes al inicio del tercer milenio, y los que vendrían después, en el III Congreso Mundial de Bioética en el año 2000 se elaboró el documento conocido como Declaración de Gijón, que postulaba que la ciencia y la tecnología deben tomar siempre en consideración el bienestar de la humanidad, el desarrollo sostenible de todos los países, la paz mundial y la protección y conservación de la naturaleza.16 Más tarde, en 2005, la Conferencia General de la UNESCO aprobó la Declaración Universal sobre Bioética y Derechos Humanos, comprometiendo a la comunidad internacional en el mismo sentido, a respetar y aplicar los principios fundamentales de la bioética respetando la dignidad humana, los derechos, las libertades fundamentales y la prioridad de los intereses y el bienestar de la persona, incluso sobre el interés exclusivo de la ciencia o la sociedad, salvaguardando y promoviendo el bienestar de las generaciones presentes y venideras.
Específicamente en el terreno de los problemas que plantea la IA, el interés internacional por la ética que involucra ha sido creciente. Sin embargo, resaltan por su importancia algunas iniciativas recientes para tratar este aspecto de la IA. El Future of Life Institute organizó, en 2017, una conferencia en Asilomar, California, con la participación de más de 800 investigadores especializados en IA, con el objetivo de dar recomendaciones éticas sobre seguridad, transparencia, responsabilidad, valores, privacidad, libertad, control y otros puntos, conocida como los Principios de Asilomar.17 Al año siguiente, la Universidad de Montreal reunió a más de 70 instituciones en un foro internacional para desarrollar y proponer un marco ético de desarrollo equitativo, inclusivo y sostenible de la IA, subrayando que debe subsistir el control humano sobre ella y que la decisión final debe ser siempre tomada por una "persona libre e informada". Defendiendo principios como bienestar, responsabilidad, protección a la privacidad, solidaridad y desarrollo sustentable. También afirmaron que los sistemas de IA que brindan atención médica deben considerar prioritaria la relación médico-paciente.
Ese mismo año, la Comisión Europea convocó en Bruselas a multitud de expertos de alto nivel en IA para trabajar en la elaboración de guías éticas y recomendaciones de políticas e inversión para una IA fiable.18 Con la encomienda de que la IA cumpla con la legislación y se apegue a principios y valores éticos, tanto desde una perspectiva técnica como social, ya que, incluso con buenas intenciones, la IA puede causar daños.
Teniendo en cuenta el enorme poder de esta tecnología, el papa Francisco, interesado también en la búsqueda del bien común con el uso de la IA, en 2020, instruyó a la Pontificia Academia para la Vida a organizar la conferencia "RenAIssance: por una inteligencia artificial humanista". A raíz de esa iniciativa, directivos de importantes corporaciones de informática y el Parlamento Europeo firmaron "el Llamamiento de Roma por la Ética de la IA".19 Partiendo del hecho de que estas tecnologías, por muy potentes que sean, no pueden considerarse sino sólo como herramientas para desempeñar determinadas funciones con mayor rapidez y eficacia.
El Llamamiento de Roma y RenAIssance propusieron una "algor-ética", es decir, una ética de los algoritmos, no con el fin de restringir sino para dar dirección y orientación por medio de una revisión competente y compartida de los procesos, para desarrollarlos con responsabilidad e imparcialidad, darles transparencia, hacerlos inclusivos a todos los seres humanos salvaguardando la dignidad, la seguridad y respetando la privacidad de los usuarios.20 Siguiendo este camino, finalmente en enero de este año, las tres principales religiones monoteístas firmaron un documento sobre la ética de la IA para pedir que se respeten con solidaridad y subsidiariedad los principios del Llamamiento de Roma con el fin de que todos se beneficien de esta revolución, evitando su uso injusto.21
En ese mismo año 16 países, entre los que se encuentra el nuestro, firmaron un pacto y crearon una Alianza Global para el uso responsable de la IA.
Aunque las consecuencias de su mala gestión pueden ser muy nocivas, hasta ahora todavía no existen lineamientos y políticas globales que garanticen la eticidad de la IA ni la responsabilidad de los creadores de estos sistemas. No existe ninguna ley que defina el perfil de la persona responsable y las sanciones en caso de resultados negativos. A este respecto surgen las preguntas: ¿quién es responsable?, ¿la empresa que la fabricó?, ¿el comprador de la tecnología?, ¿el usuario? Regular las relaciones entre humanos y máquinas son retos fundamentales para gobiernos e instituciones. Por tanto, grandes personalidades involucradas como Geoffrey Hinton, considerado el padrino de la IA, renunció recientemente a su puesto en Google para denunciar con libertad su preocupación por el riesgo potencial de su uso inadecuado.
Hay que estar prevenidos de la influencia negativa de algunas ideologías que incidan en el diseño, propósito y uso indebido de la IA que pueden ocasionar perjuicios, tanto a corto como a largo plazo. Ejemplos de esto son las llamadas "cajas negras", o la "dictadura" de los algoritmos, cuando éstos no son claros, explicables, ni transparentes y pueden contribuir a la segregación, o perjuicios discriminatorios contra sectores específicos de la población, en especial en usos militares en los que se involucran armas letales, o funciones coercitivas22 pero también en el área de la salud. ¿Cuál es el grado de autonomía que se permite a las máquinas? ¿Qué sucede entonces con la decisión humana? La cirugía entraña decisiones vitales, en momentos cruciales, que son complejas y repletas de incertidumbre, que requieren de la técnica y la ética que en muchas ocasiones tienen límites poco definidos que requieren la decisión y el criterio, porque se hacen precisamente sobre la vida y la salud de las personas.
Para la medicina, las relaciones interpersonales son de la mayor importancia por lo que en el uso de la IA hay que tomar en cuenta la despersonalización y la erosión de los encuentros entre pacientes y médicos. Otro factor es la invasión y la amenaza a la privacidad con el mal uso de los datos sensibles utilizados en este campo que pueden tener graves consecuencias para la autonomía de los individuos, su seguridad y su libertad.
La gran influencia y cada vez mayor dependencia de la autogestión de las opciones y procesos de toma de decisiones incluyendo la cirugía, sitúa a la IA en una posición de poder, que requiere estándares éticos para la planificación, el desarrollo, la producción y su uso y constituyen grandes desafíos a considerar. En especial la cautela en cuanto a la autonomía absoluta a las máquinas.
Escenarios que podrían darse en un futuro cercano en la cirugía con esta tecnología son por ejemplo los robots autónomos, que basados en reconocimiento de patrones anatómicos y datos fueran capaces de operar. La información del paciente que podría ser utilizada para decidir si es candidato o no para una cirugía de cáncer o de trasplante, o los datos del cirujano para decidir cuándo debe ser impedido para realizar una cirugía, retirado de la práctica, o si debe ser elegido o no por el hospital o el paciente para una determinada operación. Aunque a la manera de Asimov pueden insertarse principios éticos para que las máquinas decidan, de ningún modo son suficientes, ya que un principialismo abstracto como se plantea en la bioética americana, resulta insuficiente e inoperante para estas decisiones críticas, ya que estos principios de autonomía, beneficencia, no maleficencia y justicia, con frecuencia entran en conflicto, por sí mismos crean otros tantos dilemas éticos por lo que se requiere un análisis y deliberación mucho más exhaustivos dependiendo del caso concreto.
Por consiguiente, es primordial que los cirujanos e incluso los directivos de las instituciones de salud que adquieren estos sistemas tengamos un conocimiento más integral de esta herramienta maravillosa, incluyendo su aspecto ético, para comprender mejor de qué manera incorporarla a la práctica para ayudar a los pacientes, evitando peligros potenciales al interactuar con ella.23 Otra pregunta que debe hacerse, es no sólo cuestionarse acerca de los riesgos de utilizarla, sino también cual es el riesgo y la ética de no emplearla cuando supone un beneficio evidente especialmente considerando la seguridad del paciente.
La bioética analiza el pasado, juzga y trata de modificar para bien el presente, y planear el futuro respetando la dignidad del hombre y todo lo que ello significa para vivir mejor. El uso de la IA debe estar al servicio de la humanidad y el bien común, con el objetivo de mejorar el bienestar y la libertad humanos. La cirugía como otras tantas áreas se beneficia de las ventajas y posibilidades que brinda la IA. Sin embargo, debe ser evaluada y utilizada en forma ética y juiciosa. Los problemas éticos que la IA seguirá planteando son numerosos, por lo que aún hay mucho por desarrollar al respecto, y constituyen importantes retos. Es poco factible para el cirujano individual hacer por sí mismo este análisis bioético sistemático y multidisciplinario. A mi modo de ver, la pregunta más importante para cada especialista, es el porqué y el para qué utilizo la IA, y emplearla, si al responder entiendo que hago un bien a los pacientes; y por último, si al emplear la inteligencia artificial utilizo debidamente la mía propia.
REFERENCIAS (EN ESTE ARTÍCULO)
Grupo de Estudio. Evaluación de la tecnología de la digitalización de la Federación de Científicos Alemanes (VDW). Informe sobre los principios asilomar en inteligencia artificial. 2018 Federación de Científicos Alemanes, Berlin. https://vdw-ev.de/wp-content/uploads/2019/05/Informe-sobre-los-principios-Asilomar-en-Inteligencia-Artificial_final.pdf
AFILIACIONES
1 Servicio de Cirugía del Hospital Ángeles Lomas. ORCID: 0000-0002-0223-9133
CORRESPONDENCIA
Dr. Alejandro Weber-Sánchez. E-mail: awebersanchez@gmail.comRecibido: 29/05/2023. Aceptado: 29/06/2023.