lunes, 1 de mayo de 2023

Inteligencia artificial GPT-4 en medicina: ¿realidad o ficción?


Foto: iStock.



Quienes han utilizado la IA para cuestiones sanitarias afirman que sus respuestas son precisas y que se adecua el lenguaje al mismo tono con el que se formuló la cuestión




La inteligencia artificial, y su aplicabilidad en la medicina, llegó para quedarse. Desde hace años se usa en el análisis de imágenes de pruebas diagnósticas, en el control de interacciones entre fármacos o para la codificación de notas médicas. Es la consolidación de ese futuro que se barruntaba el siglo pasado en muchas novelas y películas de ciencia ficción. Aún recuerdo el final de El Imperio contraataca y el impacto que me produjo. No solo me refiero a la noticia de la verdadera paternidad de Luke Skywalker, sino a la escena en la que un robot le coloca una mano protésica, con la mayor de las precisiones y sin derramar una gota de sangre. Hoy estamos más cerca que nunca de ese mundo, donde las máquinas pueden diagnosticar y curar las enfermedades más complejas en cuestión de nanosegundos. Es la llegada del superdoctor.

A finales del año pasado, la empresa OpenAI liberó al mundo su conocido Chat-GPT (acrónimo en inglés de “transformador preentrenado generativo”). No era una aplicación más entre las miles que hay disponibles en la actualidad, sino un modelo de aprendizaje automático de inteligencia artificial con el que se interacciona a través de un interfaz similar a cualquier chat convencional. La fecha de lanzamiento fue el 22 de noviembre y a los cinco días el Chat-GPT ya tenía un millón de usuarios en todo el mundo, convirtiéndose en la aplicación con más crecimiento de la historia (TikTok tardó nueve meses en alcanzar esa cifra, e Instagram dos años y medio). Conscientes del potencial, algunas compañías importantes ya lo han incluido en sus servicios: Microsoft tiene un modelo integrado en Bing, y Google ha creado Google Bard (este último tiene bastantes problemas por resolver, por lo visto), lo que nos da una idea del enorme potencial del producto, y no solo en relación con temas pecuniarios.

Quienes lo han utilizado para cuestiones médicas afirman que sus respuestas son precisas, y que lo hace al instante. Pero, además, si se escribe una consulta médica a través del chat, el lenguaje de la respuesta se adecua al mismo tono en el que se formuló, puesto que es sensible a la forma y elección de las palabras. Un observador ajeno podría aseverar que la están manteniendo un médico y un paciente. Y no solo acumula experiencia con cada interacción, sino que también reconoce sus errores y aprende de ellos.


GPT-4 y la medicina

Hace unas semanas se ha publicado en la prestigiosa revista New England Journal of Medicine un interesante trabajo en el que se analiza el funcionamiento de GPT-4 y su aplicabilidad en medicina. La versión cuatro es la más actualizada, y su lanzamiento ha sido el mes pasado. Una de las interacciones más curiosas surge cuando los investigadores realizan una consulta sobre la diabetes, que no tiene una única respuesta (o que puede ser interpretada de varias formas) y reciben una respuesta incorrecta. Es lo que se denomina en inteligencia artificial como “alucinación” y los autores alertan, no sin razón, que son errores peligrosos en escenario médicos. Sin embargo (y aquí viene la parte más interesante), continuando con el experimento, los autores realizaron una nueva consulta en el GPT-4, y solicitaron al sistema que analizase la transcripción de la conversación anterior (que incluía la alucinación detectada). Esta vez GPT-4 manifestó ser consciente del error que se había cometido, confirmando así su capacidad de aprender de sus propios errores. No tardó ni un segundo en responder.

¿Cuáles son las posibilidades de aplicación en el campo de la medicina? Según afirman en el artículo, son muchas más que simples consultas sobre enfermedades o medicamentos. El sistema es capaz de transcribir las notas clínicas de un facultativo y elaborar un informe médico con un lenguaje preciso y entendible para el paciente. Puede organizar pruebas diagnósticas e, incluso, solicitarlas él mismo, y puede aplicarse en investigación, en educación sanitaria, en prevención, o utilizarse como gestor de las listas de espera quirúrgica, por ejemplo, priorizando a aquellos que precisan de cirugía preferente. También podemos solicitarle ayuda con un trabajo científico que estemos elaborando, porque el sistema nos lo puede corregir o traducir, así como ordenar nuestra bibliografía, reduciéndonos tiempo y esfuerzo. Peccata minuta para un sistema que ha demostrado su capacidad para aprobar el USMLE, el examen de licencia médica necesario para ejercer la medicina en EEUU.

Ahora bien: ¿estamos seguros de que someterse a la inteligencia artificial es nuestro verdadero deseo? Cada vez que pienso en un futuro en el que estemos supeditados a las máquinas, me viene el recuerdo de algunas excelentes películas futuristas. En Terminator, las decisiones humanas se eliminan del sistema de defensa nacional en favor de la inteligencia artificial (llamada Skynet en la película), hasta que esta toma conciencia de sí misma y desencadena una guerra, cuyo objetivo no es otro que aniquilar la especie humana. Una parecida motivación tiene HAL 9000 en 2001: Una odisea en el espacio, quien acaba por ser consciente de su poder y de sus habilidades aprendidas, e incluso acaba suplicando que no se le desconecte cuando el capitán de la nave se da cuenta de sus aviesas intenciones. Qué decir de los replicantes de Blade Runner, androides creados por los humanos, con capacidades intelectuales y atléticas superiores, y el peligro que acaba suponiendo para los humanos su capacidad de aprender y tener sentimientos.

placeholderFoto: iStock.
Foto: iStock.

Delegar nuestra voluntad en máquinas, en la vida real, puede que no tenga unas consecuencias tan terribles como las cinematográficas, pero ¿debemos confiar nuestra salud, en exclusiva, en la inteligencia artificial? Es un hecho contrastado que su uso en medicina es un instrumento de trabajo útil en cuestiones de información, organización, análisis, etc, pero también puede ser peligrosa, si es mal utilizada. “Las máquinas son herramientas y, como tales, aunque deben ser utilizadas para el bien, tienen el potencial de causar el mal”, concluyen en el New England Journal of Medicine los autores, de manera textual. Una alucinación del sistema puede generar un error grave en un paciente, por lo que la supervisión médica no debía abolirse en ningún caso. Si bien la estandarización y los protocolos médicos son importantes para el tratamiento de las personas, no podemos dejar de lado la necesidad de singularizar cada caso. Cada paciente es un mundo. ¿Será capaz la inteligencia artificial de aprender a individualizar ante las infinitas variables de un organismo de nuestra especie? La persistencia del género humano se basa en la diversidad y está condicionada por la genética y la interacción con el medioambiente. No. No somos iguales, y la homogeneización a la hora de tratar, como haría una máquina, puede no ser el mejor método de cuidar a varios pacientes, aunque todos presenten la misma patología.

Hemos visto que GPT-4 adecua su lenguaje y lo hace inteligible a cualquiera. Pero ¿es capaz de sentarse a pie de cama de un paciente y explicarle su dolencia? ¿Puede confortarlo? Si algo he aprendido a lo largo de mis años de profesión es que la empatía también ayuda a sanar. Al enfermo no solo le importan las medicaciones o las técnicas quirúrgicas que le vas a aplicar, también quiere que le generes confianza. ¿Será capaz la inteligencia artificial de humanizar la medicina mejor que un humano? Caminamos hacia una medicina fría y distante, donde se está perdiendo el contacto directo. Cada vez se interroga más rápido en la consulta y, a veces, sin mirar al paciente, puesto que hay que teclear al mismo tiempo. También se está perdiendo entre los médicos más jóvenes el arte de la exploración física, en favor de las potentes pruebas diagnósticas. ¿Para qué perder tiempo si puedo hacerle un escáner y en minutos voy a saber lo que tiene? Hoy en día los aparatos de electrocardiograma te dicen el diagnóstico en el papel impreso, para que no tengas que pensar, y algunas radiografías calculan la probabilidad de que el enfermo tenga esta o aquella patología. ¿No nos estaremos atrofiando?

En fechas recientes, un investigador español de los más citados del mundo [cuantos más artículos científicos publicas, mejor te sitúas en el ranking mundial] declaraba que, desde que comenzó a utilizar GPT a finales del año pasado para sus trabajos científicos, su producción había aumentado significativamente. En los tres primeros meses de este año ya había publicado 58 estudios (equivale a 1 cada 37 horas). Según declaró, solo lo utilizaba para pulir textos y para mejorar la expresión escrita en inglés. ¿Es este el tipo de investigación de calidad que queremos? Es muy posible que el problema radique en los paupérrimos recursos económicos que se destinan a la ciencia, y que hace que “publicar como churros” sea la única manera de subsistir que tiene el científico. Como dice mi amigo Fredy Larsan, nuestra sociedad tiene los mismos problemas que acuciaban en la antigüedad a aquellos que, dibujando con un palo en la arena, divagaban sobre la existencia humana. Nos diferencia la tecnología, pero no el miedo a la enfermedad y a la muerte, y tantos otros debates filosóficos que son los mismos que antaño.

Hay más cuestiones aún por depurar. Recientemente, la Agencia Nacional de Protección de Datos ha iniciado una investigación para determinar si la empresa OpenAI incumple las normas de privacidad. Como antecedente, en Italia el 31 del mes pasado se efectuó el bloqueo del Chat-GPT por ese motivo. ¿Cómo y quién regulará toda la información médica que procese, y dónde y bajo qué protección quedará almacenada? Y otra consideración más: ¿tiene el sistema conciencia? ¿Ética? ¿Qué responsabilidades legales se le puede pedir al GPT-4 si se equivoca o comete una negligencia y un enfermo fallece?


placeholderFoto: iStock.
Foto: iStock.

No veo la necesidad de abandonar la inteligencia no-artificial. El GPT-4 es una herramienta, usémosla como lo que es: un bibliotecario infalible que encuentra al instante lo que se le solicita, que ordena datos, gestiona historias clínicas, sugiere diagnósticos, medicaciones, etc, todo en una fracción de segundo. Si en un futuro próximo conseguimos implantar una mano protésica a un amputado como a Skywalker, será maravilloso, pero cuidémonos de la posibilidad de que las máquinas nos declaren la guerra algún día, como en Terminator. Que no tengamos luego que eliminarlos porque, en el fondo, su perfección nos genera envidia, como pasa con los replicantes, ni que tengamos que desconectarlos porque su mal funcionamiento ha costado la vida de otros humanos, como sucede con HAL 9000. Evitemos que las máquinas nos engañen con una realidad simulada, como sucede en Matrix, y que acaben utilizándonos única y exclusivamente como fuente de energía. Isaac Asimov ya nos manifestó su preocupación a través de sus leyes de la robótica, cuyo primer postulado dice: “Un robot no hará daño a un ser humano, ni permitirá por inacción que lo sufra”. Tengámoslo presente.
Que se mejoren.




www.alimente.elconfidencial.com/bienestar/2023-04-29/inteligencia-artificial-gpt-4-en-medicina_3618605/