Vol. 25 - Num. 98
Colaboraciones especiales
aServicio de Gastroenterología. Hospital Infantil Universitario La Paz. Madrid. España. Comité de Pediatría Basada en la Evidencia (AEP-AEPap). Editor del blog “Ciencia sin seso… locura doble”. https://www.cienciasinseso.com/
Correspondencia: M Molina. Correo electrónico: mma1961@gmail.com
Cómo citar este artículo: Molina Arias M. El futuro ha comenzado . Rev Pediatr Aten Primaria. 2023;25:197-203.
Publicado en Internet: 10-04-2023 - Número de visitas: 5129
Resumen
Aunque a veces no nos demos cuenta, la inteligencia artificial ha impregnado ya nuestras vidas y está a punto de transformar radicalmente el mundo en que vivimos y, cómo no, la forma en que trabajamos. Se revisan brevemente los conceptos de inteligencia artificial y aprendizaje automático, su historia y sus aplicaciones en el campo de la Medicina y la Pediatría.
Palabras clave
● Aprendizaje automático ● Aprendizaje profundo ● Inteligencia artificial ● Redes neuronales artificialesEs un día cualquiera. Nuestro asistente virtual nos despierta a tiempo para comenzar el día. Vamos medio dormidos al baño, donde nos miramos en nuestro espejo inteligente1, que examina nuestra piel y evalúa nuestra composición corporal para darnos consejos de cosmética y ejercicios para mejorar nuestro aspecto y nuestra salud.
Ya desayunando, encendemos el móvil, que amablemente nos informa de que el tráfico hasta nuestro trabajo es, hoy, fluido (¿quién le ha dicho al teléfono dónde trabajo?), y echamos un vistazo a nuestra red social favorita, donde vemos la publicidad del modelo de automóvil que hace dos días comentamos a un amigo que nos gustaría comprar.
En el coche, el sistema de navegación nos calcula la ruta más rápida para llegar al lugar donde trabajamos (otro que se ha enterado de dónde trabajo). Una vez en el trabajo, consultamos nuestro correo electrónico y vemos que la máquina nos ha filtrado el correo no deseado y… así podríamos seguir durante horas. Sea cual sea nuestra actividad, la inteligencia artificial (IA) ha transformado de manera radical nuestras actividades diarias, impregnando nuestras vidas desde la mañana a la noche (durante la cual nuestro reloj inteligente monitoriza nuestro sueño). No nos hemos dado cuenta, pero la tecnología de los libros y películas de ciencia ficción, que no esperábamos hasta un futuro lejano, ya está entre nosotros.
El futuro ha comenzado.
Podemos definir la IA como la simulación de la inteligencia humana en máquinas programadas para realizar tareas que normalmente son realizadas por seres humanos. Además, estas máquinas pueden mejorar su desempeño según conocen y aprenden de los datos que valoran, aunque este concepto de aprendizaje es algo más tardío y no se introdujo hasta la década de los 80 del siglo pasado.
Aunque podríamos buscar antecedentes previos, los inicios de la inteligencia artificial (IA) se sitúan en la década de los 50 del siglo XX, de la mano del nacimiento de la informática, cuando se empieza a plantear si los ordenadores podrían ser diseñados para “pensar”. Este término tiene tantas implicaciones posibles que, aun hoy día, seguimos dándole vueltas.
Es a partir de aquí cuando cobra celebridad el término de aprendizaje automático (machine learning), la parte de la IA que implica entrenar modelos para aprender de los datos y hacer predicciones o decisiones sin ser programados explícitamente para ello2,3.
Es importante comprender que esto constituye un nuevo paradigma en la forma de comprender el procedimiento de trabajo con los ordenadores. Con el planteamiento clásico, se dan al ordenador una serie de instrucciones (un programa informático) que debe seguir de forma generalmente secuencial para transformar los datos en un resultado, la respuesta al problema. Para esto, el programador debe saber con antelación las reglas que gobiernan el comportamiento de los datos, para poder escribir el programa de instrucciones para la máquina. Con el aprendizaje automático, el ordenador “mira” los datos de entrada y la respuesta final correspondiente y, a partir de ambos, averigua las reglas que gobiernan el comportamiento de los datos, que eran desconocidas con antelación (Fig. 1).
Figura 1. El aprendizaje automático supone un nuevo paradigma en la forma de trabajar con los ordenadores |
---|
Existen, en general, dos formas de abordar el aprendizaje automático: aprendizaje automático supervisado y no supervisado4.
En el aprendizaje automático supervisado se proporciona al algoritmo un conjunto de datos con las respuestas correctas ya conocidas para que aprenda a generalizar y a hacer predicciones precisas sobre nuevos datos. Se utilizan para predecir el valor desconocido de una variable a partir de una serie de variables conocidas. Por ejemplo, podemos entrenar el modelo con una serie de microfotografías de biopsias, cada una con su diagnóstico final hecho por un patólogo, para que el modelo aprenda a diferenciar las normales de las patológicas. Una vez entrenado, será capaz de clasificar nuevas biopsias con las que no tuvo contacto durante la fase de entrenamiento.
Entre estos algoritmos están las máquinas con soporte de vectores, los bosques aleatorios (random forest), los métodos de regresión lineal, polinómica y logística, y algunas redes neuronales, entre otros.
El problema de estos algoritmos es que requieren una gran cantidad de material de entrenamiento etiquetado, al contrario de lo que ocurre con los modelos no supervisados. En estos últimos, el modelo es capaz de encontrar patrones previamente desconocidos en conjuntos de datos no etiquetados previamente. Volviendo al ejemplo anterior, entrenaríamos al modelo con un conjunto de imágenes de biopsias y este trataría de agruparlas según patrones que es capaz de reconocer en las imágenes y que el investigador puede desconocer hasta ese momento. Solo quedará determinar la relevancia clínica de estos patrones aprendidos por el modelo y decidir si sirven para realizar un diagnóstico correcto de la enfermedad de interés.
Los modelos no supervisados suelen utilizar técnicas estadísticas para la reducción de la dimensionalidad de los datos (reducir el número de variables), como el análisis de componentes principales y las técnicas de agrupamiento (clustering).
Como hemos visto en el apartado anterior, existe una diversidad de técnicas estadísticas para la realización de modelos de aprendizaje automático, tanto supervisado como no supervisado. De ellos, cabe realizar una mención especial de las redes neuronales, que pueden utilizarse en ambos tipos de aprendizaje automático.
Aunque el modelo de McCulloch y Pitts de 1943 fue el primer modelo neuronal moderno5 y la primera red neuronal fue diseñada por Frank Rosenblat en 19576, la evolución de las redes va paralela al desarrollo de la informática y de la capacidad de almacenar y tratar crecientes volúmenes de datos.
Las redes neuronales reciben este nombre porque están inspiradas en la estructura y el funcionamiento del cerebro humano2. De la misma manera que las neuronas son las células básicas del cerebro y están interconectadas en una red compleja, las redes neuronales artificiales están diseñadas con una gran cantidad de unidades de procesamiento interconectadas llamadas neuronas.
Estas neuronas se agrupan en capas que se relacionan entre sí (Fig. 2). De forma general, existirá una capa de entrada (donde se introducen los datos que la red procesará), una o varias capas intermedias ocultas o profundas (donde se procesan los datos) y una capa de salida (produce la salida final de la red). Es la existencia de estas capas internas lo que da el nombre al aprendizaje profundo (deep learning), ya que hace referencia al funcionamiento oculto y en profundidad de estas capas (aunque, en realidad, existen métodos para monitorizar el trabajo de las capas ocultas).
El desarrollo progresivo de las redes neuronales es lo que ha permitido conseguir los logros más espectaculares de la IA. Así, durante las décadas de los 60 y 70 del siglo XX se produce un gran desarrollo que da lugar a los llamados sistemas expertos, como el MYCIN de 19727, un sistema capaz de dar recomendaciones sobre el diagnóstico y tratamiento de bacteriemias.
Sin embargo, los sistemas expertos ceden su protagonismo a mediados de los 80, momento en que se produce el renacimiento de las redes neuronales con la finalización del llamado invierno de la inteligencia artificial5, que se había producido por falta de inversiones y por la dificultad para solucionar algunos problemas sobre el funcionamiento automático de las redes.
A partir de aquí, el desarrollo de nuevos tipos de redes, como las redes neuronales convolucionales y las redes neuronales recurrentes, y el aumento de la capacidad de cómputo empiezan a producir modelos con resultados y aplicaciones cada vez más sorprendentes, casi mágicos, como el algoritmo DeepDream de Google (2015)8, capaz de convertir una imagen en una mezcla psicodélica de artefactos pareidólicos, o los modelos de traducción de idiomas basados en redes recurrentes, por no hablar de los asistentes virtuales, la conducción autónoma, la clasificación de imágenes y tantas otras aplicaciones.
Por último, es entre 2015-2017 cuando se produce la última (hasta ahora) revolución en este campo, con el desarrollo de los transformadores (transformers)9, la tecnología que se encuentra detrás de los chatbots como chatGPT10 o Bing y de otros modelos generativos de texto en lenguaje natural, imagen o música.
La gran disponibilidad de datos tabulares relacionados con la práctica de la Medicina y la capacidad creciente de procesar cantidades masivas de datos (big data) ha favorecido el desarrollo de aplicaciones de IA orientadas al cuidado de la salud11.
La IA resulta una herramienta útil en el campo de la investigación clínica12. Quizás uno de los ejemplos más demostrativos sea el proyecto AphaFold2 de DNASTAR, que ha desarrollado una IA capaz de predecir la estructura tridimensional de cualquier proteína13,14, lo que ha permitido conseguir en un periodo de 2 años, para un gran número de proteínas, lo que antes costaba de 2-4 años de intenso trabajo por parte de un equipo de investigadores, para cada molécula individual. Pero la IA es útil en muchos otros campos de la investigación, como la identificación de nuevos fármacos, la optimización de los protocolos de los estudios clínicos, la selección de participantes, etc.
En el campo específico de la práctica pediátrica, las aplicaciones actuales de la IA se enfocan en los siguientes aspectos4,15,16:
Como toda herramienta nueva a incorporar a nuestra práctica, el uso de la IA plantea, sobre todo, una serie de consideraciones éticas4, que, si lo pensamos bien, son comunes a otras tecnologías más “clásicas”.
Si se les proporcionan los datos adecuados, los modelos de aprendizaje automático tienen la capacidad de percibir patrones hasta un nivel similar, o incluso superior, al de los seres humanos. Sin embargo, es la obtención de estos datos lo que plantea un primer problema.
Además de tener que resolver los aspectos relacionados con la confidencialidad y la protección de datos, los datos para el entrenamiento del modelo deben ser lo más parecidos posible a los datos de los pacientes en los que se empleará el modelo en la práctica clínica real. Esto hace necesaria una supervisión estrecha del proceso de entrenamiento, con un conjunto de datos adecuados y seguida de una correcta valoración del desempeño del modelo en poblaciones más heterogéneas que la muestra de entrenamiento. Esta es la única manera de conseguir que el modelo pueda generalizarse a toda la población.
Una vez desarrollado el modelo, pueden existir limitaciones para su integración en la clínica. A pesar de explicar las métricas evaluadas por el modelo, este puede resultar para el clínico una caja negra que dificulte la interpretabilidad de los datos proporcionados por el modelo. Debe hacerse un esfuerzo por parte de los desarrolladores para hacer el modelo más comprensible para sus usuarios finales, que serán los clínicos o, incluso, el público general.
Por último, es fundamental que los clínicos comprendan cuándo pueden ser aplicadas las recomendaciones de los modelos. La IA no viene para reemplazar a los clínicos. Esa cuestión no ha estado nunca sobre la mesa. El objetivo de la IA es potenciar las habilidades del médico, no sustituirle. Un radiólogo informará una radiografía mejor y más rápido si se ayuda de un algoritmo de reconocimiento de imágenes, pero siempre podrá ver en la radiografía hallazgos que el modelo no detecte (y viceversa) y tendrá la responsabilidad del diagnóstico final.
Para hacernos una idea del interés que despierta la IA en la Medicina, solo tenemos que hacer una sencilla búsqueda en Pubmed y observar el número de publicaciones sobre el tema a lo largo de los últimos años (Fig. 3).
La IA nos ha ayudado a mejorar la práctica de la Medicina, en general, y de la Pediatría, en particular, pero lo que está por venir es difícil de imaginar. El gran avance que supusieron las redes neuronales convolucionales y las redes recurrentes se vio eclipsado a partir de 2017 con la aparición de los nuevos transformes, pero esta revolución no ha hecho más que empezar.
Durante los últimos meses, se ha producido un gran cambio de paradigma en el campo del aprendizaje profundo, con la aparición de los nuevos modelos multimodales y la creación del concepto de inteligencia artificial general.
En esta nueva fase, los modelos multimodales se escalan enormemente y se entrenan para realizar tareas genéricas que resultan tan versátiles que, una vez entrenado, el modelo podrá realizar muchas otras tareas para las que nunca fue programado. La multimodalidad permite que las redes aprendan de datos de diferente naturaleza, con un aprendizaje y una transformación de los datos suministrados mucho más rica, dejando que el sistema aprenda, de todo ello, como resolver tareas múltiples a las que antes no se había enfrentado, lo cual resulta inquietantemente parecido al funcionamiento del cerebro humano.
En un futuro mucho más próximo de lo que pensamos, es posible que podamos mirar a la cara a nuestros pacientes mientras hacemos la visita, ya que ya no tendremos que estar pendientes de un teclado: el ordenador escuchará la entrevista, resumirá lo más importante, rellenará con ello la historia clínica electrónica e, incluso, nos sugerirá el abordaje diagnóstico y terapéutico para ese paciente.
No sabemos lo que nos deparará el desarrollo de nuevos modelos aún no imaginados, la generalización de la “Internet de las cosas” o la puesta en práctica futura de la computación cuántica, pero, desde la perspectiva actual de la IA, me atrevería a decir que ningún médico debe temer ser reemplazado por uno de estos sistemas. El único médico que podrá ser desplazado será el que no aproveche las ventajas de la IA para potenciar sus capacidades, y será desplazado por otro médico que sepa aprovechar esta ventaja, nunca por una máquina.
Es lo que probablemente le ocurrirá al doctor Google, que se verá sustituido por una versión de sí mismo mejorada con IA. Esperemos que esa nueva versión tenga unos conocimientos médicos renovados y un diploma de ética en línea para que pueda dejar de prescribirnos descanso y mucho líquido para todas nuestras enfermedades.
Comentarios
Este artículo aún no tiene comentarios.