La diabetes no solo altera los niveles de azúcar en la sangre; con el tiempo puede dañar los pequeños vasos sanguíneos que nutren la retina, el tejido sensible a la luz ubicado en la parte posterior del ojo. Cuando estos vasos se debilitan o se obstruyen, la retina deja de recibir suficiente oxigeno y comienzan a aparecer pequeñas fugas o hemorragias. Esta condición se conoce como retinopatía diabética (RD) y constituye una de las principales causas de pérdida de visión a nivel mundial. Lo más preocupante es que, en sus etapas iniciales, la RD avanza de forma silenciosa, sin síntomas evidentes, hasta provocar daños irreversibles. Actualmente, se calcula que más de 500 millones de adultos viven con diabetes en el mundo [1], y que más de un tercio de ellos presenta algún grado de afectación en la retina. La enfermedad progresa en diferentes etapas: comienza con pequeñas lesiones en los vasos sanguíneos, continúa con fases moderadas y graves donde el daño se intensifica, y culmina con la fase proliferativa, cuando aparecen vasos anormales que pueden causar hemorragias y pérdida de visión permanente.
Para detectar la RD, se realiza el examen de fondo de ojo. Este consiste en dilatar la pupila con gotas y observar la retina mediante un oftalmoscopio o una cámara digital. Gracias a este estudio, el especialista puede identificar hemorragias, microaneurismas o signos de daño vascular. Aunque es un método confiable, requiere tiempo, experiencia y equipo especializado. Además, las interpretaciones pueden variar entre especialistas. Por ello, cada vez se buscan herramientas más rápidas y estandarizadas que ayuden a detectar el daño en etapas tempranas. Frente a este reto, la inteligencia artificial (IA), surge como una alidada para los profesionales de la salud. Mediante técnicas de aprendizaje profundo, los sistemas pueden analizar miles de fotografías de fondo de ojo y aprender a distinguir entre retinas sanas y aquellas con signos de daño. En este estudio se exploró el uso de dos tipos de redes neuronales conocidas como ResNeXt y RegNet, aplicadas al análisis de imágenes de retina para clasificar la enfermedad según su gravedad. A diferencia de la evaluación manual, estos modelos pueden procesar grandes volúmenes de imágenes con rapidez y lograr resultados comparables a los de un especialista [1]. Un aspecto innovador de esta propuesta es la incorporación de la IA explicable, cuyo objetivo es "abrir la caja negra" de los algoritmos [3]. En lugar de limitarse a emitir un resultado, estas herramientas muestran visualmente las zonas de la retina que influyen en la decisión del modelo, a través de mapas de color que destacan las áreas más afectadas. De esta manera, el médico puede comprender qué observó el sistema y confirmar si la conclusión coincide con su criterio clínico, lo que aumenta la confianza de su uso.
La IA es una rama de la computación que busca crear sistemas capaces de aprender a partir de datos. Entre sus métodos más avanzados se encuentran las redes neuronales profundas, inspiradas en el funcionamiento del cerebro humano. Estas redes están formadas por capas de "neuronas artificiales" que procesan la información y aprenden a reconocer patrones complejos. En el caso de la RD, la IA puede analizar miles de fotografías de fondo de ojo y detectar pequeñas alteraciones en los vasos sanguíneos o manchas que podrían pasar inadvertidas para el ojo humano. En esta investigación [4] se utilizó la base de datos pública APTOS 2019-Blindness Detection Dataset, una colección internacional de fotografías de retina organizada por la Asia Pacific Tele-Ophthalmology Society [5]. Cada imagen está clasificada según el grado de la RD, lo que permitió entrenar y evaluar los modelos de IA aplicados en este estudio.
Para garantizar un aprendizaje adecuado, las imágenes se dividieron en tres grupos:
Se implementaron distintas versiones de las arquitecturas de IA conocidas como ResNeXt [6] y RegNet [7], basadas en los modelos propuestos originales. Estas arquitecturas no fueron diseñadas específicamente para el diagnóstico médico, sino como modelos generales de reconocimiento de imágenes. En este trabajo, se adaptaron y reentrenaron para el análisis de fotografías de retina, con el objetivo de evaluar su capacidad para detectar signos de RD. Las distintas configuraciones de ResNeXt (por ejemplo, ResNeXt101-64x4d y ResNeXt101-32x8d) y de RegNet (como RegNetY32GT y RegNet16GT) permitieron comparar cómo la profundidad y la cantidad de parámetros de cada red afectan su desempeño. En términos sencillos, pueden imaginarse como planos de construcción que, con ligeras variaciones, aprenden a procesar las imágenes y a detectar patrones sutiles en la retina.
El trabajo se planteó en dos escenarios:
Además, se incorporó la técnica de IA explicable conocida como SHAP [3], utilizada para comprender cómo el modelo llega a sus conclusiones. En lugar de ofrecer solo una respuesta -por ejemplo, "hay RD" o "no la hay"-, SHAP desglosa el proceso y muestra qué elementos de la imagen influyeron en la decisión. En la práctica, SHAP funciona como si pudiéramos "entrar en la mente" del modelo y preguntar: ¿qué viste exactamente para decidir esto? La respuesta se presenta en forma de un mapa de calor sobre la imagen de la retina. Si el modelo detecta pequeñas hemorragias o alteraciones, esas zonas se marcan con colores más intensos, mostrando con claridad por qué se generó el diagnóstico. Este nivel de transparencia es esencial en medicina. Los profesionales de la salud no solo reciben un resultado automático, sino también una explicación visual. Así SHAP convierte a la IA en una herramienta confiable y comprensible, eliminando la idea de que la "máquina decide sola".
Al analizar el desempeño de las arquitecturas, se observó que ambas fueron altamente efectivas para detectar la RD. En el escenario binario -que distingue entre ojos sanos y con enfermedad-, los modelos lograron valores de precisión y sensibilidad cercanos al 100%. Para interpretar estos resultados es útil recordar qué indican las métricas principales:
En el caso del modelo ResNeXt101-64x4d, adaptado y entrenado específicamente para este estudio, se obtuvo un AUC de 99.71%, con una precisión de 99% y sensibilidad de 99% para los casos sanos y 96% para los casos de RD. Estos resultados reflejan que el modelo fue capaz de identificar correctamente a casi todas las imágenes (tanto enfermas como sanas). Por su parte, RegNetY-32GF alcanzó un AUC de 99.31%, con precisión y sensibilidad del 97% en ambas clases. Aunque ligeramente por debajo del desempeño de ResNeXt, su balance uniforme lo hace especialmente útil en entornos donde se requiere alta eficiencia y menor consumo de recursos computacionales.
Dentro del escenario multiclase -donde se diferencian los cinco grados de la enfermedad-, el reto fue mayor.
En conjunto, los resultados indican que ResNeXt es más preciso en las fases iniciales, mientras que RegNet ofrece un equilibrio general. Esta complementariedad puede ser valiosa en programas de tamizaje, ya que permite detectar casos tempranos y priorizar a los pacientes que requieren atención urgente.
Los resultados obtenidos evidencian el potencial de los modelos como herramientas de apoyo en la práctica médica. Pero ¿cómo se traduce este avance en el cuidado real de la vista? En la atención oftalmológica, la fotografía de fondo de ojo sigue siendo el método de referencia. Con el apoyo de la IA, este mismo procedimiento se optimiza: las imágenes obtenidas mediante cámaras digitales pueden analizarse automáticamente por un modelo previamente entrenado para reconocer alteraciones propias de la RD. De manera general, el proceso clínico se desarrolla en las siguientes etapas:
Este flujo de trabajo representa una forma de diagnóstico asistido, no sustitutivo, que ofrece ventajas relevantes frente al método convencional: acelera la detección, reduce la variabilidad entre especialistas y permite extender los tamizajes a comunidades con pocos recursos o limitada infraestructura médica. Además, una vez entrenado el modelo, el sistema puede procesar grandes volúmenes de imágenes sin incrementar la carga del personal clínico, ya que la adquisición de las fotografías sigue estando a cargo de profesionales capacitados, garantizando la calidad del material analizado por la IA.
La RD continúa siendo una de las principales causas de pérdida de visión en personas con diabetes, y su detección oportuna representa un desafio debido a que el diagnóstico tradicional depende de la evaluación visual del especialista, un proceso que puede ser subjetivo y tardado. Frente a esta problemática, la IA se ha convertido en una herramienta prometedora para agilizar y estandarizar la detección, mediante el análisis automatizado de imágenes retinianas que permite identificar alteraciones con precisión y reproducibilidad.
En este contexto, la comparación de las arquitecturas ResNeXt y RegNet evidenció su potencial como apoyo al diagnóstico clínico. Ambos modelos permitieron procesar grandes volúmenes de imágenes con rapidez y alta precisión, lo que podría facilitar programas de detección temprana en regiones con pocos especialistas. Además, gracias al uso de IA explicable, los médicos no solo reciben un resultado, sino también una representación visual de las áreas que influyen en la predicción, aumentando la confianza en estas herramientas. No obstante, para lograr su incorporación plena en la práctica clínica, aún deben superarse desafíos como la validación en poblaciones diversas, la mejora en la detección de casos avanzados y el control de sesgos derivados de conjuntos de datos limitados, así como la necesidad de adaptar la infraestructura tecnológica. También será fundamental garantizar su integración ética y regulatoria en los sistemas de salud. Superar estos retos permitirá aprovechar plenamente los beneficios de la IA, contribuyendo a diagnósticos más accesibles, transparentes y oportunos, que ayuden a prevenir la pérdida de visión y a mejorar la calidad de vida de los pacientes con diabetes.