Un equipo de investigación internacional, bajo la coordinación de la Universidad de Granada (UGR), ha elaborado un manual de inteligencia artificial (IA) centrado en mejorar la transparencia y confianza de esta tecnología en sectores cruciales como el de la salud, las finanzas y el ámbito legal. Este recurso busca hacer comprensible y verificable el funcionamiento de sistemas complejos, facilitando una adopción más segura y ética de la IA en la toma de decisiones.
El uso de sistemas automáticos, como las Redes Neuronales Profundas (DNNs), ha aumentado significativamente en los últimos años debido a su capacidad predictiva. Sin embargo, la naturaleza opaca de estos modelos plantea retos éticos, ya que dificulta la interpretación de su comportamiento, lo que podría afectar la legitimidad de sus aplicaciones en áreas sensibles. Para responder a esta necesidad, el equipo de la UGR ha desarrollado una guía exhaustiva sobre técnicas de inteligencia artificial explicable (XAI), la cual permitirá a los expertos de informática desentrañar y comunicar los resultados de modelos complejos.
Cada sección del manual describe diversas técnicas de IA y su aplicación en contextos específicos, proporcionando ejemplos prácticos y cuadernos de trabajo que ayudan a los profesionales a entender los requisitos y ventajas de cada método. La guía, además, incluye un apartado de ayuda para usuarios, facilitando que quienes no sean expertos también puedan comprender cómo y por qué estos modelos arrojan ciertos resultados.
Natalia Díaz Rodríguez, profesora de la UGR y directora de esta guía, comentó que la iniciativa pretende contribuir a un desarrollo de sistemas de IA más justo y accesible. Como integrante del Instituto Andaluz Interuniversitario en Ciencia de Datos e Inteligencia Computacional (Instituto DaSCI), Díaz Rodríguez ha liderado el proyecto con el objetivo de hacer de este manual una herramienta fundamental para la adopción ética y transparente de la IA en aplicaciones del mundo real.