Inicio >> Personal >> Presentación >> Trabajos en curso >> Ver trabajo
           --
Presentación Docencia Horario Agenda Trabajos dirigidos Trabajos en curso Investigación Formación Permanente

Ver trabajo

Trabajo

Sistema de IA Autoexplicativa
Tutores: Vivian López Batista

Fecha de propuesta: 09/10/2024 (Pendiente de aceptación)

Descripción:
Se propone construir una herramienta que permita a los usuarios interactuar con varios algoritmos de IA, visualizando y comprendiendo el proceso detrás de sus decisiones. El sistema estará diseñado con un enfoque en la interpretabilidad, utilizando técnicas como Shapley Additive Explanations (SHAP) y Local Interpretable Modelagnostic Explanations (LIME), para explicar los resultados de los modelos de Machine Learning. La transparencia y la interpretabilidad en los algoritmos de inteligencia artificial (IA) son fundamentales para generar confianza en las aplicaciones del mundo real. Un sistema de IA autoexplicativa puede ayudar a los usuarios no técnicos a entender cómo funcionan los algoritmos de IA, mostrando de manera sencilla y visual los pasos que sigue un modelo para tomar decisiones. Esta herramienta se puede usar tanto para educación como para auditoría de modelos de IA.

Objetivos funcionales:
1) Creación de un Modelo Interactivo, los usuarios podrán elegir entre varios modelos de IA (como árboles de decisión, redes neuronales, SVM, etc.) 2) El sistema explicará cada paso del modelo en términos comprensibles, mostrando cómo cada característica (input) influye en la predicción final. 3) Visualización de la Importancia de las Características, el sistema mostrará gráficas de cómo las características de los datos de entrada afectan las predicciones. Por ejemplo, el impacto de cada variable en la salida del modelo. 4) Utilización de técnicas de explicabilidad como SHAP o LIME. 5) Mostrar explicaciones en Lenguaje Natural, el sistema generará explicaciones en lenguaje natural para que los usuarios entiendan cómo se ha tomado una decisión. 6) Comparación de Modelos, los usuarios podrán entrenar diferentes modelos con el mismo conjunto de datos y comparar cómo explican sus decisiones. 7) Se mostrará una visualización comparativa que ilustre cómo cada modelo llega a diferentes conclusiones. 8) Auditoría de Decisiones del Modelo, los usuarios podrán analizar predicciones individuales para entender si el modelo está sesgado o tomando decisiones de forma injusta.

Entornos de desarrollo y explotación:
Lenguaje de Programación: Python. Bibliotecas de Machine Learning: Scikit-learn. Bibliotecas de Interpretabilidad: SHAP y LIME. Visualización: Matplotlib o Seaborn y Plotly. Además Streamlit y Flask/Django.

---
Identificarse Accesibilidad
Idioma inglés
Advertencia sobre la información contenida en esta aplicación Web
© 2025 Departamento de Informática y Automática - Universidad de Salamanca
Webmaster: Correo electrónico
Versión Móvil
[Contenido semántico de esta página]
Member of Informatics Europe Acerca de