Fecha de propuesta:
03/11/2022
(Aceptada)
Descripción:
Los ordenadores y los algoritmos se consideran completamente neutrales en las evaluaciones. Y si bien puede ser cierto que no tienen sus propias opiniones, también es cierto que los humanos son quienes los programan. Desafortunadamente, ahí es cuando empezamos a ver problemas como sesgos algorítmicos.
Algunos innovadores tecnológicos afirman que los algoritmos no están sesgados. Pero el problema no es si los algoritmos en sí mismos están sesgados, sino las personas y los sistemas que informan al algoritmo.
En el aprendizaje automático un algoritmo creado por alguien con ciertos sesgos y privilegios a menudo reflejará esos sesgos e incluso puede aprender a ser racista y sexista. Es importante detectar los sesgos
de los algoritmos porque pueden perpetuar las desigualdades y afectar la vida de las personas. Incluso la capacidad de conseguir un trabajo o crear disparidades en la salud con graves consecuencias.
Objetivos funcionales:
Diseñar un sistema para escanear modelos algorítmicos en busca de la identificación de sesgos comunes, como raza, género y hubicación.
Implementar diferentes métodos de detección y mitigación de sesgo en conjuntos de datos y modelos entrenados.
Proporcionar a través de la visualización los resultados de comprensión de cómo funcionan los modelos en diferentes escenarios.
Diseño e implementación de una aplicación que ponga solución a estas necesidades.
Entornos de desarrollo y explotación:
Aun por definir
|