Analizan, na cidade das TIC da Coruña, como eliminar os sesgos de xénero na IA
Analizan, na cidade das TIC da Coruña, como eliminar os sesgos de xénero na IA
Que non haxa enfoques parciais ou tendenciosos e que se respecten os principios de igualdade é un dos desafíos dos programadores
Karina Gibert é catedrática de intelixencia artificial e fai referencia nestas xornadas a un estudo que di que as mulleres teñen un 17 por cento máis de probabilidades de morrer en accidente de tráfico. Explica que hai razóns de deseño da posición de condución, e que as probas ata hai pouco realizábanse con bonecos que reproducen a fisionomía masculina. Un exemplo, din, da necesidade de que os nesgos de xénero se eliminen á hora de programar. Ou senón, que se corrixan a posteriori.
"É certo que hai unhas guías básicas para facer o sistema con boa intención e respectar normas, pero a intelixencia artificial para avaliala hai que ir ao resultado. Atacala, ver como responde e aí xulgar se ten nesgo ou non", asegura Antonio Rodríguez del Corral, presidente do Cluster TIC Galicia.
Falouse de que Big Data: moitos datos, non significa bos datos, porque en Internet hai menos datos de xente maior e con menos recursos. Datos como os de xénero, non desagregados, poden dar lugar a discriminación porque, por exemplo, as empresas usan intelixencia artificial na selección e promoción do persoal.
"Se eses programas de selección de persoal os deseña un determinado sector da poboación que son, maiormente, homes, enxeñeiros, dunha determinada idade e de raza branca pois seguramente esa selección de persoal será un pouco conforme á súa forma de ser", asegura Elena Mancha, directora xeral de Relacións Laborais.
É importante, engaden, que haxa máis mulleres accedendo a estudos de programación. O foro clausurouno este mediodía a conselleira de Emprego e Igualdade, Elena Rivo.