Investigadores do CiTIUS deseñan un modelo que frea as "alucinacións" da intelixencia artificial
Investigadores do CiTIUS deseñan un modelo que frea as "alucinacións" da intelixencia artificial
O seu proxecto consegue o terceiro premio o IEEE Flame Technical Challenge, un dos máis prestixiosos do mundo
A intelixencia artificial padece de alucinacións. Así é como denominan os enxeñeiros informáticos as respostas que parecen verídicas pero que conteñen información incorrecta ou inventada. Pois ben, un equipo de investigadores galegos, do CiTIUS de Santiago, acaba de colocarse no foco internacional tras desenvolver un modelo para que a intelixencia artificial non nos engane.
O proxecto do CiTIUS acaba de ser recoñecido pola asociación de enxeñería máis importante do mundo, e iso só xa sería noticia. Pero o máis importante do logro é o avance científico que supón, desde a nosa universidade pública, especialmente nun momento en que as grandes plataformas tecnolóxicas acumulan poder para sortear a regulación que propón Europa. O proxecto da USC busca que a IA sexa fiable.
"Hai cousas que non son rendibles economicamente pero que son necesarios desde un punto de vista social", declarou José María Alonso, profesor e investigador da USC e coordinador da rede nacional do estudo da IA Fiable.
O que conseguiron é un modelo que axuda a corrixir os erros da IA, causados moitas veces porque a lóxica binaria é demasiado pechada.
"A IA pode ter alucinacións, porque xera información que non é fiable. Un dos problemas é que opera cunha lóxica binaria, cando a lóxica humana é inherentemente difusa", dixo Pablo Miguel Pérez Ferreiro, estudante do Máster de IA e investigador colaborador do CiTIUS.
Do que se trata é de verificar no propio momento en que se xera o texto. Coma un factcheking, pero que fai a propia máquina. Un modelo que ademais consegue unha linguaxe máis próxima á natural e elimina nesgos.