'Vice' da DeepMind defende "certos travões" em algoritmos
Sobre o uso de algoritmos de recomendação nas redes sociais, Fernando Pereira recorda que isto surgiu "muito antes da inteligência artificial generativa, eram técnicas de aprendizagem automática em que aprendem a recomendar baseado nas interações que os utilizadores têm com esses materiais".
Aliás, esta foi uma área onde Fernando Pereira, considerado uma das referências mundiais na área da IA, trabalhou na década anterior.
"Há uma tensão" entre o algoritmo "aprender a recomendar aquilo com que as pessoas interagem" e por vezes criarem bolhas.
Por exemplo, se uma pessoa gosta de esquiar, logo é razoável que o algoritmo do YouTube recomende vídeos deste desporto, o que "é uma coisa positiva". O mesmo pode acontecer em outras áreas, desde música a livros.
"Claro que é preciso pôr uns certos travões nesses sistemas para evitar que eles se tornem demasiado insulares", ou seja, "criem estas bolhas separadas", prossegue Fernando Pereira.
Se o algoritmo "não tiver uma contrapartida pode tornar-se demasiado estreito", diz, recordando que na altura em que trabalhou nesta área os seus colaboradores fizeram "muitos estudos" com utilizadores para perceber se aquilo que estava a ser recomendado estava a dar um valor positivo no seu dia a dia.
"Como resultado foi possível pôr uma contrapartida" para evitar "uma estreiteza das interações", acrescenta, referindo que esta é "uma questão complexa" que depende do produto e da empresa e as decisões do como isso é feito tem variado.
Agora no que diz respeito à inteligência artificial (IA) generativa, o problema põe-se em "como é que vamos responder a um utilizador que está, por exemplo, entrar numa área" que pode ter um "caráter de aspetos mais afetivos" ou "excessos mais controversos", diz.
"Nós temos princípios" e documentos sobre como se analisa os riscos de IA generativa, incluindo para o recente Gemini 3 [modelo de IA da Google].
Uma das áreas é sobre a potencial distorção, ou seja, a maneira como a IA generativa pode "influenciar a pessoa numa direção negativa".
Portanto, "ao treinar estes modelos, nós fazemos uma série de testes", quer internos, como também "trabalhamos com organizações externas para fazer essa avaliação para identificar o potencial" de comportamentos menos saudáveis e tentar manter que a inteligência artificial generativa fique num espaço mais equilibrado, salienta.
Esta é uma questão tanto na IA generativa como nos sistemas de recomendação que usam tecnologias anteriores: "o desenvolvimento da tecnologia tem que estar sempre a equilibrar" e evitar que se elimine a possibilidade de uma pessoa "ver uma variedade de alternativas".
Este é um tema que "constantemente nos preocupa e temos grupos de investigação e desenvolvimento" que estão sempre a avaliar, testar e ajustar, sublinha.
Fernando Pereira é um dos oradores do "Responsible AI Forum 2025", que decorre na Fundação Champalimaud, em Lisboa, na terça-feira, onde vai abordar o tema "inteligência natural vs inteligência artificial" com o neurocientista António Damásio.
Leia Também: ONU alerta para risco da IA generativa nos direitos humanos
Qual é a sua reação?
Gosto
0
Não gosto
0
Amor
0
Engraçado
0
Zangado
0
Triste
0
Wow
0
