Ao longo da última Futurecom, realizada em São Paulo, centenas de pessoas se reuniam em volta de stands numa euforia em ter cada vez mais tecnologia agregada à atividade humana. Esther Colombini também compartilha do entusiasmo, mas com uma preocupação a mais. Em um painel com especialistas do Instituto de Engenheiros Eletricistas e Eletrônicos (IEEE), do qual também é integrante, ela colocou na mesa o debate sobre a ética na Inteligência Artificial.
O assunto é vasto, cheio de camadas para discussões – e nenhuma delas leva a uma resolução prática e rápida do leque de problemáticas que envolve. Esther Colombini é professora de Robótica e Inteligência Artificial e vice-diretora do Instituto de Computação da Universidade Estadual de Campinas (Unicamp). Na Futurecom 2024, uma das maiores feiras de tecnologia da América Latina, ocorrida neste mês em São Paulo, ela trouxe uma dessas implicações, o apagamento cultural.
“O apagamento cultural acontece muito com esses modelos de linguagem, como ChatGPT, porque esses modelos sabem tanto quanto os dados sobre os quais eles foram treinados”, explica Esther. Ou seja, se há uma massa gigantesca de dados em inglês, ainda que sejam dados científicos, eles vão responder com muito mais qualidade e com traços enviesados para a cultura inglesa em que eles foram treinados.
Esther deu o exemplo do Google. “Se você não existe no Google, parece que você não existe no mundo. Faça uma pesquisa da pessoa e não aparece o nome dela no Google. É como se essa pessoa não existisse. Se você não tem rede social, é como se você não existisse. Mas imagina agora com esses modelos de linguagem que vão te dar opinião sobre os livros, sobre a história da humanidade… podemos ter realmente um apagamento das culturas e das línguas minoritárias”, frisou citando a existência de estudos com línguas africanas que não estão em dados treinados.
Esse efeito também se reflete quando o usuário recorre às informações sobre uma cultura local de um país em que os dados não estão disponíveis. Pode acontecer dessas informações não existirem nestes modelos de linguagem ou ainda serem distorcidas (de baixa qualidade).
A importância de falar sobre o assunto é crucial pois a mitigação dos efeitos passa pela forma crítica com que especialistas lidam com o assunto, inclusive dentro de academias. Esther lembra que na robótica, por exemplo, já existem as três leis de Asimov (uma referência a Isaac Asimov): “o robô não deve fazer mal humano deve proteger humanos; não deve deixar que ninguém faça mal por humanos, seja por omissão ou por por ação dele mesmo; e deve proteger a si mesmo.” Esse é o começo, mas não basta. “Precisamos de mais valores empregados para que você possa ter realmente robôs interagindo com humanos”, coloca a docente.
Esther é otimista quanto a amplificação da discussão sobre ética na IA. No entanto, defende, que para além da existência de espaços de pensamento e prática crítica sobre o tema, pensar uma tecnologia ética também passa por regulações. São elas, inclusive, que vão poder desenhar como podem se dar processos de responsabilização em caso de direitos autorais e outros tipos de crimes.
Brenda Fernández
Correio do Povo