A Autoridade Nacional de Proteção de Dados (ANPD) do Brasil recentemente rejeitou um recurso da Meta, empresa proprietária do Facebook, que buscava utilizar dados de usuários brasileiros para treinar sua Inteligência Artificial (IA). Esta decisão coloca em evidência preocupações significativas sobre a ética e a segurança no uso de dados para o desenvolvimento de IA
Marcell Rosa, Generalni direktor i potpredsednik prodaje za Latinsku Ameriku u Clevertapu, alerta sobre os riscos associados ao uso de dados coletados de plataformas onde a desinformação e ataques pessoais são comuns. “Quando a IA aprende a partir de informações enviesadas e, mnoge puta, prejudiciais, o risco é que essas máquinas não apenas reproduzam, mas amplifiquem comportamentos negativos e distorcidos”, afirma Rosa
O problema ganha dimensões preocupantes quando consideramos o contexto eleitoral brasileiro. Durante as eleições de 2022, o Tribunal Superior Eleitoral (TSE) relatou ter recebido mais de 500 alertas diários sobre fake news apenas no segundo turno
A principal preocupação é que a IA, treinada com opiniões de pessoas comuns frequentemente influenciadas por desinformação, possa replicar e amplificar padrões negativos. “A IA tende a replicar o comportamento humano, e quando esse comportamento é caracterizado por polarização e falta de civismo, a tecnologia inevitavelmente reflete essas falhas”, explica Rosa
A decisão da ANPD é vista como um passo importante para garantir o uso responsável e ético de dados no treinamento de IA. “A privacidade dos usuários e a integridade da informação são essenciais para o desenvolvimento de tecnologias que realmente beneficiem a sociedade”, zaključuje Rosa
Este caso ressalta a necessidade urgente de uma abordagem mais crítica e regulada sobre a coleta e uso de dados pelas plataformas digitais, visando proteger a integridade da informação e garantir que o desenvolvimento da IA seja baseado em dados confiáveis e respeitosos