Tudo sobre Inteligência Artificial
A eficácia de tecnologias baseadas em inteligência artificial depende da qualidade dos dados usados para treiná-las. Em um ambiente digital vulnerável a ataques cibernéticos, tornou-se fundamental desenvolver mecanismos de proteção para esses sistemas.
Três pesquisadores da Universidade Internacional da Flórida, em Miami, estão trabalhando em soluções para evitar ou minimizar o que chamam de “dados envenenados” em inteligência artificial.
Em um artigo no site The Conversation, Hadi Amini e Ervin Moore mencionam o caso do chatbot Tay, da Microsoft. Poucas horas após o lançamento em 2016, usuários começaram a alimentar o sistema com termos inapropriados, que foram repetidos pelo chatbot e levaram à sua rápida desativação.
Medidas de proteção
Atualmente, os pesquisadores estão focados em medidas que priorizam o aprendizado federado, uma abordagem que permite treinar modelos de IA a partir de fontes descentralizadas, sem coletar dados em um único local.
De acordo com os autores, esse conceito oferece uma camada valiosa de proteção, pois eventuais informações contaminadas não afetariam o modelo de IA como um todo. No entanto, o sistema continua vulnerável caso essas informações sejam agregadas.
A solução mais promissora para esse tipo de problema, segundo o artigo, é o uso de blockchain. Essa tecnologia registra de forma transparente como os dados são compartilhados e verificados.

Aplicação prática
Treinamentos de IA protegidos por blockchain podem ajudar a identificar anomalias que envenenam os dados, possivelmente antes que o problema se espalhe pelo modelo.
Além disso, blockchains são formadas por blocos interligados que se comunicam: se uma rede detectar um padrão desconhecido, pode alertar as demais. Sua estrutura com registro de data e hora facilita o rastreio de entradas envenenadas, permitindo a reversão dos danos.

Os pesquisadores desenvolveram uma ferramenta baseada no aprendizado federado e que aplica blockchain para evitar a contaminação de dados em modelos de IA. Eles relatam que agentes mal-intencionados foram eliminados do processo de treinamento através de uma técnica de detecção de outliers.
O artigo com detalhes da pesquisa foi publicado no periódico científico IEEE Transactions on Artificial Intelligence, apresentando um modelo de aprendizado federado que garante confiabilidade, imparcialidade e autenticidade no processo de treinamento.








