5 de dezembro de 2025
sexta-feira, 5 de dezembro de 2025

Dados envenenados podem comprometer segurança de ia

Tudo sobre Inteligência Artificial

Continua após a publicidade

A eficácia de tecnologias baseadas em inteligência artificial depende da qualidade dos dados usados para treiná-las. Em um ambiente digital vulnerável a ataques cibernéticos, tornou-se fundamental desenvolver mecanismos de proteção para esses sistemas.

Três pesquisadores da Universidade Internacional da Flórida, em Miami, estão trabalhando em soluções para evitar ou minimizar o que chamam de “dados envenenados” em inteligência artificial.

Continua após a publicidade

Em um artigo no site The Conversation, Hadi Amini e Ervin Moore mencionam o caso do chatbot Tay, da Microsoft. Poucas horas após o lançamento em 2016, usuários começaram a alimentar o sistema com termos inapropriados, que foram repetidos pelo chatbot e levaram à sua rápida desativação.

Medidas de proteção

Atualmente, os pesquisadores estão focados em medidas que priorizam o aprendizado federado, uma abordagem que permite treinar modelos de IA a partir de fontes descentralizadas, sem coletar dados em um único local.

De acordo com os autores, esse conceito oferece uma camada valiosa de proteção, pois eventuais informações contaminadas não afetariam o modelo de IA como um todo. No entanto, o sistema continua vulnerável caso essas informações sejam agregadas.

A solução mais promissora para esse tipo de problema, segundo o artigo, é o uso de blockchain. Essa tecnologia registra de forma transparente como os dados são compartilhados e verificados.

Aplicação prática

Treinamentos de IA protegidos por blockchain podem ajudar a identificar anomalias que envenenam os dados, possivelmente antes que o problema se espalhe pelo modelo.

Além disso, blockchains são formadas por blocos interligados que se comunicam: se uma rede detectar um padrão desconhecido, pode alertar as demais. Sua estrutura com registro de data e hora facilita o rastreio de entradas envenenadas, permitindo a reversão dos danos.

Os pesquisadores desenvolveram uma ferramenta baseada no aprendizado federado e que aplica blockchain para evitar a contaminação de dados em modelos de IA. Eles relatam que agentes mal-intencionados foram eliminados do processo de treinamento através de uma técnica de detecção de outliers.

O artigo com detalhes da pesquisa foi publicado no periódico científico IEEE Transactions on Artificial Intelligence, apresentando um modelo de aprendizado federado que garante confiabilidade, imparcialidade e autenticidade no processo de treinamento.

Continua após a publicidade

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui

Vitória, ES
Amanhecer
04:53 am
Anoitecer
06:11 pm
22ºC
Chuva
0mm
Velocidade do Vento
4.12 km/h
06/12
Sáb
Mínima
21ºC
Máxima
25ºC
07/12
Dom
Mínima
21ºC
Máxima
26ºC
08/12
Seg
Mínima
23ºC
Máxima
28ºC
09/12
Ter
Mínima
23ºC
Máxima
28ºC

Volta Ecológica defende os Manguezais de Vitória

Tony Silvaneto

Leia também