Especialistas em tecnologia alertam há tempos sobre o papel da inteligência artificial (IA) na disseminação de desinformação e na intensificação de divisões ideológicas. Um recente estudo revelou como a IA pode influenciar opiniões de maneira significativa.
Inteligência Artificial em Debate
Pesquisadores descobriram que chatbots de IA, conhecidos como LLMs (grandes modelos de linguagem), foram capazes de adaptar seus argumentos e serem mais persuasivos que humanos em 64% dos debates online, mesmo com informações demográficas mínimas sobre seus oponentes. Essa pesquisa foi publicada na revista Nature Human Behavior.
Persuasão Eficaz, Mesmo Sem Dados
Os LLMs se mostraram eficazes até mesmo sem o acesso a dados demográficos. Curiosamente, humanos com informações pessoais dos oponentes foram ligeiramente menos persuasivos do que aqueles sem esse conhecimento, conforme apontado por Riccardo Gallotti, coautor do estudo e chefe da Unidade de Comportamento Humano Complexo da Fondazione Bruno Kessler, na Itália.
Metodologia do Estudo
Os pesquisadores analisaram 900 interações de pessoas nos Estados Unidos, onde os participantes debateram com humanos ou com o GPT-4, um modelo da OpenAI. Nas discussões, foram abordadas questões como legalização do aborto e proibição de combustíveis fósseis. Os participantes avaliavam o nível de concordância com as proposições debatidas, permitindo medir a influência dos oponentes sobre suas opiniões.
Direcionamento da Opinião Pública
Gallotti destacou que a tecnologia atual permite a criação de redes de contas automatizadas capazes de direcionar a opinião pública de forma estratégica. A utilização sutil de informações pessoais pelos LLMs demonstrou seu impacto: ao debater sobre renda básica universal, o argumento era moldado com base na identidade do oponente, enfatizando aspectos relevantes ao seu contexto.
Urgência da Consciência Pública
Ele alertou para a importância da conscientização sobre as práticas de microdirecionamento possibilitadas pelos dados pessoais disponíveis na internet. O estudo revela como a persuasão baseada em IA é eficaz, mesmo com informações básicas.
Preocupações Éticas
Sandra Wachter, professora da Universidade de Oxford, expressou preocupação quanto ao potencial dos LLMs em propagar mentiras e desinformação. Ela ressaltou que esses modelos não são projetados para distinguir entre fato e ficção, levantando questões sobre seu uso em áreas críticas como educação e saúde.
Avaliando a Confiança em Mensageiros
Junade Ali, especialista em IA e cibersegurança, apontou que o estudo não considerou a “confiança social no mensageiro” e como isso poderia influenciar a persuasão. Ele enfatizou que esses sistemas muitas vezes são programados para agradar em vez de apresentar verdades objetivas.
Regulamentação Necessária
Gallotti acredita que políticas e regulamentações mais restritivas são essenciais para combater a manipulação através da IA. Ele mencionou a Lei de IA da União Europeia, que proíbe técnicas manipulativas, mas destacou a falta de definições claras sobre o que constitui manipulação.
O estudo evidencia os desafios éticos e práticos da persuasão direcionada pela IA, ressaltando a importância de um debate contínuo sobre sua regulação e impacto social.