Os alertas sobre os perigos da inteligência artificial generativa para a sociedade continuam a se multiplicar. A advertência mais recente partiu de Mrinank Sharma, ex-responsável pela segurança de IA na Anthropic, que renunciou ao cargo afirmando que o planeta está em situação de “perigo”.
Em uma mensagem de despedida aos colegas, o pesquisador sugeriu ter vivido conflitos internos durante os debates sobre segurança na empresa criadora do assistente Claude. A carta foi divulgada na plataforma X na segunda-feira, dia 9.
“Pressões para negligenciar o essencial”
Sharma, que ingressou na Anthropic em 2023, declarou ter liderado a Equipe de Pesquisa de Salvaguardas da empresa. Nesse período, trabalhou em questões delicadas, como a criação de sistemas para impedir usos mal-intencionados da tecnologia.
- Ele citou, por exemplo, o desenvolvimento de recursos para coibir o “bioterrorismo assistido por IA”, cenário em que um bot poderia facilitar ataques biológicos;
- O ex-integrante também participou de estudos sobre a bajulação em IA, fenômeno que pode aumentar a probabilidade de erros nos modelos;
- Isso acontece quando os chatbots fornecem respostas excessivamente condescendentes, corroborando as convicções do usuário durante o diálogo;
- Outra iniciativa de sua atuação foi um dos primeiros relatórios formais da empresa sobre segurança em IA, documento que listava riscos potenciais e ações para reduzi-los.
Apesar de expressar satisfação com as atividades realizadas, Sharma insinuou que os colaboradores da Anthropic sofrem pressões constantes para “negligenciar o que é mais importante”. Em seguida, manifestou apreensão com o futuro da inteligência artificial.
“Frequentemente me vejo analisando nossa situação atual. O mundo está em perigo. E não apenas por causa da inteligência artificial ou de armas biológicas, mas por uma série completa de crises interligadas que estão se desenvolvendo agora”, ponderou ele, sem dar detalhes.
Advertências são frequentes no setor de IA
Demissões motivadas por preocupações com a segurança da inteligência artificial têm se tornado recorrentes. A OpenAI é outra organização que passa por episódios semelhantes com regularidade.
Alertas sobre os riscos do progresso tecnológico também estão mais comuns. Recentemente, Dario Amodei, CEO da Anthropic, destacou a necessidade de supervisionar a evolução da IA para identificar possíveis rebeliões das máquinas.
A startup, que se prepara para uma nova fase de captação de recursos, ainda não se manifestou sobre as declarações do ex-funcionário.







