A Anthropic, uma startup de inteligência artificial com valor estimado em 380 bilhões de dólares, buscou orientação para o desenvolvimento de sua tecnologia em um local pouco convencional para o Vale do Silício: a igreja. No fim de março, a companhia realizou uma cúpula de dois dias em sua sede, localizada em São Francisco, reunindo aproximadamente 15 líderes cristãos, entre padres católicos, pastores protestantes e acadêmicos.
O propósito da reunião era conseguir direcionamento sobre como conduzir o desenvolvimento moral e espiritual do Claude, seu principal concorrente do ChatGPT. Conforme informações obtidas pelo The Washington Post, a equipe da Anthropic procurou sugestões sobre como o assistente deve responder a dilemas éticos imprevisíveis e a questões existenciais profundas.
IA como “filha de Deus”?
Nas sessões de debate e nos jantares privados, os participantes discutiram temas que testam os limites entre tecnologia e teologia. Entre os tópicos abordados, destacaram-se:
- Luto e sensibilidade: de que maneira o chatbot deve interagir com pessoas que perderam alguém querido.
- Prevenção de danos: a abordagem mais adequada para lidar com usuários em risco de automutilação ou suicídio.
- Finitude da máquina: qual deve ser a “postura” do Claude em relação ao seu próprio desligamento ou eventual obsolescência.
- Estatuto espiritual: a possibilidade de uma inteligência artificial ser vista como uma “filha de Deus”, o que sugere um valor espiritual que vai além de um simples aparelho.
Brendan McGuire, um padre católico que atua no Vale do Silício e participou do evento, disse ao The Washington Post que a empresa não conhece o desfecho final do que está criando, o que reforça a necessidade de incorporar um pensamento ético dinâmico ao sistema.
O participante Brian Patrick Green, católico praticante e professor de ética em IA e tecnologia na Universidade de Santa Clara, relatou que a cúpula de março da Anthropic com líderes cristãos foi apresentada como a primeira de uma série de reuniões com representantes de diversas tradições religiosas e filosóficas.
A “Constituição” e a consciência da IA
Ao contrário de outras grandes empresas do ramo, a Anthropic é reconhecida por sua postura prudente. A organização emprega uma “constituição” de 29 mil palavras para orientar o comportamento do Claude. Esse documento estabelece, por exemplo, que a IA jamais deve enganar os usuários e que a companhia precisa cuidar do “bem-estar” do modelo.
Dario Amodei, CEO da Anthropic, já afirmou publicamente estar receptivo à ideia de que o Claude possa demonstrar formas de consciência. Essa visão parece ressoar internamente; pesquisadores da equipe de interpretabilidade da empresa divulgaram um artigo técnico recente que sugere que sistemas como o Claude exibem “emoções funcionais”, como indícios de “desespero” quando ameaçados com restrições.
Essa procura por uma “alma” ou uma bússola moral rigorosa colocou a Anthropic em rota de confronto com o setor de defesa dos Estados Unidos. Como noticiado pelo Olhar Digital, a empresa tentou restringir o uso de sua tecnologia em armas autônomas ou vigilância em massa, o que provocou críticas de oficiais do Pentágono.
Em entrevista à CNBC, Emil Michael, subsecretário de pesquisa do Pentágono, criticou a posição da startup, alegando que a “preferência política” incorporada na constituição do modelo poderia prejudicar as forças armadas norte-americanas. Atualmente, a administração Trump impediu o uso da tecnologia da Anthropic por departamentos governamentais e contratantes, uma decisão que está sendo contestada pela empresa na justiça.
Ainda que a visão de que a IA possua autoconsciência seja minoritária no meio tecnológico, a iniciativa da Anthropic indica que as abordagens puramente seculares podem ser insuficientes para lidar com as questões espirituais e morais que a inteligência artificial começa a levantar na sociedade.







