Para grande parte do público, os alertas feitos pelo físico teórico britânico Stephen Hawking em 2014 lembravam roteiros de ficção científica: máquinas que se aprimoram sozinhas, reescrevem seu próprio código e, em questão de instantes, superam a inteligência humana, deixando as pessoas para trás. Todavia, com os avanços tecnológicos recentes, essa hipótese, antes considerada remota, começa a assumir contornos cada vez mais concretos.
Em 2014, Hawking declarou à BBC que o pleno desenvolvimento da inteligência artificial poderia significar o fim da raça humana. Ele ressaltou que, mesmo que as formas iniciais de IA sejam úteis, isso não autoriza ignorar os riscos associados.
Se uma inteligência artificial alcançasse autonomia, capaz de se reconfigurar e de efetuar processamentos muito mais rápidos do que o cérebro humano moldado pela evolução biológica, estaríamos diante de um cenário inédito e potencialmente frágil.
O aviso de Stephen Hawking
A preocupação central de Hawking não residia na eventual “má vontade” da IA, mas no desequilíbrio de poder decorrente de sua superior capacidade. Ele alertou que, caso essa tecnologia evolua em ritmo incompatível com a capacidade humana de acompanhamento, a humanidade ficaria em posição vulnerável.
Além disso, o físico chamou atenção para as consequências sociais e econômicas de um avanço tecnológico sem controle. Prevê-se que a automação em larga escala poderia eliminar muitos empregos e concentrar poder nas mãos de quem domina esses sistemas, ampliando desigualdades e aprofundando divisões.
Isso leva à pergunta: até que ponto essa previsão está se aproximando da realidade? Quando Hawking fez o alerta, a inteligência artificial encontrava-se em fases relativamente ingênuas, distante da autonomia debatida hoje. Contudo, com a expansão acelerada de ferramentas de machine learning, deep learning e automação, a distância entre ficção e realidade diminui.
O que torna a situação ainda mais urgente é que, segundo especialistas, não se trata apenas de um alarme exagerado, mas de uma possibilidade que depende da combinação de três fatores: o surgimento de uma IA capaz de autoaperfeiçoamento recursivo; a ausência de alinhamento desses sistemas com valores humanos; e a falta de mecanismos de controle que garantam a manutenção da supervisão humana.
Assim, o “erro” apontado por Hawking, isto é, menosprezar os riscos da IA, não é mero pessimismo, mas um alerta para evitar um cenário de efeitos irreversíveis. Em outra ocasião, afirmou que o sucesso na criação de IA poderia ser o maior acontecimento da história da civilização, ou o último, a menos que se aprendam formas de mitigar os riscos.








