Comissão elaborou relatório com medidas como, por exemplo, restrições no uso de reconhecimento facial
No momento em que o mundo debate os riscos de sistemas de inteligência artificial-IA, o Senado tem em mãos uma proposta para regulamentar o setor no Brasil. Uma comissão de profissionais da área jurídica entregou um relatório ao presidente da Casa, Rodrigo Pacheco, em dezembro de 2022.
A comissão, presidida por Ricardo Villas Bôas Cueva, foi instalada em março de 2022 para propor mudanças nos projetos de lei 5.051/2019, 21/2020, e 872/2021. Eles têm como objetivo determinar princípios, regras, diretrizes e fundamentos para regular o desenvolvimento e a aplicação da IA no Brasil.
Foram quase 240 dias de trabalho que resultaram na apresentação do documento com mais de 900 páginas para ser analisado pelos senadores. Eis a íntegra do relatório (5 MB).
Os 18 integrantes do colegiado promoveram reuniões, seminários e audiências públicas divididas por eixos temáticos, com a participação de especialistas e representantes nacionais e internacionais para aprofundar o tema.
Cueva declarou que o substitutivo entregue ao Senado constitui “um embrião da regulação” da inteligência artificial no Brasil.
“Temos hoje um mapa muito completo do que se pensa sobre o tema no mundo e no Brasil. O trabalho é um espelho do que se espera da regulação da inteligência artificial, todos esperamos não termos errado, nem para mais, nem para menos. As escolhas políticas e técnicas que foram feitas estão todos explicitadas no relatório”, disse o presidente da comissão.
Entre os pontos analisados está a adoção de restrições ao uso de câmeras para reconhecimento facial de pessoas que circulam nas ruas, mesmo por secretarias de segurança pública.
Os integrantes identificaram graus de risco para sistemas de IA. Ainda recomendaram que operadores e fornecedores sejam responsáveis por danos causados por sistemas de alto risco –como carros automatizados– ou de risco excessivo –como câmeras de vigilância.
O relatório também fala sobre questões de transparência. Companhias que utilizem sistemas de IA classificados como de alto risco devem ter formas de registrar o funcionamento desses sistemas.
Há ainda a recomendação de veto a sistema de “ranqueamento social”, como feito na China. Pelo sistema, cada cidadão recebe pontos conforme seu comportamento on-line. O ranking é usado, por exemplo, no acesso a bens e serviços e políticas públicas.
“Seguindo a lógica da dosagem proporcional da intervenção regulatória às externalidades negativas de um sistema de inteligência artificial, listam-se, ainda, as chamadas hipóteses de riscos excessivos”, lê-se no relatório. “Isto é, situações em que se veda o uso da tecnologia por estarem em jogo direitos inegociáveis, como é o caso de indução de comportamentos lesivos à segurança e integridade física e, em sentido mais amplo, prejudiciais à autodeterminação.”