...

Alphabet adverte funcionários sobre uso de dados em chatbots, incluindo o Bard do Google

A Alphabet, controladora do Google, está emitindo alertas aos seus funcionários sobre o uso de chatbots, incluindo o popular Bard da empresa, ao mesmo tempo em que expande a comercialização do programa em todo o mundo, revelaram quatro fontes familiarizadas com o assunto à Reuters.

A empresa está aconselhando os funcionários a não inserirem dados confidenciais nos chatbots de inteligência artificial, citando uma política de longa data de proteção de informações. Os revisores humanos têm a capacidade de ler as interações dos chatbots, e os pesquisadores descobriram que uma inteligência artificial similar pode reproduzir os dados absorvidos durante o treinamento, o que representa um risco de vazamento.

A Alphabet também alertou seus engenheiros para evitar o uso direto dos códigos de computador gerados pelos chatbots, afirmaram algumas das fontes. A empresa ressaltou que, embora o Bard possa sugerir código indesejado, ele ainda auxilia os programadores. Além disso, o Google pretende ser transparente em relação às limitações de sua tecnologia.

Essas preocupações demonstram o cuidado do Google em evitar danos ao seu negócio em um mercado em concorrência direta com o ChatGPT, desenvolvido pela OpenAI e Microsoft. Bilhões de dólares em investimentos, publicidade e receita de programas de inteligência artificial estão em jogo nessa corrida da Alphabet contra seus concorrentes.

A cautela do Google também reflete um padrão de segurança adotado por outras empresas, que alertam seus funcionários sobre o uso de chatbots disponíveis publicamente. Empresas como Samsung, Amazon.com e Deutsche Bank implementaram proteções em seus chatbots de IA, conforme relatado pelas próprias empresas à Reuters. A Apple, que não respondeu aos pedidos de comentário, também supostamente adotou essas medidas.

De acordo com uma pesquisa realizada com quase 12 mil entrevistados, incluindo grandes empresas dos Estados Unidos, cerca de 43% dos profissionais utilizam o ChatGPT ou outras ferramentas de IA, muitas vezes sem informar seus superiores, conforme o site de relacionamento Fishbowl revelou.

Em fevereiro, o Google instruiu sua equipe de testes do Bard a não fornecer informações internas, conforme reportado pelo Insider. Agora, a empresa está lançando o programa em mais de 180 países e em 40 idiomas, como uma plataforma para a criatividade, mas continua emitindo alertas em relação às sugestões de código.

O Google informou à Reuters que teve discussões detalhadas com a Comissão de Proteção de Dados da Irlanda e está respondendo às perguntas dos reguladores. Isso ocorre após uma reportagem do Politico na terça-feira, que indicava que a empresa estava adiando o lançamento do Bard na União Europeia para obter mais informações sobre o impacto do chatbot na privacidade.

Uma atualização da política de privacidade do Google, datada de 1º de junho, também afirma: “Não inclua informações confidenciais em suas conversas com o Bard”.

Algumas empresas desenvolveram softwares para lidar com essas preocupações. Por exemplo, a Cloudflare, empresa que protege sites contra ataques cibernéticos e oferece serviços em nuvem, lançou um recurso que permite às empresas marcar e restringir o fluxo externo de determinados dados.

Tanto o Google quanto a Microsoft estão oferecendo ferramentas de conversação para clientes corporativos, com preços mais elevados, mas que evitam a absorção de dados em modelos públicos de inteligência artificial. A configuração padrão do Bard e do ChatGPT é salvar o histórico das conversas dos usuários, que podem optar por excluí-lo.

Yusuf Mehdi, diretor de marketing de consumo da Microsoft, afirmou que “faz sentido” as empresas não permitirem que seus funcionários usem chatbots públicos para o trabalho. Ele explicou que as políticas da Microsoft são muito mais rigorosas em comparação ao chatbot gratuito Bing da empresa.

A Microsoft se recusou a comentar se existe uma proibição geral para que os funcionários insiram informações confidenciais em programas públicos de inteligência artificial, incluindo os desenvolvidos pela própria empresa. No entanto, outro executivo afirmou à Reuters que ele mesmo restringiu pessoalmente o uso desses programas.

À medida que o uso de chatbots e ferramentas de inteligência artificial se torna mais comum nas empresas, as preocupações com a segurança e a privacidade se intensificam. A necessidade de proteger informações confidenciais e evitar vazamentos é uma prioridade para as corporações, que buscam equilibrar a eficiência dessas ferramentas com a proteção dos dados.

Embora o Google e outras empresas estejam implementando medidas de segurança e conscientizando seus funcionários, a consulta a profissionais de saúde e especialistas em segurança ainda é fundamental. O uso de chatbots como uma ferramenta complementar, mas não substituta, para a obtenção de diagnósticos e informações médicas continua sendo a recomendação mais segura.

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui

Recentes

Leia Também

g