O tempo está passando enquanto governos e comunidades de tecnologia em todo o mundo discutem políticas de IA. A principal preocupação é garantir a segurança da humanidade contra a desinformação e todos os riscos associados a ela.
E essa questão está se intensificando agora que a privacidade dos dados entrou em jogo. Você já parou para pensar nos riscos de compartilhar suas informações usando o ChatGPT, Bard ou outros chatbots de IA?
Caso ainda não tenha feito isso, pode ser que você não saiba que as gigantes da tecnologia estão tomando medidas sérias para evitar vazamentos de informações.
No início de maio, a Samsung notificou sua equipe sobre uma nova política interna que restringe o uso de ferramentas de IA em dispositivos conectados às suas redes. Isso aconteceu depois que ocorreu um vazamento acidental de dados confidenciais para o ChatGPT.
“A empresa está revisando medidas para criar um ambiente seguro para usar a IA generativa com segurança para aumentar a produtividade e a eficiência dos funcionários”, disse um porta-voz da Samsung ao TechCrunch. Eles também mencionaram que restringirão temporariamente o uso da IA generativa em dispositivos da empresa até que medidas de segurança estejam implementadas.
Outra gigante que adotou ação semelhante foi a Apple. Segundo o WSJ, a rival da Samsung também está preocupada com o vazamento de dados confidenciais. As restrições incluem o ChatGPT e algumas ferramentas de IA usadas para programação. Isso deve estar em rigor enquanto eles desenvolvem tecnologias semelhantes.
No início deste ano, um advogado da Amazon instruiu os funcionários a não compartilharem nenhuma informação ou código com chatbots de IA, depois que a empresa descobriu respostas do ChatGPT que eram semelhantes aos dados internos da Amazon.
Além das gigantes de tecnologia, até mesmo bancos como Bank of America e Deutsche Bank implementaram medidas restritivas internas para evitar vazamentos de informações financeiras.
E a lista continua crescendo. Até o Google também aderiu a essas restrições!
Até você, Google?
De acordo com fontes anônimas da Reuters, na semana passada, a Alphabet Inc. (empresa controladora do Google) aconselhou seus funcionários a não inserirem informações confidenciais nos chatbots de IA, incluindo ironicamente o Bard, que foi lançado nos EUA em março e está em processo de implantação em outros 180 países e 40 idiomas.
Essa decisão do Google ocorreu após pesquisadores descobrirem que os chatbots podem reproduzir os dados inseridos por meio de milhões de exemplos, tornando-os disponíveis para revisores humanos. A Alphabet alertou seus engenheiros para evitar a inserção de código nos chatbots, pois a IA pode reproduzi-los, o que poderia resultar em vazamento de dados confidenciais de tecnologia, inclusive em benefício do seu concorrente de IA, o ChatGPT.
O Google confirmou sua intenção de ser transparente sobre as limitações de sua tecnologia e atualizou sua política de privacidade, solicitando aos usuários que “evitem incluir informações confidenciais ou sensíveis em suas conversas com o Bard”.
Mais de 100 mil contas do ChatGPT na dark web
Outro aspecto que pode resultar na exposição de dados sensíveis é o fato de que os chatbots de IA estão se tornando cada vez mais populares, e profissionais ao redor do mundo estão adotando essas ferramentas para otimizar suas rotinas, na maioria das vezes, sem qualquer cuidado ou supervisão.
Ontem, o Group-IB, uma empresa líder global em soluções de segurança cibernética de Cingapura, divulgou que descobriu mais de 100 mil contas vazadas do ChatGPT com credenciais armazenadas em registros de roubo de informações para serem negociadas nos mercados ilegais da dark web desde o ano passado. Eles ressaltaram que, por padrão, o ChatGPT armazena o histórico de consultas e respostas da IA, e a falta de cuidados essenciais está expondo várias empresas e seus funcionários a riscos.
Governos pressionam por regulamentações
Não são apenas as empresas que estão preocupadas com o vazamento de informações por meio da IA. Em março, depois de identificar uma violação de dados na OpenAI que permitia aos usuários visualizar os títulos das conversas de outros usuários com o ChatGPT, a Itália ordenou que a OpenAI interrompesse o processamento dos dados dos usuários italianos.
O bug foi confirmado pela OpenAI em março. Sam Altman, em sua conta no Twitter na época, declarou: “Tivemos um problema significativo no ChatGPT devido a um bug em uma biblioteca de código aberto, para o qual já foi lançada uma correção e acabamos de validar. Uma pequena porcentagem de usuários conseguiu ver os títulos do histórico de conversas de outros usuários. Estamos realmente chateados com isso.”
O Reino Unido também publicou um white paper sobre IA em seu site oficial, com o objetivo de impulsionar a inovação responsável e a confiança do público. O documento considera estes princípios:
- segurança, proteção e robustez;
- transparência e explicabilidade;
- justiça; prestação de contas e governança;
- e contestabilidade e reparação.
Conforme a IA se torna cada vez mais presente em nossas vidas, é natural surgirem novas preocupações, principalmente devido à velocidade com que ela avança. Medidas de segurança tornam-se necessárias, enquanto os desenvolvedores trabalham para reduzir os riscos sem comprometer o progresso dessa tecnologia, que já reconhecemos como um grande avanço para o futuro.
Quer continuar atualizado com as melhores práticas de Marketing? Então se inscreva na The Beat, a newsletter interativa da Rock Content. Nós cobrimos todas as tendências que importam no cenário do Marketing Digital. Vejo você lá!
CONTEÚDO CRIADO POR HUMANOS
Encontre os melhores freelancers de conteúdo no WriterAccess.
CONTEÚDO CRIADO POR HUMANOS
Encontre os melhores freelancers de conteúdo em WriterAccess.