5 etapas eficazes para evitar vazamentos de dados GenAI sem proibir completamente o uso de IA
Cibersegurança

5 etapas eficazes para evitar vazamentos de dados GenAI sem proibir completamente o uso de IA


01 de outubro de 2024EUNotícias sobre hackersIA generativa/proteção de dados

Desde o seu início, a IA generativa revolucionou a produtividade empresarial. As ferramentas GenAI permitem desenvolvimento de software rápido e eficiente, análise de receitas, planejamento de negócios e envolvimento do cliente. No entanto, esta inovação empresarial apresenta riscos significativos, especialmente a possibilidade de fuga de dados sensíveis. À medida que as organizações tentam equilibrar os benefícios de produtividade com as preocupações de segurança, muitas foram forçadas a escolher entre o uso irrestrito da GenAI ou a sua proibição total.

O novo guia da LayerX intitulado 5 medidas acionáveis ​​para prevenir o vazamento de dados por meio de ferramentas de IA generativas foi projetado para ajudar as organizações a enfrentar os desafios do uso de GenAI no local de trabalho. O guia fornece etapas práticas para os gerentes de segurança protegerem os dados confidenciais da empresa e, ao mesmo tempo, colherem os benefícios de produtividade das ferramentas GenAI, como o ChatGPT. Esta abordagem pretende permitir que as empresas encontrem o equilíbrio certo entre inovação e segurança.

Por que se preocupar com o ChatGPT?

O guia aborda preocupações crescentes de que o uso irrestrito da GenAI possa levar à divulgação não intencional de dados. Por exemplo, conforme destacado por incidentes como o vazamento de dados da Samsung. Nesse caso, os funcionários expuseram acidentalmente o código proprietário ao usar o ChatGPT, levando ao bloqueio total das ferramentas GenAI dentro da empresa. Tais incidentes sublinham a necessidade de as organizações desenvolverem políticas e controlos sólidos para mitigar os riscos associados à GenAI.

Nossa compreensão do risco não é trivial. De acordo com pesquisa realizada pela LayerX Security:

  • 15% dos usuários empresariais anexaram dados às ferramentas GenAI.
  • 6% dos usuários empresariais estão conectados sério dados, como código-fonte, PII ou informações organizacionais confidenciais, para ferramentas GenAI.
  • Entre os 5% principais usuários do GenAI, que são os usuários mais pesados, 50% pertencem à P&D.
  • O código-fonte é o principal tipo de dados confidenciais expostos, representando 31% dos dados expostos

Principais etapas para gerentes de segurança

O que os gestores de segurança podem fazer para permitir a utilização da GenAI sem expor a organização ao risco de fuga de dados? Os principais destaques do guia eletrônico incluem as seguintes etapas:

  1. Mapeando o uso de IA nas organizações – Comece entendendo o que você precisa proteger. Mapeie quem utiliza as ferramentas GenAI, de que forma, para quais finalidades e quais tipos de dados são expostos. Isto constituirá a base de uma estratégia eficaz de gestão de riscos.
  2. Limitando contas pessoais – Em seguida, aumente a proteção fornecida pelas ferramentas GenAI. As contas corporativas GenAI fornecem medidas de segurança integradas que podem reduzir significativamente o risco de vazamento de dados confidenciais. Isso inclui limites de dados usados ​​para fins de treinamento, limites de retenção de dados, limites de compartilhamento de contas, anonimato e muito mais. Observe que isso requer a aplicação do uso de contas não pessoais ao usar GenAI (o que requer uma ferramenta proprietária para fazer isso).
  3. Notificando usuários – Como terceiro passo, use o poder dos seus funcionários. Mensagens simples de lembrete que aparecem ao usar as ferramentas GenAI ajudarão a conscientizar os funcionários sobre as possíveis consequências de suas ações e políticas organizacionais. Isso pode efetivamente reduzir o comportamento de risco.
  4. Prevenindo a entrada de informações confidenciais – Agora é hora de introduzir tecnologia avançada. Implemente controles automatizados que limitem a entrada de grandes quantidades de dados confidenciais nas ferramentas GenAI. Isso é muito eficaz para evitar que os funcionários compartilhem código-fonte, informações de clientes, PII, dados financeiros e muito mais.
  5. Limita as extensões do navegador GenAI – Finalmente, evite a vulnerabilidade das extensões do navegador. Controle e classifique automaticamente as extensões de navegador de IA com base no risco para evitar o acesso não autorizado a dados organizacionais confidenciais.

Para aproveitar todos os benefícios de produtividade da IA ​​generativa, as empresas precisam encontrar um equilíbrio entre produtividade e segurança. Como resultado, a segurança da GenAI não deve ser uma escolha binária entre ativar todas as atividades de IA ou bloquear todas elas. Em vez disso, adotar uma abordagem inteligente e bem ajustada permitirá que as organizações colham benefícios comerciais, sem deixá-las expostas. Para os gestores de segurança, esta é uma forma de se tornarem um valioso parceiro de negócios e facilitador.

Baixe o guia para saber como aplicar essas etapas com facilidade e rapidez.

Você achou este artigo interessante? Este artigo é uma contribuição de um de nossos valiosos parceiros. Siga-nos Twitter e LinkedIn para ler o conteúdo exclusivo que postamos.





Source link

Você também pode gostar...

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *