Estamos à beira de uma revolução na inteligência artificial, e a tendência produtiva da IA não parece diminuir tão cedo. Um estudo da McKinsey descobriu que 72% das organizações usaram IA produtiva em uma ou mais funções de negócios até 2024 – acima dos 56% em 2021.
À medida que as empresas exploram como a IA produtiva pode agilizar os fluxos de trabalho e desbloquear novas eficiências, as equipes de segurança avaliam ativamente a melhor forma de proteger a tecnologia. A única grande lacuna em muitas estratégias de segurança de IA hoje? IA generativa para o trabalho.
Embora muitos estejam familiarizados com os métodos usados para proteger modelos de IA, como OpenAI, ChatGPT ou Anthropic, as cargas de trabalho de IA são completamente diferentes. As equipes de segurança não devem apenas avaliar como o modelo subjacente foi desenvolvido e treinado, mas também considerar a arquitetura circundante e como os usuários interagem com o serviço. Além disso, a segurança da IA opera sob um modelo de responsabilidade compartilhada semelhante ao da nuvem. As responsabilidades da carga de trabalho variam dependendo se a integração de IA é baseada em Software como Serviço (SaaS), Plataforma como Serviço (PaaS) ou Infraestrutura como Serviço (IaaS).
Ao considerar apenas os riscos associados ao modelo de IA, as equipes de segurança perdem a visão geral e não conseguem abordar todos os aspectos da carga de trabalho. Em vez disso, os defensores cibernéticos devem adotar uma abordagem multifacetada, usando soluções de segurança nativas da nuvem para preparar e implantar com segurança as cargas de trabalho de IA geradas pela computação em nuvem.
Como a proteção em camadas protege cargas de trabalho produtivas de IA
Ao implementar diversas estratégias de segurança em cada estágio do ciclo de vida da IA, as equipes de segurança podem adicionar diversas redundâncias para proteger melhor as cargas de trabalho de IA — e os dados e sistemas que elas tocam. Começa verificando como o modelo escolhido foi desenvolvido e treinado. Devido ao potencial da IA para criar efeitos prejudiciais ou prejudiciais, ela deve ser desenvolvida de forma responsável e ética para evitar preconceitos, operar de forma transparente e proteger a privacidade. No caso de empresas que terceirizam cargas de trabalho comerciais de IA para dados proprietários, você também deve garantir que os dados tenham qualidade e valor suficientes para produzir resultados sólidos.
Em seguida, os defensores devem compreender suas responsabilidades de carga de trabalho no modelo de responsabilidade compartilhada da IA. É um modelo estilo SaaS em que o provedor protege tudo, desde a infraestrutura de IA e plug-ins até a proteção de dados contra acesso sem a identidade do cliente final? Ou (mais provavelmente) é um acordo no estilo PaaS em que a equipe de segurança interna gerencia tudo, desde a construção de uma infraestrutura de dados segura e mapeamento de propriedade e controles de acesso até configuração de tarefas, implantação e controles de saída de IA?
Quando essas cargas de trabalho produtivas de IA são executadas em ambientes multinuvem altamente conectados e dinâmicos, as equipes de segurança também devem monitorar e proteger todos os outros componentes que a carga de trabalho toca durante a operação. Isso inclui um pipeline usado para descarregar cargas de trabalho de IA, controles de acesso que protegem contas de armazenamento onde residem dados confidenciais, APIs que chamam IA e muito mais.
Ferramentas de segurança nativas da nuvem, como gerenciamento de postura de segurança em nuvem (CSPM) e detecção e resposta estendida (XDR), são especialmente úteis aqui porque podem verificar o código subjacente e a infraestrutura mais ampla de múltiplas nuvens em busca de vulnerabilidades e outros riscos de postura enquanto monitoram e respondem a ameaças em tempo de execução. Como os ambientes multicloud são tão dinâmicos e interconectados, as equipes de segurança também devem consolidar seu ambiente de segurança na nuvem em uma plataforma de proteção de aplicativos em nuvem (CNAPP) para coordenar e contextualizar melhor os alertas.
Protege totalmente a IA produtiva para implantações em várias nuvens
Em última análise, os componentes específicos da sua estratégia de segurança em camadas são muito influenciados pelo próprio ambiente. Afinal, proteger cargas de trabalho produtivas de IA em um ambiente local tradicional é muito diferente de proteger essas cargas de trabalho em um ambiente híbrido ou multinuvem. Mas ao explorar todas as camadas que afetam uma carga de trabalho de IA, as equipes de segurança podem proteger totalmente seu ambiente multinuvem e, ao mesmo tempo, maximizar o poder transformador da IA.
Porque mais compreensão Para cargas de trabalho de IA mais produtivas, confira nossa série “Segurança usando serviços nativos do Azure”.