A Ascensão da 'Shadow AI' e os Riscos de Segurança de Dados no Ambiente de Trabalho
A Ascensão da 'Shadow AI' e os Riscos de Segurança de Dados no Ambiente de Trabalho
A inteligência artificial (IA) está cada vez mais presente no ambiente corporativo, transformando processos e aumentando a eficiência. No entanto, um relatório recente da Cyberhaven revelou um cenário preocupante: o uso de IA pelos trabalhadores para processar dados sensíveis mais do que dobrou no último ano, e a prática da chamada "Shadow AI" está em alta.
O Crescimento do Uso de IA e a Exposição de Dados Sensíveis
De acordo com o relatório "AI Adoption and Risk Report", o volume de dados corporativos inseridos em ferramentas de IA cresceu 485% entre março de 2023 e março de 2024. Esse aumento exponencial está relacionado principalmente ao uso de ferramentas das gigantes OpenAI, Google e Microsoft, que representam 96% de todas as interações.
Um dado alarmante do relatório é o crescimento de 156% na quantidade de dados sensíveis enviados a chatbots, como o ChatGPT e o Gemini. Entre os dados mais expostos estão:
Além disso, documentos legais, registros de funcionários e materiais de recursos humanos também têm sido enviados a essas plataformas, muitas vezes sem os devidos cuidados de segurança.
O Perigo da Shadow AI
O termo "Shadow AI" refere-se ao uso de ferramentas de IA em contas pessoais de colaboradores, fora do controle e supervisão das empresas. O relatório revelou que a maior parte do uso corporativo de IA acontece em contas pessoais, sem as salvaguardas oferecidas pelas soluções empresariais dessas plataformas.
Alguns números preocupantes incluem:
Essa prática representa um enorme risco, já que dados sensíveis podem ser submetidos a modelos de IA sem garantias de segurança, podendo ser utilizados no treinamento dos modelos ou expostos em caso de vulnerabilidades.
Por que Isso Importa?
O envio de informações confidenciais para ferramentas de IA apresenta dois riscos principais:
Além disso, a geração de conteúdo por IA também representa riscos. Em março de 2024, 3,4% dos materiais de P&D e 3,2% das inserções de código-fonte em empresas foram gerados por IA. Quando ferramentas de IA não especializadas são usadas para desenvolvimento de código, há chances de introduzir vulnerabilidades ou até infringir direitos autorais.
Como Mitigar os Riscos da Shadow AI
Para proteger os dados e reduzir os riscos da Shadow AI, as empresas devem:
O uso de IA no trabalho está trazendo uma nova era de produtividade, mas exige uma abordagem responsável e proativa para proteger dados sensíveis. A ascensão da Shadow AI é um lembrete de que a segurança deve caminhar lado a lado com a inovação.
Se sua organização utiliza IA, como vocês estão lidando com os riscos relacionados à Shadow AI? Compartilhe suas estratégias nos comentários!
#SegurançaDeDados #InteligenciaArtificial #ShadowAI #Cibersegurança
Remuneração e Benefícios / Gestão de RH / Gestão de carreira / Gestão de Orçamento e Controle/ Gestão de Performance e Indicadores / Compensation and Benefits / KPIs/ Especialista em RH em Gestão Estratégica
1 dMuito informativo
Head de Recursos Humanos - Remuneração, Benefícios, People Analytics, Gestão de Performance, Operações de RH
2 dÓtimo tema e formato de texto Wagner. Está mandando bem. Abraços