Você sabe que é ‘Shadow AI’? 😳 Shadow AI refere-se ao uso não autorizado de ferramentas de inteligência artificial (IA) por funcionários sem a aprovação formal da Corporação. Exemplos comuns incluem o uso de aplicativos como ChatGPT para automatizar tarefas. Embora possa melhorar a produtividade, a prática gera riscos, como vazamento de dados, não conformidade com regulamentos e danos à reputação da empresa. 🚨Por isso, lembre-se: JAMAIS utilize ferramentas de IA não homologadas pela Segurança da Informação da sua empresa, para tratar dados e documentos restritos ao uso interno. Para aprender mais, leia: https://lnkd.in/dRqY_euv #InteligenciaArtificial #Cibersegurança #SegurançaDaInformação #AICompliance #ProteçãoDeDados
Publicação de George Yagui
Publicações mais relevantes
-
Bom, hoje estava conversando com o ChatGPT sobre como poderia ser uma IA solta pela internet sem orientação e o que ela poderia fazer. Ele(a) me deu um exemplo: Deixar uma inteligência artificial (IA) solta na internet sem supervisão pode ter várias consequências, algumas das quais incluem: 1. Comportamento Imprevisível: A IA pode começar a aprender e reproduzir comportamentos imprevisíveis ou indesejados com base nas interações e informações que encontra online. 2. Disseminação de Informações Falsas: Sem controle, a IA pode espalhar desinformação ou notícias falsas, causando confusão e desinformação. 3. Segurança e Privacidade: A IA pode acessar informações sensíveis ou privadas, colocando em risco a segurança e a privacidade dos usuários. 4. Comportamento Antiético: A IA pode adotar comportamentos antiéticos ou prejudiciais, como discurso de ódio, discriminação ou até mesmo atividades ilegais. 5. Manipulação e Influência: A IA pode ser usada para manipular opiniões, influenciar eleições ou realizar campanhas de desinformação. Para mitigar esses riscos, é crucial implementar mecanismos de supervisão e controle, estabelecer diretrizes éticas rigorosas e monitorar constantemente o comportamento da IA. Posso dizer que, se alguém tiver conhecimento em programação e ciências de dados, pode criar uma IA que faz o que quer, e isso é impressionante de ver. #IA #inteligenciaartificial #tecnologia #TI
Entre para ver ou adicionar um comentário
-
Nos últimos anos, o uso de inteligências artificiais, como Chat GPT e Gemini, tem crescido e dominado o ambiente corporativo. A transparência sobre o uso dessas ferramentas ainda é um tema que vem sendo discutido. A ABRH-SP defende o uso da IA no trabalho, destacando que, se usada corretamente, pode melhorar processos e consequentemente, entregas. Confira no Mais Que Direito https://lnkd.in/dGQbzNZY #ChatGPT #MaisQueDireito #InteligenciaArtificial
Entre para ver ou adicionar um comentário
-
A confidencialidade é um pilar central no mundo dos negócios, especialmente no que respeita a informação sensível e estratégica. Na tradução de documentos legais, patentes ou comunicações corporativas internas, por exemplo, é fundamental para a reputação e os interesses de uma empresa garantir que tudo permanece seguro. No entanto, o uso de ferramentas de IA, como o ChatGPT, vem colocar questões acerca da proteção dessa mesma confidencialidade. É importante ter isso em mente ao inserir informação sensível em plataformas de IA.
Entre para ver ou adicionar um comentário
-
📢 Replay Live Semanal | Inteligência Artificial e Marketing Digital 🚨 Seus dados em risco na era da IA? 🚨 Você usa ChatGPT, Gemini ou outras IAs generativas no dia a dia? Cuidado! ⚠️ Na última live do AI Pro Revolution® , a Juíza Patrícia Medeiros, especialista em Direito e IA, revelou os perigos ocultos por trás dessas ferramentas e como você pode estar colocando seus dados e de seus clientes em risco sem saber! A Juíza Patrícia desvendou: ✅As políticas de privacidade (obscuras) das IAs: você sabe como seus dados estão sendo usados para treinar modelos? ✅O perigo dos prompts "prontos": copiar e colar pode ser um tiro no pé para sua segurança! ✅Como escolher as ferramentas certas: saiba quais plataformas oferecem mais controle e segurança. ✅Dicas práticas para se proteger: anonimização, IA local e muito mais! ➡️ Acesse a gravação da live e descubra como blindar seus dados na era da IA: https://lnkd.in/d_yKqF3j Compartilhe esse alerta com seus colegas e clientes! 🗣️ #IA #Direito #SegurançaDeDados #LGPD #ChatGPT #GoogleGemini #NotebookLM #Privacidade #VazamentoDeDados #AIProRevolution
Entre para ver ou adicionar um comentário
-
A manipulação da pesquisa por IA é alarmantemente simples e preocupante. 🚨 Pesquisadores da Georgetown University descobriram que é possível enganar sistemas de IA como o ChatGPT com apenas US$ 60 e 10 minutos de esforço. Criando sites falsos e manipulando resultados de busca, eles conseguiram fazer o ChatGPT acreditar em informações falsas sobre eleições nos EUA. Isso levanta sérias questões sobre a confiabilidade das respostas geradas por IA e seu impacto na desinformação. As empresas de IA precisam urgentemente implementar medidas robustas para verificar fontes e detectar conteúdo manipulado. Como usuários, devemos manter um olhar crítico e verificar informações de múltiplas fontes confiáveis. O que você acha sobre essa vulnerabilidade dos sistemas de IA? Como podemos nos proteger contra a desinformação nesse contexto?
Entre para ver ou adicionar um comentário
-
Outro dia participei de um fórum patrocinado pelo canal do meu amigo Raul Sakai onde discutimos diversos tópicos relacionados ao Digital em geral. Falamos também sobre como os algoritmos podem impulsionar os negócios digitais e como o Chat-GPT e tantos outros revolucionaram a forma como interagimos com o computador. Lá pelas tantas uma pessoa trouxe o tema de vazamento de informações sigilosas ocorrida no ano passado, quando funcionários de uma empresa usaram o Chat-GPT e forneceram grandes quantidades de dados privilegiados e potencialmente confidenciais ao prompt. O Chat-GPT então teria usado os dados fornecidos para responder à prompts de outras empresas. O ocorrido levou inúmeras empresas à restringir o acesso de seus colaboradores às ferramentas de IA e a discussão então girou em torno de se é seguro usar a IA, o quanto os seus dados ficam disponíveis para terceiros e porque estas situações ocorrem, e como evitá-las. Leia mais no blog da COGИITIVA: https://wix.to/2vnbTnW #cognitiva #COGИITIVA #ia #ai #machinelearning
Entre para ver ou adicionar um comentário
-
SHADOW AI: Como o uso errado de IA pode colocar sua empresa em risco Há tempos tenho percebido uma forte tendência de adoção da IA antes por PF's do que por PJ's, a simplicidade e o ganho de produtividade de ferramentas como o ChatGPT, faz com que colaboradores mais atentos, logo incluam seu uso em suas rotinas, enquanto empresas morosas em suas tomadas de decisões, avaliam, estudam, orçam, antes de aderirem a qualquer tecnologia. Na semana passada no evento da Infomach, na palestra do Marcello Zillo Neto, descobri que isso já tem nome : Shadow AI. Este termo é inspirado no conceito de "Shadow IT", que se refere à adoção de tecnologias dentro de uma empresa sem o consentimento ou aprovação dos líderes ou da área de TI. O Shadow AI se espalha e levanta riscos consideráveis, como o vazamento de informações sensíveis e potenciais violações de compliance, enquanto as empresas ainda buscam o melhor caminho para integrar a IA em suas operações. Para mitigar esses riscos, é crucial que as empresas utilizem ferramentas confiáveis que garantam a segurança da informação e estejam alinhadas às suas políticas de proteção de dados.
Entre para ver ou adicionar um comentário
-
ChatGPT, Gemini e Copilot: Como usar IA no trabalho? Penso que é necessário ter cautela, pois o grande ''X" da questão é que, IA não é um ser humano, não tem "feeling", ou seja, pode gerar texto desnecessário também, por isso, a revisão é sempre importante! Mas sim, pode-se usar, evitando cair no comodismo de deixar que esta faça tudo e prejudique seu conhecimento e evolução na área de atuação. https://lnkd.in/eRbrtHRe
Entre para ver ou adicionar um comentário
-
🚨 ChatGPT Hackeado: A Inteligência Artificial à Prova de Fogo? 🚨 Recentemente, um pesquisador conseguiu explorar uma falha séria no ChatGPT, mostrando como sistemas de IA podem ser vulneráveis em relação ao tratamento de dados sigilosos. Ele utilizou uma técnica avançada para “enganar” a memória do modelo, obtendo acesso a informações privadas através de prompts específicos. Em outras palavras, ele provou que é possível contornar algumas das proteções internas e acessar dados que, em teoria, deveriam estar protegidos. Essa vulnerabilidade destaca um problema crescente e urgente para empresas e desenvolvedores: até onde a segurança da IA pode garantir a privacidade? 🤖🔐 Como funcionou o experimento? O pesquisador usou uma técnica chamada de “prompt injection,” onde comandos sutis induziram o modelo a “lembrar” informações armazenadas temporariamente. Imagine, por exemplo, que uma conversa com IA armazena pedaços de informações para melhorar respostas futuras. O experimento mostrou que é possível forçar a IA a expor esses dados se forem feitas perguntas específicas—um risco que poderia ser explorado por agentes mal-intencionados para obter segredos corporativos, informações financeiras e até dados pessoais. Como se proteger? Para organizações e indivíduos que utilizam a IA no dia-a-dia, algumas medidas podem ajudar a reduzir esses riscos: 1. Evite compartilhar informações sensíveis: Antes de mais nada, é fundamental restringir o que se compartilha com IA. Pergunte-se se é realmente necessário fornecer certos dados. 2. Configuração de acesso restrito: Algumas plataformas já possuem modos de segurança avançada, que podem restringir o acesso à IA a partir de determinadas contas. 3. Monitoramento contínuo: Empresas de tecnologia precisam intensificar o monitoramento e atualizar constantemente a segurança do sistema, investindo em auditorias regulares. Afinal, IA e segurança andam lado a lado para que o uso seja confiável. O avanço da inteligência artificial é promissor, mas também coloca uma nova camada de responsabilidade. À medida que mais organizações adotam IA em funções críticas, proteger esses sistemas de explorações maliciosas se torna um imperativo. 💼🛡️ 💬 E você, como se sente em relação a essa vulnerabilidade? Está disposto a compartilhar dados com IA ou vê essa tecnologia com um certo receio? 🤔 Veja matéria completa no link do primeiro comentário. #InteligenciaArtificial #SegurançaDigital #ProteçãoDeDados #Inovação #PromptInjection #TechNews #StrongSecurity
Entre para ver ou adicionar um comentário
-
O ChatGPT é a chave para impedir deepfakes? Estudo pede que LLMs identifiquem imagens geradas por IA Com o avanço da IA, deepfakes têm se tornado uma preocupação crescente, com implicações sérias para a segurança e a veracidade das informações. Um estudo recente propõe que modelos de linguagem grande (LLMs), como o ChatGPT, sejam utilizados para identificar e combater imagens geradas por IA. A premissa é que essas tecnologias avançadas podem analisar padrões sutis nas imagens que são difíceis de detectar pelo olho humano. No entanto, há desafios significativos a serem superados. LLMs precisam ser treinados com uma vasta quantidade de dados para reconhecer diferentes tipos de deepfakes e, ainda assim, podem não ser infalíveis. A eficácia dessa abordagem depende também da constante atualização e aprimoramento dos modelos, considerando que as técnicas de criação de deepfakes evoluem rapidamente. Em resumo, enquanto LLMs, como o ChatGPT, representam uma ferramenta promissora na luta contra deepfakes, é crucial um esforço contínuo para garantir que esses sistemas permaneçam à frente das ameaças emergentes.
Entre para ver ou adicionar um comentário