O admirável mundo novo da IA e seus riscos
A Inteligência Artificial (IA) tem ocupado um lugar de destaque nos meios de comunicação e tem se tornado um hype em todas as áreas da tecnologia. Basta ir a algum evento de tecnologia para encontrarmos um monte de pessoas entusiasmadas inundado os transeuntes com informações de como um produto X é o melhor do mercado graças ao uso de sua "revolucionária" e "exclusiva" tecnologia de IA. Algumas destas empresas apenas se "esquecem" de dizer que o produto dos concorrentes também usa IA. Por isso, um negócio ou produto dizer que usa a IA deixou, há muito tempo, de ser uma vantagem competitiva, pois a IA já está amplamente disponível em praticamente todas as áreas, produtos e tecnologias. O que quero dizer é que a organização deve gerar inteligência com a IA, e o resultado desta inteligência é que deve trazer as vantagens ao negócio e não a repetição do mantra "powered by AI", mas isso é assunto para um outro artigo.
Ao contrário do que consideraram Huxley por sua obra Brave New Wolrd, sou um otimista e vejo os avanços trazidos por esta tecnologia com muito entusiasmo, pois trazem inúmeras vantagens não só aos negócios, mas principalmente para a vida das pessoas, como na saúde, bem estar, educação e etc. No entanto, enquanto profissional de Segurança da Informação levemente paranoico compulsivo obsessivo depressivo crônico, é necessário deixar algumas considerações e advertências às pessoas e organizações que desejam fazer uso, ou liberar o uso deste tipo de tecnologia para os seus funcionários, a saber:
Quanto a geração de código
Há cerca de 3 semanas atrás o Cezar Taurion comentou sobre um estudo o qual revelou que:
35,8% dos trechos de código gerados pelo Copilot contêm vulnerabilidades elencadas pelo CWE e que tais vulnerabilidades introduzidas estão relacionadas a 42 CWEs diferentes, como os CWE-78 (OS Command Injection), CWE- 330 (Uso de valores insuficientemente aleatórios) e CWE-703 (Verificação ou tratamento inadequado de condições de excessão).
O Cezar, em seu artigo, recomendou não ir com muita sede ao pote!
Torço para que ele não sofra da mesma patologia que eu, pois penso da mesma forma!
Em um outro estudo, alguns pesquisadores produziram 1.689 programas com o Copilot, dos quais 40% eram vulneráveis a ataques. Embora este estudo tenha sido conduzido enquanto a ferramenta ainda estava em beta, devemos considerar que o GitHub não se responsabiliza pela qualidade do código produzido. Deste modo, podemos inferir que o código gerado carece de supervisão e revisão, e isso joga pelo ralo qualquer ganho de produtividade que se alega obter com o uso da ferramenta, além de aumentar a demanda sobre o já engargalado processo de revisão do código. Uma outra preocupação de segurança que ainda é pouco discutida é que o Copilot acaba sendo um keylogger, pois tem o potencial de reter o que se digita usando a ferramenta.
Quanto a velha questão de violação de Direitos Autorais
Fora a questão das vulnerabilidades introduzidas ao código, existe ainda uma questão relacionada a licenças e CopyRight, pois as sugestões de código do Copilot, por exemplo, são retiradas de softwares de código aberto (MIT, BSD, X11, Apache, MPL, Creative Commons, Copyleft, etc), e ao não identificar ou atribuir o trabalho original, viola-se algumas destas licenças (como a GPL, AGPL, LGPL, GFDL, Mozilla Public License, Creative Commons e outras). Neste caso, os desenvolvedores que não usam esta tecnologia cientes do risco e com bastante critério, acabam introduzindo em seus produtos um potencial risco legal, com potencial de prejudicar a imagem da organização para a qual trabalham.
Ainda que algumas sugestões oriundas deste tipo de tecnologia sejam tão óbvias e genéricas que não são realmente protegidas por direitos autorais, o próprio GitHub afirma que “cerca de 1% das vezes, uma sugestão pode conter alguns trechos de código com mais de ~ 150 caracteres que correspondem ao conjunto de treinamento”.
Infelizmente, tudo isso não é fruto da minha paranoia, pois já existem ações coletivas alegando que mesmo um código com menos de 150 caracteres ainda pode constituir violações de direitos autorais, mas que “mesmo usando a própria métrica do GitHub e os critérios mais conservadores possíveis, o Copilot violou o DMCA pelo menos dezenas de milhares de vezes”. Em um tópico famoso no Twitter, o professor Tim Davis protestou contra o fato de que o Copilot produziu grandes pedaços de seu código protegido por direitos autorais.
Esta questão é tão crítica que se estende a outras áreas, além do desenvolvimento de software, pois o uso sem critério deste tipo de ferramenta pode levar a problemas de direitos autorais, pois pode repetir textos de obras protegidas em suas respostas e se forem copiadas para artigos, livros e etc, materializam a violação.
Recomendados pelo LinkedIn
Quanto a ser um prato cheio para agentes de ameaças
Muitos plugins de AI para navegadores tem sido vetores de ataques através de extensões maliciosas, por exemplo, uma que imitava o "ChatGPT for Google". Maiores informações, aqui.
Isso também acontece com extensões de VSCode, entre outros softwares.
Quanto a ser uma fonte de vazamentos
Como já foi exposto, muitos destes plugins utilizam interfaces públicas de algoritmos de IA, o que implica que os dados e os aprendizados oriundos dos mesmos são armazenados e levados em consideração em respostas para outras pessoas e entidades. Em resumo, é uma forma de vazar dados. Isso é tão sério que levou a gigante de tecnologia, Samsung, a criar uma política de modo a proibir os funcionários de usarem ferramentas de inteligência artificial generativa, como o ChatGPT, Bard e Bing. Ela fez isso após descobrir que uma equipe (não foi apenas um funcionário) inseriu código confidencial na plataforma, vazando os dados.
Alguns bancos, como o JPMorgan Chase, Bank of America e o Citigroup também seguiram o mesmo caminho.
Quanto ao risco de desinformação (As ferramentas viajam na maionese)
Existe uma alta porcentagem de imprecisão nas respostas, o que pode trazer algum nível de risco se as informações forem usadas no âmbito do negócio.
Nos últimos dias, esta tecnologia voltou à tona nas mídias. Desta vez, através de um juiz do TRF1 que usou a ferramenta para a elaboração de uma decisão judicial na qual citou uma jurisprudência inexistente em sua sentença.
Isso é bastante comum, pois vejo isso até mesmo em alguns trabalhos acadêmicos que fazem certas citações de pessoas que não existem ou mesmo de pessoas reais associados a artigos de outras pessoas ou até mesmo artigos inexistentes.
Conclusão
Diante de tantos artigos, empresas, notícias destacando as maravilhas de um novo e maravilhoso mundo trazido pela IA, meu TOC (Transtorno Obsessivo Compulsivo) me incomodou ao ponto de cometer este artigo no afã de ser um instrumento de despertamento e reflexão quanto ao uso indiscriminado deste tipo de tecnologia. Ela traz vantagens importantes e significativas para a vidas das pessoas e para os negócios, sem dúvida, contudo, também traz os seus riscos e como todo risco, devemos deixar o entusiasmo um pouco de lado, colocar os pés no chão, avaliá-los e buscar meios de mitigá-los.
Por falar em IA, alguém conhece alguma ferramenta baseada em IA para o diagnóstico de desordens psiquiátricas?