É inevitável. Precisamos conversar sobre IA – Parte I

É inevitável. Precisamos conversar sobre IA – Parte I

Tecnologia massiva é entendida como uma tecnologia de ampla adoção, presente no dia a dia de grande parte das pessoas. Olhando para um passado recente, é possível citar alguns exemplos de tecnologias que se incorporaram na nossa vida: eletricidade, computadores pessoais, internet e smartphones. Parece não haver dúvidas de que a Inteligência Artificial (IA) será em pouco tempo uma tecnologia massiva com a qual teremos que nos relacionar no cotidiano e que permeará todos os setores da economia, ciência, sociedade e cultura. Por este motivo, é necessário que as pessoas conheçam minimamente o que é esta tecnologia, suas potencialidades e, até mesmo, seus riscos. Neste sentido, publicarei alguns artigos para fomentar reflexões sobre IA, importantes para o atual momento das nossas vidas pessoal e profissional. Neste primeiro texto, o conteúdo é um pouco técnico porém importante para que seja possível uma compreensão com maior solidez sobre as diversas implicações da IA no mundo contemporâneo. 

A IA é uma disciplina das ciências da computação e começou a ser desenvolvida na primeira metade do século passado. Seu funcionamento tem como base um software dotado de uma “inteligência” para aprender e executar funções de maneira similar ao que um ser humano pode fazer. Naquela época, os computadores ainda estavam no seu primeiro estágio de evolução e a possibilidade de se criar uma “máquina inteligente” impressionou muita gente, o que pode ser percebido pelos diversos livros e filmes com histórias protagonizadas por humanos e robôs inteligentes, em geral, em situação de confronto. O grande medo, explorado por autores de ficção científica, era a inteligência da máquina conseguir de alguma maneira superar a inteligência humana, a ponto de ameaçar seus próprios criadores. Esse tipo de enredo com base no “criador x criatura” começou a ser explorado ainda em um época pré-computacional com a publicação de “Frankstein” (1818), escrito por Mary Shelley e considerada a primeira obra de ficção científica da história. Dentre tantas histórias com pessoas e máquinas inteligentes, destaca-se o épico filme “2001: Uma Odisseia no Espaço” (1968), coescrito por Stanley Kubrick e Arthur C. Clark. O filme era protagonizado pelo computador HAL 9000, que se dizia “infalível e incapaz de erro”. Esta inteligência cibernética amedrontrou gerações de pessoas que já imaginavam, na década de 1970, que os computadores poderiam vencer, no mundo real, seus criadores. A verdade é que, anos mais tarde, isso de fato aconteceu.

Em 1996, o supercomputador Deep Blue da IBM derrotou o campeão mundial de xadrez Garry Kasparov, feito de muita repercussão na época e retratado no filme Game Over: Kasparov and the Machine. Em 2015, o software AlphaGo, desenvolvido pela DeepMind Technologies (posteriormente adquirida pela Google), derrotou Lee Sedol, jogador mestre de Go. Posteriormente, uma versão aprimorada do programa derrotou Ke Jie, na ocasião, primeiro jogador do ranking mundial de Go. Esses marcos sempre provocaram intensos debates sobre os limites que a computação inteligente pode alcançar. Certamente que a ideia de uma IA que possibilite a existência de robôs quase humanos, conforme apresentada em certas histórias ficcionais, ainda permanece no imaginário coletivo das pessoas, o que acaba por prejudicar um pouco o entendimento real da maioria da pessoas não especializadas na área sobre as possibilidades atuais e futuras desta tecnologia. É comum vermos pessoas irem do extremo da incredulidade total (“Um computador nunca fará isso”) à preocupação alarmista (“A humanidade está sendo seriamente ameaçada pelos computadores”).

O grande medo, explorado por muitos autores de ficção científica, era a inteligência da máquina conseguir superar a inteligência humana, a ponto de ameaçar seus próprios criadores.

Vamos aos fatos. A IA já está presente nas nossas vidas. Encontramos esta tecnologia nos assistentes digitais (Siri, Cortana, Alexa) que entendem nossa fala e executam tarefas, nos veículos autônomos que já transitam em algumas estradas, em robôs que diagnosticam doenças preventivamente, em chatbots que dialogam com usuários em websites, em aplicativos que nos indicam o melhor caminho para se chegar em casa, em lojas digitais que fazem recomendações de compras a partir do nosso comportamento e em aplicativos que realizam investimentos financeiros automaticamente. São apenas alguns exemplos que ilustram o atual presença da IA, contudo, para se saber até onde pode chegar, é necessário entender melhor o que fundamenta esse tipo de tecnologia.

Tudo começou na década de 1950, quando pesquisadores da computação começaram a desenvolver programas que criavam redes neurais artificiais. Esse tipo de software buscava emular, de maneira ainda rudimentar, o sistema nervoso central humano para que fosse possível a um programa, reconhecer algum padrão de tarefa, similar ao que a mente humana realiza em um processo básico de aprendizagem. Na época, os resultados foram modestos. Somente na década de 1980, com a tecnologia computacional em outro estágio, a pesquisa em redes neurais foi retomada de maneira mais intensa. Novos modelos matemáticos e algoritmos mais sofisticados, conhecidos como “Deep Learning” (aprendizagem profunda), foram desenvolvidos e sistemas de IA começaram a ser desenvolvidos em uma escala maior. Um momento importante nesta evolução ocorreu em 2012, quando estudantes da Universidade de Toronto desenvolveram uma solução de reconhecimento de imagem usando Deep Learning. Todo esse movimento em torno da IA levou as empresas de hardware, como a Intel e NVIDIA, a desenvolverem processadores específicos para otimizar o funcionamento de redes neurais, assim como as Big Techs – Google, Facebook, Microsoft, Amazon, Apple – a investirem pesadamente em pesquisa e criação de produtos usando IA.

A IA já está presente nas nossas vidas (...) para se saber até onde pode chegar, é necessário entender melhor o que fundamenta esse tipo de tecnologia.

Para compreender os limites e potencialidades da IA, é importante conhecer alguns conceitos e terminologias desta tecnologia, vamos a eles:

  • Machine Learning é o campo da IA ligado à estatística computacional que envolve a criação de algoritmos com capacidade de aprender uma determinada tarefa e executá-la. Um ponto importante a se observar é que a aprendizagem de máquina amplia a funcionalidade clássica de um computador de somente executar tarefas para para as quais foi programado.
  • Deep Learning é o ramo do Machine Learning no qual o desenvolvimento de algoritmos simula o processo de aprendizagem humano, a partir de redes neurais artificiais. Como exemplo, podemos ter um software que aprenda sozinho a reconhecer a escrita manual de um número, mesmo considerando que as caligrafias das pessoas são diferentes. Para que um problema possa ser resolvido com o uso do Deep Learning, algumas condições são necessárias. Primeiramente, para que o software tenha capacidade de aprender, é requisito que haja um grande volume de dados externos para que a aprendizagem seja efetiva. Quanto maior a quantidade de dados, maior acurácia o algoritmo terá, visto que o mesmo pode realizar simulações comparativas de diversas ordens na busca por uma solução ótima. Como existe a necessidade da execução do algoritmo inúmeras vezes com utilização de muitos dados, é necessário que haja um alto poder computacional para que o sistema de IA apresente resultados satisfatórios. Por fim, todo esse processo de testes de inúmeros modelos demanda tempo para que o algoritmo consiga descobrir (aprender) uma solução aceitável. Em resumo, Deep Learning requer [Dados] + [Poder Computacional] + [Tempo]. Foi a evolução desse campo das ciências da computação, na última década, que impulsionou a evolução da tecnologia de IA.

Para finalizar essa abordagem mais técnica da IA, é importante também conhecer os principais processos de aprendizagem do Machine Learning, implantado nos algoritmos:

  • Supervised Learning (Aprendizagem Supervisionada) é um modelo de software no qual a aprendizagem ocorre a partir de dados que já foram previamente classificados. Um software pode aprender a reconhecer um cachorro em uma fotografia porém, para isso, é necessário que milhares de imagens de “cachorros” e “não cachorros” sejam disponibilizadas neste processo. Um outro exemplo, é um software que, a partir de um exame de imagem, identifica se um paciente tem ou não câncer. Após a fase de aprendizagem com exames diagnosticados, o software consegue realizar o reconhecimento da imagem com uma acurácia superior a de um ser humano médio. Esse é o modelo de software de Machine Learning mais usual, presente, atualmente, em mais de 90% das aplicações de IA. Sua principal dificuldade é que a aprendizagem efetiva necessita de uma quantidade muito grande de dados classificados.
  • Reinforcement Learning (Aprendizagem por Reforço) é um modelo de software na qual a aprendizagem é baseada em tentativa e erro. Neste caso, o software busca acertar por uma lógica interna de construção do algoritmo e toda vez que for bem sucedido é “recompensado”. Esse tipo de modelo de software de Machine Learning é muito usado para aprendizagem em jogos, assim como em sistemas para condução de veículos autônomos. Neste caso específico, a aprendizagem ocorre em simuladores. Sua principal dificuldade é que a aprendizagem efetiva exige que o software execute um grande número de vezes de teste para obter a aprendizagem, necessitando que os computadores tenham altíssimo desempenho.
  • Unsupervised Learning (Aprendizagem Não Supervisionada) é um modelo de software na qual a aprendizagem ocorre por intermédio de dados não estruturados provenientes do ambiente. É a forma mais complexa de aprendizagem pois é similar a que ocorre na maioria das vezes com os seres humanos. Crianças aprendem uma linguagem conversando com seus pais por intermédio de um processo de aprendizagem cerebral com base em observações e interações não supervisionadas. A possibilidade de sistemas de IA implementarem esse modelo é bastante promissor porém requer ainda uma evolução significativa no desenvolvimento de algoritmos com este propósito.

A partir destes fundamentos técnicos, abordarei nos próximos artigos alguns temas para gerar reflexões sobre IA como questões relacionadas aos riscos da Inteligência Artificial, questões éticas e o efeito desta tecnologia no futuro do trabalho.

Stephanie Tavares

DevOps | SRE | AWS Cloud | Kubernetes | Python | Shell Script | JavaScript

4 a
Marco Badejo

Gerente de projetos senior - Gestão de programas senior - Gestão de serviços de TI, MSc., MBA, PMBM

4 a

Francis Berenger Ótimo artigo. Também tenho estudado um pouco a respeito e, na minha opinião, humanos e máquinas (IA) terão o seu lugar no futuro. Cada um precisa focar naquilo que é bom, máquinas são excelentes para grande volume de dados, tarefas repetitivas que dependam de um determinado aprendizado, etc. Nós, seres humanos, temos pensamento analítico, melhor autonomia para tomada de decisão, emoção, criatividade e várias outras habilidades simultâneas únicas. Na minha opinião, as principais forças da IA ainda são bem distintas da inteligência humana, talvez a melhor classificação seja dizer que são complementares ao que já fazemos, ou deveríamos, fazer bem.

Alcione Maria Monteiro de Andrade

Liderança em Transformação Digital Ética | Consultora Estratégica em Gestão Humanizada | 3 Décadas Moldando a TI no Brasil

4 a

Obrigada Francis Berenger pela simplicidade e clareza de tocar em assuntos complexos. Adorei seu artigo.

Henrique Castro Martins

Professor & Pesquisador de Finanças na FGV/EAESP

4 a

Ótima descrição, Francis Berenger

Lucio De Aquino Marinho

Senior Infrastructure Specialist

4 a

Muito bom mestre , acompanhando . 

Entre para ver ou adicionar um comentário

Outras pessoas também visualizaram

Conferir tópicos