2017 qdo a Google cria o GPT.
Recentemente em uma das minhas muitas pesquisas, principalmente sobre I.A. me deparei com um pouco de história da I.A. e com este fato que até então não tinha visto ser mencionado, mas é isso mesmo, assim como se alega que o Batman criou o Coringa, a Google criou a tecnologia que tornou possível o GPT.
Me acompanha que você vai entender:
Em 1943, dois pesquisadores Warren McCulloch e Walter Pitts publicam o artigo "A Logical Calculus of the Ideas Immanent in Nervous Activity" que se torna um marco para a criação de redes neurais artificiais, o que por fim possibilita a criação da inteligência artificial como conhecemos. Só um ponto, a teoria baseava que uma rede neural (cérebro) poderia ser reproduzida por um sistema computacional onde cada neurônio poderia ser representado por um sinal lógico (and e not and) e assim conseguir realizar cálculos matemáticos ou lógicos, ou seja, seriam capazes de processar informações complexas assim como o cérebro humano.
Em 1956 É realiza uma conferência no Dartmouth college onde o termo inteligência artificial é criado.
Porém até 2017, mesmo com os avanços de NLP (Processamento de linguagem natural, ou seja, a nossa) os modelos de I.A. conseguiam apenas interpretar palavras em uma frase, mas sem entender o relacionamento existente entre essas palavras. Até modelos de tradutores existiam, como um tradutor de Russo para Inglês, mas ainda não muito eficiente. Para entender o problema avalie as duas frases a seguir:
Recomendados pelo LinkedIn
Imediatamente você percebe a diferença de significado para a palavra cachorro, mas os modelos da época não, cachorro era simplesmente cachorro.
Aqui chegamos ao nosso ponto, em 2017 pesquisadores da Google, desenvolveram um modelo chamado Transformers, publicado no artigo "Attention is All You Need" que mudava a forma como o modelo de NLP funcionava de sequêncial para um baseado em 'atenção' que permitia analisar as palavras em paralelo.
No ano seguinte, 2018 a Google lança seu modelo BERT (Bidirectional Encoder Representations from Transformers) que aplica o modelo de transformers para a interpretação de texto e no mesmo ano adivinhem.... a OpenAI lança o GPT (Generative Pre-trained Transformer), que por sua vez tem o foco de usar essa mesma tecnologia mas para a geração de texto e graças a sua quantidade de dados de treinamento logo em seguida são lançados os modelos GPT-2, GPT-3 e em 30 de Novembro de 2022, o nosso conhecido, ChatGPT, com a incrível capacidade de gerar texto muito semelhante ao que o ser humano gera, esse modelo agora, graças a quantidade de dados de treinamento, a capacidade de entendimento da linguagem humana e sua capacidade de gerar conteúdo novo (generativo) em 1 mês atinge um milhão de usuários e em dois meses atinge cem milhões de usuários, antes dele o Tiktok era o recordista atingindo essa quantidade de usuários em 9 meses.
Então assim como o Batman acaba por criar o Coringa como consequência, poderíamos pensar o mesmo da Google, não acha?
Agora me fala, já sabia disso?
Atenção este texto foi gerado por inteligência natural, pode conter erros de escrita e concordância.