Disponibilizei no artigo 4 tipos de Inteligência Artificial. Qual devo usar? (https://lnkd.in/dDKUmqAY) um exemplo de IA de Processamento de Linguagem Natural em Python. Ela analisa feedbacks de clientes e avalia se eles são neutros, positivos ou negativos. Você pode executá-lo no Google Colab e não precisa instalar nada na sua máquina. Também estão disponíveis a planilha de feedbacks e a planilha de treinamento. #ia #nlp #pnl #python #inteligenciaartificial #exemplo #k21 #nower
Publicação de Avelino Ferreira Gomes Filho
Publicações mais relevantes
-
Se você começou a ver sobre IA generativa agora, viu o quanto de terminologia que tem. E pode estar se sentido perdido. Por isso eu fiz um pequeno glossário sobre os termos principais pra te ajudar. 𝐌𝐨𝐝𝐞𝐥𝐨𝐬 𝐝𝐞 𝐋𝐢𝐧𝐠𝐮𝐚𝐠𝐞𝐦 𝐝𝐞 𝐆𝐫𝐚𝐧𝐝𝐞 𝐄𝐬𝐜𝐚𝐥𝐚 / 𝐋𝐚𝐫𝐠𝐞 𝐋𝐚𝐧𝐠𝐮𝐚𝐠𝐞 𝐌𝐨𝐝𝐞𝐥𝐬 (𝐋𝐋𝐌𝐬): São arquiteturas baseadas no Transformer (Paper: Attention is all you need). Tem muitos parâmetros (na casa dos bilhões ou trilhões) e são treinados em datasets IMENSOS. Eles mostraram uma grande habilidade de generalização e ocupam hoje o topo dos rankings de diferentes tarefas de processamento de linguagem natural (NLP). 𝐏𝐫𝐨𝐦𝐩𝐭: Esta é a entrada que guia um LLM, a instrução que o usuário dá. Prompts podem ser solicitações simples (”Traduza esse texto) ou instruções mais complexas, às vezes envolvendo o modelo em cenários imaginativos (por exemplo, "Imagine que você é um treinador pessoal..."). 𝐂𝐚𝐝𝐞𝐢𝐚 𝐝𝐞 𝐏𝐞𝐧𝐬𝐚𝐦𝐞𝐧𝐭𝐨 / 𝐂𝐡𝐚𝐢𝐧-𝐨𝐟-𝐓𝐡𝐨𝐮𝐠𝐡𝐭 (𝐂𝐨𝐓): Esta estratégia solicita que o LLM simule um processo de pensamento passo a passo, o que provou ajudar bastante na chegada de melhores respostas. 𝐆𝐞𝐫𝐚𝐜̧𝐚̃𝐨 𝐀𝐩𝐫𝐢𝐦𝐨𝐫𝐚𝐝𝐚 𝐩𝐨𝐫 𝐑𝐞𝐜𝐮𝐩𝐞𝐫𝐚𝐜̧𝐚̃𝐨 / 𝐑𝐞𝐭𝐫𝐢𝐞𝐯𝐚𝐥 𝐀𝐮𝐠𝐦𝐞𝐧𝐭𝐞𝐝 𝐆𝐞𝐧𝐞𝐫𝐚𝐭𝐢𝐨𝐧 (𝐑𝐀𝐆): Este método melhora a veracidade das respostas de um LLM ao integrar trechos de informações relevantes diretamente relacionadas à consulta no input. Essas informações vem de bases vetoriais de documentos e de acordo com a similaridade entre a instrução do usuário e essas representações, os textos mais relevantes são escolhidos. 𝐀𝐣𝐮𝐬𝐭𝐞 𝐅𝐢𝐧𝐨 / 𝐅𝐢𝐧𝐞-𝐭𝐮𝐧𝐢𝐧𝐠: Este é o processo de personalizar o modelo para conjuntos de dados específicos, fazendo ajustes mínimos aos seus parâmetros, enquanto preserva a arquitetura original, para adequar-se a tarefas específicas. #mlops #llms #genai
Entre para ver ou adicionar um comentário
-
Você é Software Engineer e está tentando entender mais sobre toda a hype de IA Generativa? Eu venho trabalhando com aplicações de GenAI há mais de 1 ano e, para ajudar quem está começando, preparei um material especial que vai te guiar passo a passo no mundo dos Large Language Models (LLMs). Escrevi um artigo no Medium onde explico, de forma clara e prática, o que são LLMs, como funcionam e como você pode começar a usá-los no seu dia a dia de desenvolvimento. 💡 Quer aprender mais? Confira o artigo completo! https://lnkd.in/dmKaFhP3 #GenAI #InteligenciaArtificial #LLMs #MachineLearning #SoftwareEngineer #ArtificialIntelligence #Desenvolvimento
Uma introdução aos Large Language Models
nelsonfrugeri-tech.medium.com
Entre para ver ou adicionar um comentário
-
Bom dia, rede! 🤖 Explorando a técnica RAG e LLMs na Geração de Conteúdo. No universo da Inteligência Artificial, estamos constantemente desbravando novas fronteiras com tecnologias que transformam a maneira como interagimos com dados. Hoje, quero compartilhar um pouco sobre a técnica Retrieval-Augmented Generation (RAG) e como ela se destaca no uso de Large Language Models (LLMs), como GPT, LLaMA, BERT, Gemma, FAISS entre outros. Antes de entrarmos em detalhes sobre RAG, é importante destacar a diferença fundamental entre aplicativos de IA e LLMs. Aplicativos de IA, como ChatGPT (assistente de conversação), Copilot (auxílio na programação), Gemini (assistente de produtividade) e Notion AI (organização e escrita), são soluções específicas que utilizam inteligência artificial para resolver problemas ou realizar tarefas definidas. Eles são implementações práticas e focadas, muitas vezes utilizando LLMs em seu núcleo. Por outro lado, os LLMs (Large Language Models) são modelos de linguagem grandes e potentes, como GPT, LLaMA, BERT, Gemma e FAISS, treinados para entender e gerar linguagem de maneira mais ampla e versátil. Eles podem ser aplicados em várias situações e alimentam muitos dos aplicativos de IA mencionados, mas são modelos que trabalham na geração de texto de forma autônoma e contextualizada, sem necessariamente serem voltados para um caso de uso específico. O que torna o RAG especial é sua capacidade de concatenar dados externos e interagir com bancos de dados, permitindo que um modelo de linguagem não apenas produza conteúdo, mas o faça de forma informada e contextualizada. Imagine que você tem um banco de dados repleto de informações. Usando RAG, podemos consultar esses dados e extrair resumos relevantes, enriquecendo o conteúdo gerado. Isso não é mágica; é uma abordagem bem específica que depende do problema que estamos tentando resolver. A IA não é uma solução única para todos os desafios, mas sim uma ferramenta que requer dados de qualidade, interação do usuário e uma estratégia bem elaborada para a captura dessas informações. É fundamental entender que, para operacionalizar um sistema baseado em RAG, precisamos de muita memória para lidar com os diversos modelos proprietários que podemos ter. Se quisermos um modelo personalizado, a chave está em investir tempo e esforço em técnicas como quantização e fine-tuning. 💻 🐍 🤖 Explorar, inovar e fazer parte dessa evolução é o caminho! 🚀 #RAG #OpenAI #LLaMA #Gemini #Gemma #Microsoft #Finanças #AnáliseDeDados #YahooFinance #DataScience #MLOps #VisualizaçãoDeDados #Investimentos #Inovação #Tecnologia #Automação #AIExpert #MachineLearning #DeepLearning #InteligenciaArtificial #TransformacaoDigital #NLP #BigData #CloudComputing #AssistentesVirtuais
Entre para ver ou adicionar um comentário
-
Os modelos OpenAI falham em seu próprio teste de benchmark? A OpenAI lançou um novo teste de referência para avaliar a precisão factual dos modelos de IA e descobriu que os seus próprios modelos eram insuficientes. A OpenAI desenvolveu um teste de benchmark de código aberto 'simples, mas desafiador', chamado SimpleQA, que foi projetado para avaliar a precisão factual dos modelos de IA, para ajudar os desenvolvedores a criar modelos de IA confiáveis. O teste tem 4.326 perguntas sobre tópicos de ciência a arte, e cada pergunta tem apenas uma resposta correta. Ele pega as respostas dos modelos de IA e as compara com o banco de dados de respostas corretas, e o ChatGPT pontua as respostas como corretas, incorretas ou sem resposta. Ela executou seus próprios modelos de IA no teste e descobriu que seu modelo de melhor desempenho — GPT-o1 — pontuou apenas 42,7%, com seu próximo melhor modelo — GPT-4-o — pontuando míseros 38,2%. Seu menor modelo — GPT-4o mini — pontuou apenas 8%, mas a OpenAI atribuiu isso ao seu pequeno tamanho, dizendo que tem "pouco conhecimento sobre o mundo". Embora as pontuações do GPT sejam baixas, o melhor modelo da Anthropic, Claude-3.5 Sonnet, acertou apenas 28,9% das questões, ressaltando a preocupante precisão factual dos modelos de IA e talvez destacando que eles não devem ser usados como uma única fonte de informação. O teste também avalia a confiança do modelo em responder perguntas e descobriu que a maioria dos modelos de IA superestima seu desempenho e capacidade de responder perguntas corretamente, o que talvez explique por que às vezes eles podem dar respostas sem sentido, como adicionar cola à pizza, com confiança. https://lnkd.in/d8UmXFfh #GenerativeAI #GenAI #AI
Entre para ver ou adicionar um comentário
-
LLMs (Modelos de Linguagem de Grande Escala). Os LLMs (Large Language Models) tomaram conta do cenário das aplicações de Inteligência Artificial desde o lançamento do ChatGPT no final de 2022. Seguem 10 LLMs open-source que são gratuitos e podem ser usados para aplicações comerciais. Comente aqui qual vc mais utiliza. Mais informações em https://lnkd.in/dQZc4sig Llama 2: Desenvolvido pela Meta com até 70 bilhões de parâmetros. Modelos ajustados para segurança e desempenho superior em comparação com outros de código aberto. Inclui variantes otimizadas para diálogo. Falcon: Criado pelo Instituto de Inovação Tecnológica de Abu Dhabi. Modelos variando de 7 bilhões a 180 bilhões de parâmetros. Competitivo com modelos como PaLM e LLaMA 2, com foco em eficiência de custo. FLAN-T5: Modelo do Google baseado no T5 com melhorias significativas para tarefas variadas. Utiliza ajuste fino de instrução para melhorar o desempenho. Open Pre-trained Transformers (OPT): Modelo da Meta voltado para democratizar o acesso a modelos de ponta. Cobre uma ampla gama de parâmetros, de 125 milhões a 175 bilhões. Focado em ser ambientalmente eficiente. BERT: Desenvolvido pelo Google, é um dos modelos mais influentes para PLN. Captura nuances linguísticas com representações bidirecionais profundas. Excelente desempenho em tarefas de compreensão de linguagem. Mistral: Modelo de última geração com 7 bilhões de parâmetros. Supera Llama 2 em benchmarks específicos. Utiliza técnicas avançadas para eficiência computacional. Mixtral: Modelo 8x7B da Mistral.ai com foco em velocidade e custo/desempenho. Supera o GPT 3.5 em muitos benchmarks comuns. Suporta diversos idiomas e tarefas de geração de código. Phi-2: Modelo da Microsoft com 2,7 bilhões de parâmetros. Treinado com dados sintéticos e focado em segurança e instruções. Desempenho robusto em benchmarks de lógica e compreensão. Dolly 2.0: Desenvolvido pela Databricks para uso comercial. Treinado em pares de instrução/resposta para diversas tarefas. Disponível em versões com diferentes números de parâmetros. BLOOM: Modelo multilingue com 176 bilhões de parâmetros da BigScience. Bom para geração de texto em várias linguagens naturais e de programação. Gemma: Série de modelos do Google usando a mesma tecnologia dos modelos Gemini. Focado em tarefas de criação e raciocínio de texto. Ideal para contextos com recursos computacionais limitados. Esses LLMs representam uma diversidade de abordagens e capacidades, cada um com suas vantagens específicas para diferentes aplicações em processamento de linguagem natural e inteligência artificial.
Entre para ver ou adicionar um comentário
-
Profe, quer começar a entender IA? Compartilho com vc algumas definições de termos, que encontrei na web… *Inteligência artificial (IA) IA refere-se ao campo da ciência da computação que visa criar sistemas inteligentes capazes de executar tarefas que exigem inteligência semelhante à humana. Ela abrange várias técnicas e algoritmos que permitem que as máquinas aprendam com os dados, raciocinem e se adaptem a novas informações. A inteligência artificial utiliza um modelo de machine learning, grandes conjuntos de dados e reconhecimento de padrões para produzir determinado resultado, como recomendações personalizadas, reconhecimento de voz, tradução de idiomas e muito mais. *IA generativa A IA generativa é um tipo de inteligência artificial que pode transformar palavras comuns e outros comandos em resultados extraordinários. Embora a discussão acerca da tecnologia tenha se concentrado na geração de arte e imagens por IA, a IA generativa pode fazer muito mais do que gerar imagens estáticas a partir de comandos de texto. Com algumas palavras simples e o gerador de IA certo, qualquer pessoa pode criar vídeos, documentos e experiências digitais, assim como arte e imagens sofisticadas. Geradores de arte com IA também podem ser usados para produzir “componentes criativos”, como pincéis, vetores e texturas, que podem aprimorar ou formar a base do conteúdo. *Descrições de texto Um comando de texto é uma instrução específica fornecida a um modelo de linguagem de IA para gerar o conteúdo ou as respostas desejadas. Normalmente consiste em uma sentença ou frase curta que fornece contexto e solicita que a IA gere texto relevante ao comando inserido. As descrições de texto são amplamente usadas no processamento de linguagem natural e em aplicativos de criação viabilizados por IA. Escrever descrições de texto envolve a elaboração de instruções ou perguntas específicas por escrito para orientar os modelos de IA generativa, moldando os resultados de acordo com o conteúdo e o estilo desejados. Descrições eficazes são importantes para conseguir os resultados desejados. *Grandes modelos de linguagem (LLMs) Grandes modelos de linguagem, como os populares ChatGPT-3, 3.5, 4 e Gemni, contêm bilhões de parâmetros e são excelentes no processamento e na geração de linguagem semelhante à humana. Eles se saem bem em várias tarefas de compreensão e de geração de linguagem natural. *Aprendizado de máquina Aprendizado de máquina é um subconjunto da IA que permite que os sistemas aprendam com os dados e melhorem o desempenho ao longo do tempo, sem programação explícita. Ele inclui técnicas de aprendizagem supervisionada, não supervisionada e por reforço. *Redes neurais As redes neurais são modelos computacionais inspirados na estrutura do cérebro humano. Eles consistem em nós ou neurônios interconectados, organizados em camadas, e são amplamente utilizados em diversas tarefas de IA. Fonte: https://lnkd.in/edtfKqGb
Entre para ver ou adicionar um comentário
-
#AI Muito se fala sobre a revolução que a Inteligência Artificial é capaz de causar. A cada conteúdo consumido sobre o tema, é inevitável a sensação de que esses tais LLMs têm um potencial realmente transformador na maneira como interagimos com a tecnologia, seja para trabalho, estudos, diversão ou qualquer outra aplicação. Quanto mais estudo sobre o assunto, mais intensa fica a vontade de criar soluções que utilizam IA. Comecei então estudando sobre as maneiras de treinar uma IA com informações de uma base de conhecimento, de forma que ela possa me ajudar a responder perguntas complexas sobre essas informações. Em resumo, existem 4 maneiras de se "treinar" uma IA. Abaixo compartilho, resumidamente com vocês, o que estudei até aqui: 1. Prompt Engineering: Essa abordagem consiste em criar prompts específicos para orientar o modelo quanto ao conteúdo e/ou a forma das respostas desejadas. É útil para controlar o comportamento do modelo dando a ele uma direção, um foco. O prompt é projetado para influenciar as respostas geradas pelo modelo, permitindo uma interação mais precisa, porém ainda limitada à base de conhecimento em que o modelo foi treinado. 2. RAG (Retrieval-Augmented Generation): Já ouviu falar de "realidade aumentada"? Mal comparando, RAG é uma técnica que permite a "Geração aumentada de texto". É uma maneira de complementar o conteúdo da base de conhecimento da LLM combinando técnicas de recuperação de informações com geração de texto. Ela permite que o modelo recupere informações relevantes de uma grande base de conhecimento, normalmente construída utilizando a técnica de embeddings, durante o processo de geração de texto. Gosto de imaginar o RAG como uma forma facilitada de executar a engenharia de prompts com conteúdos particulares, porém, a LLM segue levando em consideração o treinamento original do modelo e correndo risco de alucinação. 3. Fine-Tuning: O Fine-Tuning consiste em "continuar" o treinamento de um modelo existente com dados adicionais específicos da tarefa em questão. Essa técnica é útil ao ter uma quantidade limitada de dados para uma tarefa específica. Utilizar o Fine-Tuning permite a redução dos riscos de alucinações da IA quando um cliente estiver interagindo com ela, por isso essa é a técnica mais indicada quando pensamos, por exemplo, em uma IA para atendimento ao cliente. 4. Treino de um LLM particular: Por fim, a possibilidade de treinamento de um modelo de linguagem específico para uma tarefa ou domínio particular, utilizando dados relevantes para essa aplicação específica também existe. É útil ao ter recursos para treinar um modelo do zero e deseja-se otimizar o desempenho para uma tarefa específica, sem depender de modelos pré-treinados. Em geral, essa abordagem é aconselhável somente para grandes empresas ou para pesquisas acadêmicas. Essas informações são o ponto de partida para qualquer um que deseja treinar uma assistente com IA. Em breve falarei mais sobre esse assunto por aqui.
Entre para ver ou adicionar um comentário
-
No meu mais novo artigo, "Como ajudar a IA a encontrar informações", faço uma explanação sobre como funciona e são utilizados os bancos de dados vetoriais. Exploro também como eles alavancam a IA para obter recomendações mais inteligentes utilizando semântica e vetores. Veja o artigo aqui: #BancoVetorial #AI #GenAI #GPT #Embeddings
Como ajudar a IA a encontrar informações
rodam.ai
Entre para ver ou adicionar um comentário
-
Pior do que não ter resposta nenhuma é receber respostas ruins, não ancoradas na verdade ou realidade, que nos levam a tomar decisões equivocadas e prejudiciais. Esse é um dos principais desafios informacionais de hoje, onde mentiras bem articuladas se tornam mais convincentes do que verdades não desejadas. ⚠️ Parece que essa lógica também se aplica aos grandes modelos de linguagem, conforme se tornam mais poderosos. Pesquisas recentes sugerem que essa nova geração de chatbots de IA está se tornando menos confiável, pois são mais propensos a inventar fatos ao invés de evitar ou recusar perguntas que não conseguem responder. 📊 O estudo, publicado na revista Nature, examinou alguns dos principais LLMs comerciais da indústria: o GPT da OpenAI, o LLaMA da Meta, e o modelo de código aberto BLOOM, criado pelo grupo de pesquisa BigScience, apontando que: 🔍 Embora suas respostas estejam se tornando mais precisas em muitos casos, elas foram, em geral, menos confiáveis, apresentando uma maior proporção de respostas erradas do que modelos mais antigos. 📈 Quanto maiores os modelos de IA se tornaram — em termos de parâmetros, dados de treinamento e outros fatores — maior a porcentagem de respostas erradas que deram. 📝 Os modelos foram testados em tópicos que variavam de matemática a geografia e também foram solicitados a realizar tarefas como listar informações em uma ordem específica. Os modelos maiores e mais poderosos deram as respostas mais precisas no geral, mas falharam em perguntas mais difíceis, nas quais tiveram menor precisão. 🗣️ De acordo com os pesquisadores, alguns dos maiores "contadores de histórias" foram o GPT-4 e o GPT-3.5 da OpenAI, que respondiam quase qualquer pergunta que lhes fosse feita. 🔬 Ainda assim, os modelos de IA estão melhorando ao responder perguntas mais complexas. O problema, além da tendência a inventar, é que eles ainda cometem erros nas perguntas simples. 💡 A forma mais simples de combater esses problemas, segundo os pesquisadores, é programar os LLMs para serem menos ansiosos em responder a tudo. 👉 Você já teve alguma experiência com respostas incorretas de IA? Compartilhe nos comentários! #IA #Chatbots #DesafiosInformacionais #LLMs #GPT4 #Nature #BigScience #InteligenciaArtificial #InformacaoConfiavel #MachineLearning
Entre para ver ou adicionar um comentário
-
DESMITIFICANDO: O QUE É UM PROMPT DE IA? Já se perguntou como as pessoas fazem a IA criar arte incrível, escrever histórias ou resolver problemas complexos? O segredo está no “prompt de IA” – sua chave para desbloquear o potencial de uma IA! Um prompt de IA é a entrada que você dá a um sistema de inteligência artificial. É como ter uma conversa com um assistente digital superinteligente. O prompt define o que você quer que a IA faça ou compreenda. A linguagem do seu prompt é importante! Instruções claras e específicas produzem melhores resultados. Por exemplo: 💢 Vago: “Escreva sobre cães” 💢 Melhor: “Escreva um artigo de 200 palavras sobre os benefícios para a saúde de ter um cão” Aqui estão alguns exemplos reais de prompts de IA: 🌐 1. Para geração de imagens: “Crie uma pintura digital de uma cidade futurista com carros voadores e luzes neon” 🌐 2. Para assistência na escrita: “Escreva um e-mail persuasivo ao meu chefe solicitando um horário de trabalho flexível” 🌐 3. Para resolução de problemas: “Desenvolva um plano de refeições semanal para uma família de quatro pessoas, focando em opções vegetarianas e ingredientes econômicos” —————————————————————— CURSO: “PROMPTS - COMANDOS INTELIGENTES: APRENDA A DIALOGAR COM IA” Link: https://lnkd.in/eJa3puar + 1.700 PROMPTS PARA DIVERSAS ÁREAS DE NEGÓCIOS Acesse esse combo de 4 eBooks: Link: https://lnkd.in/dTWc759N _____________________________________ Pronto para tentar você mesmo? Aqui está como criar um prompt de IA eficaz: 1. Seja específico sobre o resultado desejado 2. Forneça contexto e restrições 3. Use uma linguagem clara e concisa 4. Experimente diferentes formulações Dominar os prompts de IA pode levar a: • Aumento da criatividade em arte e escrita • Melhoria nas habilidades de resolução de problemas • Economia de tempo em várias tarefas • Compreensão mais profunda das capacidades e limitações da IA Lembre-se, a arte de “promptar” é uma habilidade valiosa no nosso mundo impulsionado pela IA. Quanto melhor o seu prompt, mais impressionante será o resultado da IA! Qual tarefa de IA você gostaria de enfrentar primeiro? Fabiano Rodrigues #inteligenciaarticial #ia
Entre para ver ou adicionar um comentário