NVIDIA Impulsiona IA Soberana com Novos Modelos de Idiomas Regionais para Engajamento Local
O Avanço das Soluções de IA Localizadas
À medida que os países buscam garantir que os sistemas de inteligência artificial estejam alinhados com seus valores e regulamentações locais, cresce a tendência de adoção de estratégias soberanas de IA. Isso envolve o desenvolvimento de tecnologias de IA utilizando infraestrutura, dados e conhecimentos locais. Em apoio a essa iniciativa, a NVIDIA revelou quatro novos NIMs (Microserviços de Inferência da NVIDIA).
Aprimorando Aplicações de IA Generativa
Esses microserviços inovadores foram projetados para simplificar a criação e a implementação de aplicações de IA generativa, permitindo o desenvolvimento de modelos que atendam especificamente às comunidades regionais. Ao promover uma compreensão mais profunda dos idiomas e nuances culturais locais, os NIMs da NVIDIA prometem fornecer respostas mais relevantes e precisas, aprimorando, assim, o engajamento dos usuários.
Um Mercado em Expansão para IA Generativa
O lançamento das novas ofertas da NVIDIA ocorre em um momento em que o mercado de software de IA generativa na região Ásia-Pacífico está prestes a crescer exponencialmente. De acordo com a ABI Research, a receita deste setor deve saltar de US$ 5 bilhões neste ano para impressionantes US$ 48 bilhões até 2030.
Apresentando Modelos de Idiomas Regionais
Entre os novos NIMs da NVIDIA estão dois modelos avançados de idiomas regionais: o Llama-3-Swallow-70B, treinado com dados japoneses, e o Llama-3-Taiwan-70B, otimizado para mandarim. Esses modelos foram projetados especificamente para lidar melhor com as leis, regulamentações e particularidades culturais locais, aumentando sua eficácia nas respectivas regiões.
Fortalecendo as Capacidades de Idioma Japonês
Além desses modelos, a NVIDIA também está reforçando suas ofertas em língua japonesa com a família de modelos RakutenAI 7B. Baseados na arquitetura Mistral-7B e treinados em conjuntos de dados em inglês e japonês, esses modelos estão disponíveis como microserviços NIM distintos para funções de Chat e Instrução. Notavelmente, os modelos da Rakuten alcançaram a maior pontuação média no benchmark LM Evaluation Harness entre os grandes modelos de linguagem abertos em japonês de janeiro a março de 2024.
Recomendados pelo LinkedIn
A Importância do Treinamento em Idiomas Regionais
Treinar grandes modelos de linguagem (LLMs) em idiomas regionais é essencial para melhorar a qualidade de suas respostas. Esses modelos permitem uma comunicação mais precisa e sutil, capturando de forma adequada as nuances culturais e linguísticas. Em comparação com modelos base como o Llama 3, as variantes regionais apresentam desempenho superior na compreensão do japonês e mandarim, no gerenciamento de questões legais regionais e na realização de traduções e sumarizações.
Investimento Global em IA Soberana
Investimentos significativos de países como Singapura, Emirados Árabes Unidos, Coreia do Sul, Suécia, França, Itália e Índia evidenciam o movimento global em direção à infraestrutura de IA soberana.
Uma Perspectiva Cultural no Desenvolvimento de IA
“Os LLMs não são ferramentas mecânicas que oferecem os mesmos benefícios para todos”, afirma Rio Yokota, professor do Centro Global de Informação Científica e Computação no Instituto de Tecnologia de Tóquio. “São ferramentas intelectuais que interagem com a cultura e a criatividade humana. É fundamental desenvolver modelos de IA soberana que respeitem nossas normas culturais.” A introdução do microserviço Llama-3-Swallow facilitará o acesso e a implementação de aplicações japonesas em diversos setores.
Capacitando Aplicações Diversas com os NIMs da NVIDIA
Os microserviços NIM da NVIDIA capacitam empresas, entidades governamentais e instituições educacionais a hospedarem LLMs nativos em seus ambientes. Desenvolvedores podem utilizar esses serviços para criar copilotos avançados, chatbots e assistentes de IA. Oferecidos juntamente com o NVIDIA AI Enterprise, esses microserviços são otimizados para inferência com a biblioteca de código aberto NVIDIA TensorRT-LLM, garantindo melhor desempenho e eficiência.
Desempenho Aprimorado e Redução de Custos
Os benefícios de desempenho dos microserviços Llama 3 70B—fundamentais para as novas ofertas Llama-3-Swallow-70B e Llama-3-Taiwan-70B—são significativos, com aumentos de rendimento de até cinco vezes. Essa melhoria se traduz em menores custos operacionais e em uma experiência do usuário aprimorada, marcada pela redução da latência. À medida que as nações continuam a construir suas infraestruturas de IA, as iniciativas da NVIDIA representam um passo crucial para alcançar soluções localizadas que ressoem com os contextos culturais e regulamentares.