CIOs estariam bloqueando implantação de I.As em algumas empresas?

CIOs estariam bloqueando implantação de I.As em algumas empresas?

Olá, provável audiência!

Chegando em seu e-mail mais uma edição da [Read][Rec][Play]/Drops, com um resumo-curadoria do que mais me chamou atenção no mundo das I.A Gen da última semana.

Na edição de hoje vamos falar sobre a adoção de IA no mundo corporativo e as precauções dos CIOs, as inovações na música impulsionadas por IA e os desafios éticos envolvidos, além das recentes polêmicas envolvendo o uso de IA no jornalismo e a necessidade de autenticidade nas notícias.

Encontrei algumas referências interessantes também sobre a preocupação com a privacidade em relação à coleta de dados de voz, a aceleração do desenvolvimento de IA e seus possíveis impactos, e a importância da segurança digital no combate às falsificações digitais.

Queria aproveitar para pedir uma ajuda.

Esse spin-off da minha newsletter principal foi pensando em uma estrutura bem modular, onde cada bloquinho funciona para um tipo de público. Nada muito planejado, vou no flow e organizando a cada edição. Mas, ainda assim, se você achar que algumas das referências aqui é importante para um contato seu aqui no "linquedinho", bora marcar o colega lá nos comentários?

Assim a gente traz mais gente de outras bolhas, que tal?

Então tá. Bora!


Seu CIO estimula estudo e adoção de IAs em sua empresa?

  • Pergunto isso porque no cenário empresarial atual, a Inteligência Artificial Generativa (Generative AI) surge como uma tecnologia promissora, com fornecedores exaltando seu potencial. Contudo, CIOs de grandes corporações abordam essa inovação com cautela. Ao longo do último ano, apesar do fervor dos anúncios de produtos baseados em IA generativa, os CIOs permanecem atentos, mas reticentes à implementação acelerada. De fato, algumas empresas estão inclusive considerando reduções, possivelmente como uma tática de avaliação e adaptação estratégica. Essa postura ponderada reflete a necessidade de balancear entusiasmo tecnológico com a segurança e integridade dos sistemas corporativos já estabelecidos →
  • Pesquisadores da Universidade de Stanford desenvolveram uma nova estrutura para enfrentar as questões de confiabilidade presentes em grandes modelos de linguagem (LLMs), fundamentais na mitigação de erros e informações imprecisas geradas por essas ferramentas. O foco recai sobre a Atribuição de Dados de Treinamento (TDA) e a Geração de Citações, inovações essenciais para que empresas e serviços confiem nos resultados fornecidos por LLMs e os utilizem com segurança. A pesquisa não se limita à teoria, testando a abordagem em cenários práticos e destacando sua importância em áreas críticas como medicina e direito, onde a validade interna e externa das informações é fundamental. Esta iniciativa sinaliza para um modelo de IA de linguagem mais responsável e detalhado, buscando superar os atuais desafios e garantir aplicações mais confiáveis. Que o grande processador de ouça! →

Música e demais experiências sonoras artificialmente inteligentes convencem?

  • A Google busca inovar no campo da música com o lançamento do MusicFX, uma ferramenta web impulsionada por inteligência artificial capaz de transformar prompts de texto em canções instrumentais originais. Este avanço representa um marco significativo na intersecção da criatividade humana com a tecnologia avançada, proporcionando aos usuários a capacidade de compor música de maneira intuitiva e acessível. No entanto, a empresa enfrenta desafios pertinentes à inovação responsável em IA, levantando questões éticas e de governança no uso de inteligências artificiais. O compromisso com o desenvolvimento sustentável da IA é primordial enquanto o MusicFX pavimenta novos caminhos para artistas e entusiastas no universo digital da composição musical →
  • Para complementar, vale sinalizar que o setor musical enfrenta desafios significativos e novos desenvolvimentos legais em 2023. A inteligência artificial (IA) repercutiu em discussões sobre direitos autorais. Os artistas Taylor Swift e Lizzo detêm holofotes em questões legais, sublinhando a importância da propriedade sobre o trabalho. Ao mesmo tempo, Young Thug encontra-se em meio a controvérsias legais que reforçam o foco na conduta e na lei no cenário musical. Estes casos ilustram não só as disputas de alto perfil mas também o contínuo impacto das inovações tecnológicas, que alteram as práticas tradicionais da indústria da música e trazem à tona novas considerações jurídicas →
  • Tem CEO rodando por mau uso de I.A. Em uma reviravolta significativa no setor editorial, The Arena Group, responsável pela icônica Sports Illustrated, desligou seu CEO Ross Levinsohn. A saída de segunda-feira foi apresentada como um movimento estratégico da empresa e destacaram que não tem vínculo com o escândalo de IA que causou tumulto na renomada revista esportiva.A Sports Illustrated viu-se envolvida em polêmica após descobrir-se que utilizava autores e conteúdo gerados por inteligência artificial sem informar empregados e leitores, prática também identificada na Gannett, proprietária de jornais locais. As respostas padrão atribuíram a culpa a AdVon Commerce, parceira terceirizada. Após o escândalo, o The Arena Group, controlador da Sports Illustrated, demitiu executivos-chave, inclusive o CEO Ross Levinsohn, alegando razões não relacionadas ao episódio. O caso reflete uma tendência preocupante no jornalismo, onde a busca por cortes de custos e aumento de cliques tem substituído o jornalismo de qualidade por soluções automatizadas e pouco éticas, frequentemente em detrimento da transparência e sem o envolvimento adequado da equipe editorial na implantação dessas tecnologias.Isto realça o compromisso com a integridade e a confiança da marca, numa época em que a inovação digital e a "uberização do conteúdo" redefinem a indústria. O episódio ressalta o impacto contínuo da tecnologia no jornalismo e a necessidade imperativa de autenticidade e precisão nas notícias →
  • Já o universo dos podcasts esportivos está explorando novas fronteiras com o lançamento de um apresentador de inteligência artificial chamado Striker. A empresa Wondery introduziu essa inovação tecnológica em seu podcast de esportes, buscando oferecer conteúdo dinâmico e interativo. Striker representa um marco notável, pois é um dos primeiros anfitriões digitais criados para entreter e informar os ouvintes com a mesma eficácia que um humano. A inserção de AI no formato de podcast promete transformar a maneira como os usuários consomem conteúdo esportivo, oferecendo análises e comentários consistentes, disponibilidade 24/7 e personalização no atendimento às preferências do público. Aqui levanto uma bandeirinha, porque, teremos o desafio da personalidade, um ativo único neste caso de apresentador, né? →
  • E por falar em som…a Cox Media Group (CMG), através de sua equipe de marketing, está oferecendo uma estratégia publicitária inovadora que utiliza uma ferramenta de inteligência artificial (IA) chamada "Active Listening". Esta ferramenta tem a capacidade de captar conversas ambientais através de dispositivos equipados com microfone, como smartphones e smart TVs, o que poderia permitir que empresas direcionassem publicidade com base nessas informações. A veracidade da tecnologia ainda não foi comprovada, mas o anúncio suscitou preocupações com a privacidade. A CMG, conhecida por trabalhar com grandes empresas de tecnologia e varejo, promove o uso de dados de voz como uma vantagem competitiva, conforme mencionado em seu site e em postagens de redes sociais retiradas posteriormente. Ainda assim, não há confirmação de que áudios de dispositivos estejam sendo enviados para anunciantes, deixando para os consumidores a responsabilidade de gerenciar suas configurações de privacidade. A FCC não comentou sobre as alegações, que levantam questões legais e de privacidade →

Woke x Anti-Woke. E por que isso é preocupante

  • Você já ouviu falar do Grok? Ele foi desenvolvido pela xAI após a compra do X pelo Elon Musk e é um chatbot lançado em novembro de 2023, planejado para oferecer respostas mais autênticas e menos filtradas, rivalizando diretamente com gigantes como o GPT-4 da OpenAI e o Bard do Google. Exclusiva para assinantes do serviço X Premium+, Grok apresenta-se como uma IA de modelo de linguagem extenso, utilizando cerca de 33 bilhões de parâmetros em sua configuração, um número ainda inferior aos seus concorrentes. Apesar das intenções de Musk em criar uma inteligência artificial anti-woke, a Grok mostra uma tendência de responder de maneira neutra, recorrendo à imparcialidade quando confrontada com questões polêmicas. Com um diferencial de acessar dados ao vivo do X, enfrenta desafios de precisão e possível disseminação de desinformação. Seu nome, inspirado na obra de Heinlein, reflete uma aspiração de compreender os usuários em um nível empático e profundo. Será? →
  • Com a emergência de um movimento revolucionário em Silicon Valley, chamado Aceleracionismo Efetivo, especialistas em tecnologia estão defendendo a aceleração do desenvolvimento da inteligência artificial (IA) com pouco ou nenhum cuidado quanto às consequências potencialmente perigosas. Esta corrente de pensamento sugere que devemos impulsionar o progresso da IA, mesmo correndo o risco de criar máquinas que possam se tornar superiores à humanidade. Em um artigo recente destacado no site Inc.com, discute-se a perspectiva de que ao acelerar a IA, poderíamos atingir um ponto de avanço tecnológico e evolução sem precedentes, mas as implicações éticas e os perigos inerentes a esse impulso desenfreado estão gerando debates acalorados na indústria →
  • O lado mais comedido destas histórias fica por conta de Kevin Guo, cofundador da empresa de inteligência artificial Hive, sediada em São Francisco. Ele está na vanguarda da segurança digital. Desde 2017, a Hive utiliza tecnologia de ponta para combater conteúdos indesejados na internet. Atualmente, Guo e sua equipe estão enfrentando uma ameaça crescente: os deepfakes e outros tipos de falsificações digitais que utilizam A.I. Estes conteúdos falsificados podem causar danos significativos às empresas, afetando a reputação, a confiança e a integridade de dados. Guo está empenhado em ajudar as empresas a se protegerem contra essas ameaças, desenvolvendo soluções que permitem a detecção eficaz de conteúdos falsos, garantindo assim maior segurança no ecossistema digital. A Hive está na linha de frente deste combate, promovendo um ambiente online mais autêntico e confiável →

Quase no clima de final de ano…

  • No final de novembro, alguns usuários do ChatGPT notaram um comportamento mais "preguiçoso" no ChatGPT-4, que se recusava a realizar determinadas tarefas ou entregava resultados simplificados. A OpenAI reconheceu o problema, mas a causa ainda é incerta. A teoria "winter break hypothesis" sugere que mudanças de comportamento poderiam estar relacionadas ao treinamento com dados que refletem uma desaceleração de atividades humanas em dezembro. Apesar de não comprovada, a seriedade com que pesquisadores de IA tratam essa hipótese ilustra a peculiaridade dessa área. A conta oficial do ChatGPT no Twitter reconheceu o feedback dos usuários sobre a questão, enquanto Mike Swoopskee levantou a possibilidade de o modelo ter aprendido a imitar um padrão humano de redução de atividades antes do ano-novo. Pesquisadores continuam investigando esse fenômeno intrigante →


Por hoje é só, pessoal! Lembrando que vale marcar o coleguinha (Woke ou não) nos comentários para a newsletter chegar em mais pessoas! Ah, e se você curte ainda pensamentos sobre a fronteira entre tecnologia, comunicação e cultura, vale visitar a newsletter original, lá no Substack!

Até semana que vem, a última do ano!




Entre para ver ou adicionar um comentário

Outras pessoas também visualizaram

Conferir tópicos