Ninguém sabe como a Inteligência Artificial funciona
Tenho experimentado utilizar assistentes de IA no meu trabalho diário. O maior obstáculo à sua utilidade é o facto de muitas vezes se enganarem redondamente. Num caso, utilizei uma plataforma de transcrição de IA enquanto entrevistava alguém sobre uma deficiência física, mas o resumo da IA insistiu que a conversa era sobre autismo. É um exemplo do problema de “alucinação” da IA, em que grandes modelos linguísticos simplesmente inventam coisas.
Recentemente, assistimos a algumas falhas de IA numa escala muito maior. Na última gafe (hilariante), o Gemini da Google recusou-se a gerar imagens de pessoas brancas, especialmente de homens brancos. Em vez disso, os utilizadores conseguiram gerar imagens de papas negros e de mulheres soldados nazis. A Google estava a tentar que os resultados do seu modelo fossem menos tendenciosos, mas o tiro saiu pela culatra e a empresa tecnológica viu-se rapidamente no meio das guerras culturais dos EUA, com os críticos conservadores e Elon Musk a acusarem-na de ter um preconceito “woke” e de não representar a história com precisão. A Google pediu desculpa e suspendeu a funcionalidade.
Outro incidente famoso foi o facto de o chat do Bing da Microsoft ter dito a um jornalista do New York Times para deixar a sua mulher. E os chatbots de atendimento ao cliente continuam a meter as suas empresas em todo o tipo de problemas. Por exemplo, a Air Canada foi recentemente forçada a reembolsar um cliente em conformidade com uma política que o seu chatbot de apoio ao cliente tinha inventado. A lista continua.
As empresas de tecnologia estão a apressar o lançamento de produtos alimentados por IA, apesar de existirem muitas provas de que são difíceis de controlar e que, muitas vezes, se comportam de forma imprevisível. Este comportamento estranho acontece porque ninguém sabe exatamente como – ou porquê – funciona a aprendizagem profunda, a tecnologia fundamental por detrás do atual boom da IA. É um dos maiores quebra-cabeças da IA. O meu colega Will Douglas Heaven acaba de publicar um artigo em que se debruça sobre o assunto.
O maior mistério é saber como é que modelos linguísticos de grande dimensão, como o Gemini e o GPT-4 da OpenAI, conseguem aprender a fazer algo para o qual não foram ensinados. Podemos treinar um modelo linguístico com problemas de matemática em inglês e depois mostrar-lhe literatura francesa e, a partir daí, ele pode aprender a resolver problemas de matemática em francês. Estas capacidades vão contra a estatística clássica, que fornece o nosso melhor conjunto de explicações sobre o comportamento dos modelos de previsão, escreve Will. Ler mais aqui.
É fácil confundir as percepções resultantes da nossa ignorância com magia. Até o nome da tecnologia, inteligência artificial, é tragicamente enganador. Os modelos linguísticos parecem inteligentes porque geram prosa semelhante à humana ao preverem a palavra seguinte numa frase. A tecnologia não é verdadeiramente inteligente, e chamar-lhe isso altera subtilmente as nossas expectativas para que a tratemos como mais capaz do que realmente é.
Continue lendo no link:
PhD Públic Law and Integrated Researcher at CEAD Francisco Suárez
1 mUm excelente resumo do atual cenário. Sobrevalorizamos as potencialidades, subvalorizamos os erros e ignoramos os riscos. A Ganância, a Sede de atingir objetivos e a falta de Ética, impedem-nos de efetuar uma utilização razoável, útil á Humanidade mas que naturalmente não alimenta gente ambiciosa, sem valores e para quem tudo vale em nome do lucro e do poder. Perigoso, demasiado Perigoso mas está a suceder!