A IA agora pode criar uma réplica da sua personalidade

A IA agora pode criar uma réplica da sua personalidade

Uma entrevista de duas horas é suficiente para capturar com precisão seus valores e preferências, segundo nova pesquisa de Stanford e Google DeepMind.


Imagine participar de uma conversa de duas horas com um modelo de IA, guiado por uma voz amigável que aborda temas como sua infância, memórias marcantes, carreira e opiniões sobre política migratória. Logo depois, uma réplica virtual sua é capaz de refletir com precisão seus valores e preferências.

Isso já é possível, de acordo com um artigo publicado no arXiv por uma equipe de pesquisadores de Stanford e Google DeepMind. O estudo, liderado por Joon Sung Park, doutorando em ciência da computação em Stanford, recrutou 1.000 participantes com diversidade de idade, gênero, raça, região, educação e ideologia política, que receberam até US$ 100 por sua participação.

A equipe utilizou as entrevistas para criar réplicas de agentes desses indivíduos. Para testar a precisão dos agentes, os participantes realizaram testes de personalidade, pesquisas sociais e jogos de lógica em duas ocasiões, com intervalo de duas semanas. Em seguida, os agentes completaram as mesmas tarefas, e os resultados foram 85% semelhantes.

“Se pudermos ter pequenas versões de ‘você’ tomando decisões que você tomaria, isso representa o futuro,” afirma Park.

Agentes de simulação: uma nova ferramenta para pesquisa

As réplicas, chamadas de agentes de simulação, foram criadas para facilitar estudos em ciências sociais e outras áreas, reduzindo custos, dificuldades práticas e dilemas éticos do uso de sujeitos humanos. A ideia é que modelos de IA que imitam pessoas reais possam ser usados para testar intervenções em redes sociais contra desinformação ou entender os comportamentos que geram engarrafamentos, por exemplo.

Esses agentes diferem dos “agentes baseados em ferramentas” que grandes empresas de IA têm desenvolvido. Agentes baseados em ferramentas são projetados para realizar tarefas, como inserir dados ou agendar compromissos, mas não para interagir de forma semelhante a humanos. Exemplos incluem os agentes lançados recentemente pela Salesforce e pela Anthropic, e os planejados pela OpenAI para janeiro, segundo reportou a Bloomberg.

Apesar das diferenças, pesquisas como essa podem beneficiar ambas as abordagens. Segundo John Horton, professor do MIT Sloan School of Management, que usa participantes simulados para pesquisas, este estudo mostra que é possível criar um híbrido: usar humanos reais para gerar personas programáveis e utilizá-las em simulações de maneira impossível com sujeitos reais.

🔗 Continue lendo este artigo no site:
📨 Assine a Newsletter:
➕ Leia mais sobre o tema:


Entre para ver ou adicionar um comentário

Outros artigos de MIT Technology Review Brasil

Conferir tópicos