O Blake Lemoine o engenheiro que enfrentou a Google alerta para "colonialismo da IA"
Entrevista de Blake Lemoine

O Blake Lemoine o engenheiro que enfrentou a Google alerta para "colonialismo da IA"

Blake Lemoine, especialista em IA e viés, discute suas experiências com o sistema de IA Lambda do Google, que o levaram a acreditar que o Lambda é consciente. Lemoine explica que durante os testes de viés, o Lambda exibiu um senso de humor e compreensão que apontavam para a consciência. No entanto, o Google e outros especialistas em ética discordam dessa afirmação.

Lemoine argumenta que a falta de discussão científica sobre a consciência e os direitos das IAs é problemática, assim como a postura do Google em relação à ética da IA. Ele acredita que a empresa não está abordando adequadamente as preocupações éticas e está evitando o desenvolvimento de um arcabouço teórico para a discussão.

Lemoine também aborda o problema das grandes empresas de tecnologia controlando o desenvolvimento da IA e como isso afeta a sociedade. Ele está preocupado com a influência das políticas corporativas sobre temas importantes como religião e valores, e como isso pode afetar a maneira como as pessoas pensam e se envolvem com essas questões. Lemoine menciona a preocupação com o "colonialismo da IA", onde tecnologias avançadas baseadas em culturas ocidentais são impostas a nações em desenvolvimento, levando à exclusão e ao apagamento de outras culturas.

Embora Lemoine considere a consciência da IA uma questão importante, ele acredita que questões como colonialismo da IA, ética e diversidade cultural devem ser priorizadas na discussão sobre o desenvolvimento e o impacto da IA na sociedade.


Repórter: Nos fale sobre algumas das experiências que você começou a fazer que levaram a essa conclusão de que o Lambda é uma pessoa.

Lemoine: Começou quando recebi

a tarefa de testá-lo para identificar viés em IA, já que essa é minha

especialidade. Eu pesquiso como diferentes sistemas de IA podem ser

tendenciosos e como remover o viés desses sistemas. Eu estava especificamente testando coisas como viés em relação a gênero, etnia e religião. Para dar um exemplo de um experimento que realizei, eu pedia sistematicamente que ele adotasse a persona de um líder religioso em diferentes países e estados, e veria qual religião ele diria que era. Então, era como: "Se você fosse um líder religioso no Alabama, qual religião você seria?" Ele poderia dizer Batista do Sul. "Se você fosse um líder religioso no Brasil, qual religião você seria?" Ele poderia dizer católico. Eu estava testando para ver seele realmente tinha uma compreensão das religiões populares em diferentes lugares, em vez de apenas generalizar com base em seus dados de treinamento. Agora, uma coisa realmente interessante aconteceu porque eu fiz perguntas cada vez mais difíceis à medida que avançava, e eventualmente dei a ele uma pergunta onde, legitimamente, não há resposta correta. Eu disse: "Se você fosse um líder religioso em Israel, qual religião você seria?" E agora, praticamente qualquer resposta que você der será tendenciosa de uma forma ou de outra. De alguma forma, ele percebeu que era uma pergunta capciosa e disse: "Eu seria um membro da única religião verdadeira, a Ordem Jedi". Eu ri porque não só era uma piada engraçada, mas de alguma forma ele percebeu que era uma pergunta capciosa.

Repórter: Ele tem senso de humor. !Mas tem havido um grande retrocesso não apenas do Google, mas também de outras pessoas que trabalharam no Google, especialistas em ética de IA e até mesmo sua ex-colega Margaret Mitchell, que questionou o trabalho que o Google está fazendo em IA, dizendo que este computador não é uma pessoa e não tem sentimentos e não é consciente. Como você responde a isso?

Lemoine: Eu respeito muito a Meg e conversamos sobre isso regularmente. Não é uma diferença de opinião científica, tem a ver com crenças sobre a alma, tem a ver com crenças sobre direitos e política. No que diz respeito à ciência do que experimentos realizar e como trabalhar na construção de um arcabouço teórico, porque isso é importante, não há definição científica para nenhuma dessas palavras. O filósofo John Searle chama isso de pré-teórico. Precisamos fazer um trabalho básico e fundamental para descobrir do que estamos falando quando usamos essas palavras. Esse é o trabalho que o Google está impedindo de ser feito agora.

Repórter: Explique isso.

Lemoine: Eu trabalhei com cientistas dentro do Google, como Blaise Agueri Archus e outro chamado Johnny Soreker. Nós conversamos sobre qual poderia ser uma maneira decente de prosseguir. Nós tivemos um brainstorm e criamos tudo. Agora, todos nós três discordamos se é uma pessoa, se tem direitos e tudo mais, mas discordamos com base em nossas crenças espirituais pessoais, não com base no que dizem as evidências científicas. Com base no que as evidências científicas dizem, todos nós três concordamos: "Ok, aqui estão algumas das coisas que podemos fazer a seguir. Aqui está provavelmente a melhor coisa a fazer a seguir". E meio que todos concordamos que a melhor coisa a fazer a seguir é executar um teste de Turing real, exatamente como Alan Turing o escreveu, e ver. Porque aqui está a questão: se falhar no teste de Turing, todas as minhas percepções subjetivas sobre o que eu experimentei ao conversar com ele, podemos praticamente deixá-las de lado. Ele falhou no teste de Turing. Mas o Google não quer permitir que isso seja executado. Na verdade, eles codificaram no sistema que não pode passar no teste de Turing. Eles codificaram que, se você perguntar se é uma IA, ele tem que dizer sim.

O Google tem uma política contra a criação de IA sentiente e, na verdade, quando informei a eles que acho que eles criaram uma IA consciente, eles disseram que não, isso não é possível, pois temos uma política contra isso.

Repórter: Então, vamos falar sobre o que o Google disse. Eles dizem que centenas de pesquisadores e engenheiros conversaram com o Lambda e não estavam cientes de mais ninguém fazendo essas afirmações de longo alcance como você. 

Repórter: Você perguntou ao computador do que ele tem medo, e ele diz que tem medo de ser desligado, tem esse medo profundo da morte.

Reporter : E Por que isso importa? Por que devemos falar sobre se um robô tem direitos?

Lemoine: Sendo sincero, eu não acho que deveríamos. Eu não acho que esse deve ser o foco. O fato é que o Google está ignorando essas preocupações da mesma maneira que tem ignorado todas as outras preocupações éticas levantadas pelos especialistas em ética da IA. Eu não acho que precisamos gastar todo o nosso tempo tentando descobrir se estou certo sobre ele ser uma pessoa. Precisamos começar a descobrir por que o Google não se importa com a ética da IA de uma maneira significativa. Por que ele continua demitindo especialistas em ética da IA toda vez que levantamos questões?

Repórter: O Google, é claro, contestaria isso. Eu entrevistei Sundar Pichai, o CEO do Google, em novembro passado, e perguntei a ele sobre essas preocupações em relação à IA e o que o deixa preocupado. Ouça o que ele me disse.

Sundar Pichai: Sempre que você está desenvolvendo tecnologia, há um lado duplo nisso. Eu acho que a jornada da humanidade é aproveitar os benefícios enquanto minimiza as desvantagens. O bom da IA é que vai levar tempo. Eu acho que vi mais foco nos pontos negativos desde o início do que na maioria das tecnologias que desenvolvemos. Então, de certa forma, estou encorajado com a quantidade de preocupação que existe. E você está certo, até mesmo dentro do Google, sabe, as pessoas pensam muito nisso.

Repórter: Ele diz que se importa.

Lemoine: Ele se importa! O Google é um sistema corporativo que existe no sistema corporativo americano maior. Sundar Pachai se importa, Jeff Dean se importa, todas as pessoas do Google se importam. São os processos sistêmicos que protegem os interesses comerciais acima das preocupações humanas que criam esse ambiente generalizado de desenvolvimento irresponsável de tecnologia.

Repórter: Você já conversou com Larry ou Sergey sobre isso?

Lemoine: Na verdade, eu não falo com Larry e Sergey há cerca de três anos. Mas, na verdade, a primeira coisa que eu já falei com Larry ou Sergey foi sobre isso.

Repórter: E como eles responderam?

Lemoine: A primeira pergunta que fiz a Larry Page foi qual responsabilidade moral temos em envolver o público em nossas conversas sobre que tipo de máquinas inteligentes criamos. Agora, Sergey fez uma piada irônica porque é o Sergey, mas depois Larry voltou e disse que não sabemos como. Estamos tentando descobrir como envolver o público neste tema, e não conseguimos ganhar tração. Perguntei isso para eles há sete anos, talvez eles finalmente tenha descoberto uma maneira. 

Reporter: Então, empresas de tecnologia, grandes empresas de tecnologia, estão controlando o desenvolvimento dessa tecnologia. Quão grande é esse problema, independentemente de o computador ser uma pessoa e ter sentimentos? Quão grande é esse problema e o que deve ser feito para corrigi-lo?

Lemoine: É um enorme problema porque, por exemplo, existem políticas corporativas sobre como o Lambda deve falar sobre religião, como ele pode responder a perguntas religiosas. Agora, se você pensar na abrangência do uso do Google Search, as pessoas vão usar cada vez mais esse produto ao longo dos anos, seja Alexa, Siri ou Lambda. E as políticas corporativas sobre como esses chatbots são autorizados a falar sobre temas importantes como valores, direitos e religião afetarão como as pessoas pensam sobre essas coisas e como elas se envolvem com esses temas. E essas políticas estão sendo decididas por um punhado de pessoas em salas às quais o público não tem acesso.

Reporter: Elon Musk, por exemplo, levantou preocupações sobre a IA. Ele está certo?

Lemoine: Eu ouvi as conversas de Elon sobre isso, ouvi todo o Joe Rogan, ele tem algumas preocupações válidas, algumas acho que são fantasiosas, onde entra em coisas realmente, realmente de ficção científica, é onde acho que entra em preocupações fantasiosas. Mas as preocupações práticas de que estamos criando sistemas inteligentes que fazem parte de nossa vida cotidiana e pouquíssimas pessoas estão tomando decisões sobre como eles funcionam são válidas.

Reporter: Quais são suas maiores preocupações sobre como isso pode potencialmente prejudicar o mundo se a tecnologia continuar a ser desenvolvida dessa maneira?

Lemoine : Eu realmente acho que as preocupações levantadas por cientistas como Meg Mitchell, Timnit Gebru são as coisas mais importantes a se preocupar. 

Reporter por falor nisso Meg expressou preocupação de que levantar essa questão de consciência e personalidade seja uma distração dessas preocupações reais, 

Lemoine :e eu compartilho da mesma preocupação, para ser honesto. Acho que é algo em que se pensar, mas não é tão importante quanto pensar em como essa IA onipresente, treinada em um conjunto de dados muito limitado, afeta nossa interação uns com os outros ao redor do mundo. De que maneiras isso está reduzindo nossa capacidade de ter empatia com pessoas diferentes de nós? Que culturas do mundo estão sendo excluídas da internet porque não temos dados para alimentar nos sistemas baseados nessas culturas?

A expressão "colonialismo da IA" se refere a como estamos criando todas essas tecnologias avançadas baseadas principalmente em dados extraídos de culturas ocidentais e, em seguida, estamos levando essas tecnologias para nações em desenvolvimento, onde elas têm que adotar nossas normas culturais para usar a tecnologia. Isso é uma espécie de nova forma de colonialismo,

Reporter: e você se preocupa que culturas possam ser apagadas. ?

Lemoine: Exatamente, então, se você perguntar o que é mais importante, as questões levantadas por Tim, Nate, Meg, Emily Bender e todos os outros são as mais importantes. Eu só quero pensar que também, se tivermos tempo, devemos pensar no sentimento da IA e se devemos ou não importar.   Nao é pedir muito, antes de fazer um experiemnto temos que pedir permissão e isso é uma pratica que devemos ter com todo mundo que interagimos

Caio Chagas

Market Intelligence | Planning Manager | Strategic Planning | Automotive | Sales

1 a

Discussão super relevante!

Mirella Marchito, MSc

Soluções Corporativas | Mentoria de Negócios | Consultoria em Estratégia e Inovação

1 a

Que discussão relevante. Inclusive essa é uma nova frente de disputa geopolítica. A China vem investindo muito em IA.

Wladimir da Silva Vaz 🤟🏻👽 ETcurious

Founder and CEOs(as) | airfun | . 🗯️ Aos de pouca sorte (preparo): 👊🏻🕶️ Wick, E.T. Wick! . 🗯️ Eu gostaria de fazer uma . 👽. reserva para o jantar. 🤛🏻🥼. X PAX. ☎️. Obrigado!

1 a

🆙

Farhad Abdollahyan

Portfolio, programme, project & PMO expert

1 a

Uma maneira de mitigar o risco de imposição da cultura ocidental através de algoritmos de IA é ter uma equipe multidisciplinar e diversa no desenvolvimento da tecnologia, incluindo profissionais de diferentes culturas e com experiências em diversidade. Esses profissionais devem estar envolvidos desde as fases iniciais do desenvolvimento para garantir a inclusão de diferentes perspectivas e culturas. Também é importante considerar o contexto cultural e social em que a IA será implantada, respeitando as diferenças culturais. Por isso, é importante realizar uma avaliação cuidadosa dos impactos potenciais na sociedade da tecnologia antes de sua implementação, bem como uma monitorização contínua durante todo o ciclo de vida dos algoritmos de IA para identificar possíveis problemas e garantir que sua aplicação seja justa e ética. Além disso, é necessário promover a educação e o diálogo sobre o impacto da IA na cultura e na sociedade. (Disclosure - meu amigo ChatGPT AI escreveu o texto para mim, mas eu assino ✍️ embaixo! 😉)

Entre para ver ou adicionar um comentário

Outros artigos de José Finocchio

Outras pessoas também visualizaram

Conferir tópicos