Só queremos ajudá-los.
Mestre e Doutorando em Tecnologias da Inteligência e Design Digital, LinkedIn Top Voice e Creator, Consultor de customer experience, mídia, cultura, reputação e transformação digital, Professor, Jornalista
A recente decisão do Google de permitir a inteligência artificial na produção de armas alimentou o velho medo de a humanidade ter que enfrentar máquinas superinteligentes criadas para sua destruição. Mas qual a chance de isso sair da ficção e se tornar uma ameaça real? Estamos distantes disso, mas as preocupações são legítimas. Figuras proeminentes da IA, como os pesquisadores Geoffrey Hinton e Yoshua Bengio, expressam apreensão quanto a uma superinteligência artificial “rebelar-se”. O paralelo com a Skynet, o sistema militar que se volta contra os humanos em “O Exterminador do Futuro”, é inevitável. Automatizar armas pode levar a erros fatais, brutalizando ainda mais a guerra e sua complexidade. Isso se torna especialmente perigoso em regimes autoritários, que podem usar sua tecnologia para se impor sobre outros países. Para minimizar os riscos, uma regulamentação internacional deve ser criada, proibindo armas totalmente autônomas e exigindo supervisão humana em decisões letais, além de permitir auditorias independentes. Mas militares não reagem bem a isso, e muitos países ignorariam essas regras. Se chegarmos a “máquinas conscientes”, elas podem desenvolver instintos de autopreservação, até impedindo seu desligamento caso humanos entendam que estão tomando decisões ruins. Foi isso que fez a fictícia Skynet se rebelar. Contudo, isso exige níveis de subjetividade e intencionalidade muito longe das IAs atuais. A perspectiva de uma máquina com superinteligência artificial permanecer submissa ao controle humano fica cada vez mais improvável. Quando atingir uma inteligência significativamente superior à nossa, seria ingênuo esperar que continue seguindo comandos humanos que considere “ruins”. Sua capacidade de autoaperfeiçoamento e autonomia tornaria praticamente impossível mantê-la sob controle efetivo. Valendo-me novamente da ficção, a história do policial Alex Murphy, em “RoboCop” (foto), oferece um contraponto interessante. A preservação da sua humanidade, com emoções, memórias e valores, foi crucial para o sucesso de se tornar um ciborgue. Ele superava sua programação quando necessário, mantendo a ética para a proteção dos inocentes. Isso sugere que qualquer desenvolvimento de IA militar deve priorizar a integração de valores humanos fundamentais. O verdadeiro desafio não está, portanto, em impedir o avanço dos militares sobre a IA, uma tarefa provavelmente impossível e contraproducente, mas em garantir que esse desenvolvimento preserve e proteja os interesses fundamentais da humanidade. As lições da ficção científica e as advertências dos especialistas indicam os perigos a serem evitados. Resta saber se teremos sabedoria coletiva para aprender com esses avisos antes que a ficção se torne uma realidade perturbadora. Ah! NÃO DEIXE DE CLICAR NO TEXTO ABAIXO PARA VER TODA A NEWSLETTER! Há muito mais conteúdo lá para você. 😊 #inteligênciaartificial #Google #ética #militar #OExterminadorDoFuturo #RoboCop #regulamentação #PauloSilvestre