Regulamentação na era digital
A medida que mais empresas passam pelo processo de transformação digital, outra questão entra em pauta, a ética digital.
Por gerações, as empresas coletaram grandes quantidades de informações sobre os consumidores e as utilizaram para fins de marketing, publicidade e outros negócios. Eles regularmente inferem detalhes sobre alguns clientes com base no que os outros revelaram, muitas demonstrações de vazamentos de dados ultimamente mostraram isso.
Além disso, as empresas de marketing podem prever quais programas de televisão você assiste e que tipo de comida para gatos você compra porque os consumidores em sua área demográfica e área revelaram essas preferências. Eles adicionam essas características inferidas ao seu perfil para fins de marketing, criando o que James Barszcz diz - uma “externalidade de privacidade,” na qual as informações que os outros divulgam sobre elas mesmas também envolvem você, quando somos marcados em fotos as famosas hashtags.
O aprendizado de máquina por exemplo aumenta a capacidade de fazer essas inferências. Os padrões encontrados pela análise de aprendizado de máquina do seu comportamento on-line revelam suas crenças políticas, afiliação religiosa, raça, etnia, condições de saúde, gênero e orientação sexual, mesmo que você nunca tenha revelado essas informações a ninguém on-line. A presença de um Sherlock Holmes digital em praticamente todos os espaços on-line fazendo deduções sobre você significa que dar aos consumidores o controle sobre suas próprias informações não os protegerá de divulgar indiretamente até mesmo suas informações mais confidenciais, como já vimos no capítulo IV sobre o Code Halo.
Por essa razão, os formuladores de políticas precisam criar novas legislações de privacidade que explique as inúmeras limitações que os estudiosos, como Woody Hartzog, no livro “Modelo de privacidade, a batalha para controlar o design de novas tecnologias” (2018), identificaram no modelo de privacidade e consentimento de privacidade que orientou o pensamento de privacidade por décadas. O aumento de externalidades de privacidade criadas por técnicas de aprendizado de máquina é apenas mais uma razão em relação à necessidade de novas regras de privacidade, diferentes na minha opinião das quais hoje estão em vigor.
Não se engane ao achar que ao menos as grandes empresas de tecnologia do mundo estão preparadas para esse debate. Apenas um dia depois da notícia de que poderiam ser investigadas por práticas de concorrência desleal, Apple, Amazon, Google e Facebook perderam US$ 131 bilhões em valor de mercado. O Facebook, aliás, tem se envolvido com escândalos de privacidade desde 2016, quando estourou o caso da quebra de privacidade de usuários explorada pela Cambridge Analytica durante as eleições presidenciais dos Estados Unidos. Porém um fato um pouco mais antigo ainda (2014) quando Facebook descobriu na reação ao seu estudo de contágio emocional, nos Estados Unidos, onde muitas pessoas ficaram preocupadas com essa lacuna e pediram maiores controles sobre a pesquisa patrocinada pela empresa, o que estimulou discussões sobre a ética da manipulação de conteúdo de mídia social. Algumas empresas responderam criando conselhos internos de revisão para avaliar as questões éticas associadas a seus projetos, que podem ter conseqüências éticas significativas. Curiosamente, essas revisões vão além de tentar proteger os sujeitos de pesquisa humana e abordar a questão mais ampla de saber se os insights obtidos com a pesquisa podem ter consequências prejudiciais ao vazamento destas, em uma população mais ampla. A controvérsia sobre o desenvolvimento do software de reconhecimento facial (2017) que pode predizer a orientação sexual das pessoas com base em suas características faciais, revela por que a revisão ética deve ir além da proteção dos seres humanos. Apelidado do software “gayface,” uma ferramenta de reconhecimento facial experimental foi treinada em fotografias publicamente disponíveis e afirma a previsão da orientação sexual apenas a partir de características faciais. Sem o uso benéfico previsível dessa tecnologia, pode não ser ético desenvolver um algoritmo quando ele só pode ser usado para fins prejudiciais e discriminatórios.
A revisão ética desta pesquisa não tem quase nada a ver com a proteção dos direitos dos seres humanos envolvidos no treinamento do software. O verdadeiro problema ético é o uso do vazamento da tecnologia que poderá prejudicar outros indivíduos. Claramente, universidades, instituições de pesquisa, empresas e agências governamentais terão que avaliar programas de pesquisas como esses mais afinco do que apenas proteger os direitos dos seres humanos. Com o desenvolvimento de capacidades de aprendizado de máquina capazes de prever os aspectos mais íntimos e sensíveis da vida das pessoas, essas questões éticas precisam urgentemente serem abordadas em nossas legislações atuais.
Mas toda e qualquer empresa vai se deparar com essa discussão, cedo ou tarde. Isso vai acontecer com a disseminação de tecnologias digitais, como IA, Big Data e IoT. Esses dilemas éticos envolvem dúvidas como até onde dados de usuários podem ser coletados e usados.
Uma pesquisa da Avanade, - uma joint-venture entre a Microsoft Corporation e a Accenture LLP, com sede no brasil, em uma de suas pesquisas essas questões já fazem parte do ambiente corporativo, onde cerca de 82% dos C-levels de 12 países concordam que ética digital é necessária para a popularização da IA. Por outro lado, 81% afirmam não confiar na capacidade das organizações em criar tecnologias que sejam éticas, afirmando que o caminho que respeita os preceitos éticos são aqueles que inserem essa preocupação em todas as etapas, do desenvolvimento até a relação com o consumidor.
Uma preocupação exposta pela pesquisa é em relação a algoritmos que não sejam inclusivos e adaptáveis, ou seja, aqueles que contenham vieses discriminatórios, pois os efeitos de uma tecnologia ética podem ser sentidos em todas áreas nas quais inovações podem ser aplicadas, do processo seletivo automatizado que não discrimine candidatos, como do Mya, até uma campanha de marketing digital que não colete dados pessoais de usuários.
Muitos programas de IA levantam novas questões a serem explicadas ainda. Os modelos derivados da IA são difíceis de explicar, mesmo que os algoritmos sejam transparentes para o usuário, porque o padrão de interações é muito complexo e geralmente usa grupos de fatores que não fazem sentido intuitivo ou teórico. A DARPA - Departamento de pesquisa avançada de Defesa dos EUA, documentou essa troca entre exatidão e explicabilidade e financiou pesquisas destinadas a aumentar o nível de explicabilidade para cada nível de precisão, não precisando ser ditado por uma abordagem de tamanho único que se enquadra na lei. A melhor troca será diferente por setor, porque os riscos e benefícios das técnicas analíticas dependem menos de suas características intrínsecas e mais de seu domínio de uso.
As comunidades de ciência da computação e inteligência artificial estão começando a despertar para as formas profundas que seus algoritmos terão impacto na sociedade, e agora estão tentando desenvolver diretrizes sobre ética para o nosso mundo cada vez mais automatizado. A UE desenvolveu princípios para a IA ética, assim como o IEEE, o Google, a Microsoft.
Entre os esforços mais recentes e proeminentes está um conjunto de princípios elaborados pela Organização para Cooperação e Desenvolvimento Econômico - OCDE, uma organização intergovernamental que representa 37 países por questões econômicas e comércio mundial.
Esse foi apenas um apanhado inicial para futuras questões que ainda virão, é um assunto muito novo, porém monstrando sobre os desafios que iremos enfrentar no futuro breve. Algumas nações já começaram seus estudos além de empresas e outras organizações, e portanto no Brasil também necessitamos colocar esse assunto em pauta.