As pessoas podem emburrecer a inteligência artificial

As pessoas podem emburrecer a inteligência artificial

Paulo Silvestre

23 de agosto de 2021 | 07h30

Nesse exato momento, um sistema de inteligência artificial pode estar tomando uma decisão em seu nome! Mas, apesar de sua incrível capacidade computacional, não há garantia de que esteja fazendo a melhor escolha. E, em muitos casos, os responsáveis pela falha são outros usuários.

Vivemos isso diariamente e o exemplo mais emblemático são as redes sociais. Essas plataformas decidem o que devemos saber, com quem devemos falar e sugerem o que devemos consumir. E são extremamente eficientes nesse propósito, ao exibir sem parar, em um ambiente em que passamos várias horas todos os dias, o que consideram bom e ao esconder o que acham menos adequado.

Alguns acontecimentos recentes reforçam isso, demonstrando que esses sistemas podem tirar de nós coisas que, na verdade, seriam muito úteis para nosso crescimento. Não fazem isso porque são “maus”, e sim por seguirem regras rígidas ou por estarem sendo influenciados por uma minoria de usuários intolerantes. E pessoas assim podem ser incrivelmente persistentes ao tentar impor suas visões de mundo, algo a que esses sistemas são particularmente suscetíveis.

No final das contas, apesar de a inteligência artificial não ter índole, ela pode desenvolver vieses, que refletem a visão de mundo das pessoas a sua volta.


Veja esse artigo em vídeo:


Um exemplo recente disso foi a censura pelo Instagram do cartaz do novo filme do premiado diretor espanhol Pedro Almodóvar. O pôster de “Madres Paralelas” traz um mamilo escorrendo uma gota de leite dentro de um contorno amendoado, dando ao conjunto a aparência de um olho derramando uma lágrima. O autor da peça é o designer espanhol Javier Jaén.

O algoritmo do Instagram identificou o mamilo, mas não foi capaz de interpretar a nuance artística envolvida. Como há uma regra nessa rede que proíbe fotos em que apareçam mamilos, para combater pornografia, a imagem foi sumariamente banida da plataforma. Depois de muitos protestos, incluindo de Almodóvar e de Jaén, o Facebook (que é dono do Instagram) se desculpou e restaurou os posts com o cartaz, explicando que, apesar das regras contra a nudez, ela é permitida “em certas circunstâncias, incluindo quando há um contexto artístico claro”.

Não é de hoje que o Instagram cria polêmicas ao bloquear imagens e até suspender usuários por decisões equivocadas de seus algoritmos. Um caso recorrente há anos são fotos de mulheres amamentando. Oras, amamentação só é pornografia na cabeça de pervertidos… e de alguns algoritmos.

O sistema é bastante inteligente para identificar um mamilo entre milhões de fotos, mas muito burro para interpretar os contextos. Ironicamente vemos baldes de fotos com proposta altamente sexualizada no mesmo Instagram, que “passam” porque os mesmos mamilos são cobertos, às vezes com rabiscos grosseiros sobre a foto.

Ou seja, quem age naturalmente, com algo que está dentro do que a humanidade considera normal e até positivo pode ser punido. Por outro lado, quem “joga com o regulamento debaixo do braço” (como se diz nos torneios esportivos) pode driblar o sistema para atingir seus objetivos impunemente.

 

Ferramenta de intolerância

Em um programa de computador convencional, o desenvolvedor determina que, se uma condição A acontecer, o sistema deve executar a ação B. Nesse modelo, o profissional deve parametrizar todas as possibilidades, para que a máquina opere normalmente.

Na inteligência artificial, não se sabe de antemão quais condições podem acontecer. O sistema é instruído a tomar ações seguindo regras mais amplas, que são ajustadas com o uso.

A máquina efetivamente é capaz de aprender o que seus usuários consideram melhor para si. Com isso, suas ações tenderiam a ser mais eficientes segundo o que cada pessoa aprova e também pela influência do grupo social que atende.

O problema surge quando muitas pessoas que usam um dado sistema são intolerantes ou têm valores questionáveis. Nesse caso, elas podem, intencionalmente ou não, corromper a plataforma, que se transforma em uma caixa de ressonância de suas ideias.

Um dos exemplos mais emblemáticos disso foi a ferramenta Tay, lançada pela Microsoft em março de 2016. Ela dava vida a uma conta no Twitter para conversar e aprender com os usuários, mas ficou apenas 24 horas no ar.

Tay “nasceu” como uma “adolescente descolada”, mas, depois de conversar com milhares de pessoas (muitas delas mal-intencionadas) rapidamente desenvolveu uma personalidade racista, xenófoba e sexista. Por exemplo, ela começou a defender Adolf Hitler e seus ideais nazistas, atacar feministas, apoiar propostas do então candidato à presidência americana Donald Trump e se declarar viciada em sexo.

A Microsoft tirou o sistema do ar, mas o perfil no Twitter ainda existe, apesar de ser agora restrito a convidados, não ter mais atualizações e de os piores tuítes terem sido excluídos. A ideia é promover a reflexão de como sistemas de inteligência artificial podem influenciar pessoas, mas também ser influenciados por elas.

 

Tomando decisões comerciais

Em maio de 2018, o Google deixou muita gente de boca aberta com o anúncio de seu Duplex, um sistema de inteligência artificial capaz de fazer ligações para, por exemplo, fazer reservas em um restaurante. Na apresentação feita no evento Google I/O pelo CEO, Sundar Pichai, a plataforma simulava com perfeição a fala de um ser humano e era capaz de lidar, em tempo real, como imprevistos da conversa.

O produto já foi integrado ao Google Assistente na Austrália, no Canadá, nos Estados Unidos, na Nova Zelândia e no Reino Unido. Mas, diante da polêmica em que muita gente disse que se sentiria desconfortável de falar com um sistema pensando que fosse outra pessoa, agora as ligações do Duplex informam ao interlocutor, logo no começo, que está falando com uma máquina.

No final de 2019, fui convidado pela Microsoft para conhecer o protótipo de um assistente virtual que ia ainda mais longe, sendo capaz até de tomar decisões comerciais em nome do usuário. Muito impressionante, mas questionei ao executivo que a apresentou qual a certeza que eu teria de que a escolha feita pelo sistema seria realmente a melhor para mim, sem nenhum viés criado por interesses comerciais da empresa.

Segundo ele, o uso de uma plataforma como essa implicaria em uma relação de confiança entre o usuário e ela. O sistema precisa efetivamente se esforçar para trazer as melhores opções. Caso contrário, se tomar muitas decisões erradas, ele tende a ser abandonado pelo usuário.

Essa é uma resposta legítima, e espero que realmente aconteça assim, pois o que vi ali parecia bom demais para ser verdade, apesar da promessa de que estaria disponível no mercado em um horizonte de cinco anos. Mas infelizmente o que vemos hoje nas redes sociais, que nos empurram goela abaixo o que os anunciantes determinam, coloca em xeque a capacidade de as empresas cumprirem essa promessa.

O fato é que a inteligência artificial está totalmente integrada ao nosso cotidiano, e isso só aumentará. Com seu crescente poder de influência sobre nós, os desenvolvedores precisam criar mecanismos para garantir que esses sistemas não abandonem valores inegociáveis, como o direito à vida, à liberdade e o respeito ao próximo, por mais que existam interesses comerciais ou influências nefastas de alguns usuários.

Quanto a nós, os humanos que se beneficiam de todos esses recursos e que têm o poder de calibrá-los para que nos atendam cada vez melhor, precisamos ajustar nossos próprios valores, para que não caiamos nesse mesmo buraco moral.

Comentários

Os comentários são exclusivos para assinantes do Estadão.