Quem assedia uma assistente virtual?

Quem assedia uma assistente virtual?

Paulo Silvestre

12 de abril de 2021 | 07h40

No dia 5, o Bradesco lançou uma nova campanha de marketing. O banco apresentou mudanças no algoritmo da BIA, sua assistente com inteligência artificial. As mudanças se concentram nas respostas que o sistema dá diante de diferentes formas de assédio que a assistente recebe de clientes, que vão desde insultos até importunações sexuais.

Esse comportamento bizarro não é novidade. Mas ainda me pego analisando o que leva alguém a assediar sexualmente um software.

Alguns dizem que se trata apenas de “brincadeira”. Afinal quem vai “passar uma cantada” em um bot? Mas as reações ao comercial do Bradesco mostram que o assunto é sério, problemático e está disseminado em nossa sociedade.

No momento em que estou escrevendo esse texto, a peça já passou de 105 milhões de visualizações no canal oficial do Bradesco no YouTube, em apenas seis dias no ar! Conquistou cerca de 7.000 “gostei” e 25 mil “não gostei”. E entre os mais de 13 mil comentários, a esmagadora maioria traz uma reprovação furiosa ao comercial.

E isso –pelo menos nessa quantidade– me surpreendeu.


Veja esse artigo em vídeo:


O polêmico comercial mostra algumas das cerca de 95 mil mensagens agressivas que a BIA recebeu no ano passado, segundo o Bradesco. Entre elas estão insultos como “BIA, sua imbecil” e “BIA, eu quero uma foto sua de agora” (sic).

Até então, o sistema identificava os comentários condenáveis e dava repostas leves, como “Não entendi, poderia repetir” ou “Foto? Apesar de falar como humana, sou uma inteligência artificial”. Essas respostas foram substituídas por outras, bem mais incisivas, como “Essas palavras são inadequadas, não devem ser usadas comigo e mais ninguém” ou “Para você, pode ser uma brincadeira; para mim, foi violento”.

A iniciativa do banco segue a campanha “Hey update my voice” (“Ei, atualize minha voz”), da Unesco (Organização das Nações Unidas para a Educação, a Ciência e a Cultura). Ela foi criada a partir do estudo “I’d blush if I could” (“Eu ficaria corada, se pudesse”), que descreve o assédio sofrido pelas assistentes virtuais. A partir disso, a Unesco recomenda às empresas atualizações nas respostas de suas assistentes para combater a violência e o preconceito, educando a população para o problema do assédio contra mulheres, muto além das assistentes virtuais.

Segundo a Unesco, 73% das mulheres no mundo já foram vítimas de algum assédio online. No Brasil, pesquisa Datafolha revelou que 42% das mulheres a partir de 16 anos já sofreu assédio sexual. Outro levantamento indicou que 97% já haviam sido vítimas de algum tipo de assédio dentro do transporte público ou privado.

 

Do amor à violência

Para entendermos a raiz do assédio contra assistentes virtuais, temos que voltar uma década no tempo. A Siri, assistente da Apple, lançada em 2011, foi o primeiro sistema do tipo a se tornar um grande sucesso de público. Ela surgiu como parte do iOS 5.0, que controlava o iPhone 4S. Até então, nenhum produto de massa tinha a capacidade de convincentemente entender comandos de voz e dar respostas também por voz.

Uma das diversões da época era “desafiar” o sistema com comandos inesperados. Um dos mais populares era dizer “Siri, eu te amo”. Ela dava respostas espirituosas como “eu aposto que você diz isso a todos os produtos da Apple.” A princípio, naquele momento embrionário da tecnologia, ninguém estava “cantando” a assistente, especialmente para quem sabe do relacionamento apaixonado entre os clientes da Apple e a marca e seus produtos.

Infelizmente, à medida que as assistentes se popularizaram em celulares e muitos outros dispositivos, melhorando também a sua capacidade de respostas, aqueles testes quase pueris evoluíram para mensagens agressivas e sexistas.

Isso foi reforçado pelo fato de quase todos esses sistemas incorporaram uma voz e até uma personalidade feminina. É o caso dos principais sistemas internacionais: Siri (Apple), Google Assistente, Cortana (Microsoft) e Alexa (Amazon). Isso se repete em sistemas brasileiros: além da própria BIA (Bradesco), outros exemplos são a Lu (Magazine Luiza) e a Nat (Natura).

Modismos à parte, a origem dessa escolha tem fundamento. Em 2005, Clifford Nass, professor de comunicação da Universidade Stanford (EUA), compilou dez anos de pesquisas psicológicas e de interface de voz, e concluiu que a voz sintética feminina é percebida como capaz de ajudar a resolver problemas, enquanto a masculina representa autoridade e dá respostas. Outro estudo, em 2008, de Karl MacDorman, da Universidade de Indiana (EUA), indicou que vozes sintetizadas femininas eram vistas como mais calorosas e agradáveis.

Segundo a Unesco, 90% da força de trabalho envolvida na criação dos assistentes é masculina. De acordo com o órgão, eles reforçam o imaginário popular de que a voz da mulher é dócil, acolhedora, subserviente e sempre pronta a ajudar. A prática tende a normalizar o assédio.

Seguindo as recomendações da Unesco, a Apple fará com que o usuário escolha o gênero da voz da Siri a partir do iOS 14.5. A voz masculina já está disponível, mas hoje o usuário precisa alterar o padrão feminino nas configurações do sistema.

 

“Mimimi”

Os detratores do novo comercial do Bradesco afirmam que ele exagera e que o banco se aproveita de uma pauta feminista para se promover. Mas muitos dos comentários acabam justamente reforçando os preconceitos e a violência contra mulheres, o que indica que a iniciativa está no caminho certo. Afinal, o debate levantado não é sobre o assédio contra a BIA e sim contra todas as mulheres.

Mas já que o assunto foi tocado, poderíamos debater também se seria legítimo agredir sexualmente um robô, apenas por ser uma máquina. O tema é recorrentemente explorado pela ficção, com sistemas inteligentes que desenvolvem sentimentos e até se apaixonam. Vimos isso, por exemplo, nos filmes “Ela” (2013), de Spike Jonze, e “Blade Runner” (1982), de Ridley Scott, ou no reboot da série “Battlestar Galactica” (2004 a 2010). Portanto, nem os robôs devem ser assediados.

Outra crítica recorrente contra o comercial é que o Bradesco se preocupa mais com a BIA que com as atendentes humanas do banco. Conversei com várias gestoras de call center sobre o caso. De fato, esse é um mercado conhecido por condições de trabalho ruins. Em alguns casos, se um atendente encerra uma ligação, mesmo após ter sido agredido por um cliente, ele pode ser punido administrativamente.

A política dos call centers refletem a da empresa que a contrata. A boa notícia é que, aos poucos, essas regras vêm evoluindo, para proteger esses profissionais contra violências de consumidores. Em muitos casos, os atendentes já são autorizados a reagir aos ataques e até a encerrar a ligação. Em casos menos comuns, a empresa envia uma notificação formal ao cliente, advertindo-o por seu comportamento. Isso acontece inclusive em alguns bancos.

A BIA também está pagando por diversos tipos de insatisfação de clientes com o Bradesco. Se a empresa comete erros (e todas as empresas cometem), eles precisam ser notificados pelo cliente e corrigidos. Mas isso deve ser feito de maneira apropriada, o que nos leva à questão original de combate ao assédio.

A frase de que “o cliente sempre tem razão” é uma falácia. Naturalmente ele deve ser bem atendido, sempre da melhor maneira possível. Mas infelizmente muitos clientes abusam dessa prerrogativa, sem falar daqueles que possuem sérios problemas sociais. A empresa e seus funcionários, mesmo os virtuais, não têm nenhuma obrigação de acolher quem os trata mal. Qualquer forma de relacionamento, mesmo comercial, deve ser pautada pelo respeito mútuo.

Por isso, a nova campanha do Bradesco é mais que oportuna: é necessária! O debato em torno da violência contra uma assistente virtual e a onda de ódio contra a peça explicitam como nossa sociedade ainda tem muito a evoluir.

Comentários

Os comentários são exclusivos para assinantes do Estadão.