domingo, 05/05/2024
27.5 C
Brasília

A Alexa deveria ser capaz de entender nosso estado de espírito?

Veja Também

- Publicidade -

Assistente de voz deveria ser capaz de comprar itens sozinha para aplacar as emoções da vida cotidiana?

Alexa, da Amazon: (Maria Chimishkyan/The New York Times)

Se a Alexa da Amazon acha que você está triste, deveria sugerir a compra de um pote de sorvete?

Joseph Turow acha que absolutamente não, de jeito nenhum. Professor da Escola de Comunicação Annenberg da Universidade da Pensilvânia, ele pesquisou tecnologias como a Alexa para seu novo livro, “The Voice Catchers” (Os captadores de voz, em tradução livre). Turow está convencido de que as empresas deveriam ser impedidas de analisar o que dizemos e como soamos para recomendar produtos ou personalizar mensagens publicitárias.

A sugestão de Turow é notável, em parte porque fazer um perfil das pessoas com base na voz não é algo generalizado. Ou melhor, ainda não é. Mas ele está encorajando os formuladores de políticas e o público a fazer algo que eu gostaria que fizéssemos com mais frequência: é preciso tomar cuidado e prestar atenção no modo como usamos uma tecnologia poderosa antes que ela possa ser usada em decisões importantes.

Depois de anos pesquisando a evolução das atitudes dos americanos em relação à liberação digital de dados pessoais, Turow acredita que alguns usos da tecnologia oferecem tanto risco em troca de tão poucas coisas positivas que deveriam ser interrompidos antes de fugir ao controle.

Nesse caso, Turow teme que as tecnologias de voz, incluindo a Alexa e a Siri da Apple, transformem-se de mordomos digitais em adivinhadores que usam o som de nossa voz para deduzir detalhes íntimos como nosso estado de espírito, nossos desejos e nossas condições médicas. Em teoria, elas poderiam um dia ser usadas pela polícia para determinar quem deve ser preso, ou pelos bancos, para dizer quem é digno de um financiamento. “Usar o corpo humano para discriminar as pessoas é algo que não devemos fazer”, afirmou ele.

Alguns negócios, como os call centers, já estão fazendo isso. Se os computadores avaliarem que sua voz parece irritada ao telefone, você pode ser encaminhado para um funcionário especializado em acalmar as pessoas. O Spotify também divulgou uma patente tecnológica para recomendar músicas com base na emoção transmitida pela voz, na idade ou no gênero do falante. A Amazon anunciou que a Halo, sua pulseira de monitoramento de saúde, analisará “a energia e a positividade na voz do usuário” para estimulá-lo a se comunicar e a se relacionar melhor.

Turow garantiu que não quer interromper os usos potencialmente úteis do perfil de voz – por exemplo, o monitoramento de condições graves de saúde, incluindo a Covid-19 –, mas, segundo ele, há pouco benefício para nós quando os computadores usam inferências de nosso discurso para nos vender detergente: “Temos de proibir o perfil de voz com o propósito de marketing. Não há utilidade para o público. Estamos criando outro conjunto de dados que as pessoas não têm ideia de como está sendo usado.”

Turow está entrando em um debate sobre como tratar a tecnologia que poderia ter enormes benefícios, mas também desvantagens que talvez não percebamos. O governo deveria tentar aprovar regras e regulamentos relativos à tecnologia poderosa antes que esta seja usada de forma generalizada, como atualmente se procede na Europa, ou deveria ignorá-la, a menos que algo ruim aconteça?

O complicado é que, uma vez que tecnologias como o software de reconhecimento facial ou a capacidade de chamar um táxi pressionando um botão do smartphone se tornam prevalentes, é mais difícil eliminar recursos que acabam sendo prejudiciais.

Não sei se Turow está certo em soar o alarme sobre o uso de nossos dados de voz para fins de marketing. Alguns anos atrás, havia muita expectativa de que a voz se tornaria uma grande maneira de comprar e de descobrir novos produtos, mas ninguém provou que as palavras que dizemos aos nossos aparelhos possam predizer eficazmente qual carro vamos comprar.

Perguntei a Turow se as pessoas e os reguladores governamentais deveriam se preocupar com riscos hipotéticos que podem nunca surgir. Ler nossa mente a partir de nossa voz pode não funcionar na maioria dos casos, e realmente não precisamos de mais coisas nos assustando.

Turow reconheceu essa possibilidade, mas aceitei a visão dele de que vale a pena iniciar uma conversa pública sobre o que poderia dar errado com a tecnologia de voz e decidir em conjunto onde estão os limites coletivos – antes que estes sejam ultrapassados.

- Publicidade -

- Publicidade -

Recentes