quinta-feira, 02/05/2024
28.5 C
Brasília

Robô aprende a identificar expressões faciais humanas e a responder

Veja Também

- Publicidade -

Solução desenvolvida por cientistas estadunidenses poderá impulsionar a interação com as máquinas

(crédito: Creative Machines Lab/Columbia Engineering)

A interação entre robôs e humanos tem sido cada vez mais recorrente — autômatos “trabalhando” com equipes de asilos, bancos e montadoras de carros deixaram de ser obra da ficção, por exemplo. Faltam, porém, demonstrações de emoção nessa parceria. Isso porque a maioria dos robôs ainda exibe um rosto vazio e estático. Na tentativa de solucionar o problema, cientistas da Escola de Engenharia e Ciência Aplicada da Universidade de Columbia, nos Estados Unidos, usaram inteligência artificial para ensinar as máquinas a fazerem expressões faciais humanas reativas apropriadas. Dessa forma, elas conseguem, por exemplo, retribuir o sorriso de um colega de trabalho.

A façanha é fruto de um projeto, desenvolvido há 5 anos, que resultou no surgimento de EVA. O robô, cujos projetos são de código aberto, foi apresentado, neste fim de semana, na Conferência Internacional de Robótica e Automação. “A ideia de EVA tomou forma há alguns anos, quando meus alunos e eu começamos a notar que os robôs do nosso laboratório estavam olhando para nós com olhos arregalados de plástico”, conta, em comunicado, Hod Lipson, professor de inovação da universidade estadunidense e participante do estudo.

Observações em outras atividades cotidianas — como robôs, em lojas, usando crachás e roupas tricotadas à mão — também inspiraram a equipe. “As pessoas pareciam estar humanizando seus colegas robóticos, dando-lhes olhos, uma identidade ou um nome”, diz Lipson. “Isso nos fez pensar: ‘Se olhos e roupas funcionam, por que não fazer um robô com um rosto humano superexpressivo e responsivo?’”

A tarefa não é simples. Durante décadas, os autômatos foram feitos de metal ou plástico rígido. O hardware robótico tem sido igualmente de difícil de maleabilidade, com circuitos, sensores e motores pesados e volumosos. A primeira fase do projeto começou no laboratório de Lipson, quando o estudante de graduação Zanwar Faraj liderou uma equipe de alunos na construção do maquinário físico de EVA. Ele ganhou um busto sem corpo, mas com animação facial.

EVA pode expressar as seis emoções básicas — de raiva, nojo, medo, alegria, tristeza e surpresa —, bem como uma série de expressões mais matizadas. Para isso, usa músculos artificiais, ou seja, cabos e motores que puxam pontos específicos do rosto, imitando os movimentos de mais de 42 minúsculos músculos presos em vários pontos da pele e dos ossos da face humana.

Zanwar Faraj conta que o tamanho do maquinário era um dificultador. “O maior desafio na criação de EVA foi projetar um sistema que fosse compacto o suficiente para caber dentro dos limites de um crânio humano, embora ainda fosse funcional o suficiente para produzir uma ampla gama de expressões faciais”, detalha.

Impressão 3D
Para superar esse desafio, a equipe recorreu à impressão 3D. A partir dessa tecnologia, foram fabricadas peças com formas complexas e que se integraram, de maneira eficiente, ao crânio do robô. Depois de semanas puxando cabos para fazer EVA sorrir, franzir a testa ou parecer chateado, a equipe percebeu que o rosto azul e sem corpo do autômato poderia provocar respostas emocionais nos colegas de laboratório. “Certo dia, eu estava cuidando da vida quando EVA, de repente, me deu um grande e amigável sorriso. Eu sabia que era puramente mecânico, mas me vi sorrindo de volta por reflexo”, lembra Lipson.

Satisfeitos com a solução mecânica, os cientistas começaram a programação para que a inteligência artificial (IA) passasse a guiar os movimentos faciais de EVA. Nesse ponto, também avançaram. O robô usa IA de aprendizado profundo para ler e, em tempo real, espelhar expressões faciais humanas. A capacidade de imitar uma ampla gama de fisionomias foi aprendida por tentativa e erro enquanto a máquina assistia a vídeos de si mesma.

Boyuan Chen, aluno de PhD de Lipson, percebeu que os movimentos faciais de EVA eram um processo muito complexo para ser regido por conjuntos de regras predefinidas. A partir de então, liderou uma equipe para criar o cérebro do autômato usando várias redes neurais de aprendizado profundo que permitissem a realização de duas habilidades: primeiro, aprender a usar o próprio sistema complexo de músculos mecânicos para gerar qualquer expressão facial particular e, segundo, saber quais faces fazer ao “ler” rostos humanos.

Autoimagem
Para ensinar ao autômato como era o próprio rosto, a equipe o filmou durante horas fazendo uma série de expressões faciais aleatórias. Então, como um humano se observando em um vídeo, as redes neurais internas de EVA aprenderam a emparelhar o movimento muscular a partir de imagens do próprio rosto. Assim, o robô ganhou uma noção primitiva de como sua face se mexia, o equivalente a uma autoimagem.

Uma segunda rede o ajudou a combinar a própria imagem com a de um rosto humano capturada em sua câmera de vídeo. Após vários refinamentos e iterações, o autômato adquiriu a capacidade de ler as expressões faciais em uma câmera e a de responder, em tempo real, de forma espelhada.

Os pesquisadores observam que o projeto é um experimento de laboratório e “está muito longe” das formas complexas como os humanos se comunicam. Mas enfatizam que é grande a possibilidade de essas tecnologias terem aplicações benéficas no mundo real. “Há um limite para o quanto nós, humanos, podemos nos envolver emocionalmente com autômatos, chatbots baseados em nuvem ou alto-falantes domésticos inteligentes sem corpo”, admite Lipson. “Porém, nosso cérebro parece responder bem a robôs que têm algum tipo de presença física reconhecível.” Boyuan Chen acrescenta: “Os robôs estão interligados à nossa vida de várias maneiras. Então, construir confiança entre humanos e máquinas é cada vez mais importante.”

- Publicidade -

- Publicidade -

Recentes