Inovações

Um algoritmo que “lê” o movimento das mãos e traduz a linguagem de sinais

Várias empresas, como a Kintrans ou a Signall, tentaram nos últimos anos desenvolver softwares capazes de interpretar a linguagem de sinais, permitindo que os usuários se comuniquem facilmente com qualquer pessoa. Mas a verdade é que eles não tiveram grande sucesso até agora.

No entanto, um novo algoritmo desenvolvido pelo Google AI Labs poderia ser a chave para finalmente materializar um sistema vestível de tradução simultânea entre pessoas surdas e ouvintes. E bastaria, para isso, usar um smartphone.

Este novo algoritmo é capaz de acompanhar o movimento das mãos do usuário, uma vez que ele tenha a oportunidade de mapeá-lo, concentrando-o na câmera de seu celular. “Nossa solução usa aprendizado de máquina para calcular os 21 pontos-chave em 3D de uma mão dentro de um quadro de vídeo.”

Mas esse aspecto do algoritmo não tem sido fácil de desenvolver: os diferentes tamanhos de cada mão, a velocidade de seus movimentos e o fato de que, durante a conversa, alguns dedos podem obstruir a visão dos outros, todos esses aspectos se constituíram. Desafios interessantes para pesquisadores.

Para reduzir os requisitos de hardware do algoritmo, eles optaram por reduzir a quantidade de dados que o algoritmo precisava analisar, de modo que o tempo de resposta fosse menor. Assim, abandonaram a idéia de detectar a posição e o tamanho de toda a mão, e começaram a detectar a palma (a parte mais distinta e regular dela).

Em seguida, o sistema detecta os cinco elementos que brotam dele (dedos). Para conseguir tudo isso, eles fizeram a IA analisar 30.000 imagens (cada uma com diferentes poses e condições de iluminação) e aprender com todas elas, embora isso exigisse que uma equipe de humanos rotulasse manualmente os 21 pontos-chave em cada uma dessas imagens.

Agora, ele é capaz de reconhecer o tamanho e os ângulos das palmas das mãos, atribuindo-lhes coordenadas com base na posição estimada dos dedos e dos dedos. O algoritmo também permite calcular a profundidade dos elementos da imagem.

Em seu blog corporativo, os pesquisadores do Google AI Labs explicam que a novidade de sua proposta é que ela quebra a abordagem até agora, baseada em poderosos ambientes de desktop, alcançando desempenho em tempo real, apesar de trabalhar em telefones celulares.

Do Google, eles afirmam que continuarão trabalhando para melhorar sua precisão e anunciar a disponibilidade do código-fonte do algoritmo para outros pesquisadores que desejam consultá-lo.

Livros sobre I.A

livro inteligencia artificial george f luger

Inteligência Artificial – Abordagem ...

skyward-conquiste-as-estrelas

Skyward: Conquiste as estrelas

historia-e-evolucao-da-inteligencia-artificial

História e evolução da inteligência artifi...

redes-neurais-artificiais

Redes Neurais Artificiais Para Engenharia ...

inteligencia-artificial-forte

Inteligência Artificial Forte: Como fazer ...

entendendo-a-inteligencia-artificial

Entendendo Inteligencia Artificial

robos-traders-autonomos

Robôs Traders Autônomos: Estudos de operaç...

androides-sonham-com-ovelhas-eletricas

Androides Sonham Com Ovelhas Eletricas?

Cursos de I.A

talia sistema inteligencia artificial advogados

Talia – Inteligência Artificial para...

curso robôs im inteligência artificial facebook

ROBOS.im – Plataforma para criação d...

internet-das-coisas-curso

Internet das Coisas – Uma visão ampl...

curso online robotica automacao residencial

Curso de Robótica e Automação Residencial

Tudo Sobre IoT curso online

Tudo Sobre IoT – Internet das Coisas

336x280_profissionais-do-futuro_seq2

Profissional do Futuro – Inteligênci...

curso-inteligencia-artificial-avancada-assistentes-pessoais

Inteligência artificial avançada para assi...

congresso-online-inteligencia-digital-futurismo

Congresso Online de Inteligência Digital &...