O Google pode ler sua linguagem corporal sem usar câmeras
A empresa está usando o radar para ajudar os computadores a responder aos seus movimentos
E se a nossa TV fosse inteligente o suficiente para perceber que saímos do sofá para atender a porta da frente pausando automaticamente o Netflix, e, assim que voltássemos, a reprodução reiniciasse automaticamente do ponto onde paramos assim que nos sentássemos novamente?
Parece mágica, mas não é. Já existe uma nova tecnologia que utiliza radares para auxiliar os equipamentos e gadgets na resposta aos nossos movimentos, sem depender de uma câmera para identificar onde e o que estamos fazendo.
A Divisão de Tecnologia e Produtos Avançados do Google, também conhecida como ATAP, responsável pelos projetos inovadores da empresa, dedicou o último ano explorando como os computadores poderiam empregar radares para compreender nossas necessidades ou intenções e, em seguida, reagir de maneira adequada.
Esta não é a primeira vez que temos notícia do Google utilizando radares para fornecer consciência espacial a seus gadgets.
Em 2015, o Google lançou o Soli, um sensor que pode usar ondas eletromagnéticas do radar para captar gestos e movimentos precisos.
Ele foi visto pela primeira vez na capacidade do Google Pixel 4 de detectar gestos simples com as mãos para que o usuário pudesse adiar alarmes ou pausar música sem ter que tocar fisicamente no smartphone.
Mais recentemente, sensores de radar foram incorporados ao display inteligente Nest Hub de segunda geração para detectar os movimentos e padrões de respiração da pessoa que dorme ao lado dele.
O dispositivo foi então capaz de monitorar o sono da pessoa sem exigir que ela use um smartwatch.
O mesmo sensor Soli está sendo utilizado nesta nova pesquisa, mas em vez de utilizar a entrada do sensor para controlar diretamente um computador, o ATAP utiliza os dados do sensor para permitir que os computadores reconheçam os nossos movimentos quotidianos e façam novos tipos de escolhas.
Grande parte da pesquisa é baseada na proxêmica, o estudo de como as pessoas usam o espaço ao seu redor para mediar interações sociais.
À medida que você se aproxima de outra pessoa, espera maior envolvimento e intimidade. A equipe da ATAP usou esta e outras dicas sociais para estabelecer que as pessoas e os dispositivos têm seus próprios conceitos de espaço pessoal.
O radar pode detectar quando você se aproxima de um computador e entra em seu espaço. Isso permite que o computador escolha executar ações específicas, como iniciar a tela, sem a necessidade de pressionar um botão.
Esse tipo de interação já está presente nos monitores inteligentes Google Nest atuais. No entanto, em vez de usar radar, o Google utiliza ondas sonoras ultrassônicas para medir a distância entre a pessoa e o dispositivo.
Quando um Nest Hub percebe que você está se aproximando, destaca lembretes, eventos da agenda e outras notificações importantes.
Mas e se você simplesmente passar pela máquina e olhar em outra direção? A proximidade sozinha não é suficiente.
Para resolver esse problema, o Soli pode capturar nuances mais detalhadas em movimentos e gestos, como a orientação do corpo, o caminho que você está seguindo e a direção para a qual sua cabeça está voltada.
Isso é facilitado por algoritmos de aprendizado de máquina que refinam ainda mais os dados.
Todas essas informações do radar ajudam a prever melhor se alguém está prestes a iniciar uma interação com o dispositivo e qual pode ser o tipo de envolvimento.
A equipe do ATAP optou por usar o radar porque é um dos métodos mais amigáveis à privacidade para coletar dados espaciais ricos.
Além disso, a tecnologia possui uma latência muito baixa, funciona no escuro e não é afetada por fatores externos, como som ou temperatura.
O Google é reconhecido como o líder global na monetização dos dados de seus usuários. Por essa razão, o uso dessa tecnologia também é controverso no que diz respeito à privacidade dos dados, embora o radar não capture e armazene imagens distintas de um corpo ou rosto humano, ao contrário de uma câmera.
A pesquisa do Google ATAP faz parte de uma nova série chamada “In the Lab With Google ATAP”. Vale a acompanhar!