Header

sexta-feira, 5 de fevereiro de 2010

Sem mouse, sem fio, sem tela

Sem mouse, sem fio, sem tela
Sixth Sense, Surface e Everywhere Display: comandos por gestos na mão, na mesa e no supermercado

A computação por gestos está saindo dos laboratórios e da ficção para aposentar os controles convencionais.




Quando Steve Jobs dedilhou pela primeira vez em público o iPhone, em janeiro de 2007, ele não estava só exibindo o que viria a ser o celular mais desejado de todos os tempos. O visionário da Apple também mostrou que as interfaces com reconhecimento de gestos já estão maduras para deixar os laboratórios e telas de cinema para entrar na vida dos simples mortais. Poucos meses depois foi a vez da Microsoft, com o seu computador em forma de mesa interativa, o Surface, explicitar o potencial da computação por gestos, onde mouse, teclado, botões e controles tradicionais são substituídos por movimentos naturais do corpo. Mas a convicção de que estamos prestes a mudar radicalmente a forma como interagimos com as máquinas vai bem além dos laboratórios dos eternos rivais em computação pessoal.

No relatório Computação Por Gestos: O Fim Do Mouse, divulgado em fevereiro do ano passado, o instituto de pesquisas Gartner concluiu que em três ou cinco anos o ambiente computacional será impactado de maneira significativa pela tecnologia de reconhecimentos de gestos. Difícil mensurar o significado dessa previsão? Então, imagine seu provável cotidiano em um futuro não tão distante. Que fazer uma ligação? Abra a palma da mão e digite os números. Tirar uma foto? Faça um gesto em forma de moldura. Ainda não sabe controlar os ícones da área de trabalho? Como um malabarista virtual, movimente as mãos.

Por mais fictícias que pareçam, essas aplicações já estão sendo testadas no laboratório da professora Pattie Maes no Media Lab do Massachussetts Institute of Technology (MIT). Batizado de Sixth Sense, o projeto foi desenvolvido em oito meses pelo orientando dela, Pranav Mistry, de 28 anos. Ao custo de 350 dólares, o protótipo integra projetor de bolso, espelho e câmera, que, em formato de um colar acoplado ao tórax, são ligados a um minilaptop. A câmera captura os gestos da mão, envia esses dados para o laptop e um software baseado em algoritmos de visão computacional rastreia e interpreta os movimentos das mãos de acordo com os marcadores coloridos que o usuário deve usar nos dedos.

"Os equipamentos já cabem no bolso e nos mantêm conectados o tempo todo ao mundo digital. Mas não há nenhuma ponte entre o virtual e as interações do mundo físico", observa Pranav. "A ideia é libertar a informação da tela e integrá-la completamente ao mundo tangível por meio de controles gestuais."

Com isso, além dos proveitos acima, é possível utilizar o Sixth Sense para coletar informações sobre objetos em tempo real. Por exemplo, o sistema pode ser instruído com um gesto para rastrear a capa de um livro e projetar dados das resenhas da Amazon. com sobre ele. "A proposta é transformar o mundo todo em um computador", diz. Pranav já está trabalhando em soluções para integrar o sistema a telefones celulares. Segundo ele, a tecnologia, que foi apresentada no início de 2009, deve chegar ao mercado em dois anos no máximo.

Um aceno para ouvir Beatles
Reconhecimento de padrões
Será o fim do mouse?
Música multitoqu

Um aceno para ouvir Beatles

Com uma proposta um pouco diferente, o pesquisador e fundador da empresa OZWE, Frederic Kaplan, 35, criou o QB1, uma espécie de juke-box inteligente que pode ser controlada por gestos. "Participei do desenvolvimento do Aibo, da Sony, (um cachorrorobô capaz de expressar emoções em resposta ao meio, entre outras habilidades) e passei a refletir em como transformar objetos comuns em robôs. O computador pessoal foi o candidato mais óbvio", conta o criador.

Além de controle gestual, o QB1, que está sendo vendido com preços a partir de dez mil dólares, pode ser configurado para reconhecer capas de discos e, assim, tocar as músicas do álbum selecionado. Ele ainda reconhece rostos, exibe interfaces personalizadas e apresenta as últimas músicas escolhidas por cada usuário. Entre as patentes que Kaplan detém no projeto está o sistema de percepção em três dimensões embutido na tela. "Com base na ondulação infravermelha que ilumina a cena, o dispositivo pode mensurar a profundidade de cada objeto", explica.

No Brasil, o músico e cientista da computação Jarbas Jácome, 27, acabou de montar um protótipo que também reproduz músicas a partir de controle gestual. Sem nome oficial, mas apelidado de radiola de ficha, o equipamento faz parte do projeto ViMus, do Centro de Estudos e Sistemas Avançados do Recife (C.E.S.A.R.). Entre as experiências com o sistema, está uma instalação para a Fundação de Cultura do Governo do Estado de Pernambuco que apresenta fotos de diferentes regiões do estado mediante movimentos com as mãos. A última aplicação, no Museu Chico Science, na cidade do Recife, permite que os visitantes interajam com sínteses gráficas que representam o mangue. No dia do lançamento da atração, o músico anunciou a versão em software livre do ViMus (www.info.abril.com.br/download/5697.shtml). "Por enquanto, o programa não tem interface gráfica, está restrito a quem entende conceitos de programação", diz Jácome.

Reconhecimento de padrões

No centro de boa parte dessas interfaces, de acordo com o pesquisador da IBM Research, Cláudio Pinhanez, está o emprego de modelos estatísticos de reconhecimento de padrões. "O processo normal é coletar exemplos dos gestos, analisar as características fundamentais e que elementos seu equipamento de detecção é capaz de determinar", descreve o pesquisador. "Então, você tem o gesto, a análise, o significado dele e, no meio, modelos estatísticos." Até a década de 90, segundo ele, a solução não era utilizada nos projetos da área. "Não havia poder computacional suficiente para rodá-los."

A própria experiência de Pinhanez aponta essa questão. Durante seu doutorado, também no Media Lab do MIT, em 1996, ele desenvolveu o espaço interativo The Kids Room. Com oito computadores, duas câmeras e um projetor de 80 quilos, o sistema criava um jogo virtual com base na interpretação das ações dos jogadores — no caso, crianças com idades a partir dos 8 anos. "Já usávamos método estatístico, mas bem limitado. Quanto mais poder computacional, maior o vocabulário de gestos e a capacidade de lidar com problemas externos", afirma.

Seu último trabalho nesse campo foi o Everywhere Display, pela IBM, que já está sendo testado em algumas empresas. Com projetor e câmera, a ideia é possibilitar a interação por meio de gestos com imagens projetadas em qualquer superfície — proposta semelhante à do Sixth Sense. Em uma apresentação da tecnologia para o programa NBC Today, da rede americana NBC, o Everywhere Display projetava no chão de um supermercado três botões com características de alguns alimentos. Com o pé, o usuário escolhia as opções e o sistema indicava a localização dos produtos por meio de pegadas virtuais no chão. Diante da prateleira, o comprador colocava a mão em frente ao produto para que informações como a sua composição aparecessem em um LCD acima da prateleira.

Pinhanez avalia que o desafio das pesquisas com controles gestuais é capacitar os sistemas para compreender o contexto em que se desenvolvem as ações. "É difícil discernir gesto de comunicação dos de comando", observa. A solução encontrada até agora, segundo ele, é fechar o contexto. A alternativa encontrada pela empresa americana Gesture Tek, com sua linha GestPoint, foi delimitar o espaço em que os usuários podem fazer os gestos acima dos produtos AirPoint e HoloPoint. Com preços que variam de 3 900 dólares a 20 mil dólares, a empresa possui oito linhas de produtos com interface de reconhecimento de gestos. Entre eles, há até modelos para fisioterapia.

Será o fim do mouse?

Ciente desse novo estágio da tecnologia pessoal, a Microsoft incorporou ao Windows 7 suporte a aplicações multitoque. De acordo com Galileu Vieira, gerente de novas tecnologias para consumidores finais da Microsoft, a empresa ainda não agendou o lançamento de equipamentos que acompanhem a tecnologia. "Acreditamos que estamos passando por uma evolução da interface gráfica para a interface natural, por meio da qual você pode interagir com o computador por ações como escrita, comandos de voz e gestos", afirma.

Apesar da evolução (e não revolução, como ele salienta), Vieira não acredita que a popularidade dos sistemas de reconhecimento de gestos irá abrir a sepultura para os controles convencionais, como mouse e teclado. "Essa tecnologia vem para complementar", acredita.

Música multitoque

A tecnologia de reconhecimento de gestos ainda não chegou ao ponto de traduzir em som as performances dos adeptos do air guitar, aqueles malucos que adoram solar com suas guitarras imaginárias como se fossem o próprio Jimi Hendrix. Mas não faltam projetos que combinam novas interfaces naturais e a linguagem musical, como o Reactable, uma espécie de sintetizador modular com tecnologia multitoque, criado por pesquisadores do Grupo de Tecnologia Musical da Universidade Pompeu Fabra, na Espanha. "Abaixo da mesa existe uma câmera que rastreia a movimentação dos objetos e os gestos dos músicos sobre a superfície", descreve Martin Kaltenbrunner, um dos criadores. Com 76 centímetros de diâmetro, já foi utilizado em shows da cantora islandesa Björk. No Brasil, ele rendeu aplausos na edição de 2007 do Festival Internacional de Linguagem Eletrônica (File) e em uma apresentação do ex-ministro da Cultural Gilberto Gil, no ano passado.

Veja outros vídeos e fotos sobre o assunto no link: http://www.pranavmistry.com/projects/sixthsense/

Fonte: info.abril.com.br

Nenhum comentário:

Postar um comentário