Em evento do MIT, cientista exibiu vídeos com demonstrações dessa tecnologia sendo usada para jogar "Doom" e definir o volume de música.
Em 1960, o cientista da computação J.C.R. Licklider publicou o estudo “Man-Computer Symbiosis”, que destacava seu sonho pela computação interativa e ajudou a pavimentar o caminho para a criação de uma interface de usuário gráfica.
Esta semana, durante o evento Emerging Technology Conference, no MIT (Massachusetts Institute of Technology), outro cientista sugeriu que em breve pode chegar o momento no qual as pessoas não precisarão mais tocar um teclado ou um mouse, ou mesmo falar um comando, para realizar uma função no computador.
Em vez disso, elas poderão pensar em um comando e o computador responderá a isso, afirma o cientista do laboratório de saúde pública Wadsworth Center, Gerwin Schalk. “O que venho dizer para vocês aqui não é ficção científica. É uma realidade ascendente”, afirmou Schalk.
Ele afirmou que uma interface lenta é um problema para a interação entre humanos e computadores. As pessoas são forçadas a traduzir o que estão pensando em comandos digitais que os computadores possam entender, um processo que cria gargalos I/O desde o início.
Neurotecnologia, um mercado de 145 bilhões de dólares que cresce 9% ao ano, já atingiu marcos essenciais no processo da simbiose entre homem e máquina.
Pesquisadores estão trabalhando com ondas cerebrais alfa – oscilações neurais na frequência entre 8 e 12 Hz – para criar ricas representações sintáxicas que podem ser usadas para se comunicar diretamente com computador, explica o cientista.
Schalk apresentou ao público do evento um vídeo mostrando como as pessoas do teste podem controlar games de computador por meio de eletrodos anexados a superfície de seus cérebros.
Em uma demonstração no vídeo, um paciente usou pensamentos para atirar em monstros no clássico game “Doom”. O paciente usou um joystick para mover o personagem pelo cenário, mas foram seus pensamentos que dispararam a arma (de modo preciso).
Em outra demonstração, Schalk mostrou como um computador pode dizer a diferença entre alguém pensando os sons “Ah” ou “Ooh”. Uma terceira demonstração exibiu um computador detectando a altura da música que uma pessoa estava ouvindo e rastreando-a momento a momento a partir de ondas cerebrais.
“Estamos perto assim”, disse Schalk, juntando seu polegar e seu indicador, “de poder reproduzir música apenas ao ‘ouvir’ o cérebro”.
Outra demonstração mostrou como os cientistas podem registrar em tempo real qual parte do cérebro reage a movimentos físicos, desde esticar a língua até tentar resolver um quebra-cabeça.
Essa tecnologia poderia permitir aos usuários comandarem um computador sem precisar tocá-lo.
Os dois maiores obstáculos para criar computadores controlados por pensamento em tempo real são principalmente problemas de engenharia, afirma Schalk. Os cientistas precisam criar sensores melhores para detectar ondas alfa e melhores maneiras de identificar os sinais do cérebro (sua linguagem), completa.
“A interação direta do computador com o cérebro tem o potencial para se tornar uma função geral da tecnologia, na mesma escala da tecnologia da informação, computação e telefonia.”
Fonte: IDG Now
Nenhum comentário:
Postar um comentário