11
Jan 12

Kinect - apresentação

O Microsoft Kinect é um sensor de movimento desenvolvido para a consola de jogos Xbox 360 e o seu objetivo principal é proporcionar uma nova e completa experiência de jogo aos seus utilizadores. Sem controlos adicionais, basicamente os utilizadores podem jogar e o controlar o jogo através do seu corpo. Para além de ser possível jogar sem comandos adicionais, é também possível estarem a jogar simultaneamente vários jogadores. Existem ainda outras funcionalidades associadas ao sensor, como o controlo por voz.

O Kinect é apresentado como um produto da Microsoft  mas resulta da junção da investigação de várias entidades. O hardware presente no dispositivo foi essencialmente desenvolvido pela empresa PrimeSense, que trabalhou muito de perto com os desenvolvimentos ao nível do software de reconhecimento em profundidade da Microsoft. 

Inicialmente o Kinect tinha como nome de código "Project Natal", e quando foi colocado à venda no dia 4 de Novembro de 2010, foi lançado com o nome "Microsoft Kinect". Foi um sucesso inicial e contou com 10 milhões de dispositivos vendidos no primeiro mês, fazendo história como o dispositivo periférico com um maior número de vendas num mês. 

A empresa Adafruit, lançou um concurso para o desenvolvimento de um driver para o Kinect, com o principal objetivo de tornar o dispositivo acessível a partir do computador. Hector Martin ganhou o concurso com o desenvolvimento da Open Kinect. O primeiro driver disponível que permite aceder, através do computador, aos dados recolhidos pelo sensor. A criação deste driver open source rapidamente possibilitou o desenvolvimento de projetos, tendo como base o sensor.

Mais tarde, a empresa PrimeSense disponibilizou os drivers do software desenvolvido para o Kinect,a OpenNI.  A permitindo assim o acesso à imagem em profundidade e a deteção dos utilizadores e do sistema de ossos em três dimensões.  A disponibilização da OpenNI permitiu aceder a um conjunto de informações que outros drivers não permitiam. Para além de fornecer mais informações, são informações com um maior detalhe e profundidade.

"The user data provided by OpenNI gives an application accurate information on the position of each user’s joints (head, shoulders, elbows, wrists, chest, hips, knees, ankles, and feet) at all times while they’re using the application. "

 

 

O Kinect é uma depth camera, ou seja um sensor de profundidade. Através do hardware presente no sensor: Uma câmara normal, um projetor infravermelhos, um receptor de infravermelhos.

 

O projetor de infravermelhos projeta uma grelha de pontos e que é captada pela câmara de infravermelhos. A luz infravermelha não é visível a olho. A profundidade do cenário é calculada tendo em conta o tempo que a luz infravermelha toca no objeto e reflete para o recetor infravermelho. Desta forma é construído o cenário a três dimensões. A técnica denomina-se por "time of flight" (TOF) e funciona como um sonar, ou seja, se souber quanto tempo a luz demora a chegar ao recetor, sabe-se a que distância o objeto está do sensor. A utilização de luz infravermelha apresenta ainda outra vantagem, uma vez que o sensor não foi desenvolvido para receber luz visível, a luz ambiente (do espaço onde está colocado o sensor) não irá interferir com a construção do cenário.

A combinação do hardware e o software do Kinect permite essencialmente, a geração de imagens a três dimensões (em movimento) dos elementos em frente à câmara e do reconhecimento dos movimentos e gestos do utilizador.

 

Até depois!
 
 

publicado por paulamargarida às 23:01 | comentar
11
Jan 12

Interactive Puppet

Interactive Puppet é uma instalação multimédia interativa desenvolvida pela empresa yoke.dk , e permite ao público controlar o personagem através da interação mediada pelo corpo. O principal objetivo desta aplicação é permitir à audiência controlar a personagem apresentada (uma
das principais do espetáculo que esta a promover no teatro).
 
 
No vídeo de apresentação da instalação é possível ver que a aplicação está colocada num local público e pode ver-se as pessoas a interagirem com o personagem.
 
Ao nível do detalhe do desenvolvimento da aplicação interativa, esta foi desenvolvida com
recurso aos softwares openFramework14 e Unity3D juntamente com o add-on ofxOpenNI.
Um aspeto importante no âmbito desta instalação é que não depende da calibração inicial
do utilizador, permitindo uma rápida inicialização do sistema e interação com o
personagem. 

 

Aqui fica neste post mais um exemplo da interação controlada por gestos em ambientes 3D!

Até breve

publicado por paulamargarida às 15:13 | comentar | ver comentários (7)