
La nouveauté phare, annoncée depuis novembre 2012, est l’intégration de la technologie Kinect Fusion. Ce système mis au point par Microsoft Research permet de capter des données de profondeur et de créer des modèles 3D de haute qualité, comme, par exemple, la modélisation d'une pièce et de son contenu. L'implémentation s’appuie sur le GPU pour le suivi de la caméra. Quant à la reconstruction des surfaces, elle fonctionne en interactif et en temps réel pour permettre la mise en œuvre d'applications en réalité augmentée ou l'interaction homme-machine.

Les retombées de cette évolution vont certainement être très utiles aux développeurs et aux ingénieurs pour la création de cartes détaillées et de modèle d’objets 3D très rapidement. « Avec Kinect Fusion, nous permettons à l’utilisateur de tenir la caméra, d’explorer son espace et de rapidement faire un scan du monde autour de lui » confirme Shahram Izadi, chercheur senior chez Microsoft.
À cela s’ajoute le support de nouvelles interactions qui permettront aux développeurs de créer des applications intuitives, ergonomiques et intelligentes, basées sur les gestes et les déplacements naturels des humains.
Des ressources supplémentaires sont également disponibles pour les développeurs, notamment des exemples de code pour OpenCV, MATLAB et Kinect pour Windows.
Les échantillons de code Kinect pour Windows sont publiés en open source sur CodePlex, pour les langages C#, C++ et Visual Basic.
[ame="http://www.youtube.com/watch?v=quGhaggn3cQ"]Kinect Fusion[/ame]

Source : blog Kinect
Et vous ?
