En temps normal, j'aime beaucoup le fait que les fursuits ont un regard fixe, relativement vide (pas forcément froid), et je sais que ça joue évidement beaucoup dans le détachement avec la réalité, ce que certains recherchent. J'ai malheureusement eu du mal à me faire une idée de l'inverse, càd si les yeux étaient capables de faire autre chose que de toujours regarder tout le monde (yeux "3D") donc je me suis demandé si c'était possible à réaliser...
Le premier problème est celui du lien à établir entre les tripes de la fursuit, et les yeux eux-mêmes. On a vu des queues et des oreilles qui étaient capables de détecter l'activité nerveuse avec plus ou moins de précision, mais il fallait toujours derrière une interprétation logique pour traduire ces tensions de vrais muscles en "pensées" pour en contrôler des faux.
Pour les yeux, même si les avancées technologiques permettent certainement maintenant de récupérer des tonnes d'infos sans avoir à se faire greffer des sondes random dans la tête, je doute que ces méthodes soient à la portée de tout le monde. C'est pour ça que je pensais me lancer dans quelques expériences uniquement basées sur l'image, afin d'apporter des idées ou des do/don't pour ceux qui aimeraient intégrer ça à des fursuits.
J'aborde pas la question du "est-ce que ça risque pas d'être creepy ?" parce que je pense que ça dépend que de l'application, donc je tape dans le technique directement. Cependant, n'hésitez surtout pas à proposer vos idées ou suggestions sur la façon de faire, comment ça pourrait être mieux fait, quels seraient les inconvénients sur le terrain, si vous avez déjà touché au traitement de l'image, si il y a des ressources déjà dispos sur le net etc... C'est le but même du sujet.
Pour que l'oeil suive exactement l'orientation de celui du fursuiter, je pensais utiliser une (ou deux) caméras miniatures, il y a des modules avec de très bons rapports qualité/prix chez OV par exemple:
http://cgi.ebay.fr/CMOS-Camera-Module-O ... 2eac4fa745 La version couleur étant plus facile à trouver et moins chère que le modèle N&B.
Ils sont capables de sortir de la vidéo à une vitesse plus que correcte, et surtout dans des formats propices au traitement par des composants peu puissants.
J'aimerais éviter d'avoir à utiliser des machines surpuissantes déjà toutes faites, car si ça facilite beaucoup les choses en permettant d'utiliser des langages haut niveau et en fournissant une partie du hardware, ça se sentira sur l'autonomie et l'encombrement (quoique j'aurais bien touché à la 3DS si elle avait déjà un devkit libre...).
On peut faire du traitement simple avec pas grand chose: si l'oeil est assez éclairé et que la caméra est bien positionnée, j'imagine qu'on peut s'en sortir avec de la comparaison de luminosité et du "lissage" pour éviter que ça "décroche" quand on cligne des yeux.
![Image](http://furrtek.free.fr/noclass/eyetrack/dessin_oeil.jpg)
![Image](http://furrtek.free.fr/noclass/eyetrack/campic.jpg)
![Image](http://furrtek.free.fr/noclass/eyetrack/thresh.png)
Pour les yeux, je pensais soit utiliser deux petits écrans avec le nécessaire pour éviter les reflets et les problèmes d'angles de vision, soit des morceaux de sphères qui peuvent se déplacer ou pivoter mécaniquement. De toutes façons, à partir du moment où on peut chopper la position de la pupille avec assez de fiabilité, on peut aller faire un peu ce qu'on veut ensuite.
Le matos est actuellement en voyage sur les routes des mystiques contrées Chinoises...