Le principe est simple : la formule mathématique à afficher est une image, générée à la volée par ce site, en fonction d’une formule décrite selon la syntaxe de LaTex. L’avantage de cette méthode est qu’elle fonctionne dans tous navigateurs.
Le désavantage est que la qualité de l’image est discutable et nécessite un accès au site mentionné plus haut pour que l’affichage de l’article soit correct.
MathJax
C’est tout à fait par hasard que je suis tombé sur MathJax et plus particulièrement le plug-in MathJax-Latex. Il permet d’afficher une formule mathématique, décrite dans la syntaxe de LaTex, sous forme textuelle :
L’avantage de la forme textuelle est qu’elle supporte bien le zoom et permet d’être copier-coller. MathJax propose même un menu contextuel permettant un copier-coller plus performant.
La syntaxe est simple, il suffit de placer la formule entre les balises [latex] et [/latex]. Ainsi :
Il est également possible de placer la formule entre les délimiteurs $$. Par exemple :
$ $\sum_{k=1}^{n}k^{2}=\frac{n(n+1)(2n+1)}{6}$ $
Ce qui donne :
$$\sum_{k=1}^{n}k^{2}=\frac{n(n+1)(2n+1)}{6}$$
Attention : si vous avez installé le plug-in Jetpack, il faut désactiver l’extension latex. Sinon, les formules placées entre les balises [latex] seront affichées sous forme d’images.
Voici un petit problème physico-mathématique que j’ai trouvé très intéressant.
L’énoncé est très simple :
Une voiture se déplace d’un point A à un point B à la vitesse constante de 10 km/h.
À quelle vitesse (toujours constante) doit-elle rouler, en revenant du point B jusqu’au point A, pour que sa vitesse moyenne soit de 22 km/h ?
Le problème avec cette solution est qu’elle ne tient pas compte du temps. Si la voiture avait roulé autant de temps à 10 km/h qu’à 34 km/h, sa moyenne serait effectivement 22 km/h.
Mais, en roulant à 10 km/h le long de la distance AB, elle va passer plus de temps à cette vitesse qu’en revenant depuis le point B.
Deuxième solution
Dès lors, il faut réécrite notre équation en tenant compte du temps. Pour ce faire, rappelons la formule de base pour le calcul d’une vitesse :
$$vitesse = \frac{distance}{temps}$$
Dès lors, le temps pour parcourir une distance se calcule ainsi :
$$temps = \frac{distance}{vitesse}$$
Soient et les vitesses d’aller et de retour et la distance entre le point A et le point B.
Soit le temps passé pour aller du point A au point B :
$$t_{aller} = \frac{AB}{v_{aller}}$$
Soit le temps passé pour aller du point B au point A :
Il faut se rendre à l’évidence : notre calcul est mathématiquement parfaitement juste ! Par contre, il est physiquement irréalisable !
Explication
Cela peut être expliqué de la façon suivante : si à l’aller, notre vitesse moyenne est de 10 km/h, cela signifie qu’en une heure, nous avons parcouru 10 kilomètres. Si nous avions la possibilité de revenir instantanément à notre point de départ, nous aurions alors parcouru, en une heure, 20 kilomètres (l’aller-retour), ce qui donne une vitesse moyenne de 20 km/h.
En clair, il est impossible de faire plus que doubler sa vitesse moyenne.
Pour illustrer cela différement, dessinons la courbe de notre fonction :
On voit que la courbe pour une vitesse de retour positive tend vers 20 km/h.
Ceci peut être également démontré au moyen des limites.
À noter que si vous avez des notions de base d’électrotechnique et plus particulièrement de calculs de circuits de résistances, vous avez déjà utilisé, peut-être sans le savoir, la moyenne harmonique pour calculer un couplage parallèle de résistances.
Pour accéder à mon serveur maison depuis l’extérieur, j’ai configuré un compte DynDns.
Une fois le compte créé, un nom de domaine m’est réservé, à laquelle est associée l’adresse IP de mon modem ADSL.
Configuration du serveur
Cette adresse IP va changer régulièrement. Il faut donc installer sur le serveur Mac un petit logiciel (fourni par DynDns) qui va régulièrement communiquer à DynDns la nouvelle adresse IP.
L’installation du logiciel est très simple : il suffit de le copier dans le dossier Applications et de la démarrer.
Ensuite, ajouter un hôte (celui créé chez DynDns), l’activer, et la configuration du serveur est terminée.
Configuration du modem
Il reste encore à configurer le modem, afin qui redirige les données provenant de l’extérieur à la bonne machine, en l’occurrence le Mac mini.
En ce qui me concerne, mon modem (configurable au travers d’un navigateur internet à l’adresse 192.168.0.1) prend en charge le service DynDns, abrégé DDNS.
Il suffit donc de lui fourni mon nom d’utilisateur, mon mot de passe, le nom de l’hôte (mon_nom.dyndns.org dans mon cas) et le tour est joué !
Lorsque j’avais acheté ma caméra Canon HV30i en été 2008, un des critères que j’avais considéré comme déterminant était la présence d’un mode 25p, c’est-à-dire la possibilité de filmer en haute définition à 25 images/secondes en mode progressif.
Pendant plus de 2 ans, faute de temps, je n’avais pas exploité cette possibilité, me contentant de filmer en entrelacé. Mais il y a quelques mois, j’ai enfin pris le temps d’approfondir le sujet et de mettre en place dans Final Cut Pro les réglages nécessaires pour gérer ce fameux mode 25p.
Je ne le regrette pas !
Progressif, entrelacé, kesako ?
Avant d’aller plus en avant, il faut tout d’abord bien comprendre ce qu’est le mode entrelacé et en quoi il diffère du mode progressif.
Revenons donc aux principes de base de l’animation : pour reproduire une illusion de mouvement, celui-ci doit être décomposé en une succession d’images fixes. Ces images fixes seront ensuite diffusées les unes après les autres à une vitesse suffisante pour que le cerveau ait l’illusion de mouvement.
Au moment de la restitution du mouvement, trois problèmes doivent être surmontés : la finesse de l’image (sa résolution), le scintillement, et la fréquence de restitution (le nombre de fois par seconde qu’une image différente est affichée)[1].
Finesse de l’image
C’est le niveau de détail (la résolution, ou encore la définition) de l’image. Plus la définition est faible, moins l’image comportera des détails. En informatique, on parle souvent de pixel pour identifier le plus petit élément constituant une image. La définition standard découpe l’image en 576 lignes de 768 pixels. La haute-définition découpe l’image, par exemple, en 1080 lignes de 1920 pixels (il y a d’autres formats considérés comme haute-définition).
1080 lignes
576 lignes
288 lignes
Le scintillement
Grâce à la persistance rétinienne, au moment où une image n’est plus affichée, l’œil continue de la percevoir encore quelques millisecondes.
Toutefois, si une nouvelle image n’est pas réaffichée après 10 à 25 millisecondes (cela dépend de l’intensité lumineuse de l’image), l’œil perçoit une baisse d’intensité lumineuse, qui débouche sur une sensation de scintillement.
Pour que ce scintillement disparaisse complètement, il faudrait qu’une image soit affichée 80 fois par seconde (80 Hz). Dans certaines conditions (pièce sombre), 40 Hz est acceptable.
La fréquence de restitution
C’est la vitesse de défilement des images. Aux débuts du cinéma, la fréquence minimale pour restituer une illusion de mouvement a été établie à 12 images par seconde. Dans le but de garantir un confort de vision acceptable, la fréquence de 16 images par seconde s’imposa comme un minimum. Actuellement, le cinéma traditionnel utilise une fréquence de 24 images par seconde (cette fréquence avait été choisie pour garantir une qualité sonore suffisante de la bande son). Bien qu’acceptable cette fréquence ne permet pas de reproduire les mouvements avec une fluidité parfaite. Pour y parvenir, il faudrait une fréquence d’au moins 50 images par seconde.
Résolution de ces problèmes au cinéma
Le cinéma restitue 24 images complètes par seconde. Pour éviter le scintillement, chaque image est projetée deux fois[2][3]. Il y a donc chaque seconde 48 projections d’image, mais avec 24 images différentes.
La résolution de l’image dépend de la pellicule et de la qualité de la copie. Par exemple, une pellicule 35 mm peut reproduire une résolution de 1536 lignes de 2048 pixels[4].
Résolution de ces problèmes en télévision
L’arrivée de la télévision dans le milieu du XXe siècle change considérablement la façon de restituer une image et à fortiori le mouvement.
Contrairement au cinéma où l’image est affichée instantanément dans son intégralité, sur un écran à tube cathodique, l’image est produite par un faisceau d’électrons qui balaye la surface de l’écran afin d’en allumer certains points (les photophores). L’image est donc affichée point par point, par un mouvement rapide en Z du faisceau.
De plus, des contraintes techniques ont imposé que la vitesse de balayage de ce faisceau doive être synchronisée sur la fréquence du réseau électrique (contrainte technique de l’époque découlant de problèmes de parasitage par l’électronique[5][6]. La fréquence du réseau électrique en Europe (50 Hz) impliquait donc 50 images par seconde. Toutefois, avec les techniques de l’époque (dans les années 30), il n’était pas possible d’afficher beaucoup plus que 200 lignes en 1/50e de seconde[7].
D’ailleurs, même s’il avait été possible de transmettre une image de plus de 400 lignes 50 fois par seconde, cela aurait été beaucoup trop gourmand en bande passante.
Un autre problème serait survenu lorsqu’une image complète était affichée ligne par ligne : avec les photophores de l’époque, le haut de l’image aurait commencé à s’estomper alors que le bas de l’image n’était pas encore affiché, ce qui aurait rendu le phénomène de scintillement inacceptable[8].
L’idée a donc été de découper une image (faite donc de plusieurs lignes) en deux demi-images (deux trames), constituée pour la première des lignes impaires de l’image complète et pour la deuxième des lignes paires. Cette solution résolvait plusieurs problèmes : la bande passante nécessaire était acceptable, la restitution du mouvement suffisante (25 images complètes par seconde), la fréquence de 50 Hz limitait la perception du scintillement et l’affichage de l’image complète en deux passages réduisait l’impact de la diminution d’intensité des photophores.
À noter que, bien que la plupart du temps, la première trame (demi-image) est constituée des lignes impaires (on parle également de trame supérieure, ou encore de UFF pour upper field first), certains formats (particulièrement le format DV) utilisent pour la première image les lignes paires (on parle également de trame inférieure ou encore de LFF pour lower field first).
Aux États-Unis (ainsi que dans certains autres pays), la fréquence du réseau électrique est de 60 hertz. Le faisceau d’électrons affiche donc 60 demies-images par seconde, soit 30 images complètes par seconde. Cette fréquence légèrement plus élevée atténue d’ailleurs encore d’avantage le phénomène de scintillement.
Lorsqu’une image complète est formée de deux demies-images, on parle d’un affichage entrelacé (interlaced en anglais). Si 50 demi-images sont affichées par seconde, on parle d’un format 50i. Si ce sont 60 demi-images qui sont affichées chaque seconde, on parle d’un format 60i.
Lorsqu’une image complète est formée d’une image pleine, on parle d’affichage progressif (progressive en anglais). Si 25 images complètes sont affichées chaque seconde, on parle d’un format 25p. Le format du cinéma traditionnel est donc noté 24p.
Pour en savoir plus, je recommande l’excellent site VSB, véritable mine d’informations.
Capture vidéo
À l’époque où les caméras vidéo se sont démocratisées, l’immense majorité des téléviseurs étaient à tube cathodique et n’étaient capable que de diffuser une image entrelacée. Les caméras se sont donc basées sur ce système pour la capture des images et le stockage sur cassettes vidéo.
Pour illustrer cela, prenons la séquence d’un train qui se déplace. Cette séquence présente 4 images, chacune d’une durée de 1/50e de seconde.
à 1/50e
à 2/50e
à 3/50e
à 4/50e
Mouvement de base
capture 50i
capture 25p
Un avantage d’une capture 50i apparaît immédiatement : il y a plus d’images par secondes qu’en 25p, ce qui semble préférable lors d’un mouvement rapide. Par contre, c’est au détriment de la résolution verticale : ce sont bel et bien des demi-images et non pas des images complètes.
Montage non-linéaire
Quel que soit le mode (50i ou 25p), les logiciels de montage non-linéaire travaillent sur une base de temps de 25 images par secondes (en Europe), afin de manipuler des images complètes.
En 50i, une image complète est donc formée de deux demi-images qui ont été filmées à un moment différent (20 ms les sépare). Un objet en mouvement sera alors à une certaine position sur la première demi-image, et un peu plus loin sur la deuxième. Lorsque ces deux demi-images sont affichées simultanément, il en résulte un effet de peigne bien visible sur l’exemple ci-dessous.
à 1/25e
à 2/25e
50i
25p
Note : Souvent, en 50i, cet effet n’est pas visible dans le logiciel de montage du simple fait que l’image n’est pas affichée à la bonne échelle. Elle est en effet souvent réduite en taille afin d’avoir sur le même écran l’image et les autres fenêtres graphiques du logiciel de montage (par exemple la ligne de temps et les chutiers). Pour que l’effet soit observable, il est donc important que l’image soit affichée à 100% de sa taille.
Image filmée en 50i, mais affichée à 40% : l’effet de peigne est invisible.
Image filmée en 50i, affichée à 100% : l’effet de peigne est visible.
Image filmée en 25p, affichée à 40%
Image filmée en 25p, affichée à 100%
Cet effet de peigne est révélateur du problème des images entrelacées : une image pleine est faite de demi-images. Les effets de montage (ralenti, fondu, floutage, etc.) devront donc être calculés sur des demi-images. La compression est également faite sur des demi-images.
Cela complique les choses, mais reste nécessaire si le film obtenu a pour but d’être diffusé sur un appareil reproduisant uniquement des images entrelacées (sur de tels appareils, l’effet de peigne est d’ailleurs inexistant).
Par contre, si le film peut être diffusé sur un support reproduisant des images de façon progressive, alors toute la complexité amenée par l’entrelacement disparaît.
En l’occurrence, depuis quelques années, une grande partie des supports de diffusion de films travaillent en mode progressif, en particulier les écrans d’ordinateur et les téléviseurs modernes (plasma, LCD, etc). D’ailleurs, la diffusion d’un film entrelacé sur un appareil progressif est médiocre, car l’effet de peigne est flagrant (à moins que le dispositif soit capable de désentrelacer la source).
Car pour éviter l’effet de peigne à partir d’une image entrelacée, il faut la désentrelacer. Selon la performance du logiciel utilisé, ce désentrelacement sera de plus ou moins bonne qualité, le but étant d’essayer tant bien que mal de reconstituer des images complètes à partir de deux demi-images décalées dans le temps.
Différence de qualité d’image
J’ai déjà mentionné plus haut que lors du traitement des images, il est plus facile de travailler sur des images entières que sur des demi-images entre autres pour les effets spéciaux.
Mais, en terme de qualité d’image, y a-t-il une différence ? Comparons :
image extraite d’une vidéo entrelacée
image extraite d’une vidéo progressive
Bien que la différence soit minime, on perçoit tout de même une meilleure finesse verticale avec une image progressive. Le visage du personnage est révélateur :
détail d’une image entrelacée
détail d’une image progressive
On constate d’ailleurs que la compression provoque moins d’artefacts sur l’image progressive que sur l’image entrelacée.
Mais ma plus grande surprise a été la différence de sensibilité en basse lumière.
image extraite d’une vidéo entrelacée
image extraite d’une vidéo progressive
C’est peut-être difficile à croire, mais les deux images ci-dessus ont été réalisées sous des conditions d’éclairage strictement identiques !
Voici une vidéo qui illustre et compare ce qu’on vient de voir.
Finalement, voici en guise de dernière comparaison un cas extrême : une image faite de lignes de un pixel. C’est le cas le pire pour une vidéo entrelacée, car ces lignes n’apparaissent qu’une trame sur deux et provoquent donc un effet de scintillement très désagréable.
À noter que les vidéos originales (encodées avec l’Apple Intermediate Codec) ont été converties en MP4. On voit d’ailleurs que la vidéo entrelacée complique la tâche de la conversion/compression en MP4. Il en résulte d’ailleurs des artefacts indésirables.
Du progressif de bout en bout
Il semble donc évident qu’à l’heure actuelle, si une vidéo à pour but d’être visionnée sur un ordinateur ou sur un téléviseur moderne, l’idéal est de travailler en progressif de bout en bout : de la capture en passant par le montage, jusqu’à la diffusion.
La capture
La capture reste la première difficulté majeure pour obtenir du progressif : la plupart des caméscopes grand public capturent une image entrelacée (mais je suis sûr qu’au fur et à mesure que cet article deviendra âgé, cette affirmation sera de moins en moins exacte).
D’après mes constatations, Canon est un des premiers constructeurs à proposer le 25p (sans doute à cause de son historique orienté appareils photos, monde dans lequel l’entrelacement n’existe pas). La plupart de ses caméscopes HD proposent donc le mode 25p.
Dans ce mode, la capture est donc progressive, mais encore souvent (en particulier sur les caméscopes à cassettes) l’enregistrement est fait en entrelacé. C’est le cas de la Canon HV30i.
Le principe est simple : l’image complète est découpée en deux trames, qui sont enregistrées comme si ces trames avaient été capturées de façon entrelacée.
Le montage
Notre clip vidéo, filmé en mode progressif, a donc été “laminé” pour être enregistré comme un clip entrelacé.
Lors de son importation dans Final Cut Pro, si rien de particulier n’est fait, le clip sera importé comme un clip entrelacé et manipulé également comme tel. Il faut donc indiquer à Final Cut Pro que le clip en question a été filmé en mode progressif et qu’il faut le traiter comme tel. Cela peut se faire directement dans la fenêtre Navigateur si l’affichage a en mode liste, en cliquant avec le bouton de droite sur la colonne Priorité de trame du clip (ou des clips) sélectionné(s).
Il est également possible d’ajuster la priorité de trame clip par clip, par le menu contextuel du clip (Propriétés de l'élément→Format).
Une fois la priorité de trame ajustée pour tous les clips, il est bien sûr primordial de les utiliser dans une séquence également configurée pour le mode progressif (menu contextuel de la séquence→Réglages).
La manipulation est donc toute simple, encore faut-il ne pas oublier de la faire.
Ainsi, l’entrelacement n’est plus qu’un mauvais souvenir hérité des premières méthodes de diffusion et de reproduction d’images animées !
Au cours de ma formation pédagogique, j’ai été amené à faire une présentation de 30 minutes sur un thème à choix.
Après de nombreuses hésitations et de multiples changement d’avis, j’ai choisi le thème à la mode de la 3D. Voici le document que j’ai écrit et qui a servi de base à ma présentation.
À noter également que bien que la plupart des images et illustrations qui jalonnent cet article soient de moi, j’en ai utilisé certaines sans l’autorisation de leurs auteurs. Pour certaines, je n’ai même pas retrouvé l’auteur.
Si une de vos images se retrouve sur cette page, n’hésitez pas à me contacter pour que je puisse la retirer.
Introduction
Depuis quelques mois, dans le domaine de l’image (particulièrement de l’image animée, c’est-à-dire du cinéma et du home-cinéma), le concept à la mode est la 3D, autrement dit la perception du relief et de la profondeur.
Il ne se passe pas une semaine sans qu’on annonce que l’avenir du cinéma sera 3D ou ne sera pas.
Il ne se passe pas une semaine sans qu’un nouveau tournage de film soit annoncé en 3D.
Il ne se passe pas une semaine sans qu’un fabriquant d’appareils domestiques n’annonce une prise en charge révolutionnaire de la 3D.
Mais, la 3D, c’est quoi ? Comment est-ce que ça fonctionne ? Qu’est-ce que ça apporte ?
Vision binoculaire
Nous percevons le relief grâce à nos deux yeux, qui nous offrent une vision binoculaire. Ceux-ci étant distants d’environ 65 mm, chacun ne voit pas exactement la même chose, en particulier pour les objets proches.
L’oeil gauche envoie donc au cerveau une image légèrement différente de celle envoyée par l’oeil droit. Le cerveau se charge alors de combiner ces deux images et de construire une représentation tri-dimensionnelle de ce que l’on voit.
Exercice :
Placer son index au bout de son nez, à une distance d’environ 10 centimètres, et cligner successivement des yeux : chaque oeil voit l’index différemment.
Cette vision tri-dimensionnelle nous permet de percevoir les reliefs et les distances. Les distances sont très précises (environ 10 centimètres de précision à une distance de 10 mètres) mais diminue fortement lorsque les distances augmentent.
Pathologies de la vision binoculaire
La vision binoculaire nécessite de faire travailler les deux yeux comme un seul, en parfaite coordination motrice et sensorielle.
Certains personnes auront des difficultés à avoir une vision binoculaire, par exemple à cause d’un strabisme ou d’autres problèmes liés à la vision.
La perte d’un oeil supprime toute possibilité de perception du relief par la vision binoculaire, rendant certains gestes de la vie de tous les jours plus difficiles à accomplir. Toutefois, les borgnes parviennent à appréhender l’espace.
Exercice :
Déboucher un stylo et le tenir d’une main à 20-30 cm devant soi.
Fermer un oeil et avec l’autre main, essayer de le reboucher.
Ceci est possible parce que le cerveau utilise d’autres informations que la vision binoculaire pour percevoir le relief.
Perception du relief
Avec une vision monoculaire
Même avec un seul oeil, notre cerveau est capable de percevoir la profondeur, en analysant ce qu’il voit et en tenant compte de ce qu’il connaît. Cette capacité lui permettra de reconstituer la profondeur.
D’ailleurs, la plupart de nos médias (livre, télévision, écran de cinéma, moniteur d’écran, photo) n’étant qu’une simple surface plane (donc sans profondeur), ils font abondamment usage de techniques de perception monoculaires donnant à notre cerveau l’illusion de profondeur.
Les illusions d’optique se basent sur cette même capacité du cerveau, mais en essayant de le duper.
Accommodation
L’effort musculaire nécessaire aux yeux pour observer un objet proche de façon nette (l’accommodation) donne au cerveau une information sur la distance de ce qu’il observe.
L’accommodation devient inopérante au-delà de 10 mètres.
De plus, lorsque l’oeil est focalisé sur un objet proche, l’arrière-plan est flou.
En photographie, l’espace dans lequel un objet sera perçu comme net est la profondeur de champ et permet à l’image de gagner en profondeur.
Perspective linéaire
La perspective linéaire est la convergence des lignes vers un (ou plusieurs) point de fuite.
C’est seulement vers le XVe siècle environ que la perspective est couramment utilisée pour proposer une représentation au plus proche de la réalité.
Superposition des contours
Les contours d’un objet éloigné sont éventuellement cachés partiellement par un objet rapproché. Ce principe est essentiel dans l’aide à une perception monoculaire.
On sait que les nuages dans le ciel sont plus proches de nous que la lune parce qu’ils peuvent la cacher.
Cet effet est souvent accentué en dessin en utilisant des traits plus épais pour les éléments proches et plus fins pour les éléments éloignés.
Plusieurs illusions d’optique se base sur ce phénomène pour perturber la perception de la profondeur de notre cerveau.
Ombrage
L’existence des zones ombrées et des zones éclairées facilite la représentation des formes à trois dimensions à partir d’une image plane.
Cet effet d’ombrage est un élément psychologique très important dans la perception de la profondeur et du relief. Comme on est habitué à voir la lumière venant d’en haut, un relief sera éclairé par le haut et son ombre sera projetée dans la zone inférieure.
Cette technique a été énormément utilisée en informatique pour donner une sensation de relief aux interfaces graphiques.
Taille relative d’objet connu
Souvent on a une connaissance assez précise de certains objets dans une scène. Ainsi, la taille d’un image nous permet d’apprécier la distance à l’objet (par exemple : taille d’un personnage).
Les objets apparaissent plus grands lorsqu’il sont près et la mémoire permet de juger de la distance vers des objets familiers.
Perspective de texture
La réduction progressive d’une texture dans une direction ou sa déformation provoque une perception de profondeur et de relief.
Perspective de surface (perspective atmosphérique)
La perspective de surface se forme par l’atténuation des contrastes des objets lointains due à la diffusion atmosphériques.
Dans la nature, les objets éloignés sont plus ou moins indistincts, et les objets rapprochés, au contraire, sont nets. Ceci donne avec le concours des phénomènes atmosphériques, une sensation de profondeur renforcée.
D’autre part, la densité de l’atmosphère aura tendance à donner une teinte bleutée aux objets éloignés.
Le parallaxe du mouvement
Lorsqu’on se déplace, les objets qui sont le plus près de nous sembleront se déplacer plus rapidement que les objets plus éloignés. Cette information est très importante dans la perception de la profondeur.
Ce phénomène est très facile à observer lorsqu’on est assis dans un train et que l’on regarde le paysage au travers de la fenêtre.
En résumé
La simple vision monoculaire peut nous donner une sensation du relief, puisqu’en regardant une image plane, on n’éprouve aucune difficulté à repérer ces objets les uns par rapport aux autres.
Mais cette vision de relief basée sur ces facteurs monoculaires, nous donne seulement une connaissance grossière du relief fin car l’information fournie par les facteurs monoculaires est une vue totale de l’espace. Pour obtenir une perception fine du relief, être capable de percevoir le géométrie locale est indispensable, ce qui n’est possible que dans la condition binoculaire, c’est-à-dire la vision stéréoscopique.
Avec une vision binoculaire
Pour reproduire le relief avec une vision binoculaire, il faut que chaque oeil perçoive une image différente.
Il y a principalement deux façons d’obtenir des images différentes pour chaque oeil : avec accessoire (généralement des lunettes) ou sans accessoire.
Avec accessoire
L’accessoire en question est toujours le même : une paire de lunettes. Le but de cette paire est de garantir que l’image vue par l’oeil gauche n’est pas la même que celle vue par l’oeil droit.
Lunettes à filtres polarisants
La lumière émise par le soleil ou par une ampoule se diffuse dans toutes les directions.
Le filtre polarisant se charge de ne laisser passer que les ondes lumineuses d’un sens donné.
Il est donc possible de projet deux images différentes, sur le même écran, en les polarisant différemment (décalage de 90 degrés entre elles).
Le premier projecteur diffuse sur l’écran une image polarisée verticalement.
Un deuxième projecteur diffuse sur le même écran une image polarisée horizontalement.
L’écran affiche donc deux images mélangées, l’une polarisée verticalement et l’autre polarisée horizontalement.
Il ne reste plus qu’à regarder l’écran au travers de lunettes elles-mêmes polarisées.
Ainsi, l’oeil de gauche ne percevra que l’image de gauche (polarisée horizontalement) et l’oeil droit ne percevra que l’image de droite (polarisée verticalement).
Projection alternée
Le principe ici est d’alterner vision gauche et vision droite d’une manière suffisamment rapide pour que le cerveau ne perçoive pas la différence (grâce à la persistance rétinienne).
Alternativement, c’est l’image pour l’oeil droit (A) qui est projetée, l’image de l’autre projecteur étant obturée.
Ensuite, c’est l’image pour l’oeil gauche (B) qui est projetée, l’autre projecteur étant à son tour obturé.
Ce système nécessites des lunettes à cristaux liquides, qui deviennent opaques (un oeil est bouché) alternativement, selon les images projetées à l’écran. La difficulté réside dans le fait de synchroniser les lunettes à l’écran, ce qui les rend un peu plus coûteuses et consommatrices d’énergie.
Projection d’anaglyphes
C’est la première technique qui a été inventée et c’est la plus simple à mettre en place. Elle se base sur l’utilisation de filtres de couleurs (différents pour chaque oeil) pour que chaque oeil perçoive une image différente.
Un anaglyphe est constitué de deux images superposées (appelées homologues) de couleurs complémentaires représentant la même scène mais vue de points légèrement décalés : le plus souvent la vue gauche en rouge et la vue droite en cyan.
On projette sur un écran les homologues. Dès lors, il ne reste plus qu’à regarder la projection à l’aide de lunettes teintées des deux couleurs complémentaires pour avoir l’impression de relief. Ces lunettes peuvent être fabriquées soi-même ou achetées toutes faites (pour ma part, je les ai commandées ici).
D’autres couleurs sont aussi possibles, comme le jaune et bleu, ou le rouge et bleu.
Le désavantage de ce procédé est que l’image retransmise de cette manière n’est jamais d’une qualité exceptionnelle, surtout pour ce qui concerne le rendu des couleurs. De plus, comme chaque œil envoie au cerveau une image de teinte différente, celui-ci doit faire un travail supplémentaire de reconstitution qui peut rapidement devenir source de maux de tête et de fatigue oculaire.
Pour créer un anaglyphe, il faut au départ deux images légèrement décalées (des images de synthèse ou des photographies).
vue de l’œil gauche
vue de l’œil droit
Les couleurs produites par un ordinateur sont faites des composantes rouge, verte et bleue.
Le cyan s’obtient par l’addition des composantes bleue et verte.
Derrière le filtre rouge, l’œil gauche ne verra que la composante rouge. La composante cyan est enlevée. Comme le cyan est obtenu par la combinaison des couleurs de base verte et bleue, ces deux composantes sont enlevées.
Derrière le filtre cyan, l’œil droit ne verra que la composante cyan. La composante rouge est enlevée.
Il suffit ensuite de reconstruire une nouvelle image, qui fusionne la composante rouge de l’image destinée à l’œil gauche et les composantes verte et bleue de l’image destinée à l’œil droit.
Voici pour le plaisir, quelques anaglyphes supplémentaires :
Il est possible de voir une image en trois dimensions sans accessoires. On parle alors d’auto-stéréoscopie.
Strabisme convergent
L’idée est de croiser les images (l’image de gauche est mise à droite et celle de droite est mise à gauche) et de loucher. L’oeil gauche vise l’image de droite et l’oeil droit vise l’image de gauche.
Cette technique fonctionne, mais n’est pas facile à réaliser pour le spectateur. Elle est source de fatigue musculaire élevée et peut être sujette à maux de tête et nausée. Elle est rarement utilisée.
Strabisme divergent
Une autre technique est d’accommoder la vision derrière l’image. Elle demande également beaucoup d’entraînement mais est plus reposante pour les yeux. Toutefois, le résultat n’est pas vraiment exploitable pour des images réelles, chaque œil distinguant quand même en périphérie l’image destinée à l’autre œil.
Par contre, elle est couramment utilisée pour les fameux stéréogrammes.
À noter que la vision divergente, lorsqu’elle est maîtrisée, permet de repérer facilement les différences entre deux images (les différences ont tendance à clignoter).
Par exemple, sans la technique de vision divergente, il est très difficile de repérer les 7 différences entre les deux images ci-dessous, alors que l’exercice est plutôt simple avec la vision divergente (les différences semblent clignoter aux yeux).
Alioscopie
L’alioscopie consiste à diffuser des images en relief sans avoir besoin de lunettes 3D. L’impression de relief est obtenue grâce à un réseau de microlentilles placé à la surface de l’image, constituée d’images imbriquées représentant chacune un point de vue pris sous un angle différent. Ainsi, chaque oeil perçoit une image différente.
Holographie
L’holographie est une technique connue depuis les années 1950 et rendue possible dans les années soixante grâce à la mise au point des lasers.
Contrairement à la photographie classique qui n’enregistre sur la surface sensible que la luminosité, l’holographie permet d’enregistrer également la phase de la lumière ce qui permet d’enregistrer les informations nécessaires à la restitution du relief.
Pour que la restitution soit bonne, il faut que l’hologramme soit éclairé par une lumière cohérente.
Cette technique n’est pas encore applicable pour les systèmes grand public, mais reste la plus prometteuse.
Conclusion
On voit que même en cas d’une vision monoculaire, le cerveau dispose de nombreuses informations pour recréer le relief et la profondeur. Ces informations sont précieuses et nous permettent de réaliser un grand nombre de choses au quotidien.
Toutefois, la vision binoculaire nous offre une visualisation très fine du relief pour les objets à portée de bras, ce qui est primordial pour mener à bien des tâches nécessitant une appréciation fine de l’espace. Elle est particulièrement importante par exemple dans le domaine de la chirurgie. Dans un tel domaine, être capable de fournir au médecin une reproduction stéréoscopique devient un réel progrès.
Dans le domaine du divertissement au sens large, cette nouvelle technologie augure d’un avenir financier juteux car elle implique un renouvellement complet du matériel. Pour le consommateur et le spectateur en revanche, son intérêt reste à prouver. Au-delà de certaines images proprement ahurissantes, une partie non-négligeable des spectateurs souffre de nausée, de maux de tête, de fatigue oculaire ou n’est tout simplement pas prête à payer d’avantage pour une troisième dimension qui n’amène pas forcément quelque chose d’indispensable.
Encore trop souvent, la troisième dimension d’un film cache une mauvaise histoire.
Si tu n’arrives pas à le faire bien, fais le en 3D !
À l’occasion des portes-ouvertes de l’école, deux élèves ont présenté le pilotage d’un drone au moyen d’un iPhone.
En l’occurence, il s’agissait de l’AR.Drone de Parrot, un hélicoptère quadrirotor. Nous l’avons acheté à la FNAC (France) pour 300€.
Le drone génère un réseau wifi sur lequel vient se connecter un iPhone. Avec une application ad-hoc, il est ensuite possible de piloter cet hélicoptère !
Au premier abord, ce produit est fascinant : il est très facile à piloter (quoique difficile d’être très précis dans ses déplacements), ajuste automatiquement sa hauteur par rapport au sol, possède une caméra frontale et une caméra verticale et est capable de se stabiliser en vol stationnaire de façon automatique.
J’imaginais déjà utiliser ce drone pour filmer ma maison en hauteur.
Dans la pratique, ce drone se révèle être un gadget encore peu fiable et d’une utilité discutable. Voici en bref les défauts que je lui ai trouvé :
Autonomie de la batterie largement moins longue que celle indiquée (12 ou 15 minutes selon les sources). En ce qui nous concerne, nous n’avons jamais réussi à faire voler le drone plus de 5 minutes.
Fiabilité de la batterie : il nous est arrivé plus d’une fois qu’après quelques secondes de vol (avec batterie pleine), l’alimentation se coupe instantanément, provoquant la chute du drone. Ces accidents à répétition sont désastreux pour le drone car ils provoquent des dégats.
Fragilité des bras soutenant les hélices : une fragilité certainement due à la légerté nécessaire pour faire voler ce drone (360-400 grammes). Après une mauvaise chute, ces axes ont cassé (heureusement, notre atelier de mécanique a pu réparer les dégâts).
Electronique pas toujours fiable : est-ce que les problèmes que nous avons eu sont dus aux chutes à répétition ? Mais souvent, sans que l’on sache pourquoi, le drone refusait de s’initialiser et donc de décoller.
Impossible d’enregistrer ce que filme le drone sans que les boutons de pilotage apparaissent sur l’image.
La caméra verticale est d’une résolution complètement insuffisante (176 x 144 pixels).
En résumé, cet AR.Drone est un gadget prometteur, sous certains aspects épatant, mais qui manque encore cruellement de fiabilité.
Pour terminer, voici un film conçu en atelier d’informatique et qui présente l’AR.Drone.
Lors de sorties ou d’événements en famille ou entre amis, il est fréquent que plusieurs personnes aient leur propre appareil photo. J’aime donc bien récupérer les photos de tout le monde pour les ajouter à ma bibliothèque de photos.
Malheureusement, la plupart des gens oublient de (ou ne savent pas) régler la date et l’heure de leur appareil photo. Ou alors ne mettent pas à jour l’heure suite à un passage à l’heure d’été ou à l’heure d’hiver.
Cela me pose problème car les photos n’apparaissent pas triées correctement dans iPhoto. Heureusement, il existe un moyen très simple pour corriger l’heure et la date d’un groupe de photos.
Sélectionner le groupe de photos dont l’heure et la date doivent être décalées;
Sélectionner Ajuster la date et l'heure... dans le menu Photos;
Indiquer la date et l’heure correctes de la première photo. Le décalage ainsi obtenu sera répercuté sur toutes les autres photos.
Il est également possible de dire si ces changements doivent être appliqués aux fichiers originaux, ce que je recommande de faire.
Démarrer l’ajustage en cliquant sur Ajuster.
C’est tout simple et iPhoto nous épargne un travail fastidieux si cela devait être fait à la main !
Un beau jour, ce message d’erreur (en anglais : Your PHP installation appears to be missing the MySQL extension which is required by WordPress) est apparu à la place de deux blogues WordPress que je gère.
Ces blogues sont situés chez mon hébergeur et se trouvent chacun dans leur propre répertoire.
Le support de mon hébergeur m’a suggéré de désactiver les extensions (plugins) et les thèmes. Pour le faire sans passer par l’interface WordPress (qui n’est bien sûr pas disponible lorsque le blogue est inaccessible), il faut se connecter par FTP au serveur de fichiers et renommer les plugins à désactiver, de sorte que WordPress ne les retrouve plus.
Cette solution n’a pas fonctionné.
Par contre, j’ai découvert en me connectant par FTP que deux fichiers trônaient dans le répertoire racine du blogue : php.ini et fastphp.ini. Je n’avais jamais vu ces fichiers. J’ai tenté de les renommer (plutôt que de les effacer) et bingo ! Mon blogue fonctionne à nouveau !