hibis  "trois sites"

hibis, rien que
la réalité

hibis       Idées-perso.

  •  sommaire par thème
    •  Maison ustensiles/matériels de cuisine, usage, hygiène et santé, rangement, voyages, déco..
    •  Environnement maison voiture, vélo, chiens/chats, bâtiment, jardin..
    •  Bricolo Peindre, collages, se dépanner (dont électricité), travaux courants, fixer, démonter, restaurer..
    •  Technique PC-Windows et environnement, pixels - Photo - Electricité pratique (compréhension), électromagnétisme, moteurs spécifiques..
  • sommaire global

email         mise à jour/rubriques du site   

  •  Pages "Informatique et Technique"
    •  micro-ordinateur (PC) Windows à l'écran (zones cliquables), ses programmes utiles, tout sauvegarder, manipulation des fichiers, mémoires et disques durs, programmes utilitaires, recherche, notion de registre..
    •  des pixels partout pixels et sous-pixels: écrans, imprimantes, capteurs.. qualité, reproduction, tailles apparentes ou réelles.
    •  la photographie.objectifs, capteurs, prise de vue, profondeur de champ, zoom.
    •  Electricité piles/batteries (usage, danger, tests), éclairage (filamment, néon, basse consommation, LED), voiture électrique, courant continu/alternatif, mesures, énergie, résistance, électricité statique..
    •  électricité et électromagnétisme flux magnétique, bobines, transformateurs..
    •  électromagnétisme générateurs, moteurs (dont spécifiques)..
ou,   global "informatique-technique"
Cette page: Pixels partout -   écran, imprimante, capteur       (bas)

English

Pixels   Pixels partout. pixel, et sous pixels, octet
capteur d'image, capteur   appareils photo, traitement d'images
copieur graphique, scanner   ce que l'on fait, ce que l'on voit
afficheur d'image  écran (dalle) de PC, TV, technologies
imprimantes  pour le meilleur réglage, économie
appareil photo  objectifs (focales)et diaphragme: conséquences
la prise de vue  cadrage, éclairage, balance des blancs, le bougé
caméscope  sauver une séquence, astuces effets de transition
Son  acoustique, enceintes et installation, codage informatique

Précautions.  Smartphones et appareils photo sont souvent exposés "à tous vents". Mieux vaut leur épargner la forte chaleur, la pire derrière une vitre de voiture, le vent et ses poussières, la plage et son sable, qui a bloqué tant de zooms et autres boutons). Mieux vaut les protéger aussi de l'eau, et plus encore des sournois embruns et leur eau salée; cela sur la côte, sur un bateau. Il suffit d'une pochette en plastique, c'est peu de choses.


Pixels partout, pixels fétiches.

 Projection "tête haute", "réalité virtuelle", appareils photo", scanners, imprimantes, médical, toute "l'imagerie" est prise dans leur déluge.

Qu'est donc un pixel (px)?    Définition: ce mot anglais est la contraction de "picture" et "element" (pix et el). Le mot élément désigne donc la surface unitaire de base qui, répétée en grand nombre, produira une image. Pas une, mais trois ou même quatre, pour la couleur.

La taille et la forme du pixel. Vaste débat, quasiment le sexe des anges. Et internet foisonne de réponses. Pertinentes, savantes, intéressantes, mais pour le cas insuffisantes. Comme pour le sexe des anges, on va jusqu'à en oublier l'évidence, la reproduction asexuée de la Vierge. Et voilà un domaine qui me plaît. J'y ai moi-même recherché des précisions sur les pixels physiques, afin d'approfondir ma connaissance des technologies (fabrication de capteurs et dalles PC/TV).

Pour être clair, il y a fondamentalement, deux grandes catégories de pixels: Le pixel PHYSIQUE (matériel, construit), donc fixe, et le pixel INFORMATIQUE (virtuel), expression du premier, mais variable par essence.

NOTATION strictement PERSONNELLE. Je nomme pixel, point, photosite, ce qui est relatif à un élément de base, qui ne peut être subdivisé. Je nomme tri/quadri pixel, point, photosite, l'ensemble des éléments qui constituent une entité couleur complète. Cela pour éviter toute confusion, ainsi que l'appellation sous-pixel, impropre.
Trois couleurs "primaires", rouge, vert, bleu (rvb), sont suffisantes pour restituer toute couleur, en l'état actuel "limitées" à 16 millions du fait de la limitation à 256 (de 0 à 255) les niveaux possibles d'intensité de chaque couleur. Le produit 256 x 256 x 256 = 16.777.216   Pourquoi "quadri" ? Il s'agit de mieux approcher notre vision, qui est accentuée pour les verts. On place donc deux points verts pour un bleu et un rouge.

Et LA VERITE est apparue.: Pourquoi se soucier de la forme et de la taille du pixel/point/photosite physique d'un capteur, duquel ne sortira finalement qu'un courant électrique, porteur d'une valeur de niveau d'éclairage. ET, reprenant le même raisonnement, Pourquoi se soucier de la forme du Point/pixel de la dalle du PC ou de la télé, duquel ne sortira finalement qu'un niveau d'éclairage de même valeur, de telle sorte que nos yeux et notre cerveau puissent voir l'image reproduite. Car rien ne transmet la forme des capteurs, que L'ON NE DOIT PAS VOIR.
Le quadri-pixel/quadri photosite du capteur peut donc avoir une forme de trèfle ou de banane, l'important est qu'il soit petit, efficace, fidèle, peu coûteux !
le tri-pixel de la dalle restitutrice peut donc avoir la forme et la taille d'une pastèque, SI L'ELOIGNEMENT de l'écran permet à notre oeil de fusionner les formes et les trois couleurs, notre oeil ne verra qu'un point coloré, fondu dans l'ensemble de l'image. C'est une question d'angle de vue. Plus près l'image serait pixélisée (en numérique), ou floue (en analogique). Pareil écran géant serait conçu pour être vu à un kilomètre. Avec la HD et ses petits pixels, de grands écrans peuvent être regardés de plus près que les petits écrans couleur d'autrefois, en 625 lignes! (norme qui a succédé au noir et blanc SECAM, 819 lignes).

Autre aspect de cet angle de vue, lorsque notre oeil ne peut agrandir en s'approchant davantage (il faut une loupe), nous sommes incapables, sur une photo 10X15, de faire la différence entre une photo prise en à Mpx ou à 10 Mpx. Voir plus loin à ce sujet, taille des photos et affichage réel.


Capteur d'images.

UNE raison de se SOUCIER de la TAILLE et de LA FORME. D'un point de vue scientifique, mais aussi qualitatif, la disposition des pixels/photosite et des différentes couches et circuits annexes tels que filtres divers, micro-loupes, transfert de charges électriques etc), peut avoir une grande incidence sur la rapidité, la sensibilité, la qualité, la réduction des travers, ou le prix. Dans ce domaine, la recherche est active et les changements constants.

les capteurs CCD ou CMOS. L'élément électronique de base (composant), qui capte la lumière, est désigné par le nom de "photosite". Ce photosite peut être constitué avec de la technologie CCD ou CMos. Il y a des avancées ou des variantes tentées par les fabricants). Les surfaces (cellules) photo réceptrices sont sensibles au spectre de notre lumière visible, et bien au-delà, il convient donc de les limiter aux rayonnements que nous percevons, et pour cela, on place un filtre au-dessus (comme une crème solaire ou des lunettes qui filtrent les UV). Il faut également les spécialiser dans une couleur puiqu'ils ne les distinguent pas. Un autre filtre, par exemple bleu, sera donc placé devant le CCD ou CMOS. En fait, il s'agit d'un damier de bleu collectif, puisque 1/3 des éléments récepteurs CCD ou CMOS sont dédiés au bleu. Au final, il y aura un damier composé de cases bleues, vertes et rouges.

La lumière qui les frappe étant assez faible, on place aussi une micro loupe devant chacun d'eux, particulièrement utile avec les CMos (voir plus loin). La lumière serait absorbée à 80% par les différentes couches citées. Une amplification des signaux sera également appliquée. La taille du photosite conditionne la quantité de photons reçus, et donc de voltage produit par la cellule: avantage au gros capteur, qui permet aussi de mieux combattre toutes les avanies ci-dessous. Une longue complainte.. dont encore, le vignettage, l'aberration sphérique, la coma, la distorsion et l'astigmatisme.

Un capteur COURBE ? Un vieux problème bien connu qui remonte au-dessus du panier: on ne peut pas faire la mise au point au centre et sur les bords, il faut choisir !! image "lesnumériques.com"l'image montre que lorsque les rayons lumineux sont bien focalisés sur le capteur, les rayons en biais, vers les bords ne le sont pas. Et vice et versa. Impossible faire la mise au point partout et je l'ai constaté. Une pellicule argentique corrigeait partiellement ce travers par sa légère courbure et son épaisseur de grains. Car il ne s'agit peut-être que d'un quart de mm au plus? (voir le site lesnumériques.com). Après d'autres tentatives, Sony a ou devrait présenter son premier appareil photo à écran courbe, avec un nouvel objectif, allégé et plus compact (moins de lentilles, c'est aussi l'intérêt de la chose). L'objectif pourrait alors être bien plus lumineux, car trois abérrations sont supprimées; dont le vignettage (assombrissemnt vers les bords). ne resterait à maîtriser que l'aberration sphérique, la coma, la distorsion et l'astigmatisme.. de quoi s'occuper tout de même. Première présentation faite, je suppose, en 2014, sortie "prochaine" en ?? aucun bruit de remarqué autour d'une nouveauté qui devrait en faire.


Technologie CCD et CMos ?
tous deux sont à base de photodiodes, qui transforment l'énergie de la lumière (photons) en électrons-volt (eV), tous deux stockent les électrons de chaque photosite (point/pixel) pendant toute la durée de l'exposition (accumulation dans le substrat dénommé "puit"), tous deux doivent tranférer cette énergie vers un registre/convertisseur qui délivrera une tension proportionnelle (voltage). Cette tension sera ensuite amplifiée, puis codée sous forme binaire, puis traitée par le logiciel de l'appareil photo.

Première grande différence: le CCD transfère les électrons stockés dans chaque photosite vers un registre via un collecteur, commun à plusieurs photosites. Ce transfert, qui est le point faible du CCD: complexité. Pour la petite histoire, voici comment cela se passait au début du CCD: après une prise de vues, les paquets d'électrons stockés d'un photosite sautaient d'un photosite au voisin et ainsi de suite, pour aller rejoindre le collecteur situé au bout de la rangée des photosites considérés. Au plan électronique, c'est incroyable ! c'est comme si une personne assise dans une rangée de chaises, allait au bout en s'asseyant sur chacune d'elles, rendant de ce fait toutes les autres chaises inutilisables ! d'où la lenteur du processus et l'impossibilité de prendre une autre photo en même temps.

Différentes techniques de transfert on donc été imaginées pour l'accélérer. Pour conserver l'image des chaises, on a créé un passage le long de chaque rangée, de sorte que les paquets n'aient plus à passer au travers de chaque photosite (sur chaque chaise).
L'audacieuse innovation du CMos a été de placer la fonction registre/convertisseur auprès de chaque photosite, évitant tout transfert. On gagne en rapidité. mais la conception du capteur CMos (Complementary Metal-Oxyde Semiconductor), le distingue encore plus nettement du CCD (charge-coupled device). Le CMos inclut tout un environnement électronique d'amplification, de traitement du signal et même de codage binaire des informations. Il pourrait même dispenser de l'obturateur. Inconvénient, tous ces circuits sont tout autour de la surface utile, ce qui réduit sa surface effective de capture de lumière (photons) à près de 50%. Les surfaces photoélectriques ne sont donc pas ou plus jointives. (preuve que la forme du pixel n'a aucune importance, comme soutenu plus haut !)

La restriction de la surface active gênait moins sur de grands capteurs et il a d'abord séduit les gros reflex à capteur pro 24*36, où l'on appréciait aussi la vitesse d'exécution, faiblarde aux débuts de l'électronique. Ses circuits "tout en un" n'étaient pas pour déplaire car ils simplifiaient l'électronique d'un appareil mécaniquement complexe, aux réglages manuels directs. Depuis, le circuit CMos a séduit d'autres catégories, surtout avec sa dernière version, plus lumineuse. C'était, on l'a vu, son principal inconvénient: la surface réceptrice a été remontée vers la couche supérieure. Enfin, les dernières versions du CCD lui font perdre une bonne partie de son avantage car les circuits imaginés pour accélérer le transfert des charges deviennent encombrants, et contribuent à réduire sensiblement sa surface active.

LA TAILLE du pixel. Elle peut être incroyablement petite, puisqu'on place 8, 12, 16, 24.. millions de tri ou quadri-pixels (*) sur une surface carrément ridicule, de 1/2 à 8 cm carrés. On parle de moins de 10 micromètres, soit 8/6 microns pour fixer les idées, avec un record à 1,6 !! (*) quadri-pixels. Les pixels quadruples permettent de se conformer à la vision humaine, car il y a deux fois plus de pixels affectés à la couleur verte que pour les rouges et les bleus.

Les tailles ou espacements sont donc très variables. Le petit capteur a ses avantages et ses inconvénients. Un grand capteur a un nombre plus élevé de pixels plus grands. Cela rend service à l'objectif, qui peut envoyer ses pinceaux de lumière avec plus de précision sans déborder sur un paquet de pixels voisins, en même temps qu'un effet sur la profondeur de champ, pour ceux qui s'y intéressent, dû sans doute à la plus longue focale.

Sachons qu'il y a des possibilités de débordement charges électriques d'un pixel trop éclairé sur tous les autres, ce que l'extrême petitesse favorise (j'ai connu, des photos blanches..), ainsi que d'autres phénomènes, tels que le moirage (des bandes ondulées dans les sones sombres), dénommé aussi "aliassage" (aliasing), et l'aliassage chromatique (couleurs), le "purple fringing" (des bordures mauves); Est-ce ces nuages blancs qui virent au mauve?, surtout avec un camescope (petit capteur), la liste est longue. Continuons encore un peu avec les défauts dûs aux microlentilles, plutôt prévues pour le vert par ce qu'il y deux fois plus de lentilles vertes que rouges ou bleues, aux différentes diffractions, angles d'incidence des rayons lumineux, bref, ce n'est pas notre monde. Une conclusion globale semble émerger, logique, "de préférence à un 32 Mo de pixels avec un petit capteur", "prenez plutôt le 16 et même 8 avec un grand capteur", l'appareil étant signé d'un nom connu (pour l'objectif et le logiciel). C'est du moins ce qu'on lit, et c'est ce que j'ai toujours pensé, bluffé tout de même je dois dire par les résultats quasi fabuleux d'un smartphone quand on voit les lentilles.. lorsque l'éclairage est bon à très bon. Mais pour revenir à un 8 Mo avec assez grand capteur, ça n'existe pas !! Si, on s'en approche un peu avec l'audacieux Sony Nex 30 ou 50. l'appareil avec un petit boitier non reflex et un assez grand capteur de 16 Mo de pixels. Moyenne gamme, il a été immédiatement copié.


Le codage binaire.

Chaque élément CCD/CMOS éclairé produit un courant électrique avec toute une palette de nuances de valeurs. Ces nuances seront répertorièes en un certain nombre de niveaux de tension, jusqu'à un top maxi. La numérisation consiste à coder ces valeurs de tension, des chiffres, en une série de 0 et de 1. La numérisation c'est ça, une valeur physique de courant, bien réelle, mesurée en volts, comme par exemple la valeur de tension 234 (en millièmes de volts), sera traduite par des successions de coupures et de rétablissement de courant, communément désignés par 0 et 1 qui, sans entrer dans les détails, peuvent être comparés au code morse, dont le rythme saccadé chante encore à l'oreille de ceux qui l'ont entendu. Ca va faire rire les puristes et les oiseaux, mais comme il y a une indéniable part de vérité, j'aimerais vous faire partager cette comparaison. Bien sûr, c'est hyper rapide, des millionnièmes de seconde, ou moins. Bien sûr c'est hyper sophistiqué, mais avec des séries plus ou moins longues de silence ou de bruit, ça chante! j'aime bien cette image. Jugez en: en code binaire, la valeur de tension 234 devient 11101010. En effet, en code binaire, chaque état ne peut prendre que deux valeurs, 0 ou 1, point ou trait (nécessairement séparés par un silence bref en Morse que l'on négligera). Dans mon nouveau code Morse "binaire", 11101010 sera traduit ainsi par l'opérateur: trois traits, un point, un trait, un point, un trait, un point. Avec ça, l'opérareur traduit son Morse et dit, c'est on écrit 26 ! Pour un "a", on lui attriburait tout d'abord un nombre, (c'est le code ASCI). Revenons au code binaire; prenons la calculette de Windows, en position "scientifique", puis "programmeur", si vous avez cette version Win7 ? Win 10. clic sur base 10 décimal, taper 26, le chiffre binaire s'affiche. allez jusqu'à 255, encore logeable dans un octet (8 signaux 0 ou 1). voir aussi technique de stockage et transmission de données. Dans une image fixe, on relèvera les valeurs électriques de chaque sous-pixel selon son éclairage, soit quelques millions de valeurs à stocker et à coder en binaire, puis à analyser pour correction de défaut. Défauts de quoi ? de tout, d'objectifs, d'éclairage, de couleurs, de netteté.. c'est un monde à part. Affaire de physiciens mathématiciens spécialisés et pointus. Après viendra la compression/codage en un fichier de type "xyz.jpg" Note. Ne pas confondre CCD avec LCD, la techologie des montres à "cristaux liquides" qui, par orientation des cristaux, forment des caractères noirs.


Défauts des capteurs et de l'électronique.
On y redoute la moindre minuscule poussière, que l'on chasse, sur les appareils haut de gamme, en faisant trembloter le capteur. Avec la pellicule, de grande taille comparé aux compacts, moins électrostatique aussi, le capteur était remplacé à chaque vue.
Eblouissement, couleurs qui disparaissent, il y a encore des progrès à faire. On voit parfois des éblouissements qui couvrent un tiers de pellicule ou plus pour cause d'un minuscule reflet quelque part (débordement d'électrons sur les photosites voisins, ou une couleur qui disparait, cas d'un store rayé jaune et bleu (couleurs complémentaires), dont l'une des deux disparaissait. 2001, appareil numérique Canon de moyenne gamme: pour la troisième année consécutive, photo d'un campanile provençal, surmonté d'une boule dorée éclairée en biais par le soleil. Nouvel échec: une boule un peu jaune pas très doré, autres décors dorés, rutilants au soleil, carrément blancs !
Fin 2009. Coucher de soleil en mer, un disque de soleil parfait, très rouge, sans nuage ni brume. Trois appareils dont deux récents avec correction coucher de soleil.  Plusieurs réglages ont été tentés, en colorimétrie et ouverture, balance des blancs. Pas un seul cliché de soleil ROUGE. JAUNE BLANC !! Un désastre photographique. Des choses que "la diapo" gérait très bien. Jamais je n'ai raté de coucher de soleil avec mon reflex Minolta argentique.
Ce qui est agaçant, c'est que les revues ont toujours passé sous silence ce type d'incidents. Il faut lire les articles sur les capteurs, et encore..
J'ai eu un camescope qui avec sa minuscule cellule accumulait tous ces travers, mais je ris (jaune) quand j'observe les mêmes à la télé (taches blanches; nuages mauves), malgré leurs énormes caméras au prix exorbitant.


Pixels émetteurs de lumière. PC et Téléviseurs, écrans divers à LED, lunettes.. Sur un smartphone (téléphone portable), et même sur un écran de PC, ils peuvent être trop petits. Pour les voir, mieux vaut approcher l'écran de télé; on peut y voir la grille des point à l'œil nu. Une loupe 2x ou 3x nous fait découvrir des répétitions de trois points rouge, vert, bleu. Sur un écran de PC, on en loge jusqu'à 1920 par 1080, soit 2.073.600 pixels (tri-pixels) répartis sur la surface. DISONS 2 Mp (Mégapixels= millions de pixels). Comparé au capteur d'un appareil photo, ces pixels sont géants! Des PC ou télés de tailles diverses ont le même nombre de pixels, normalisé par la HD. Nous les avons vus sur l'écran de télé. Que sont-ils? Deux cas sont à considérer. Ceux qui produisent leur propre lumière, tels que "TUBES à PLASMA" et "OLED/AMOLED", et ceux qui utilisent deux composants électroniques actifs, dits "à LED".

La technologie OLED AMOLED. Elle apporte des avantages jugés très prometteurs, quasi révolutionnaires: qualité des couleurs, angle de vue, finesse des points/pixels, simplification de la fabrication (l'OLED émet lui-même les trois couleurs! entre une anode et une cathode), consommation, épaisseur jusqu'à l'extrême souplesse de l'écran, sans déformation des images; mais pour l'heure (2016), seuls de petits écrans sont ainsi produits (smartphones) et quelques très grandes télés (surtout LG). Il y a un hic ! les OLED de dureraient pas longtemps, surtout dans le bleu, et vu le prix actuel, c'est inquiétant. Il faudrait au moins 50.000 heures et pour le bleu, ce serait autour de 15.000. Information glanée rapidement sur Internet, je n'ai pas fait de recherche d'actualisation 2016.

La technologie à LED. C'est la très grande majorité des écrans de PC et de télé de nos jours (2016). Ces écrans sont improprement désignés comme étant "à LED" (Light Emetting Diode), ce composant désormais banalisé (lampes!). Ce sont en fait des "LED/LCD", et même plus exactement des "LCD/LED". car avant les "LED", ces écrans utilisaient déjà des "LCD" ! En voici la raison: les LCD n'éclairent pas! il a donc fallu ajouter un panneau qui éclaire en permanence. Pour éclairer, on a commencé avec des petits tubes néon, puis la technologie évoluant, ils ont été remplacés par des LED. Depuis, leur positionement ne cesse d'évoluer. Ils peuvent être répartis sur la toute la surface, ou placés sur le pourtour (technologie "edge"), complétés de réflecteurs. On travaille aussi sur leur puissance d'éclairage, que l'on assombri par zone (dim).

LES LED ECLAIRENT, QUEL ROLE POUR LES LCD ? Les LCD" (Liquid Cristal Display) contrôlent le passage de la lumière LED. Les LCD, ce sont ces affichages noir et blanc (montres, etc). Avec un tel principe, l'affaire se complique sur au moins un point: les cristaux liquides normauxsont des micro lamelles qui s'orientent en pivotant à la manière d'un store vénitien. Jusqu'alors sans nuance, ouvert ou fermé, blanc ou noir (binaire, quoi !) Ce problème a été résolu en polarisant la lumière des LED, et faisant pivoter graduellement les cristaux liquides.

APARTE: Polarisation de la lumière: tout rayon lumineux qui se réfléchit sur une surface plane est partiellement "polarisé": il "rayonne seulement à plat", comme transformé en un ruban de lumière, alors qu'il rayonnait tout autour de sa trajectoire, comme dans une gaine. Une fois polarisé, des lunettes polarisées en vertical permettent de bloquer cette lumière "horizontale". On peut ainsi réduire sensiblement les reflets (route, vitrine); mais tout est assombri, puisqu'une bonne partie du rayonnement est supprimée.

Enfin demeurent quelques autres écueils, dont produire de la couleur. Car la technologie LCD/LED ne produit que de la lumière blanche, celle des LED. Cela bien que les LED puissent aussi produire du rouge, vert et bleu ! peut-être pas de la bonne teinte, peut-être pas assez petit. A vérifier.
on place donc des filtres de couleur rouge, vert et bleu sur des groupes de trois pixels afin de composer des (tri)pixels délivrant la couleur souhaitée.

SELECTION D'UN PIXEL. Ils ont tous accessibles par une filerie qui permet de les alimenter en courant électrique. On pratique comme au jeu de la bataille navale: c'est à dire en sélectionnant chaque CCD/CMOS, par la rencontre (intersection) d'un fil électrique de ligne horizontale avec celui d'une ligne verticale. La filerie électrique donne accès à chaque élément .



Des pixels pourquoi faire ? Le nombre de pixels détermine à priori la taille d'une image à l'écran et donc l'importance des détails saisis (finesse). Mais attention,  Pourquoi photographier à 8 ou 16 millions de pixels quand 1 ou deux millions seront largement suffisants pour l'affichage sur le PC (8 ou 16 millions font plus de 4 ou 8 fois l'écran). Autant l'éviter si l'on n'a pas d'autre projet pour la photo (impression grand format, zoom sur une partie de l'image). La course aux pixels est avant tout un argument commercial, qui ne garantit en rien la qualité restituée, laquelle dépend de l'objectif et des logiciels de traitement des signaux.

Combien de "(tri)pixels" couleurs un capteur peut-il contenir? Un modèle de 1/3 de pouce peut posséder en moyenne  2 millions de pixels (2 Mp) et  un gros réflex dont le capteur atteint désormais la taille des pellicules 24x36 mm, contient de 12 à 24 millions de pixels, mais ça augmente toujours. Avec 24 millions de pixels on égalerait la finesse de la pellicule photo 24x36, tout au moins avec des appareils moyens. Car les meilleures pellicules auraient un potentiel de 50 Mp ou 100 Mp (millions de points couleur), chiffre variable selon les estimations; il s'agit là de chimie, avec des grains actifs qui ne sont pas construits, mais déposés, et donc répartis moins régulièrement. Les appareils dits "bridge", avec visée reflex et zoom compact, ont généralement une plus petite taille de capteur que les "vrais" reflex. Pour dynamiser l'offre, Tout un mixage de techniques a été imaginé. L'arrivée du 24x36 en électronique a été une surprise.. de taille: l'électronique nous avait habitué aux petites tailles des "compacts", et nous revoilà avec des engins encore plus gros, aux lourds objectifs qui sont toujours en verre, avec un nombre de lentilles impressionant!

Combien faut-il de (bons) Méga pixels (Mp) ? Tout dépend de leur utilisation ! Selon la notice de mon "Sony NEX 50", de 16 Mp, il faudrait 8 Mp pour imprimer en format A4, et 16 Mp pour le format A3 + et TV HD. Il y a des estimations moins exigeantes, mais j'ai revu ces valeurs pour des scanners de diapos.

Les bons pixels. Peuvent être de très mauvaise qualité si l'appareil est un produit d'appel  bas de gamme. Un ami ne comprenait pas pourquoi sa caméra à 8 millions de pixels, mais "à quatre sous", était si mauvaise. Intérêt d'un nombre élevé de pixels. Un nombre important de pixels - 8, 16, 24 millions, peut être exigé pour une projection sur grand écran ou une impression de poster de grande taille. Mais pas seulement: un nombre important de pixels prend également tout son sens lorsqu'on veut avoir du détail sur un petit sujet éloigné, que l'on peut éventuellement recadrer.
C'est comme si on disposait d'un téléobjectif plus puissant.
Réglage de la taille de capture photo. pour un appareil courant : 640x480,  1600x1200,   2048x1536,   2592x1544,   3244x2448. Si donc vous ne souhaitez obtenir que l'image d'un objet simple (vase ..) à conserver ou à envoyer par Email pour donner une idée, le choix 680x480 ou moins encore en réduisant avec un logiciel, est largement suffisant. Pour voir des détails, ou pour l'imprimer en 10x15, la taille 1600x1200 sera plus adaptée. Au-delà, on vise les qualités supérieures, souvent nécessaires pour les détails en fond de paysage. En effet, la photo 10x15 imprimée à 300 points par pouce (2.55 cm), un minimum qui ne supporte pas l'observation à la loupe, totalise approximativement 1.180 points x par 1770 points à imprimer, soit 2.088.600 pixels. En se basant sur les 8 millions de pixels pour le format A4 (21*29,7 cm), une qualité d'impression comparable exigerait 600 points par pouce pour le format 10*15. PIXELS et Points Par Pouce (PPP). Le nombre de pixels ne représente une dimension que si l'on y ajoute leur densité, c'est à dire leur nombre dans une surface de référence. Cette surface est définie en pouces, "Inch" en anglais, de 2,54 cm. Notre "PPP" est la traduction - inexacte - de l'anglais "DPI" (Dot Per Inch), point par Inch, car "pouce" se dit "Thumb", en Anglais.


Qualité du tout électronique. Peut-on comparer l'électronique avec l'argentique ? Dans une certaine mesure, oui. RAPIDE ou LENT ? Le 25 ASA kodachrome a été longtemps la meilleure pellicule, avec des détails dans les ombres ou les fortes lumières, ce que ne permettait pas une pellicule rapide. Sa lenteur a permis au Fujichrome 100 ASA de la détrôner. Peu contrastée, elle donnait toutefois d'excellentes diapos . Avec une 400 ASA, la photo pouvait être plus flatteuse car plus contrastée, mais en perdant les détails dans le noir tout noir ou le blanc "fromage".

La meilleure photo est donc celle qui a été prise avec un capteur lent car, moins contrastée, elle a plus de détail. Ce n'est pas ce nous aimons. Si l'on montre une photo contrastée, et la même moins contrastée, la personne trouve systématiquement que la première est plus nette. Or c'est exactement l'inverse qui est vrai, ce qui est vérifiable à la loupe. Explications: le contraste donne une image plus flatteuse, aux zones de transition plus vives, ainsi qu'un éclairage plus tonique (plus ensoleillé). Mais ceci se fait au détriment des teintes intermédiaires de transition (passage entre teinte claire et foncée), qui sont éliminées. Du détail est ainsi perdu, éliminé au profit du clair ou du foncé. C'est un peu comme un plat "relevé (épicé, salé) devant un autre plus fade, dont il faut savoir apprécier la délicatesse. Comme généralement le détail fin (le piqué) importe peu, on préfère donc la photo "épicée".

La rapidité (ou sensibilité) des capteurs est obtenue par l'amplification du courant électrique émis et si l'effet est un peu comparable à celui des pellicules rapides : en augmentant le réglage des "ISO" sur un appareil électronique, par exemple à 400, 800, 1600 etc, la qualité de l'image captée se dégrade. Jusqu'à ne devenir qu'à peine exploitable. Les fabricants sont souvent un peu euphoriques en annonçant de telles sensibilités. Au pire on voit bien dans le viseur, mais il n'y a presque rien d'enregistré sur la "pellicule" (visionnage du résultat à l'écran).
mars 2011, le nouveau capteur CMOS "haute sensibilité" a une surface photosensible placée directement devant, ce qui accroit nettement leur sensibilité, limitant le recours au flash (jusqu'alors, la surface photosensible était un peu masquée par des couches d'électronique); de plus, le procédé HDR je cite: "laisse apparaître des détails dans les zones sombres et claires" aveux des défauts du numérique.
Les appareils électroniques possèdent d'innombrables réglages (paysage, portrait, lumière néon ou naturelle (soleil); nuit, sport et même coucher de soleil) et aussi celui de la sensibilité ISO généralement réglée sur "auto". Le réglage manuel des ISO en position faible sensibilité 100, 200) peut être intéressant, si la lumière est suffisante, pour améliorer la finesse des détails (pour un paysage bien éclairé par exemple). La vitesse d'obturation, plus lente, compensera automatiquement. En éclairage moyen, changer l'iso ou veiller à ne pas bouger.


Déclanchement lent !!  Pour ne rien rater, une seule solution, le tout mécanique à pellicule, bien sûr, qui a encore ses avantages dans des situations extrêmes, pour ne pas être tributaire d'une pile, ni des préréglages électroniques !!. Ces complexes calculs de constitution de l'image pénalisent le temps de déclanchement et aucun autre appareil ne peut être aussi rapide !! C'est raté, car pris trop tard. La rapidité est actuellement satisfaisante et la prise de vues en rafale possible sur le haut de gamme (cinq vues secondes par exemple, ou plus). Pour être prêt à temps, une seule solution, le pré-déclanchement. Tout d'abord, viser le lieu où l'on attend le scoop, puis appuyer à mi course sur le déclencheur pour faire régler la distance par l'autofocus; attendre le bon moment pour appuyer à fond. Nouveau (mars 2011)la technologie CMOS citée ci-dessus est accompagnée d'une amélioration de la rapidité de prise de vue, dont en rafale. 2015: la rapidité est en progrès. Reste que l'autofocus est toujours le point noir pour "l'instantané surprise", et qu'il faudrait pouvoir le régler manuellement, ainsi que le zoom.


Gestion électronique. Entre deux appareils équipés du même capteur, la gestion électronique peut marquer une différence car les signaux reçus du capteur sont analysés puis traités par des calculs complexes, sujets à de multiples options (voir revues de test photos spécialisées). Qualité numérique. Codage. En supposant que le capteur ait bien reconnu les nuances perçues par notre œil, et que la qualité est acquise pour les composants et les processus de traitement d'image, la qualité numérique dépend encore d'un traitement majeur, le codage. En effet, le capteur transforme la lumière reçue sur chacun des points en courant électrique; ces courants de différentes tensions sont reçus par le processeur d'image - un ordinateur spécialisé - qui les transforme en signaux numériques, lesquels sont tout d'abord transcrits en RVB (rouge vert bleu) pour reconstituer les couleurs ; il va ensuite effectuer de nombreux traitements avant d'enregistrer l'image aux formats JPEG ou Raw.

Tout d'abord, il apporte une correction chromatique (franges de couleurs entre zones fortement contrastées), puis réduire les bruits électriques parasites. Ce processeur d'image, qui gère aussi le fonctionnement général de l'appareil, dont les choix que l'on a faits, apporte de nombreuses corrections dues aux défauts des objectifs (distorsions diverses (dont effet "coussin"), vignettage, défauts d'éclairage aux bords, réduction de bruits électriques dûs aux faibles éclairages, balance des couleurs. Toutes choses impossibles avec la pellicule argentique. Interviennent également les nouveautés telles que la détections des visages, des sourires et maintenant la détection des mouvements, du contre-jour, de la macro, du paysage, pourquoi pas de belle maman ou des animaux..

Cet automatisme protège d'une mauvaise utilisation des choix, qu'ils dépendent d'un menu ou d'une mollette. D'un autre côté, accepter la détection des sourires peut bloquer toute prise de vue sur certaines personnes..
Revenons au fichier image qui à ce stade, doit être encore corrigé en saturation des couleurs, contraste ou netteté, puis traduit en un fichier de type Raw (brut). Contrairement à l'enregistrement sur bande magnétique ou disque gravé, dit analogique, on ne sait pas conserver "en l'état" dans une mémoire électrique, la profusion de valeurs du courant relevées sur chacun des trois points couleur d'un pixel. Il faut les coder.

Compression. Un codage de bonne qualité, c'est un fichier BMP ou un fichier dit Raw, si votre appareil le propose. Afin de réduire l'importance du fichier image Raw, on procède à des codages dits de compression. Tentons seulement de comprendre ici ce que peut être un codage.
Supposons que les trois points rouge, vert et bleu d'un pixel du capteur donne les valeurs suivantes lors de la prise de vue, après toutes les corrections décrites : 538, 012 et 164 millionième de volt (pris totalement au hasard pour être mieux compris car je ne connais pas ces valeurs du tout).
Le codage le plus courant consiste à transformer chaque valeur - par exemple 164 - en une série de 8 éléments (8 bits = 1 octet) dont chacun pourra prendre la valeur 0 ou 1. Ce que l'on appelle un octet porte en lui 8 possibilités (bits) de valeur 0 ou 1, l'un après l'autre (à la queue leu leu). Le nombre de bits d'un groupe détermine sa finesse: un octet (8 bits), autorise 256 cas différents, de 0 à 255 - voir plus haut, dans "traitement des signaux" - chaque octet est porteur de la valeur de tension électrique "lues" sur le capteur.
Si l'on code à 12 bits, on dispose de plus de 1000 niveaux, et à 16 bits, plus de 4000.
En codant à 8 bits, on voit tout de suite que l'on fausse beaucoup les informations car on ne peut pas traduire la valeur 538, qui dépasse les 256 possibilités !  au-delà du 256, tout sera totalement noir ou blanc, sans aucune information intermédiaire, soit sans aucun grisé. C'est très simplifié mais proche du problème. C'est ce que l'on appelle les niveaux de gris. Les niveaux de gris ne dépendent pas que du codage, mais aussi, pour un téléviseur, de la faculté d'un point de l'écran (la dalle) à devenir noir bien noir sans aucune lumière. De nouveaux progrès ont été réalisés en ce domaine. Cette faculté se traduit par le fameux "contraste" exprimé en 600, 1000, ou 30000. bientôt 100 000. C'est ce contraste qui permet de voir des gris foncé presque noir dans du noir ou l'on ne voyait rien avant.
Il y a aussi la notion de "bruit", que rapportent les tests de magasine photo. Il s'agit d'une dégradation de l'image généralement dues au traitement électronique, notamment pour l'amplification de la lumière en sous éclairage. On parle aussi de bruit dynamique pour la vidéo, mais il est difficilement discernable par les non initiés. Les meilleurs capteurs récents prennent des photos à plus de 1600 ASA sans apparition de dégradation de l'image !

Domaine quasi professionnel, on conseille d'enregistrer les clichée en fichier Raw, en plus du JPG lorsque l'appareil offre cette possibilité. Les logiciels courants de traitement d'images ne savent pas les afficher et leur emploi est dons réservé aux spécialistes qui possèdent les logiciels adéquat, et leur maîtrise, ce qui n'est pas donné à tout le monde.


Copieur graphique, le scanner.

On parle ici de points par pouce, "pt" en français, ou "ppp" (dpi en anglais, dot per inch); un pouce=2.54 cm.
Deux interrogations avant de scanner
Que scanne-t-on ? Que veut-on en faire ?,
QUE SCANNE-T-ON ? un article de journal, une page de livre, une photo tirée sur papier ou la photo d'une revue de grande qualité (vérifié à la loupe) - caractères imprimés: petits, moyens ?.
Scanner fin un document qui ne l'est pas n'agrandit que les défauts! en tous cas, pour une vue de près. Ce sera peut-être le cas de la plupart des journaux et revues "tabloïd" hebdomadaires ou mensuelles. J'ai constaté une amélioration au niveau de l'impression des caractères, que l'on peut généralement agrandir s'ils sont petits, mais cela n'est pas vrai pour les photos des journeaux qui demeurent dde qualité médiocre. Avant de régler le scanner fin (nombeux pixels), mieux vaut vérifier l'original avec une mloupe.
QUE VEUT-ON EN FAIRE ? Journeaux revues, livres courants. C'est pour envoyer, donner, imprimer, égaler la qualité du document d'origine. Je n'irai pas jusqu'à vous conseiller la "loupe compte trame" du professionnel, mais c'est un peu ça. Si c'est pour archiver un texte lisible, on peu se contenter de 75/100 pt, même avec un texte assez petit, tendance des journeaux. Sur un grand écran de 23 pouces de 1920*1080 points/pixels, vue 100% avec Paint ou Pixia, il sera reproduit à peu près à sa taille réelle, mais la qualité risque d'être insuffisante, ou l'écriture trop petite.
Pour une meilleure qualité, passer à 150 pt est bien et suffisant. ATTENTION, tout dépend aussi de la taille de l'écran en pixels, exemples, 1920*1080 1400*900, 1024*768. Plus le nombre de pixels d'écran est important, plus un texte ou une image, apparaîtra petite et vice et versa ! les défauts suivront. Passer à 300 pt ne sert à rien, c'est trop grand, mais on peut constater que la qualité d'impression des journeaux supporte allègrement les deux tests, jusqu'à 600 pt. Un gâchis d'encre. Sauf pour les photos qui ne sont pas terribles au départ et qui se dégradent. scan 300 points J'avais conservé le souvenir d'une qualité d'impression nettement inférieure, avec le mode d'impression historique.
CONCLUSION. Voici trois scans de deux extraits de journeaux réunis par un réglet millimétré; ils ont été scannés à 75, 150, 300 pt , puis identiquement recadrés. J'ai fait aussi un 600 pt. Regardez les en affichage 100% (Paint) et jugez avec votre écran.

A 150 pt, c'est imprimable mais pour une meilleure qualité, images, photos de revues fines, je scanne 300 pt, (points par pouce, "ppp", soit un nombre de points dans 2,54 cm). et une simple visualisation à l'écran de PC, n'exige que 100 à 150  points par pouce. Pour une belle, et déjà grande image à l'écran, 200 ou 300 points sont largement suffisants. Note, on est assez limité par le choix des tailles proposées, souvent du simple au double.
Une loupe de grossissement 2 à 4 permet d'observer la qualité de l'image originale (son grain). Il m'est arrivé de regarder ainsi la page de garde d'un hebdomadaire qui présentait à l'époque ses pages principales en miniatures. On ne voyait que des lignes illisibles, des tâches de mots !! sur un papier de prime abord bien ordinaire.. eh bien, contre toute attente, on pouvait lire les lignes à la forte loupe sans problème! un véritable "microfilmage". Cela devait coûter cher et le miracle a pris fin, les tâches sont devenues réelles. Il y a de belles revues qui permettent un petit agrandissement, mais sans plus, 3 à 400 pt, mais c'est déjà exceptionnel. Je ne pense pas avoir dépassé 600 pt. Taille du document scanné. En  scannant une feuille de papier A4  (21*29,7 cm) à 150 points par pouce (1 pouce = 2,54 cm), on obtient un fichier de 1240 par 1753 pixels, soit 2.173.720 points/pixels (la taille de stockage est alors de 273.530 octets). Si on scanne la même feuille à 600 points par pouce, on obtient un fichier de 4960 par 7015 pixels, soit 34.794.400 points/pixels (taille de stockage de 4.349.362 octets). Le nombre de pixels d'un écran de 1024 par 768 est 786.432 pixels, 1.296.000 pixels pour 1440 par 900 et 2.073.600 pixels pour 1920 par 1080. On voit que l'image ne tient pas dedans même dans le cas du scannage à 150 points. Il faut la déplacer sur l'écran car on n'en voit qu'une partie.

AFFICHAGE TROMPEUR.   Les grandes images devraient dépasser l'écran, mais il n'en est rien, car elles sont automatiquement "ajustées" à la taille de l'écran par Windows. Seuls les petits fichiers, de taille inférieure à l'écran, sont affichés à leur taille réelle. Pour voir la photo en affichage "taille réelle", à l'écran du PC, ouvrez les avec Paint, zoom à 100 % , ou Photo Editor. Procédure: clic de souris droit sur le fichier image, exemple, "ma grande photo.jpg", puis choix "ouvrir avec", puis "Paint". Remarque: On peut connaître la taille de la photo avant de l'afficher. Faire un clic de sur le fichier de l'image , puis choix "Propriété". Si le nombre est bien plus grand que le nombre de pixels de votre écran, l'image en grandeur réelle dépassera la taille de l'écran. Un fichier de 4 Mo est déjà 5 fois fois plus grand qu'un écran de 1400 par 900 pixels !


ASTUCE "hibis" TRACES DU VERSO sur le scan d'une page de papier non opaque.
Pour scanner un journal ou une revue en réduisant très sensiblement les traces du dos de la page scannée, il suffit de poser une feuille de couleur foncée sur la feuille à scanner (le fond blanc du couvercle ne peut plus faire apparaître le verso par transparence). Voici le résultat: scan de gauche effectué normalement, sous le blanc du couvercle: une partie du texte et les teintes jaunes et roses DU VERSO apparaissent clairement sur la copie.

Scan de droite avec une feuille de couleur foncé posée sur le document. Il ne reste plus, de l'autre face, que quelques traces jaunes.


afficheur graphique, dalle = écran).. Il s'agit de reproduire l'image sur un écran. Comme pour les capteurs, les éléments lumineux bleu, vert rouge (ou magenta, etc), sont disposés en lignes et colonnes (matrice).
 Les nouveaux procédés atteignent-ils la qualité des tubes vidéo à balayage ? pas exactement, mais ce n'est qu'une question de temps. Les progrès ont été fulgurants.

Taille de l'écran et nombre de pixels -  les pixels ne sont pas tous de la même taille et un écran de 20 pouces peut posséder un nombre de pixels de 1620 par 1050  alors qu'un  22 pouces aura le même nombre de pixels. Les pixels ne sont pas tous de qualité égale et on a vu un constructeur qui, sous une  même référence d'écran, a vendu pendant quelques temps des dalles différentes dont l'une était moins bonne !  L'électronique qui gère la dalle et finalement forme l'image, est tout aussi importante. le nombre de fabricants de dalles est je crois assez limité, sauf pour des produits de bas de gamme dont on ne sait rien.

Les inconvénient des technologies à dalles (écrans avec matrice de points), se résumeraient en deux points :
- En premier lieu, par rapport à la vidéo par tubes (faisceau d'électrons projetés sur une surface émettrice), c'est classiquement un problème de contraste et de nuances de teintes (dont des gris très foncés devenant noirs et des noirs pas assez noirs). Pour rire un peu, quand la télévision couleur est apparue dans les foyers, on disait la même chose des noirs (qui paraissaient alors violets) et c'est sans doute encore un peu vrai. Décidément, les noirs (absence de lumière ou très faible lumière), posent problème.

- En deuxième lieu se pose le problème de taille soit (agrandissement, réduction, changement de format). Pour réduire ou agrandir une image avec un tube vidéo, ou faire un agrandissement photo papier ou écran, il suffisait de jouer avec les faisceaux électroniques du tube vidéo ou les lentilles du projecteur pour obtenir ce qu'on voulait à loisir. Avec une plaque (matrice) pleine de points, l'électronique doit piloter chacun de ses points, ce qui exige des cartes graphiques de télé ou de PC puissantes dès que la taille est importante.  Le redimensionnement, qui était aisé avec les objectifs ou la vidéo, devient problématique avec les dalles et capteurs. En effet, on ne sait pas faire varier la taille des points ni leur écartement comme avant! (sauf en impression, voir plus bas) et  il faut que le calculateur en réduise le nombre.   Il en supprime donc un peu partout, plus ou moins au hasard pour conserver le même rapport, . C'est encore pire si l'on veut changer de format (de rapport en les deux côtés). Comme dit la chanson, "pixels perdus ne se retrouvent jamais. Le même problème survient lorsqu'on veut réduire une photo à l'ordinateur, elle devient floue et il faut la raviver (saturation des couleurs, contraste, plus net ou bords plus nets). Un écran plat de télé ou de PC risque donc de mal supporter le passage entre différents formats (flou, déformations..). Pour obtenir le meilleur résultat, une dalle (écran) doit être utilisée par un logiciel qui gère (propose) le même nombre de pixels horizontaux et verticaux.

PC. On peut se rendre compte des déformations en essayant toutes les possibilités de la carte graphique. Pour cela, pointer la souris sur l'écran Windows (le bureau) clic droit, puis "propriétés", "paramètres". Un choix de dimensions est alors proposé. Seule la dimension "native", celle de la dalle (écran du PC) donne la meilleure restitution, d'ailleurs "recommandée".

La réalité est que bien des gens regardent leur télé ou PC avec des images étirées ou resserrées, sans même s'en rendre compte. Mais tout cela va se normaliser, enfin je suppose.

Catégories en compétition.Eclairage direct par points lumineux colorés: tubes vidéo (pionniers, ils ont tenu 50 ans), écrans à plasma (un quadrillage de micro tubes), et OLED, (LED organiques lumineuses, développées par Kodak).

Plasma. Les écrans "plasma" sont constitués de micro-tubes néon. A la technologie près, chaque micro tube constituant un point de l'écran "éclaire" par ionisation du gaz contenu dans sa micro-ampoule, comme une ampoule ou un grand tube néon le fait. Il y a trois types de micro-tubes pour restituer les trois couleurs. Comme on ne sait pas faire varier l'éclairage d'un tube néon, qui fonctionne en tout ou rien (éteint ou allumé), on joue sur la durée d'éclairage pour obtenir la variation de luminosité !! étonnant. L'intensité maximum correspond donc à une durée d'éclairage égale au temps d'affichage d'une image, soit un cinquantième ou plutôt actuellement, un centième de seconde. Rien n'est simple dans ce domaine. Du point de vue de la couleur, ce sont toujours les meilleurs. Leur durée de vie serait inférieure à celle des LCD/TFT qui consomment moins et ont des points plus fins. En déshérence ces dernières années et réservés aux très grands affichages, les plasmas sont revenus en force avec moins d'inconvénients.
Ces tubes néons seraient maintenant remplacés par des micro-tubes plasma > qui réduisent la taille du sous-pixel et aussi la consommation de courant. Je pense que toute cette technologie a finalement été abandonnée.

OLED. Il fallu 15 ans à kodak pour commencer à industrialiser son OLED en petites surfaces. Ce sont des LED - comme les lampes d'éclairage - mais celles-ci sont organiques, soit à base de carbone (d'où la lettre "O", pour organic, en anglais). Comme les "plasma", le point OLED fournit sa propre lumière , ce qui n'est pas le cas des LEDS des LCD, qui ne servent que de fond éclairant. Lorsque le premier téléphone portable japonais OLED a été présenté, avec ses 3 mm d'épaisseur d'écran, c'était miraculeux. Le contraste est incroyable, 100.000 et peut-être plus (profondeur des noirs permettant des nuances dans le noir). Comme disait Coluche, il y a du blanc, et du plus blanc que blanc. C'est donc pareil pour les noirs. Le rendu des couleurs est amélioré, les points sont très fins et la consommation sensiblement réduite. Le tout avec un angle de vision jugé très bon.

Depuis, Samsung en a équipé tous ses smartphones pour un prix normal, depuis 100 euros !
Les écrans OLED auraient mis au rebut les dalles LCD ou plasma, mais la rareté des matières premières (métaux) en a voulu autrement et la résistance s'est organisée. AMOLED. C'est un OLED amélioré du point de vue de la rapidité de réaction. Un japonais dit avoir trouvé quelque chose d'équivalent à un prix très bas.

Un modèle miniature français de 0,38 pouces (0,965 cm), est pourvu de quatre "sous-pixels" par pixel. Cette petite surface permet cependant de placer 873 x 500 pixels, donc quatre fois plus de sous-pixels, ce qui donne une idée de la finesse du "point-capteur" atteinte. Il est promu à de nombreuses applications (viseurs, lunettes de jeux, projection etc.). L'industrialisation suit difficilement.

Les premiers très grands écrans TV Amoled de démonstration sont apparus en 2014, à 8.000 euros, puis 4.000, et seul LG résiste encore. ON ATTEND ! Samsung a fait le forcing en proposant des écrans courbes. installés en premier par Samsung, les OLED équipent aujourd'hui bien des mobiles à 2 ou 300 euros, même grande taille. Viseurs photo etc, ils arrivent. leur consommation électrique est moins avantageuse que l'on croyait, mais ce n'est que leur tout début industriel.

Cristaux liquides LCD, TFT. Les LCD (liquid cristal..) sont des cristaux liquides qui s'orientent (se polarisent) sous l'effet d'un champ électrique et qui occultent plus au moins le fond sur lequel ils sont disposés. Les lettres noires des montres à "cristaux liquides" qui s'opacifient par orientation des cristaux en sont le premier exemple. >Problème : bien qu'en nette amélioration, ils sont sensibles à l'angle sous lesquel on les regarde et perdent rapidement leur luminosité quand on se baisse ou on s'écarte. Le rendu des noirs pêche également (profondeur du noir permettant des nuances). Le TFT basé sur un principe très proche, a un meilleur rendu des couleurs et un contraste plus élevé; mais tout évolue rapidement. Ecartés pour leur prix en micro informatique, Ils reviennent. Ces deux types d'écrans nécessitent un rétro éclairage car les cristaux liquides n'éclairent pas, mais masquent plus ou moins la lumière qui est derrière; celle-ci provient soit de tubes néons, soit pour la deuxième technologie de LED , posées en pourtour ou en couche uniforme (un film intermédiaire répartit uniformément la lumière émise). Un gros progrès qui permet des contrastes nettement plus élevés, mais des teintes que l'on dit un peu dures.

Ecran LED. On parle d'écrans LED, mais c'est impropre car ce ne sont pas des LED qui donnent directement les points couleur, mais des filtres colorés éclairés, aussi uniformément que possible, par des LED. Ces filtres colorés ont des ouvertures pilotées par des cristaux liquides LCD . Ces cristaux liquides (LCD etc), réagissent au rythme des signaux électriques vidéo.


Note. La "diode" est un composant électronique (une sorte de demi transistor), qui ne laisse passer le courant électrique que dans un sens ; sa variante "laser" émet une lumière dite "cohérente" au sens où toutes ses vibrations "marchent d'un même pas" : si l'on fait chuter simultanément un grand nombre d'électrons sur une orbite inférieure (niveau du dessous), on fabrique de la lumière laser dont la propriété est de ne presque pas "diffuser"; le faisceau se maintient très fin (un point) sur de très grandes distances.. Pour preuve, il arrive encore suffisamment concentré sur la lune pour s'y réfléchir et revenir. voir aussi " Physique 1", énergie.

Impression. Eviter la grosse mauvaise surprise. Une imprimante imprime avec des points très fins (surtout pour la photo). Cela signifie que l'on peut voir devenir tout petit à l'impression ce qui paraissait grand à l'écran!
fonction "ajuster l'impression à la page". Les imprimantes permettent de choisir la taille de l'image en espaçant les points imprimés, ou en remplissant c'est à dire que l'on ne règle pas le nombre de points par pouce, comme pour un scanner, mais il y a des choix types qui règlent automatiquement à notre place. Il y a naturellement des impossibilités. Un nombre insuffisant de pixels limitera l'agrandissemnt souhaité.

Coût de l'impression 2013: Chanel No 5, eau de parfum en 35 ml : 1, 8 €/ml - extrait de parfum n5 en 7,5 ml 12,5 €/ml.au mini, en recharge) - Encre d'imprimante qualité d'origine série moyenne 3,6 €/ml ! 
Coût à la page. les fabricants sont très optimistes car à la maison, le nombre de pages se réduit comme une peau de chagrin. Ils doivent calculer avec dix lignes par page !
Possibilités : acheter des encres "non fabricant", en cartouche, en flacon ou seringue (cartouches à remplir soi-même).

Régler l'impression. Une imprimante permet de nombreux réglages, soit sur l'imprimante elle-même, soit par l'ordinateur (il faut chercher et lire la notice)
1/ - Réduire sensiblement le réglage de la "densité d'impression si l'imprimante en a. Surtout supprimer l'impression de fond de page, parce que si le fond n'est pas bien blanc, vous allez perdre pas mal d'encre pour obtenir un fond grisé, ou tout autre décor inutile.  Régler sur "qualité brouillon", ne pas cocher les options de renforcement de couleur pour la photo ("enhance", en anglais). Imprimer vos copies de docs en noir et blanc (ou "dégradés de gris") tout ceci doit être vérifié expérimentalement, mais le principe est de réduire par tous les moyens la projection d'encre lorsqu'on n'a pas besoin d'un document superbe. Car le réglage de base est fait pour que ça gicle fort, vous vous en doutez. On vous annonce d'ailleurs la fin de la cartouche avec insistance. Ne vous laissez pas impressionner !!, usez les cartouches jusqu'à arrêt de la machine. Papier. J'utilise du papier courant 70 grammes. Moins demandé, il est un peu plus cher que le 80 grammes! le 80 gr est trop raide, et le 60 un peu fin (risque de bourrage et traversée d'encre sur l'autre face). Pourquoi ce papier 80 gr est-il le préféré des français ? selon le vendeur, mystère.

L'industrie s'accommode parfois de petits arrangements; Nous avons entendu parler de "l'obsolescence programmée". J'ai lu que cela devenait une spécialisation d'ingénieur. comment ? en prévoyant des pièce anormalement faibles qui ne tiendront qu'un temps limité, alors que tout le reste est bien fait; c'est une certitude et je l'ai souvent constaté au démontage en râlant. On choisit généralement un élément simple. Mais si l'on veut être sûr, on met carrément un compteur !! DES ENNUIS ET DES SOLUTIONS.
1/ La mienne s'étant mise à faire des rayures, et même des pâtés malgrè les débouchages de buses, j'ai pensé que cela provenait d'une seule et même buse (une rayure blanche à intervalle régulier. Cela en impression "document", car j'ai eu l'idée d'imprimer en mode photo et là, le résultat est devenu normal(mais très long). Cela m'a dépanné pendant longtemps car j'imprime peu. Un commerçant contacté m'a confirmé ce que je pensais car m'a-t-il dit qu'il y avait deux têtes.

2/ Par contre, on ne pouvait pratiquement plus scanner car, outre les rayures en mode document, un compteur se mettait en marche, augmentant sans cesse le délai de démarrage du scan !! incroyable, mais vrai sur mon Epson XP 305, qui consomme de la couleur même en noir et blanc et doit fait filer la cartouche cyan droit dans le feutre de récupération. Enfin, on pourrait le croire. Le scandale. J'ai tout essayé, y compris de désinstaller et réinstaller le pilote, mais tout est sous contrôle; C'est alors que j'ai découvert le scanneur de Windows 7, qui a reconnu mon imprmante et qui a fonctionné parfaitement. Maintenant, j'ai une Canon MG 6853 (100 euros). Sacré technologie à priori. mais.. à suivre. Il semble que les fabricants écoulent en douce les cartouches couleur même si l'on choisit "niveau de gris" ou document noir et blanc !
BON A SAVOIR. Une imprimante jet d'encre ou bulles d'encre (qui ne serait qu'une autre appellation d'un même procédé), nettoie ses buses par projection d'encre: un grand feutre de plus de 3 centimètres d'épaisseur couvre tout le fond de la machine afin d'absorber cette précieuse encre gaspillée lors des débouchages. Certaines imprimantes, dont HP (mais pas toutes?), possèdent des cartouches qui contiennent leur tête de projection, mais je n'en sais pas plus. Les cartouches sont sans doute plus chères, mais si l'on économise en débouchages, on peut y gagner en encre.. et en tranquillité. Il est également recommandé de choisir une imprimante possédant trois ou quatre couleurs séparées, à moins que l'on imprime que très très peu, car les cartouches filent vite et sont très chères pour le service rendu, même recyclées.
Le mieux serait la laser couleur, mais elle est encore chère, bruyante paraît-il et sans historique pour la fiabilité, et ne produirait pas encore d'aussi belles couleurs que le jet d'encre. C'est tout de même tentant quand on voit le prix à la page, bien que je ne sache pas si sa consommation électrique est incluse dans les calculs (elle exige une assez forte puissance électrique). En ce début 2012, seul Samsung commence à en produire à un prix "familial".


STOCKER.  La "taille" (pixels) des fichiers "image" détermine l'encombrement du stockage. La taille sous l'extension .bmp (point BMP), est celle qui prend le plus de place. Les appareils proposent souvent l'extension .jpg qui pratique ce que l'on appelle une compression de fichier; il n'est pas écrasé comme pour une compression de César, mais traité électroniquement. Ce procédé affecte légèrement la qualité, mais la compression "standard", on ne voit aucune différence à l'oeil nu. Avec un votre logiciel de dessin, cette compression .jpg peut être réglée.
 La compression .gif permet des effets de transparence et de superposition. Elle est davantage adaptée aux dessins qu'aux photos et donne généralement des fichiers bien plus "lourds" en octets que le .jpg (sauf pour des dessins simples).
Enfin, pour réduire encore davantage la taille d'un fichier photo ou dessin, il faut aborder la notion de nombres de couleurs. Si vous cliquez avec la touche droite de la souris sur votre fond d'écran de PC, (choix paramètres) un choix de qualité des couleurs apparaît 32, 16, 8 bits. Les 16 et 8 bits réduisent la qualité des couleurs, exactement comme pour le codage de la musique. Avec un logiciel de dessin un peu évolué, on peut régler la qualité de codage de l'image (codage JPEG de 0 à 100 %), mais  aussi le nombre de couleurs: 16 couleurs, 256 couleurs, 16 millions de couleurs, couleurs 24 bits..  En réduisant le nombre de couleurs (la palette), on réduit notablement le poids du fichier (mais pas sa dimension). Pour une photo, la qualité se dégrade assez vite, mais pour un dessin qui a des couleurs assez limitées, sans dégradés délicats, on peut réduire considérablement le poids du fichier car il ne sert à rien de transmette un codage de millions de couleurs alors qu'il n'y en a que 20  ou 100. Le fichier devient alors très léger. La compression ".jpg" ou ".gif" consiste à ne pas stocker ni transmettre ce qui est inutile : exemple simple, si un fond est tout jaune, on prend l'information de sa forme et sa surface avec la mention "tout jaune", au lieu de décrire chaque pixel jaune individuellement. Il y a plus compliqué, mais c'est pour faire comprendre.









Cette page: La photographie -   appareil photo, la prise de vue      Suite possible  (bas)

Appareil photo

Objectifs: L'électronique corrige - presque - TOUT! Des défauts de teinte, d'éclairage, d'objectif. C'est complètement fou.

Comment expliquer autrement les résultats obtenus avec un smartphone et ses lentilles lilliputiennes qui en d'autres temps, auraient été inutilisables. Car même les appareils espion avaient des lentilles plus grandes pour des résultats très moyens. Cependant, l'électroniquee ne peut corriger un trop mauvais objectif, dénommé "cul de bouteille" par les puristes. Un objectif de qualité - qui a du piqué - et des distorsions limitées, est assez gros et n'est fabriqué que par des grandes marques. Il a donc encore un rôle primordial, et rien ne peut laisser envisager sa disparition, sauf une recherche en cours sur des lentilles molles à courbure variable, comme notre oeil. Il comporte de 10/12 à 15/17 lentilles !! dont une ou plusieurs concaves (asphériques), qui ont permis de réduire des distorsions ou "aberrations". Il lui faut être encore lumineux, c'est à dire posséder une assez grande "ouverture" (rapport entre longueur et diamètre), ce qui vaut également pour de bonnes jumelles. Si l'électronique était si futée, on en serait revenu au simple trou ! Comment ça, un trou ? oui, c'est la découverte de la photographie! l'objectif idéal n'a pas de lentille: c'est un trou d'épingle parfait, aux bords impeccables, dans une boite noire, avec une vitre dépolie au fond. Avec ça, on est net partout et pour tout ce qui est devant l'objectif, loin ou près, en haut, à gauche ou au milieu !!  hélas, le petit trou ne laisse pas passer assez de lumière, même pour un appareil électronique actuel. Le gros trou laisse passer beaucoup de lumière mais ne permet pas de former une image; on y ajoute donc des lentilles pour focaliser les rayons lumineux captés sur le verre dépoli, la pellicule ou le capteur électronique.
Pour faire varier la lumière qui entre, on pourrait attendre le temps nécessaire, mais on a préféré placer un diaphragme qui augmente ou réduit le trou (l'iris de l'œil). Il n'en reste pas moins vrai, que si le trou du diaphragme est assez petit, la netteté sera plus aisément obtenue partout, ce dont profitent les smartphones.. Dans le classement qualité, l'objectif fixe est encore et toujours le meilleur, bien qu'ayant cédé la place à l'objectif à focale variable, le zoom. Exemple de zoom: focale variable de 5.8 à 23.2 mm. Ouverture (luminosité) entre 2.6 et 5.5 (un assez bon zoom pour pellicule ouvrait de même).

Equivalence de format.   Le format 24*36 était universel, normalisant de fait les valeurs des objectifs. Depuis le numérique, la taille des capteurs varie selon les modèles, ce qui remet tout en cause. Quelles sont les tailles ? il y a de tout. Les formats proviennent de la vidéo (camescopes) pour laquelle avaient définies des dimensions telles que 1/6e de pouce (4 mm) ou 1/3 de pouce. Dire aujourd'hui qu'un appareil a une focale de 28 mm ne permet plus de connaître la surface qu'il couvre, puisque il faut la rapporter à la dimension du capteur, qui n'est plus que rarement 24 X 36 mm. On a donc repris la pellicule 24x36 comme référence pour apprécier une focale d'appareil numérique. Reste que les correspondances sont données par le fabricant qui, par nature, est toujours optimiste..



Gestion électronique. Entre deux appareils équipés du même capteur, la gestion électronique peut marquer une différence car les signaux reçus du capteur sont analysés puis traités par des calculs complexes, sujets à de multiples options (voir revues spécialisées). Qualité numérique. Tout d'abord, on apporte une correction chromatique (franges de couleurs entre zones fortement contrastées), puis on réduit les bruits électriques parasites. Ce processeur d'image, qui gère aussi le fonctionnement général de l'appareil, dont les choix que l'on a faits, apporte de nombreuses corrections dues aux défauts des objectifs (distorsions diverses (dont effet "coussin"), vignettage, défauts d'éclairage aux bords, balance des couleurs. Toutes choses impossibles avec la pellicule argentique. Interviennent également les nouveautés telles que la détections des visages, des sourires et maintenant détection des mouvements, des paysages, contre-jour etc. ceci afin de pallier la mauvaise utilisation des choix sur mollette (paysages, portraits, sport (sans parler des utopiques excès (animaux.. pourquoi pas belle maman). Après ces traitements, qui permettent entre autres d'obtenir de bons résultats avec des zooms de forte ampleur (rapport 10 à 30), le fichier image est achevé, mais sans correction à ce stade, de la saturation des couleurs, du contraste ou de la netteté, on le traduit en un fichier Raw (brut). Contrairement à l'enregistrement sur bande magnétique ou disque gravé, dit analogique, on ne sait pas conserver "en l'état" dans une mémoire électrique, la profusion de valeurs du courant relevées sur chacun des trois points couleur d'un pixel. Il faut les coder.

Compression. Un codage de bonne qualité, c'est un fichier BMP ou un fichier dit Raw, si votre appareil le propose. Afin de réduire l'importance du fichier image Raw, on procède à des codages dits de compression. Tentons seulement de comprendre ici ce que peut être un codage.
Supposons que les trois points rouge, vert et bleu d'un pixel du capteur donne les valeurs suivantes lors de la prise de vue, après toutes les corrections décrites : 538, 012 et 164 millionième de volt (pris totalement au hasard pour être mieux compris car je ne connais pas ces valeurs du tout).
Le codage le plus courant consiste à transformer chaque valeur - par exemple 164 - en une série de 8 éléments (8 bits = 1 octet) dont chacun pourra prendre la valeur 0 ou 1. Ce que l'on appelle un octet porte en lui 8 possibilités (bits) de valeur 0 ou 1, l'un après l'autre (à la queue leu leu). Le nombre de bits d'un groupe détermine sa finesse: un octet (8 bits), autorise 256 cas différents, de 0 à 255 - voir plus haut, dans "traitement des signaux" - chaque octet est porteur de la valeur de tension électrique "lue" sur le capteur.
Si l'on code à 12 bits, on dispose de plus de 1000 niveaux, et à 16 bits, plus de 4000.
Domaine quasi professionnel, on conseille d'enregistrer les clichée en fichier Raw, en plus du JPG lorsque l'appareil offre cette possibilité. Les logiciels courants de traitement d'images ne peuvent pas les afficher et leur emploi est donc réservé aux spécialistes qui possèdent les logiciels adéquats, et leur maîtrise, ce qui n'est pas donné à tout le monde.



Grand angle et téléobjectif. L'objectif "grand angle" soit avec une focale courte, permet de &caser" sur la photo ce que l'on souhaite y voir figurer, quand on n'a pas de recul nécessaire. A l'inverse, si quelque chose est loin et qu'il faut le grossir, c'est le téléobjectif (longue focale) qui convient. Le zoom permet d'avoir les deux à la fois en variation continue, en passant donc par la focale normale qui est proche de notre vue (anciennement 50 mm). Des chiffres les caractérisent (ex : zoom de 18 à 50)

Avantages et inconvénients:   Le grand angle déforme les perspectives, rapproche excessivement ce qui est contre, l'inverse étant le corollaire. Le museau de la vache est énorme et déformé, le poing et le bras qui s'avancent sont ceux de Popeye alors que l'autre, derrière, est atrophié. C'est extrêmement fréquent à la télé. En vertical, dès que vous inclinez l'appareil vers le haut ou le bas, les lignes verticales (portes, murs), s'évasent et partent en biais, à la manière des dessins de bandes dessinées dont l'effet de profondeur est souvent exagéré pour donner du relief. Ce qui est un défaut est mis à profit pour agrandir artificellement appartements et intérieurs de voiture !   un placard est ainsi transformé en belle pièce. Conclusion. Observez bien ce que l'on vous montre en photo. Avec un très grand angle, Le meuble ou le guéridon part en se réduisant exagérément vers le fond, et tout ce qui est vers le fond de la pièce paraît petit.
On est bien souvent trompé avec ces procédés. Voici une photo qui veut montrer les parts énormes de nourriture servies aux USA dans un Steak House classique. La taille de l'assiette paraît presque deux fois celle des épaules, soit près de 80 cm !  Et les doigts ne sont pas en reste.

Le téléobjectif. Il rapproche comme une jumelle mais à l'inverse, écrase le relief. Avec lui, pas de déformations, mais tout est tassé. Le lion à visage plat paraît être juste derrière le présentateur alors qu'il est à deux cents mètres ou plus (très longues focales). La voiture (raccourcie, tassée), colle à la première alors que la vue de travers vous montrera qu'elle n'est pas du tout si près.
Un portrait se fait à quelques mètres avec un petit téléobjectif pour adoucir la photo. Cela évite de voir des pifs énormes et des visages lunaires, comme adorent le faire tous les amoureux qui se prennent en photo à bout portant avec une courte focale. Les détails (et défauts de peau) s'en trouvent amoindris.
Sa relative faible ouverture atténue un peu ce manque de profondeur de champ, mais accentue le risque de bougé (vitesse lente en luminosité moyenne.

Le zoom (objectif dont la focale varie en continu entre deux valeurs). Le mot zoom ne signifie pas que grossir, car ce mot anglais doit être complété de "in" ou "out". ! Cependant, le zoom est de moins bonne qualité qu'un objectif fixe, mais peut-être meilleur sur sa focale moyenne. Pas toujours, car cela dépend du  choix du fabricant. Les chiffres donnant la variation d'un téléobjectif sont à nuancer selon la taille du capteur, soit en principe selon le nombre de pixels. Pour mieux comprendre, le format 24*36 d'autrefois équipait indistinctement tous les appareils photo. Un objectif 35-80 représentait donc la même variation pour tous les appareils photo. Avec l'électronique, il y a un grand nombre de tailles de capteurs, et l'équivalent de la valeur 35-80, peut devenir 5.8 à 23.2 mm. Pour une meilleure compréhension, la tendance est à retraduire en équivalent 24*36 mm. Ce qui laisse une grande liberté d'interprétation aux fabricants, car même réglé sur le soi-disant équivalent 50mm, j'obsrve des déformations de grand angle sur mon Sony NEX.


Diaphragme et vitesse d'obturation. Le diaphragme est à l'appareil photo ce que l'iris est à l'œil : en mode automatique, il se réduit à un petit trou avec une forte lumière et s'ouvre dans la pénombre. Un chiffre le caractérise, c'est le (rapport entre l'ouverture et la focale, ex : de 2.8 à 11, onze étant le petit trou). La vitesse d'obturation définit le temps pendant lequel la lumière va passer pour impressionner le capteur. Exemple, de 15 secondes à 1/2000e (appareil perfectionné). En decà de 1/60e de seconde, c'est une vitesse très lente (souvent la vitesse calée lors d'une vue au flash). La pose, en deçà du trentième de seconde, nécessitera d'être bien appuyé contre un support ou à faire l'usage d'un pied. Cela est d'autant plus sensible que l'objectif a une longue focale (télé) et que le sujet est placé assez près.



La vitesse de prise de vue (ouverture de l'obturateur) complète l'effet du diaphragme tout en apportant une autre possibilité, celle de figer un déplacement rapide qui ne laisserait qu'une image très floue en vitesse lente. Pour une même exposition, on peut régler une vitesse lente et un petit diaphragme. L'inverse est aussi vrai, mais cela ne revient pas exactement au même pour le rendu de la photo (voir plus, profondeur de champ).
Vitesse ou diaphragme ?  pour figer la personne qui passe, la chute d'eau ou la voiture, il faut une vitesse d'obturation élevée (ex 1/250e ou 1/500e de seconde. Pour impressionner suffisamment le capteur si la lumière n'est pas très forte, il faudra compenser avec une ouverture (diaphragme) importante. Aux faibles lumières, il sera préférable; dans la mesure du possible, d'agrandir le diaphragme plutôt que de forcer le capteur en réglant sa sensibilité au maximum (400 à 1600 ISO par exemple). Cela afin que le naturel, ou simplement l'ambiance, ne s'en trouvent pas trop affectés. On rencontre le même problème avec un flash. Un repas aux chandelles ne doit pas paraître en plein jour.


La luminosité (quantité de lumière transmise par l'objectif). Elle est déterminée par le rapport entre l'ouverture et la focale, ex : de 2.8 à 11, onze étant le petit trou. Le plus petit chiffre, 2,8, donne donc la meilleure luminosité (le grand trou). Il est plus facile de rendre lumineux un objectif courte focale qu'un téléobjectif (qui doit alors avoir un gros diamètre). Comme la focale d'un zoom varie entre deux valeurs, deux chiffres sont nécessaires pour qualifier sa luminosité. Ces deux valeurs son inscrites dessus. Un zoom comporte donc deux valeurs de focale et deux valeurs de luminosité. Conclusion, le zoom de votre appareil est plus lumineux (reçoit plus de lumière) en grand angle qu'en téléobjectif (on devrait dire petit angle !).



Flash.

Les flash des appareils compacts sont plutôt indigents et on ne peut envisager de photo au-delà de 2 ou 3 mètres, avec un angle éclairé étroit. Cela malgré une grande sensibilité de capteur, dont on réalise qu'elle est assez artificielle, et pas toujours souhaitable (pour rétablir une certaine atmosphère, il faut réduire la sensibilité !!) Tous ces flash qui crépitent dans les tribunes ne servent à rien d'autre que d'animer le spectacle car ils se perdent dans le noir. Seules les personnes de la rangée de devant risquent d'être éclairées ! c'est un peu mieux dans une pièce dont les murs clairs et le plafond renvoient la lumière. En règle générale, mieux vaut désactiver le flash et ne le mettre que si nécessaire, car tout éclair intempestif "ruine" inutilement la batterie. (sa suppression est généralement possible). Flash ADDITIONNEL. Pour améliorer l'ordinaire, il faut donc utiliser un grand flash supplémentaire, d'occasion éventuellement, plus un dispositif bon marché qui se branche au bout de son raccord une petite olive transparente), et qui captera la lumière du premier flash pour faire jaillir sa propre lumière. Ça fonctionne très bien et je me souviens de l'étonnement des gens sur un bateau, voyant ce coup de flash venant d'un endroit où il n'y avait personne ! (je l'avais posé sur une table voisine, orienté vers le plafond). Tout l'environnement était clair ce qui est bien agréable pour le souvenir. Pour un éclairage moins cru, surtout sur les visages, on peut orienter le flash vers le plafond ou placer un tissu blanc devant le flash, ce qui diffusera et atténuera l'effet de "fromage blanc".




En laissant plus ou moins entrer la lumière, le diaphragme influe sur la zone de netteté, appelée "profondeur de champ".
Une grande ouverture (diaphragme) accroît cet effet, une petite le réduit.
Dessin ci-contre:pour un objectif à focale moyenne (50 mm pour un 24x36), la profondeur de champ (zone de netteté par rapport au sujet mis au point) augmente avec un petit diaphragme (petite ouverture) et vice et versa. Cet effet est accru avec un objectif à courte focale (grand angle) et amoindri avec une longue focale (téléobjectif). Une mise au point proche accroît naturellement l'effet de flou avec le lointain.

La focale des objectifs ne fait pas que rapprocher ou prendre large. Elle influe sur la zone de netteté en avant et en arrière de la mise au point. Un objectif de courte focale favorise la netteté du devant jusqu'au fond de la photo (grande profondeur de champ). Plus la focale est longue, moins la zone de netteté est étendue. Un objectif télé (longue focale) ne donne une bonne netteté que pour la distance réglée (réglage "pointu"). Sa relative faible ouverture atténue le risque. C'est une raison pour l'utiliser en portrait, car on peut obtenir un flou avant et arrière du studio ou du paysage, ainsi qu'un visage plus doux (moins détaillé) puisqu'on photographie de plus loin.
Le format 24x36 confère un avantage par rapport aux petits appareils avec petits capteurs, Sa focale basique de 50 mm est plus grande, ce qui permet de jouer entre mise au point et flou environnant.


La prise de vue

Une première observation est que bien des innombrables réglages que proposent nos appareils photo n'intéressent que très peu le photographe de masse parce qu'aucune sensibilisation n'existe, tout étant orienté vers les merveilleux réglages automatisés.
Réglage du format: 4/6 ou 16/9 ? les télévisions et PC sont désormais au 16/9, mais les tirages photo demeurent au 4/3. Encore une aberration. On n'imprime plus que très peu, noyé par les centaines ou milliers de photos qui ne sont pas même triées. Sur mon appareil photo, j'ai donc finalement opté pour la prise de vue en 16/9.
Réglage de la taille de capture. Pour un appareil courant : 640x480,  1600x1200,   2048x1536,   2592x1544,   3244x2448. Si donc vous ne souhaitez obtenir que l'image d'un objet simple (vase ..) à conserver ou à envoyer par Email pour donner une idée, le choix 680x480 ou moins encore en réduisant, est largement suffisant. Pour voir des détails, la taille 1600x1200 sera un minimum. y compris pour imprimer à 300 ppp pour un format 10x15. Au-delà, on vise les qualités supérieures, souvent nécessaires pour les détails en fond de paysage, et avec un objectif à la hauteur. En effet, la photo 10x15 imprimée à 300 points par pouce, "ppp" (2.55 cm par pouce) donne approximativement 1.180 points x par 1770 points à imprimer, soit 2.088.600 pixels. Cela si on ne veut pas regarder les détails à la loupe comme on le faisait avec l'argentique. Pour cela, il faut passer au moins à la taille au-dessus, soit le choix de 2592x1544 ou mieux, 3244x2448 et imprimer à 600 points minimum. - Composition de l'image (cadrage). il dépend de votre goût, mais il y a quelques règles. Position du soleil côté ou arrière; deux tiers avant pour mettre en valeur une chevelure ou donner un effet de relief particulier. Pas trop de ciel ou trop de sol, des personnages de premier plan plutôt décalés pour laisser voir le fond. Premiers plans nets et fonds un peu flous, un premier plan (végétation..).
Un sujet pris de près montre mieux tous ces détails, ce qui n'est pas vraiment avantageux pour un portrait. Mais les jeunes aiment les gros nez et les faces de lune en se prenant à bras tendus!

Contre-jour. Si vous photographiez quelqu'un dans un contre-jour (sujet à l'ombre et fond lumineux) choisir le mode contre-jour ou surexposez un un peu, si ce réglage est prévu. Pour cela on augmente le diaphragme ou l'on réduit la vitesse. Un deuxième moyen consiste à orienter l'appareil vers l'ombre ou mi-ombre puis appuyer à mi-course sur le déclancheur pour figer le réglage. Enfin, on peut "forcer le flash" (oui, en plein jour), pour "déboucher" le personnage (sur l'appareil, régler l'option "flash permanent"). Voir aussi plus haut "le flash".



Les pièges.  L'intensité de la lumière peut être très gênante dans certains cas car elle accentue les contrastes ; avec une prise de vue à 50 % sur le sable blanc, la mer et le ciel seront vraisemblablement très sombres. Tourner la difficulté en réduisant la partie sable, en s'abaissant par exemple, ou en cherchant un élément ombragé à inclure (paillote..). Si vous en avez la possibilité, surexposez un peu et prenez deux ou trois photos à + 1/2 diaphragme à chaque prise (bracketing). Une photo sous les ombrages fera l'inverse et la mer-ciel lointains seront très clairs (il faut sous-exposer légèrement). Autre possibilité, si votre appareil possède un blocage d'exposition, orientez l'appareil vers une zone intermédiaire et conservez ce réglage (mais bien souvent, les appareils ne possèdent qu'un blocage de mise au point, souvent méconnu des utilisateurs. - Photographier un sujet décentré. Si le diaphragme est assez ouvert (faible lumière ou vitesse d'obturation élevée) il sera préférable de viser tout d'abord le sujet pour que l'autofocus se règle sur lui. Exemple : sujet à gauche du viseur,  viser le sujet, appuyer à demi (mi course) sur le déclencheur pour que l'autofocus se règle, puis déplacer la visée pour recadrer sans relâcher le déclencheur. Appuyer alors à fond. Pour favoriser le fond, cadrer normalement et appuyer à fond. Certains appareils détectent les visages. Le pré-déclanchement sur un point particulier a un inconvénient sur la plupart des appareils qui règlent en même temps l'éclairage. Si le sujet sur lequel on règle est à l'ombre, à gauche, le fond vers lequel on redirige la visée avant de déclencher sera surexposé s'il est bien plus clair. On a donc parfois intérêt dans ce cas à choisir un point de visée intermédiaire, mais il faut pouvoir s'assurer d'une profondeur de champ assez bonne (petit diaphragme, focale plutôt courte).

Qelle heure ? > on a rarement le temps de choisir son heure pour prendre une photo. Eviter les deux dernières heures de la journée car les teintes sont faussées (rougeoient). Eviter le soleil haut de midi l'été car il n'y a pas d'ombres et on y perd en impression de relief (photo "écrasée"). Quelques nuages ne sont pas à rejeter, bien au contraire. Ne prenez pas trop de ciel, sauf effet spécial. ne placez pas les sujets au beau milieu, mais dans le tiers droit ou gauche si vous tenez au paysage du fond.

Flash. Le petit flash intégré n'a qu'une portée limitée de quelques mètres au mieux. Inutile d'espérer éclairer le paysage,  la manifestation ou le stade. Tout sera noir, ou mauvais comme c'est en général le cas avec les appareils électroniques en faible lumière. On a l'impression qu'il voit la nuit, mais le résultat est généralement mauvais. Par contre il peut être utile de jour à l'ombre ou en contre jour car il améliorera l'éclairage du sujet proche. Dans ces cas, il faut savoir "forcer" son fonctionnement en le mettant en marche permanente ou en appuyant sur un bouton s'il y en a un.

La balance des blancs. Elle sert à corriger la dominance d'une couleur qui va influencer l'environnement par réflexion ou encore une prise de vue trop tardive. Peu de gens s'en préoccupent car la technique fait peur. En fait on peut modifier la colorimétrie de la prise de vue en la réglant soi-même. Certains appareils ont un réglage automatique de la balance des blancs que l'on actionne par le menu en visant la pièce ou un carton bien blanc éclairé par la scène que l'on place devant l'objectif; le résultat n'est pas toujours probant. On peut toutefois observer le résultat de la correction à l'écran ou dans le viseur (qui ne donnent pas toujours les mêmes teintes !!). Il fallait en parler car des photos difficiles peuvent être grandement améliorées, comme par exemple en éclairage artificiel avec des lampes à incandescence (dominance rouge)


 Le risque augmente en faible lumière (vitesse lente) et avec la position télé du zoom. Comme avec des jumelles, on tremble avec le zoom. Tout va dans le mauvais sens. En basse lumière, évitez le zoom télé !  sauf si vous avez un bon anti-tremblote sur votre appareil. Plusieurs systèmes existent. Système numérique (on utilise la mémoire disponible pour "récupérer" la bonne image, système optique (les lentilles ou le capteur bougent pour compenser). Il faut apprendre à bien se stabiliser pour prendre à coup sûr une photo nette.  Tri de diapos et négatifs : un panneau lumineux (30*40), plat (2 cm plié), léger, facile à faire, et ergonomique pour tri de diapos et négatifs basé sur l'utilisation de réglettes amovibles profilées. en savoir plus,. " fabrication ". Sur la base de classiques plaques en plastique rigide translucide, mais tout à fait original et très pratique. A suscité l'intérêt du Directeur de fabrication de Prestige, en banlieue Parisienne (mais cet ingénieur, ancien dans la société, n'a pas échappé aux dégraissages, sans remplacement à l'époque). Utilisé. Sur demande, je donne gracieusement une version allégée, qui dépanne suffisamment et ne coûte que le prix de la plaque, soit 10 à 15 euros (il est préférable de disposer d'une petite lampe halogène de bureau de 20 ou 50 watts, mais on peut s'en passer).




Camescope numérique.

Batterie : c'est le gros problème car elle ne semble pas durer longtemps et coûte trop cher. C'est toujours au moment où il y a quelque chose d'intéressant qu'elle vous lâche !! Si vous avez la possibilité de recommencer la prise de vue, attendez 10 minutes et vous pourrez prendre quelques secondes de film (chauffez la sous le bras éventuellement). L'essentiel est de capter quelques images ou photos, qui pourront être insérées dans le film (voir ci-dessous "montage et transitions); sans doute vaut-il mieux ne pas renouveler cette pratique trop fréquemment car les batteries n'aiment pas la décharge excessive et peuvent être détruites.

Recharge: Ne pas laisser votre batterie totalement déchargée pendant des mois, sauf lithium je crois (à vérifier sur notice), car elle ne s'en remettra pas. Il faut penser à l'entretenir. les batteries au lithium ont une grande capacité et n'ont pas de "mémoire" ce qui veut dire qu'il ne faut pas les décharger avant de recharger. 

Commencer un film. Je conseille de prendre deux ou trois secondes de vue quelconque en début de cassette car il arrive que la première image, trop courte, ne puisse être récupérée (et parfois ineffaçable).

Montage de films :   
1 / bruit intempestif (scooter, cri) découper la séquence, supprimer le son ou le mettre à zéro. Prélever une bande sonore sur un passage proche (bruit de fond etc) le placer (à la bonne longueur) en remplacement.
2/ Séquences intéressantes mais trop brèves : copier le passage (faire un nouveau clip) et le placer en suivant; vous aurez ainsi une répétition comme à la télé.

3/ Vue trop brève (inutilisable): choisir la vue la plus nette, faire une photo (elle durera le temps que vous voulez, 10 secondes ou plus si vous le souhaitez ; ajouter un bruit de fond comme ci-dessus (bruit intempestif) ; vous pourrez ainsi admirer un cliché inutilisable autrement.   

4/ Insérer une photo de liaison : choisir votre photo, la recadrer avec un logiciel de retouche (à la rigueur "Paint" de Windows), agrandir sur un détail le cas échéant et la redimensionner au format 720 * 576 pixels (JPG ou BMp) ou plus si vous êtes en haute définition (voir votre format). Nommer et stocker (modifiez le nom courant pour ne rien perdre)
C'est impératif pour réenregistrer votre film sur votre caméscope DV/DV HD..

 5/ Légendes sur une séquence: on peut ajouter quelques courtes légendes (trois ou quatre), en utilisant le titrage, par exemple pour indiquer un nom sur une fleur, un village lointain etc ; il suffit d'un peu de patience en disposant les noms sur l'écran de sorte qu'ils se placent à proximité de l'élément souhaité (il faut jouer avec les tailles des lettres et l'espacement. Commencer par le haut car toute modification va entraîner le décalage de tout ce qui est au-dessous !! mais ça vaut la peine.

6/Transitions:

1/ transition par couleurs. Bien adapter le type de transition à la nature des vues. Par exemple : si vous faites un glissement vers la droite, sur une séquence qui arrive en se déplaçant vers la gauche, l'effet sera gênant, de même qu'une transition coupant un visage en deux parties. Dans le doute, le fondu enchaîné reste roi et voici comment l'améliorer, par le fondu sur couleur: placer 2 à 3 secondes de couleur, pas trop vive (claire ou au contraire sombre pour un changement de lieu ou de jour), que vous confectionnez de préférence vous-même, en fonction de la dominante des vues qui disparaissent ou au contraire qui arrivent; placer une transition "fondu enchaîné devant la couleur et une autre après la couleur, chacune de 1 ou 1,5 seconde pour qu'elles recouvrent totalement la durée de la couleur.

2/ Transition par photo : les scènes sur lesquelles portent les transitions sont trop courtes (personnellement ça m'arrive parce que je prends souvent de nombreuse et petites séquences très variées pour animer le film (détails, gens, animaux..). Prendre une photo sur une des meilleures vues de la fin de la séquence et l'ajouter à la fin ; placer la transition (1 à 2 secondes), de votre choix après. Ajouter un fond sonore prélevé sur la fin de votre séquence pour éviter le silence de la photo (durée du son couvrant tout, photo + transition).

7 / Confection de gros clips: lors de la confection du film, de nombreuses retouches sont à faire et si l'on travaille sur un film trop long, chaque reconstruction du film par le logiciel prend un temps prohibitif. Donc, confectionnez des clips de 7/10 minutes qui seront assemblés ensuite (30/60 mn) après. Eventuellement, recherchez les fichiers inutiles qui auraient été conservés et supprimez les.

Réduire le bruit du vent ;  je viens de trouver une parade qui paraît satisfaisante mais je confirmerai ultérieurement. Beaucoup de films sont gâchés par le bruit du vent. Si c'est pareil pour vous, maintenez plaqué contre les trous des micros un morceau de feutrine épaisse (roulée en trois ou quatre épaisseurs). On peut mettre un élastique ou coller. Il faut cependant que le bruit interne du caméscope soit très faible, sans quoi il y a amplification et c'est pire car le système de niveau automatique amplifie le bruit interne.

<Visière pour caméscope: les écrans de visée sont très agréables et nous isolent un peu moins du lieu que nous observons ; par contre, dès que le soleil est un peu vif ou mal placé, on ne voit plus rien sur l'écran: il faut alors un pare-soleil... pour nos yeux. Il en existe un, américain, qui est une sorte de soufflet de toile, mais peut-être pas facile à trouver, et cher. Voici une idée pour en concevoir un vous-même, en tissu renforcé de fil de fer, en carton ou en plastique fin (genre classeur de dossiers, couvertures de cahiers, etc.


Sons et acoustique.

Quelques explications de physique: Pour leur production et leur diffusion, les sons graves nécessitent plus d'énergie que les sons aigus. Un exemple, si l'on veut de la puissance dans les graves, il faut un haut-parleur de grand diamètre dont la membrane soit susceptible de bouger avec une assez grande amplitude. D'où la tendance du caisson de basses unique, qui convient car les sons graves ne sont pas directifs (plus ils sont graves, moins on distingue d'où ils viennent). Les sons très graves sont même ressentis par le ventre, et tout le corps, et non par les oreilles. Autre preuve caractéristique, placé à quelques pas d'un écouteur "oreillette", on n'entend qu'un affreux zizillement, car seuls les sons les plus aigus franchissent la distance. Si l'écouteur est mal enfoncé, on perd tout de suite des graves.

Parce que les sons graves sont gourmands en énergie, pensez aux piles de votre - petit - poste muni d'un commutateur "booster ou "méga basses". Coupez le lorsqu'il n'est pas indispensable.

Cette notion de puissance nécessaire selon la fréquence des ondes est observable, même pour des courants faibles : Lorsque les piles d'un poste de radio sont faibles,  les stations disparaissent tout d'abord à l'une des extrémités de la gamme et toujours du même côté.?  c'est parce que la fréquence des ondes, de ce côté, de fréquence moins élévée, exige plus d'énergie.
Autre exemple, pour assurer des services de plus en plus nombreux et complexes, mais surtout pour réduire la taille des mobiles (portables) et la consommation de la batterie, on augmente la fréquence des ondes (dernière génération, ce qui pose maintenant des problèmes d'atteintes physiologiques et qui exige des émetteurs encore plus nombreux).


Acoustique. L'acoustique est une science complexe et pour installer des enceintes, fiez vous à la notice si l'emplacement est précisé. Pour mes enceintes Bang et Olufsen, il était précisé qu'elles ne devaient pas être posées sur le sol, mais surélevées à 50 cm (contre un mur, qui lui aussi a un effet de réflexion). On vend aussi des cônes très pointus pour isoler les enceintes du sol. C'est très cher et je pense qu'il vaut mieux éviter cela en les posant sur un matériau souple (j'ai mis des pieds avec des bouchons de champagne). Le placage contre un mur, de même que les angles de murs, ou encore une enceinte trop basse, peuvent favoriser les basses à l'excès et "étouffer les aigus", ou provoquer d'autres distorsion du spectre sonore. A vous de faire des tests avant de choisir votre emplacement définitif. Encore un mot ; les pièces vides ou un peu nues, favorisent réflexions et résonances désagréables, tout autant que le plafond. Essayer de meubler un peu et de garnir les murs avant toute chose, à moins que vous ayez les moyens. Dans ce cas, vous aurez à vous méfier des spécialistes, car trop d'insonorisation nuit. De légères réflexions donnent un peu de relief et de couleur à la musique.

Pour obtenir un bon son avec un haut parleur, surtout pour les basses, les sons émis par l'arrière ne doivent pas interférer avec ceux émis par l'avant du HP ; d'où l'ancienne pratique du baffle, qui est une planche épaisse de bonne dimension (ne doit pas vibrer). Le baffle est remplacé depuis longtemps par les enceintes, dont certaines ont un trou (évent) vers l'avant, calculé pour que les ondes arrière soient en phase (ou à peu près) avec les ondes avant en se rejoignant. Une bonne enceinte doit être lourde et pas en plastique léger. Pour corriger les défauts d'une pièce, certains amplis émettent des ondes et calculent leur retour pour atténuer celles qui seraient en résonance avec la pièce.
L'écouteur permet l'élimination de l'onde arrière puisqu'il y a étanchéité et que les sons perçus par l'oreille ne sont pas perturbés par ceux qui vont vers l'extérieur. De même, à l'intérieur d'une voiture, l'habitacle fermé isole des sons arrière des hauts parleurs qui sont placés dans la porte.


Codage des sons en informatique ; les rouleaux, les disque de cire, et les microsillons, étaient gravés analogiquement : avec ce principe, un sillon fait vibrer l'aiguille de lecture au rythme des variations de sa gravure. Cette gravure reproduit elle-même sous forme d'ondulations plus ou moins longues, celles qui ont été émises par les instuments de musique ou l'artiste. Les CD font appel à un procédé de numérisation qui interdit toute reproduction directe : il faut décoder les signaux avec des circuits électroniques complexes. Sur un CD- DVD ou autre appellation future, on pourrait dire que c'est un système de type "morse" qui est utilisé, car des micro cuvettes du procédé dit "numérique" - visibles au microscope - plus ou moins espacées, plus ou moins longues, sont creusées tout le long de la spirale qui part du bord pour finir au centre. Voir photo
A la prise de son, appelée échantillonnage, le son peut être "prélevé" par points avec une plus ou moins grande fréquence. Autrement dit, plus on prélève d'échantillons, meilleure sera la restitution. C'est un peu comme pour les couleurs (voir ci-dessous), plus la palette de couleurs est importante, plus le dessin sera délicat et fin. Les micro cuvettes sont lues par une diode laser, puis leur défilement est transformé en une série représentative de 0 et 1, avec lesquels on restituera les sons originaux, sous la forme analogique, afin de pouvoir faire vibrer les membranes des haut parleurs. en savoir plus, choix "technique de transmission des signaux". Qualité numérique : elle est tout d'abord définie par le taux d'échantillonnage, c'est à dire par la fréquence avec laquelle on prélève les échantillons (fragments) de son. Exemple, échantillonnage à 8 kilohertz, 16, 32, 48.

Tout dépend de ce que l'on souhaite mais pour mon caméscope, le son est échantillonné à 48 kilohertz (qualité HI FI). Pour un microphone destiné à reproduire la voix, il est inutile de coder aussi finement car le fichier obtenu sera inutilement important. Cela revient à scanner un journal à  800 points par inch (ppi) s'il n'est imprimé qu'à seulement 75 ppi.

Ensuite, par le codage de ces échantillons de sons ,  soit à ce stade des tensions de courant électrique (niveaux), qu'il faut pouvoir véhiculer et c'est pourquoi on les code sous la forme dite binaire (en une série de valeurs binaires). Par exemple, la plus courante une série de 8 éléments qui chacun pourront prendre la valeur 0 ou 1. C'est ce que l'on appelle un octet. Un disque dur fait par exemple 300 giga octets. Le nombre d'octets du codage déterminent également la finesse du codage: par exemple; un octet (donc 8 bits), autorise 256 niveaux mais si l'on code à 12 octets, on dispose de plus de 1000 niveaux pour traduire un échantillon prélevé.
Enfin, pour alléger le poids des fichiers (réduire la taille du fichier), on pratique une autre compression qui consiste à ne pas stocker ni transmettre ce qui est inutile, ou à réduire imperceptiblement la qualité: exemple simple, si vous vous arrêtez de parler - il y a forcément des pauses entre les mots ou les phrases, il est inutile de transmettre les silences et de les coder !  Il y a plus compliqué, mais c'est pour faire comprendre. C'est pourquoi les fichiers sont en MPG, MP3 et autres formats.

Cette compression tendrait à niveler la musique qui, si l'on peut imager ainsi, ne comprend plus de pleins et de déliés; mais produirait un niveau sonore quasi constant, sans silences ou sons très faibles succédant aux passages puissants. On pense naturellement à la musique classique. Personnellement, je crois que la musique enregistrée tend elle-même à un flot continu et nivelé de sons, l'accompagnement musical comblant les silences des artistes. La volonté commerciale privilégie un flot puissant et continu, gage d'ambiance réussie et d'audition massacrée dès la tendre enfance. Que donne un morceau de musique classique en MP3 ?  L'avis d'auditeurs mélomanes serait intéressant.



hibis Idées                   retour au début de page