dimanche 22 avril 2012

infomatique en nuage et économie de la fonctionnalité

Il est tentant d'identifier l'informatique en nuage (the cloud computing) et l'économie de la fonctionnalité. C'est moins évident si on considère les buts poursuivis et les effets.

Le cloud désigne les offres de services informatiques réduites à l'usage de fonctionnalités. Ce peut être l'accès partagé à des ressources matérielles (IAAS - Infrastructure as a service), à une plate-forme de création et de déploiement de logiciels (PAAS) ou à des applications (SAAS). Chez les clients, l'effet est une externalisation de la production informatique (entreprises) ou des données personnelles et de la logithèque (particuliers).

Dans une économie de la fonctionnalité, on échange l'usage des effets bénéfiques des biens plutôt que la propriété de ces biens. Ses promoteurs soulignent les bénéfices pour le consommateurs en terme de pouvoir d'achat et la réduction de l'empreinte écologique. Ainsi, les services de location de vélo dans plusieurs grandes villes incluent le parking et l'entretien pour une somme modique, qui peut être inférieure au coût de possession d'un vélo. Le consommateur achète de la mobilité. L'industriel est forcé de prendre en charge les externalités écologiques, d'ordinaire laissées à la collectivité. Mais il peut les gérer avec la rationalité des ingénieurs et l'échelle de l'industrie.


L'économiste Philippe Moati, défenseur de l'économie de la fonctionnalité
transcription ici.

La location n'est pas une condition suffisante pour atteindre l'efficience écologique. Comme l'explique Philippe Moati dans la vidéo ci-dessus, la location à long terme peut être assimilée à un achat à crédit, coûteux pour le consommateur. Pour qu'elle soit vertueuse, le produit doit être plus durable. Philippe Moati propose une nouvelle réglementation qui porterait la garantie à 10 ans. Quand je l'ai croisé au congrès des 60 ans de l'UFC-Que Choisir, il m'a dit que son idée avait suscité quelque intérêt au PS mais n'avait pas eu d'écho au gouvernement Fillon. Il est vrai que son application modifierait profondément le visage de l'offre et pousserait les industriels à se remettre en question voire à prendre des risques. Exit les produits jetables Made in Sweatshop. L'économiste pense que le schéma est même applicable à l'habillement.

Selon Latitude Research, d'excellentes opportunités se trouvent dans la location d'automobiles et d'appareils ménager. Voir l'infographie ci-dessous et le rapport.

Opportunity Infographic - The New Sharing Economy Study

Mais revenons à nos nuages. Les centres de données peuvent-il servir de modèle à cette économie du futur ?

Des industriels qui conçoivent ces usines à data arrivent en effet à être plus efficaces que les petits artisans. Le rendement énergétique des meilleurs atteindrait 1,2 (1 pour alimenter les serveurs, 0,2 pour les refroidir), grâce à des systèmes à air libre, à eau ou à une implantation sur le cercle polaire. Le paiement à l'usage ou la mise aux enchères des ressources du nuage contribuent à améliorer le taux d'utilisation des serveurs par rapport à une production maison.

Mais la transparence n'est pas vraiment de mise dans ces data centres bunkerisés que l'on visite comme des centrales nucléaires. Greenpeace a publié un rapport accusateur sur certains fournisseurs de cloud sale. Pour ma part, je ne vois pas en quoi la délocalisation de production informatique dans un pays à faibles standards sociaux et environnementaux constituerait un progrès.

L'informatique en nuage n'est pas un très bon exemple d'économie de la fonctionnalité si l'on souhaite réduire en valeur absolue les nuisances écologiques. Ce secteur très jeune créé des services nouveaux plus qu'il ne remplace des produits physiques existants. Certainement, il les y ajoute car on a toujours besoin d'ordinateurs pour accéder au nuage. Et en plus on veut des terminaux mobiles.

Il illustre très bien l'effet de rebond, phénomène expliqué par Jean-Marc Jancovici.

Cet âge de l'accès pourrait avoir un effet bénéfique inattendu, en désacralisant la possession de l'objet. Mais peut-être n'est-il pas besoin d'attendre sa venue. Ta Rolex obligatoire à 50 ans ™ fait déjà complètement has-been, même si c'est pour d'autres raisons. Le luxe existera toujours. Alors, comme ce n'est qu'une question de désir, tâchons de travailler sur nos désirs.

Une chronique parue au printemps 2009 dans PC Expert, republiée avec la permission de l'auteur, et qui me semble toujours d'actualité :

Le luxe, pour tous

Exercice délicat en temps de crise économique et écologique, l'éloge du luxe paraît nécessaire si l'on désire surmonter l'une et l'autre sans contradiction. En sortir par le haut, comme on dit. Le problème de la relance du système actuel, favorisant la consommation de produits non durables fabriqués par une main d'oeuvre low-cost, c'est qu'elle va accélérer les délocalisations, la raréfaction des matières premières et la destruction de la biosphère. Autant pousser un âne mort. Il faut alors explorer l'idée d'une décroissance, à condition de ne pas confondre celle-ci avec une récession prolongée, porteuse de pénurie et de chômage. Étrangement, cette voie rejoint celle du luxe. Non pas la dépense tapageuse du nouveau riche mais celle de l'investisseur éclairé. Un vrai produit de luxe se répare, se transmet, ne se démode pas. Il pollue moins que ses substituts consommables. L'éco-conception est une forme de luxe.
L'idée encore hérétique de décroissance est déjà appliquée en informatique. Certains constructeurs vendent moins de serveurs physiques, mais bourrés de logiciels sophistiqués de virtualisation et accompagnés de services haut-de-gamme. Moins de matière, moins d'énergie pour plus d'intelligence et de travail, décroissance matérielle et croissance de la valeur aideront à résoudre la difficile équation. Mais le le luxe coûte plus cher, ce qui ramène la question que la croissance à tout prix permettait d'éluder, les inégalités d'accès au bien-être. Sans leur réduction, l'économie écologique n'avancera pas.
Pas plus qu'un âne mort.

vendredi 20 avril 2012

Où sont les numériques pour la photo-école ?

Un appareil destiné au photographe débutant devrait offrir des modes d'exposition où l'on choisit l'ouverture (A), le temps de pose (S) ou les deux (M) - comme j'explique ICI ou . Jouer avec ces paramètres fondamentaux de l'image photographique est nécessaire pour apprendre et pour créer. Les modes presse-bouton (portrait, enfant, sport, paysage...) sont destinés à d'hypothétiques consommateurs - à fuir, donc.


"On repasse en manuel"

Dommage qu'il n'existe pas d'appareil numérique limités à ces modes, j'exclus le Leica M9, un peu cher pour débuter. Serait-il possible d'avoir des appareils bon marché, didactiques et solides ? Dans les années 70 et 80, les Nikkormat et les EM étaient déjà un peu chers pour être confiés à des enfants. Mais il existait des boîtiers fabriqués en Union Soviétique, les Lubitels, fabriqués par Lomo.

Le Lubitel 2, corps en bakélite, résiste sûrement à l'hiver russe, 106 Francs à la Camif. C'est un format 6×6 (film 120) à bi-objectif, un pour la visée, un pour l'image, un trois lentilles pas si mauvais à petite ouverture. Diaph de f/4.5 à f/22, obturateur central mécanique de la pose B jusqu'au 1/250 eme, même temps pour la synchro flash. La mise au point sur un dépoli minuscule et sombre est pénible.



Le Lubitel 166 Universal, le dernier de la série, illustre ce post. Le boîtier est en plastique, la mise au point moins dure et il y a un cache pour faire du 4×6, ce qui donne 16 poses par bobine ! Presque du Luxe.

mardi 17 avril 2012

Quel appareil pour apprendre la photographie ?

Aujourd'hui, presque tout le monde possède un appareil qui fait des images : Compact, reflex, ordiphone voire tablette... Que choisir pour apprendre la photo ?

Nombre de ces machines à images ne comportent aucun réglage accessible au photographe. La lumière, la mise au point, tout est décidé par un algorithme, sorte de recette de cuisine mémorisée dans les circuits. L'image produite est souvent correcte, parfois même jolie. Mais vous ne savez pas pourquoi. Et vous ne sauriez apprendre avec un tel bidule que l'on peut faire du beau autrement.

Les limites des automatismes

Dans un précédent post, j'ai expliqué ce que sont les paramètres essentiels qu'un photographe doit pouvoir contrôler. Ça ne signifie pas que les automatismes sont à bannir. Ils sont très précieux la plupart du temps. Mais il faut comprendre ce qu'ils font et savoir reprendre la main. Exemples.

Le mode portrait favorise les grandes ouvertures afin de rendre flou l'arrière plan et d'isoler le sujet. Oui, mais si le décor a de l'importance ? Il faut passer en mode A (exposition auto avec réglage manuel de l'ouverture) et fermer le diaphragme de deux crans ou trois s'il y a assez de lumière. Une focale de 35 mm (plein format) ou 24 mm (APS-C) donnera plus d'importance à l'environnement du sujet, lequel sera pris en plan moyen (coupé à la taille).

Le mode sport favorise les temps de pose courts, pour figer l'action des athlètes, quitte à augmenter la sensibilité (les ISO). Mais parfois, on veut au contraire un temps de pose long pour voir le filé du mouvement des sportifs. On passe alors en mode S (exposition auto avec réglage manuel du temps de pose), choisit ¼ de seconde ou plus, réduit l'ISO s'il faut conserver une ouverture assez grande et pose l'appareil sur un support stable.

La mesure de lumière multi-zone calcule l'exposition en s'aidant d'une base de cas-types. Souvent, c'est bon ou très bon. Mais il arrive qu'elle confonde les situations. Exemple vécu, dans une rue, la nuit, un lampadaire éclaire un vieux mur. Sur le négatif, le mur est presque totalement transparent, sous-exposé. L'appareil avait considéré que la zone lumineuse était le sujet principal, comme l'est un artiste sous les projecteurs dans une salle sombre. Moi, je voulais le mur. J'aurais dû passer en mode M (réglage manuel de l'exposition avec assistance), mesure spot (ponctuelle) et faire la lumière sur une partie intéressante du mur. Ensuite, j'aurais réduit l'exposition préconisée de 2 ou 3 EV pour que le mur se trouve dans l'ombre mais pas complètement noir. Si l'appareil avait demandé 1 seconde, j'aurais réglé à 1/4 ou 1/8 eme.

Même sur les appareils récents, on peut être piégé. Il faut savoir critiquer les automatismes.

Une fois qu'on sait faire des photo tout seul, les limites sont celles de son imagination - ce qu'il faut cultiver.

Quels boîtiers ?

Les modes doivent être facilement accessibles, de même que la molette.

Bref, il faut pouvoir changer : ouverture, temps de pose, sensibilité et si possible mise au point. On vérifiera qu'il y a les modes A (ou Av) S, M et P. Beaucoup de compacts sont exclus. Ensuite, la molette permettant de régler ouverture, temps de pose ou décalage de programme doit bien tomber sous le doigt et être agréable à utiliser. L'idéal, c'est deux molettes, pour agir sur les deux variables en mode M, mais là c'est devenu du luxe, réservé au haut de gamme. Une commande sous forme de boutons ou pire, de menus vous découragera vite. À éviter.
Parmi les compacts, on a remarqué le Canon PowerShot G12, quelques bridges, et bien sûr les reflex. Ces appareils restent à mon avis inégalables pour apprendre la photo. Le Canon EOS 1100D ou le Nikon D 3100 avec un 35 mm, éventuellement d'occasion, coûtent moins de 500 €. Un investissement intéressant si on considère la durabilité de ces appareils.

lundi 16 avril 2012

Cédric Blancher : "Le hacking est dans l'intérêt du public"

En introduction au congrès Hackito Ergo Sum 2012, Cédric Blancher (enseignant, consultant en sécurité pour EADS) a plaidé pour la liberté d'étudier et de modifier les objets techniques, logiciels et matériels, qui nous entourent. Pour être sûrs qu'ils sont bien à notre service.

Extraits du discours: "Le hacking est une activité dans l'intérêt du public et nous devrions protéger son exercice". Il établit un lien entre la liberté d'examiner les technologies que nous utilisons et le droit des citoyens à s'assurer contre l'arbitraire de l'Etat ou d'autres pouvoirs. Il lâche même à la tribune "We need empowerment !" Notion empruntée au vocabulaire des progressistes américains, toujours pas traduit en français.



Comment défendre la liberté de conscience si les bases de données sur les personnes ou les machines à voter - deux exemples qu'il choisit - sont entourées d'opacité ? Or, rappelle Cédric Blancher, il existe des lois interdisant l'étude des logiciels et des appareils sauf au motif - pas toujours évident à invoquer - d'interopérabilité.

Hadopiware dangereux

Autour d'un café, il m'explique que la sécurité serait un autre motif valable. "Le logiciel Hadopi d'Orange a des failles de conception graves. Il tourne avec les droits System et utilise un pipe nommé: n'importe quel programme peut le compromettre et le transformer en botnet. C'est potentiellement un problème de sécurité nationale. Ce programme aurait dû passer un audit de sécurité. Un cadre pour ce genre d'audit pourrait utiliser un tiers de confiance."

Pour Blancher, le hacking est aussi nécessaire à l'innovation. Beaucoup d'inventions marquantes sont le fait d'amateurs pointus, et ont été récupérées ensuite par l'industrie. Le VTT par exemple - alors qu'aujourd'hui tous les fabricants de vélo en profitent. En informatique, on a la technologie du bac à sable (sandbox), filon exploité par les éditeurs d'anti-virus entre autres.

Hacker les objets

Il me montre son appareil photo Pentax avec un objectif non prévu par le fabricant et dont il a adapté la monture. "Aujourd'hui, on subit la société de consommation. On est passif vis à vis des objets. Mon premier PC, un Amstrad 1512 avait 512 Ko de RAM et de toutes façon le DOS n'adressait pas plus. Beaucoup de programmes nécessitaient une configuration particulière pour fonctionner avec ces limites. Le bricolage était nécessaire. Entre ça et les PC d'aujourd'hui, achetés en grande surface, il y a un monde. Ceux-là n'ont aucune possibilités d'extension. Il n'y a pas d'incitation à aller plus loin que ce qui est prévu.

"Un bon informaticien, c'est quelqu'un qui a mis en pratique ses connaissances de base. Et je constate chez certains étudiants une connaissance superficielle des outils. Ils savent utiliser NMAP (un scanner de ports réseau) mais pas ce que font précisément les différentes options. Chez eux, la culture du bricolage, la curiosité critique vis à vis des appareils reculent. On leur dit que l'iPhone est sûr, ils le croient. Et ils ont tort.

"Pourtant, les possibilités offertes aux curieux n'ont jamais été aussi grandes, avec l'Arduino (circuit programmable libre), la Wiimote, le Kinect. Les fabricants mettent des freins légaux et techniques, d'autant plus que leur modèle économique repose dessus. L'iPhone est un terminal d'accès à un système distribué. On est obligé de passer par l'AppStore et iTunes. Android est inutilisable sans un compte Gmail. L'utilisateur ne contrôle pas les données personnelles qui passent dans ces systèmes.

"Pourquoi est-ce important d'étudier ces objets ? Il faut savoir comment ils marchent pour garder la main dessus. Il faut savoir comment fonctionne une machine à voter. C'est une question d'équilibre des pouvoirs et d'indépendance. La LCEN interdit la production, la possession d'outils de hacking. Chez EADS, les juristes ont interdit à une division de faire une démonstration à un client sur la base de cette loi. Le code de la propriété intellectuelle nous empêche de faire de l'ingénierie inverse sur des produits propriétaires d'origine étrangère pour évaluer leur degré de sécurité. C'est ennuyeux dans l'industrie aéronautique, surtout qu'il n'y a pas beaucoup de produits logiciels français."

vendredi 13 avril 2012

HES 2012: les paiements NFC ne sont pas sûrs

Il est possible de lire à distance des données personnelles et financières sur une carte bancaire NFC (Near Field Communication) comme l'a montré lors du HES 2012 Renaud Lifchitz, consultant en sécurité pour BT. NFC est une technologie de paiement sans contact et sans code secret (PIN). La carte ou le téléphone est approché du terminal et le paiement est effectif.

Il existe des failles de sécurité qu'une simple mise à jour logicielle résout. Dans ce cas, le problème est si profond qu'il faudrait repenser le protocole et faire accepter la nouvelle version par de nombreux acteurs. Le problème selon Lifchitz, est que le protocole ne prévoit rien pour authentifier la carte ou le terminal ni chiffrer l'échange. Devant l'assistance, il a lu à distance le contenu de sa propre carte à l'aide un bricolage de son crû. On avait à l'écran le nom, le numéro de compte, l'historique des transactions, entre autres. Il affirme avoir réalisé l'expérience à 15 mètres de distance, avec une antenne et un récepteur radio. Comparé à la carte Navigo, dont les échanges avec les bornes RATP sont authentifiés, la résistance du NFC est proche de zéro.

Il nous a ensuite précisé pourquoi : "Le protocole de paiement NFC devait être rétro-compatible avec EMV, le standard de communication entre les cartes (à contact) et les terminaux. NFC utilise les mêmes commandes que EMV, elles sont simplement encapsulées. EMV est donc utilisé dans un cadre pour lequel il n'a pas été conçu. On aurait pu sécuriser le transport".

Une solution ? Le portefeuille blindé ou alors parlez-en à votre banquier.

jeudi 12 avril 2012

Hackito Ergo Sum 2012 : hacker le hardware

Les 12, 13 et 14 avril, c'est HES (Hackito Ergo Sum) à l'Espace Niemeyer, le siège du Parti Communiste Français.



Depuis quelques années, le parti loue certaines parties de ce très beau bâtiment, pour soulager ses finances. Au programme de ce HES 2012, beaucoup d'interventions sur les moyens d'explorer sous toutes les coutures les appareils électroniques et notamment les ordiphones qui sont devenus un des supports de la vie sociale et économique. Hardware backdoors (portes dérobées incluses dans le matériel), attaques sur la couche physique des réseaux, exploits sur NFC (Near Field Communication) ou Android, devraient nous persuader d'être critiques vis à vis de ces outils. Cédric Blancher, qui a ouvert la session, constate que ses étudiants ont généralement confiance dans la sécurité de l'iPhone, parce qu'on leur dit que l'appareil est sûr : "Et bien ils ont tort" (interview complète ICI).



Niemeyer est un architecte brésilien qui a donné au béton ses lettres de noblesse. Le matériau se présente tel qu'en lui même. Il n'est pas caché sous du faux stuc comme à Las Vegas. A l'intérieur, les murs courbes guident les pas, divisent l'espace en lieux à taille humaine. A l'opposé de l'architecture soviétique (genre mairie de Montreuil), celle-ci est généreuse.



mercredi 11 avril 2012

Débuter en photographie

Jamais autant de photos ont été prises qu'aujourd'hui. La raison est que les téléphones portables sont devenus les premiers outils à faire des images. Ils constituent un excellent moyen pour s'exprimer en images sur les réseaux numériques mais certainement pas l'outil adéquat pour sortir du prêt-à-shooter et entrer dans la photographie. Certes, un esprit créatif pourra toujours faire des merveilles avec du ready-made, comme le montre le concours Cheap Camera, Pro Photographer, monté par Digital Rev TV. Mais ces gens ont fait du chemin pour en arriver là !



Pour aller au-delà des réglages permis par Instagram et consorts, il faut apprendre une grammaire plus simple mais aussi plus abstraite et donc universelle. Et il n'y a pas d'autre moyen.

La sensibilité d'un capteur est fonction inverse de la quantité de lumière nécessaire à une exposition correcte. Mais plus d'ISO n'est pas toujours mieux. C'est parfois nécessaire de réduire la sensibilité pour obtenir des temps de pose longs en plein jour, afin de rendre évident les mouvements. Des sensibilités très élevées (1600, 3200 ISO et plus) dégradent la qualité des images à cause du bruit, des artefacts qui apparaissent sur les images.

L'exposition est la quantité totale de lumière admise dans l'appareil pour une photo. L'exposition correcte est celle qui restitue l'effet recherché par le photographe. Si on recherche le plus souvent à capturer des détails dans les hautes et les basses lumières, c'est ce que font les algorithmes des appareils, rien n'interdit de sous-exposer ou sur-exposer volontairement une image. L'exposition est la combinaison du temps de pose (improprement appelé vitesse) et de l'ouverture.

Le temps de pose est le temps pendant lequel la lumière entre dans l'appareil. Un sujet mobile sera plus ou moins figé ou filé suivant que le temps de pose est court ou long. En dessous d'un temps de 1 seconde/focale, un support à l'appareil peut être nécessaire pour éviter un flou de bougé (de la part du photographe).

L'ouverture est la capacité d'un objectif à collecter la lumière. Elle est notée par un nombre qui est le rapport entre la distance focale et le diamètre de la pupille du diaphragme. D'un nombre d'ouverture à l'autre, on multiplie ou on divise par deux la quantité de lumière admise. Par exemple, un objectif ouvrant à 2 est deux fois plus lumineux à sa pleine ouverture qu'un autre ouvrant à 2.8. L'intérêt de grandes ouvertures (de nombre 2 et moins) est de pouvoir au besoin réduire le temps de pose, réduire la sensibilité (et limiter le bruit qui va avec des ISO élevés), réduire la profondeur de champ (la zone de netteté en avant et en arrière du sujet net).

La mise au point. On n'y pense rarement mais lorsqu'on compose une image, il faut choisir ce qui sera net et ce qui ne le sera pas. En se rapprochant du sujet et en ouvrant le diaphragme, la zone de netteté (profondeur de champ) se réduit. Cette zone est toujours plus étendue vers l'arrière du sujet que vers l'avant. Un objectif à grande focale (télé) donne moins de profondeur de champ qu'un grand-angle.

La composition, provient du cadrage et de la focale. L'un et l'autre sont deux choses distinctes. S'approcher d'un sujet ne donne pas la même composition que de zoomer dessus en restant loin.

Et voilà ! Avec ces éléments, on peut tout faire. Malheureusement, beaucoup d'appareils ne permettent pas d'intervenir sur ces paramètres. Ils proposent en revanche une litanie de pré-réglages, plus difficile à interpréter que les éléments ci-dessus et nécessairement limités. Exemple:

Programme image auto, programme, nocturne, vidéo, sous‐marin, film subaquatique, paysage, fleur, portrait, microscope numérique, grand‐angle numérique, mer et neige, Digital SR, enfants, animaux domestiques, mouvements, feux d’artifice, lumière tamisée, portrait nocturne,texte, créatifs, documents.

Et si je veux faire des animaux sauvages, des feuilles mortes et des étoiles ? Dans le prochain billet, je parlerai des appareils qui ne vous privent pas de votre liberté et vous permettent de vraiment débuter en photographie.

lundi 9 avril 2012

études de lumières

En photo argentique couleur, la question de l'équilibrage de la couleur se posait rarement au photographe. Les films proposés au grand public étaient (et sont encore !) faits pour rendre la lumière du jour et du flash et le laboratoire des famille pouvait corriger une éventuelle dominante colorée. Les professionnels disposaient de films pour l'éclairage tungstène, les lampes de studio qui chauffaient comme des BBQ. Les plus pointus avaient un thermocolorimètre pour vérifier la température de couleur de leur éclairage et des filtres pour corriger.
Avec la photo numérique, les appareils sont sensés équilibrer les blancs automatiquement. C'est une mauvaise idée de confier à la machine ce qui a de l'importance et qu'on peut faire soi-même. Rien n'est mieux que de constater de visu l'effet d'un patient réglage manuel. Pour la recette, il faut un appareil enregistrant en RAW et un éditeur avec une belle palette de réglages, comme Rawtherapee. Lire à ce propos l'article suivant.
Ci après, quelques exemples de lumières naturelles rendues difficiles par la dominante orangée du soleil couchant, la lueur bleutée diffusée par le ciel et le reflet vert de la végétation (cliquez sur les images pour les voir en grand).





dimanche 8 avril 2012

Equilibrer les couleurs d'une photo numérique

Pour rendre fidèlement les couleurs, un appareil doit savoir de quelles couleurs est composée la source de lumière. On parle de température de couleur. Comme les automatismes dans ce domaine sont assez mauvais, la règle est de placer le curseur sur l'icône de soleil si l'éclairage est fourni par la lumière du jour ou un flash électronique et sur l'icône de l'ampoule si la scène est éclairée par une ampoule à incandescence.

Pour les éclairages fluorescents, le problème est plus compliqué. Ces lampes économiques émettent un excès de lumière dans le vert et on se retrouve avec une source plus ou moins orangée et verdâtre à la fois, difficile à équilibrer.

Des sources composites

Sur le terrain, les sources de lumières sont mélangées. Tubes fluo et ampoule tungstène, bougie et coup de flash... Même le soleil joue des tours. Sa lumière directe est plus rouge s'il est bas sur l'horizon et sa lumière indirecte, diffusée par l'air, est teintée de bleu. Au coucher, on a un mélange d'orangé sur les objets éclairés et d'ombres très bleues. Il est alors intéressant de faire des réglages à la main.

Pour ça, il faut un appareil qui enregistre en format RAW et un éditeur de ces fichiers, par exemple Rawtherapee (RT).

Dans l'onglet couleur:

A l'ouverture du fichier, le réglage des couleurs est celui de l'appareil (menu Method: Camera). Comme le réglage de l'appareil était sur Lumière du jour, on a 5000 °K affiché sur le curseur. Mais visiblement l'image est trop bleue, avec aussi du magenta dans les hautes lumières. Pour rendre ça plus beau, il faut indiquer au logiciel la température de la source du lumière utilisée. Sans thermocolorimètre, il faut y aller au jugé. La scène est prise au soleil couchant (~4000 °K) et fortement éclairée par la lumière diffuse du ciel, très bleue (~6000 °K). On tâtonne un peu et 5600 °K donne un résultat satisfaisant et assez naturel. Le curseur Tint (teinte) joue sur le ratio vert/magenta, utile pour réduire l'excès de l'une ou l'autre couleur.

Dans l'onglet Exposition, on a ajouté un peu de noir pour donner plus de relief à une photo prise à contre-jour.





Pourquoi: "température de couleur" ?

Un corps chauffé produit de la lumière de toutes les couleurs mais en quantité variable suivant la température. A la température du soleil (~5000 °K), il rayonne un maximum d'intensité sur la partie jaune et verte du spectre tandis que le filament d'une ampoule (3000 °K) donne une lumière beaucoup plus riche en rouge-orangé. Par une nuit claire, on peut voir des étoiles aux reflets rouges. Elles sont plus froides que le soleil (3000 °K). D'autres, d'un blanc bleuté, sont très chaudes, à 8000 °K et plus. Les degrés K (Kelvin) sont sur l'échelle absolue, en usage en physique. C'est la même que l'échelle Celsius (°C) mais décalée de 273,15 ° vers le bas. 0 °K, le zéro absolu = -273,15 °C.
Vous avez remarqué qu'on dit couramment d'une lumière bleutée, fournie par une source très chaude, qu'elle est "froide" parce que le bleu est associé à la glace ou la neige. Et inversement, le rouge, l'orangé sont des couleurs qualifiées de "chaudes". Mais en physique c'est le contraire. Le bleu est plus chaud que le rouge.