Nouvelles:

PentaxOne revient ! allégé et plus rapide, mais pas encore totalement stable.
N'hésitez pas à nous signaler les bugs.

Menu principal

Course aux pixels: nouveau capteur 24MP Sony chez Pentax?

Démarré par XavPaname, 07 Fév 12 à 19:44

bbert

merci beaucoup everwind pour ce site, il est fort intéressant
" Nos yeux, nos oreilles, notre odorat, notre goût diffèrent, créent autant de vérités qu'il y a d'hommes sur la terre " Guy de Maupassant

XavPaname

Citation de: everwind le 10 Fév 12 à 16:32
@xav : une différence d'un bit signifie qu'il y a 2 fois plus de couleurs ... je te laisse en conclure ce qu'une différence de 3 bits signifie :D. TU noteras au passage que l'écart de ton (la dynamique de range) evolue dans les mêmes proportions.

Evidemment quand il y a moins d'un bit de différence c'est assez dur de se rendre compte, on le voit juste dans de grands dégradés (typiquement : du ciel ou de l'eau) ... Par contre 3 bits de différence c'est énorme ! C'est comme une différence de 3 ev en dynamique de tons en fait (même échelle), sauf qu'on a tendance à plus noter des blancs cramés ou des noirs cramés que des aplats trop uniformes ou un manque dans les couleurs :D. Mais c'est ce qui fait toute la richesse d'une image.

La différence entre un K-5 et le 645D est de 1 bit également et on voit bien la différence quand on voit les dégradés du 645 !

@everwind: Hmmm cette discussion devient très technique mais de plus en plus intéressante  :D!

Bon, j'en rajoute une couche (désolé  ;)), mais pour moi l'argument du "facteur 8" (les 3bits de différence que tu évoques) ne tient pas pour les raisons suivantes (attention, c'est assez technique  :spamafote:)

Si j'ai bien lu les différentes définitions sur Wikipedia et autres sites spécialisés, voici ce que je comprends:

Pour ce qui est de la sensibilité à la couleur de nos capteurs photos (dont les photosites correspondent aux trois filtres RVB du capteur), le codage est effectué de la façon suivante:
- 8 bits sont consacrés à la teinte primaire rouge
- 8 bits sont consacrés à la teinte primaire vert
- 8 bits sont consacrés à la teinte primaire bleu

Donc en fait, la valeur maxi avec le codage actuel est de 24bits, car égale à 3 x 8 bits, c'est à dire 256 nuances par couleur primaire (car 2^8=256) (voir l'article wiki http://fr.wikipedia.org/wiki/Codage_informatique_des_couleurs)

Là où ça devient amusant, c'est que l'oeil humain n'est capable de percevoir que 200 teintes par couleur au maximum, donc avec un codage en 24bits (256 nuances par couleur), on a plus de couleur que ne peut en distinguer l'oeil humain. Autrement dit l'oeil (enfin le duo cerveau-oeil) distingue au maximum une dynamique de couleurs de... 22 à 23 bits! Ces 22 bits ne tombent pas du ciel mais du fait que 200=2^7,6 (à peu près), et 3x7,6= 22,8 bits.

Voir le lien suivant qui est très clair (section "les couleurs à l'heure numérique"): http://www.guide-gestion-des-couleurs.com/les-couleurs.html.

Donc le Kr, le K5 et le 645D enregistrent de toute façons plus de couleurs que ne peut en voir aucun être humain... du coup les 21bits des compacts ne paraissent pas si pourris  :D!

Si tu as vu des dégradés de bleu sur une photo prise avec un compact, à mon avis il faut plutot blamer la compression de l'image (sortie direct Jpeg sur un compact, ça n'aide pas), le gamut trop limité de ton écran (quoique que comme tu es graphiste j'en doute, tu dois avoir un écran de pro  ;)) ou un autre facteur logiciel; le capteur du compact n'y  est pour rien amha.

A noter en revanche que je suis 100% d'accord avec toi en ce qui concerne la plage dynamique de luminosité, +1 IL (2 fois plus de lumière) ça a toute son importance car l'oeil humain est cette fois beaucoup plus performant que les meilleurs capteurs photos qui ont une plage de 14-15 IL pour les meilleurs là où l'oeil perçoit lui une plage de 20 IL (voir http://www.blog-couleur.com/?Qu-est-ce-que-la-plage-dynamique). Donc pas de doute, les derniers réflex (et notamment le K5) battent de loin les compacts experts.

Au bout du compte, on coupe un peu les cheveux en 4 dans toute cette discussion, c'est sur que "qui peut le plus peut le moins", que la marge supplémentaire disponible sera surement utile en traitement d'image, etc... Mais dans ma petite expérience quotidienne, je n'ai jamais vu de différence de plage couleurs ou même de différence flagrante de qualité d'image pour des photos en lumière normale entre un bon compact et un réflex (à part le piqué, comme le notait très justement bonzo).

Et puis il ne faut pas oublier que les photos sont destinées à être imprimées: les tirages photos ont une plage dynamique encore plus basse que les APN compacts (8-10 IL)...

Dans le dernier numéro de Chasseurs d'images, il y a justement un comparatif compact-réflex: sur les photos pleine page magazine, la différence n'est pas notable (il faut les encadrés avec les crops à 100% pour voir sur certains clichés une différence = le piqué justement, mais là c'est une question d'objectif aussi...), sauf bien sur les photos de nuit / basse luminosité.

Bon j'espère que je n'ai pas fait un post trop long, et si je me suis fait l'avocat du Diable en défendant les compacts tant pis, je préfère quand même (de loin) mon K-r au bout du compte  :D!!     

MouLaG Ôfr

#62
Citation de: everwind le 10 Fév 12 à 14:35
SRGB et adobeRGB sont 2 espaces de couleurs, certes. Mais c'est pas parce que tu les utilise que l'appareil est capable de les remplir !
Chaque appareil qui utilise les couleurs a son propre espace de couleurs disponible (l'appareil photo, la carte graphique, l'écran, l'imprimante).
En l'occurrence, les reflex sont capable de tirer parti des possibilités de l'adobeRGB avec des espaces de couleurs assez larges et de grandes gammes à l'intérieur (tu retrouve la notion de nuances dans le "color depth" sur dxo mark).

Tu pourrais référencer tes affirmations (en dehors de la référence à dxo, dont les critères de tests sont loin de faire l'unanimité et surtout qui n'expliquent rien) ?


Citation de: everwind le 10 Fév 12 à 16:32
La différence entre un K-5 et le 645D est de 1 bit également et on voit bien la différence quand on voit les dégradés du 645 !

La également, un peu de documentation ferait du bien ....


Citation de: everwind le 10 Fév 12 à 17:20
Un extrait sur le même site qui synthétise en gros : "Plus un capteur est grand, plus il dispose d'informations lumineuses sous forme de flux lumineux et plus il peut lire avec précision les plus faibles écarts de luminosité. Un grand capteur améliore sa plage tonale et non sa plage dynamique."

Soit, mais ceci traite de la dynamique au sens habituel, pas de la "dynamique des couleurs"   :spamafote:


@XavPaname, merci pour cette explication, que je partage !
L'important est bien la plage dynamique de luminosité.
C'est un critère réel, mesurable, mais surtout VISIBLE lorsqu'on utilise un APN et qu'on compare avec le sujet original.
[tr][td]
Alerte guerre en Ukraine : massacre d'Odessa !
[/td] [td]          [/td] [td]:P1:[/td][td]
Le BLOG du Ricoh GR[/td][/tr][/table]

everwind

Un exemple pour illustrer le problème de la plage tonale et la différence avec la dynamique :

Prenons une photo de glacier avec de l'ombre, et de l'eau qui va dans le cyan ...

La dynamique sera la capacité à restaurer à la fois le blanc du glacier et le noir de l'ombre, c'est à dire l'écart entre la plus forte et la plus faible luminosité, ni plus, ni moins. La dynamique dépend de la taille des photosites (et de leur optimisation, ce qui explique qu'elle n'a pas diminuée avec la succession des capteurs). Explication plus détaillée par ici : http://www.blog-couleur.com/?Qu-est-ce-que-la-plage-dynamique-d

La plage tonale à l'inverse s'occupe de la précision des couleurs et ne dépend pas de la taille des photosites mais de la taille du capteur : explication dans le lien donnée plus haut : http://www.blog-couleur.com/?Quelle-est-la-vraie-difference

Reprenons notre glacier. Imaginons que nous avons 2 capteurs à dynamique identique (même taille de photosite et même techno) mais de plage tonale différente (taille du capteur différente), mettons 21 et 24 bits (c'est multiple de 3, c'est parfait).

Pour le blanc se sera du 255 255 255 en 24 bits et 127 127 127 en 21 bits et le noir 0 0 0 dans les 2 cas

Pour le bleu :
- sur le capteur 24 bits on aura un dégradé entre du 160, 250, 250 et du 5, 240, 240 (bon c'est un exemple hein, c'est assez artificiel si on le fait en vrai ^^)
- sur le capteur 21 bits on aura un dégradé aussi sauf que comme il y a un bit en moins à chaque fois c'est un dégradé entre 80 , 125, 125 et 2 , 120 , 120 ... Je laisse donc évaluer la perte dans les nuances ;).

XavPaname

Citation de: everwind le 10 Fév 12 à 21:51
Reprenons notre glacier. Imaginons que nous avons 2 capteurs à dynamique identique (même taille de photosite et même techno) mais de plage tonale différente (taille du capteur différente), mettons 21 et 24 bits (c'est multiple de 3, c'est parfait).

Pour le blanc se sera du 255 255 255 en 24 bits et 127 127 127 en 21 bits et le noir 0 0 0 dans les 2 cas

Pour le bleu :
- sur le capteur 24 bits on aura un dégradé entre du 160, 250, 250 et du 5, 240, 240 (bon c'est un exemple hein, c'est assez artificiel si on le fait en vrai ^^)
- sur le capteur 21 bits on aura un dégradé aussi sauf que comme il y a un bit en moins à chaque fois c'est un dégradé entre 80 , 125, 125 et 2 , 120 , 120 ... Je laisse donc évaluer la perte dans les nuances ;).

@everwind: oui mais non, parce que dans l'exemple que tu prends, tu suppose que la différence de plage de couleur est toute entière du côté des blancs (en gros, tous les couleurs au dela du gris neutre 127,127,127 sont vues comme des blancs purs), ce qui n'est logiquement pas le cas. Dans la réalité, pour un capteur "21 bits" les 2 millions de couleurs correspondantes (2^21= 2 millions) sont réparties sur l'ensemble de la gamme de codage disponible en 24 bits (c'est à dire les 16,7 millions de nuances de couleurs disponibles pour le codage RVB/8 bits par couche).

Par ailleurs, je suis d'accord avec Moulag: dans les liens (au demeurant très intéressants) que tu cites, on ne parle que dynamique des capteurs au sens d'écart de luminosité (les mots "couleur" ou "plage tonale" ne sont pas cités une seule fois dans l'article...).

Concrètement, j'ai fait le test suivant sur Photoshop: dégradé de bleu pur (0,0,255) à blanc pur (255,255,255), enregistrement de l'image en 24bits (= 256 couleurs par couche) puis conversion de l'image en 21 bits (= 128 couleurs par couche).

Le résultat est ci-dessous:

Image 24 bits (256 couleurs par couche = 16,7 millions de couleurs)




Image 21 bits (128 couleurs par couche = 2,1 millions de couleurs)




Donc on peut voir en effet sur la seconde image un très léger phénomène de perte de nuances sur le dégradé, mais ce n'est pas spectaculaire (et j'ai pris le pire exemple possible puisque dans la réalité il est rare qu'un ciel aille du blanc pur au bleu primaire absolu...  ;))

De plus, les dalles de la plupart des écrans LCD sont des dalles TN, dont la technologie ne permet pas d'afficher plus de... 18 bits de couleurs (on parle de dalles 6 bits). Même si l'écran est vendu comme affichant 16,7 millions de couleurs (24 bits), il affiche les couleurs manquantes en "trichant" par le phénomène de tramage ("dithering") qui correspond à une variation rapide des valeurs des couleurs des pixels entre deux couleurs approximatives de la palette disponible (18 bits) pour simuler celle à afficher (24 bits).

C'est le cas pour tous les écrans LCD dont la taille est inférieure à 23" d'après ce que j'ai pu lire, pour avoir un vrai affichage 24 bits il faut un écran à dalle IPS par exemple... et pourtant, ça n'a pas l'air d'inquiéter beaucoup de monde sur les forums de photographes (dont la plupart voient leurs photos en 18 bits sans s'en rendre compte  :D)

Mais encore une fois, je comprends qu'un professionnel s'équipe avec un écran à dalle IPS, et que ce soit mieux d'avoir un réflex dont le capteur peut "voir" 24 bits de couleurs plutot que 21 bits, tout simplement parce que ça laisse plus de marge pour le traitement logiciel derrière - au fond, je suis d'accord avec toi (d'autant plus que c'est toi le professionnel de l'image ici :jap:)!

Au quotidien toutefois, j'ai l'impression qu'avec les dernières générations d'APN réflex et de compacts experts, on a quand même atteint une qualité d'image qui aurait fait rêver Henri Cartier-Bresson himself  :D...

Si ça en intéresse certains, je ferai lors de mon retour en France quelques tests de photos en conditions identiques entre mon K-r et mon compact (Panasonic Lumix TZ7) pour voir ce qu'apporte l'un et l'autre selon les circonstances (bon on connait déjà le gagnant du match mais ça peut être intéressant d'avoir un comparatif visuel)... qu'en disent les forumeurs de P1 ;)? 

MouLaG Ôfr

@XavPaname : Bonne démo  :applaud:
Merci aussi de mettre en avant le maillon faible le plus visible (mais aussi le plus ignoré) de la chaine graphique du photographe : l'écran qui chez la majorité est de qualité insuffisante pour la photo (et souvent aussi mal "calibré")  :!:


@everwind : Je dois dire qu'à part dans cette page, je n'ai jamais rien vu, entendu, lu sur cette "dynamique des couleurs" et je pense qu'il y a confusion de ta part (amalgame) entre plusieurs concepts différents : tu reprends des concepts existants et tu mélanges le tout, mais à tort, amha  :spamafote:
[tr][td]
Alerte guerre en Ukraine : massacre d'Odessa !
[/td] [td]          [/td] [td]:P1:[/td][td]
Le BLOG du Ricoh GR[/td][/tr][/table]

pierrot73210

Citation de: MouLaG Ôfr le 11 Fév 12 à 10:27
@XavPaname : Bonne démo  :applaud:
Merci aussi de mettre en avant le maillon faible le plus visible (mais aussi le plus ignoré) de la chaine graphique du photographe : l'écran qui chez la majorité est de qualité insuffisante pour la photo (et souvent aussi mal "calibré")  :!:

C'est bien pour ça qu'un bon tirage reste l'épreuve de vérité pour une photo. Et un écran, même moyen devient tout autre une fois calibré, j'en fais l'expérience depuis 2 semaines. :shock:
"Je mets les pieds où je veux, et c'est souvent dans la gueule" Chuck Norris

XavPaname

+1 avec Moulag et Pierrot pour la calibration de l'écran: ça m'a vraiment changé la vie, surtout sur l'écran de mon ordi portable qui virait franchement au bleu avant...

J'ai calibré avec la même sonde les 2 écrans que j'utilise (le fixe et l'ordi portable), et désormais c'est un plaisir de voir la "même" photo avec des couleurs plus fidèles en passant d'un ordi à l'autre  ;)!

On trouve des sondes de calibration à moins de 50€ maintenant, c'est vraiment un achat indispensable pour tout photographe - amateur ou pro - amha.

farice80

j'ai une sonde (spider 2) et un ecran de mer** ,et bah y a pas de miracle...
une sonde c'est tres bien mais pour l'écran il faut un minimum.

pierrot73210

J'ai parlé d'écran moyen ! :lol:
Je soupçonnais le mien d'être trop clair (enfin, j'en étais tout à fait sûr) et quand je l'ai calibré il s'est assombri d'un coup, les noirs ont retrouvé de la profondeur et j'ai découvert plein de détails dans les blancs. Par contre les teintes se sont réchauffées, mes N&B ont presque viré au sépia. Après un moment d'inquiétude j'ai revu mes derniers tirages N&B et c'était bien pareil. Bref, en attendant d'avoir les moyens de me payer un Eizo, la sonde m'a quand même bien changé la vie.
"Je mets les pieds où je veux, et c'est souvent dans la gueule" Chuck Norris

neosilencers

#70
Tout à fait , un écran calibré est bien mieux pour apprécier les photos même avec un écran bas de gamme  :D

Vive la spider 3 :lol:

Messages fusionnés : 11 Fév 12 à 11:51

Citation de: XavPaname le 11 Fév 12 à 10:37


On trouve des sondes de calibration à moins de 50€ maintenant, c'est vraiment un achat indispensable pour tout photographe - amateur ou pro - amha.

+1  ;)


pierrot73210

"Je mets les pieds où je veux, et c'est souvent dans la gueule" Chuck Norris

MouLaG Ôfr

Un très bon site (Arnaud Frich) sur la gestion des couleurs (et des tests de sondes) ;-)
http://www.guide-gestion-des-couleurs.com/

[tr][td]
Alerte guerre en Ukraine : massacre d'Odessa !
[/td] [td]          [/td] [td]:P1:[/td][td]
Le BLOG du Ricoh GR[/td][/tr][/table]

everwind

@xav et les autres : dans les liens (au demeurant très intéressants) que tu cites, on ne parle que dynamique des capteurs au sens d'écart de luminosité (les mots "couleur" ou "plage tonale" ne sont pas cités une seule fois dans l'article...).

euh ... alors tu n'as pas bien lu ....
dans cet article http://www.blog-couleur.com/?Quelle-est-la-vraie-difference , je cite "Cet article ne décrit que le gain en plage tonale en fonction de la taille du capteur. Pour une comparaison plus généraliste, consulter la page sur les différences APS-C et Full-frame."

extrait sur ce même article :
"
Plage tonale

Indépendante de la résolution, la plage tonale est l'expression de la précision des écarts de luminosité entre chaque pixel. Plus la surface réceptrice est grande, plus elle reçoit un flux lumineux important et plus la luminosité absorbée par chaque pixel devient précise. C'est un critère essentiel pour la qualité des images. Cette qualité se récupère sur l'image numérique sous forme de profondeur de couleur (quantification en bits).

Voir la page sur la vraie différence entre APS-C et Full frame
Plage dynamique

La plage dynamique n'est pas directement liée à la taille du capteur. C'est la taille des photosites qui influence la plage dynamique disponible. Par contre, un capteur de plus grande surface permet de recevoir des photosites de plus grandes tailles. Le format 24 x36 dispose souvent de photosites de grande taille. Il a donc l'avantage en terme de plage dynamique.

Lorsqu'un capteur dispose d'une large plage dynamique, il dispose également d'une plage tonale plus large. C'est-à-dire qu'il sait discerner des écarts de luminosité plus fins. La taille des photosites peut faire gagner jusqu'à un cran de sensibilité ISO."

XavPaname

@everwind: Oups tu as raison, j'ai parlé un peu vite, le mot "plage tonale" est en effet cité et renvoi vers l'autre page que tu cites!

Cela dit dans le texte que tu cites, il est écrit "la plage tonale est l'expression de la précision des écarts de luminosité entre chaque pixel", ce qui revient à parler à nouveau de la dynamique au sens habituel (écart de luminosité enregistrable par le capteur).

De toute façons les capteurs ne "voient" pas les couleurs mais seulement la luminosité correspondant à chacun des filtres RVB qui le composent, comme expliqué dans l'article Wiki correspondant: http://fr.wikipedia.org/wiki/Capteur_photographique#Couleurs

Je cite: "Grâce à un Color filter array, par exemple un filtre de Bayer, constitué de cellules colorées des couleurs primaires, chaque photosite du capteur ne voit qu'une seule couleur : rouge, vert ou bleu. (...) C'est le logiciel du photoscope qui va recréer les couleurs, en tenant compte des courbes de réponse spectrale pour un résultat final en trichromie"

Sinon everwind pour le problème de dégradé de bleus dont tu parlais il y a aussi la question de l'écran, le phénomène de tramage (dithering) dont je parlais plus haut.

Par exemple l'image ci-dessous: est-ce qu'elle apparaît avec des "bandes" sur ton écran ou bien avec un dégradé progressif? Sur les écrans à dalle TN 6-bits, il y a forcément des bandes, seules les dalles IPS haut de gamme (dalles 10 ou 12 bits par couche) peuvent afficher cette image sans phénomène de "bandes".



Cette image est extraite du site http://www.anandtech.com/show/1557/16, on peut en voir un équivalent en français sur http://www.hardware.fr/articles/606-4/dithering-testez-limite-votre-ecran.html


Enfin bon, tout cela devient trop technique et amha nous écarte un peu trop du sujet intial  ;)...

A mon petit niveau, je me contente donc parfaitement du capteur APS-C du Kr ou du K5, et 16MP ça me parait vraiment le max nécessaire pour l'usage que j'en fait  :-)...

Merci pour cette discussion en tout cas, en ce qui me concerne j'ai appris beaucoup de choses :jap:

lavacherouge

ça devient technique ici.

Ce serait bien d'utiliser un langage normalisé. Le niveau des images est exprimé en bits par couche et non pas en bits cumulé. Je me demandais d'où sortaient les 24 bits. Le résultat est le même mais on s'embrouille moins si tous le monde utilisent les mêmes repères.
Une images 8 Bits est le niveau le plus courant et utilisé. Notamment pour le .jpg et le .tif qui peut aussi être en 16 bits.
Pour le 21 bits qui se traduit 7 bits, là je ne comprends pas. À ma connaissance, il n'existe pas de format d'image en 7 bits?
Les capteurs de nos réflexs sortent des images à 12 ou 14 bits en général. Je ne connais pas les capteurs des compacts, mais je doute qu'ils sortent des images en 7 bits.

Pour ce qui est de l'adaptation de l'œil, je dois avoir une vision des couleurs supérieur à la moyenne. Quand je traduis une image à 200 couleurs par niveau, c'est vraiment dégueulasse. La différence entre 200 et 256 est très nette. Et c'est pour cela que l'on a normalisé les images à 8 bits. C'est le niveau qui correspond à la vision humaine.

Gin.net

Citation de: lavacherouge le 11 Fév 12 à 23:11
Pour ce qui est de l'adaptation de l'œil, je dois avoir une vision des couleurs supérieur à la moyenne. Quand je traduis une image à 200 couleurs par niveau, c'est vraiment dégueulasse. La différence entre 200 et 256 est très nette. Et c'est pour cela que l'on a normalisé les images à 8 bits. C'est le niveau qui correspond à la vision humaine.

Je crois plutôt que c'est parce que l'informatique aime travailler en puissances de 2  ;), et que l'octet (28, soit 256) est une unité standard en informatique...

XavPaname

@lavacherouge: oui bien sur les capteurs de compact ne sortent pas d'images en 7 bits  :D. Le débat portait sur les chiffres de DXO mark qui comparent les performances des capteurs de caméra en attribuant un "score" en bits pour la justesse de la capture des couleurs, ce score étant autour de 21 bits pour un compact et 23 bits pour un réflex, c'est à dire "environ" respectivement 7 et 8 bits par couche... Il vaut mieux relire le début du fil parce que c'est vrai que sinon les derniers posts ne sont pas très clairs ;)!

Pour ce qui est de la vision humaine, +1 avec Gin.net, la valeur de 256 couleurs par couche est la valeur informatique (en puissance entière de 2) immédiatement supérieure au seuil habituellement retenu pour l'oeil humain de 8 millions de couleurs distinguables, soit 200 nuances par couche. Voir à ce sujet l'article correspondant sur le site d'Arnaud Frich cité par Moulag: http://www.guide-gestion-des-couleurs.com/les-couleurs.html

Ci-dessous un essai de conversion de 8 à 7 bits sur une photo d'un bateau d'enfant (jardin du Luxembourg), les crops 100% donnent:

1) 256 couleurs/couche (=8 bits)




2) 200 couleurs/couche (entre 7 et 8 bits donc, limite théorique de l'oeil)




Pour info, la conversion a été réalisée avec Photoshop (mode "couleurs  indexées", réglage 200 couleurs / couche, noir et blanc forcés), sans autre réglage.

Bon OK il y a une très légère différence (il faut vraiment regarder de près), mais de là à dire que c'est dégueulasse  ;)...

Photo originale (cliquer sur la miniature):


lavacherouge

Citation de: Gin.net le 11 Fév 12 à 23:35
Je crois plutôt que c'est parce que l'informatique aime travailler en puissances de 2  ;), et que l'octet (28, soit 256) est une unité standard en informatique...

Je suis tout à fait d'accord avec cela. On n'allait pas exprimer un niveau de couleur en 7,quelques choses. Il fallait un niveau entier supérieur à la perception. Ce qui n'empêche pas qu'une image à 200 est inférieur au niveau de l'œil.
L'exemple au dessus le confirme. L'image 2 est beaucoup moins fine dans ses dégradés de couleurs que dans l'image 1.

Citation de: XavPaname le 12 Fév 12 à 08:25
@lavacherouge: oui bien sur les capteurs de compact ne sortent pas d'images en 7 bits  :D. Le débat portait sur les chiffres de DXO mark qui comparent les performances des capteurs de caméra en attribuant un "score" en bits pour la justesse de la capture des couleurs, ce score étant autour de 21 bits pour un compact et 23 bits pour un réflex, c'est à dire "environ" respectivement 7 et 8 bits par couche... Il vaut mieux relire le début du fil parce que c'est vrai que sinon les derniers posts ne sont pas très clairs ;)!

Ha oui, il faut que je relise, je ne l'avais pas compris comme cela.

Zygonyx

#79
Citation de: pierrot73210 le 07 Fév 12 à 22:10
Néo, faudrait demander à ceux qui ont un 645D, on en est pas loin question définition...

Si cela peut vous rassurer un peu, je n'ai pas eu à changer de PC pour traiter les fichiers RAW de 45 à 50 Mo du 645D.
Que ce soit avec Silkypix Pro 5 ou ACDSee Pro 4, le traitement ne dure qu'une vingtaine de secondes maxi (soit pas beaucoup plus que le temps de développement des RAW de mon K-5 avec DxO...).
J'ai un portable ASUS acheté il y a 2ans et demi, avec un processeur centrino duo et 2GB de mémoire vive.
Mes photos choisies
Plus pingre qu'un pentaxiste de forum, tu meurs....
/Ricoh Imaging