kaneda56 a écrit :
le "i" pour "interlaced", entrelacé donc, est un procédé qui permet d'augmenter artificiellement la résolution sans augmenter la vitesse horizontale (15khz) du canon en affichant une image de 480 lignes en deux passes au lieu d'une. 240 lignes paires en une passe, les autres 240 lignes impaires à la suivante.
L'entrelacement, c'est conserver la même fréquence, mais surtout la même bande passante ! C'est pour ça que ça a été retenu pour le monde broadcast.
" en affichant une image de 480 lignes en deux passes au lieu d'une "
Et........ non !
La résolution des images est toujours en une seule passe, quoi qu'il arrive. Une image de 480 lignes n'est pas séparée en deux pour être affichée en deux temps. Une image se fait en une passe, sauf que la moitié des lignes sont comme "amputées". L'image suivante est aussi en une seule passe, et la moitié des lignes est aussi amputée...SAUF QUE !!!! sauf que tout le truc réside dans le fait de l'alternance des lignes "amputées". Comme le rafraichissement vertical est suffisant (du moins, jugé comme tel), l'illusion d'une série d'images de 480 lignes est bien là. Le scintillement provient de l'écart de luminosité entre les lignes. Chaque image de 240 lignes comporte un léger interstice, et c'est cet interstice qui est comblé alternativement. Et pas "parfaitement" car le tube est prévu pour avoir un chevauchement de lignes ( "overlapping" ). C'est pour ça que quand on supprime l'entrelacement, on supprime le décalage, et on actualise les lignes tout le temps au même endroit. Mais pour ce faire, il faut que le contenu diffuse lui aussi des images de 240 lignes seulement (c'est le cas des vieux JV). On peut tout à fait diffuser un signal entrelacé en supprimant l'entrelacement : pas d'alternance de lignes qui prennent place dans l'interstice qui séparait les lignes de la précédente image, mais le scintillement persiste, et l'illusion d'une image de plus grande résolution disparaît.
Avec à la clé un phénomène de "flickering", l'instabilité de l'image en deux passes n'étant pas entièrement compensé par la persistance rétinienne, en raison de la fréquence de rafraichissement vertical trop bas.
Le flickering est toujours lié à la différence de luminosité, c'est çà " l'instabilité ". Même quand on affiche un contenu entrelacé en non entrelacé, le scintillement persiste, malgré la "stabilité" des lignes qui sont toujours actualisées au même endroit.
Voila d'ailleurs pourquoi le 100hz est arrivé; l'image reste en 15khz entrelacé, mais est rafraichie deux fois plus vite.
Non, la source reste en entrelacé, le rafraîchissement verticale reste identique, mais la fréquence de ligne est
doublée. Le 100 Hz, ça ne fonctionne pas à 100 Hz, ça reste à 50 Hz. C'est un raccourci simplificateur pour dire qu'on est passé de 15 à 31 kHz. Mais là, même si on est à 31 kHz, on est toujours en entrelacé !
Le 100 Hz ne transforme pas une source 480i en 480p. L'entrelacement de la source d'origine est conservé, mais mis en mémoire et affiché deux fois plus vite (donc, demande une fréquence de ligne deux fois supérieure, soit 15 à 31 kHz).
240p correspond a 240 lignes par passe, avec a chaque fois la meme image. Stabilité d'image parfaite, mais résolution limitée.
En entrelacé ou en 240p, les images font toujours 240 lignes de haut. La stabilité provient de la cohésion temporelle des images, qui font que la différence de luminosité ne varie pas si le contenu ne varie pas non plus. L'entrelacé lui aussi est "stable". Mais l'oeil ne tolère que mal cet écart localisé et régulier de luminosité.
Toute l'astuce du filtre anti-flicker, c'est d'assurer un flou vertical de façon à atténuer la différence de luminosité entre les lignes. Mais on perd en "netteté", car le contraste diminue. Mais c'est à ce prix que le scintillement diminue, si on souhaite rester à la même résolution pour la même fréquence. Le "100 Hz" c'était maintenir la même résolution depuis la même source, en réduisant le scintillement grâce à la diffusion deux fois plus rapide (moins de temps pour saisir l'écart de luminosité).
Donc merci de m'expliquer en quoi ces deux mode d'affichage sont identique Wily, moi je te suis pas.

Techniquement, c'est strictement identique : même fréquence, même timings, même
bande passante. Sauf que pour le cas du 480i, il faut en amont donner un contenu adapté à cette astuce de décalage temporel (qui devient un décalage spatiale à l'écran). En ajoutant les pulsations et la dernière demi ligne scannée présente dans le signal entrelacé, on peut tout à fait transformer du contenu 240p en 480i, alors que la machine fournit quand même des images de 240 lignes constantes. A l'écran, ça se traduit par un "doublage verticale", et le scintillement qui provient du fait que les lignes ne sont plus actualisées au même endroit sur l'écran, et présentent un écart de luminosité.
Donc, en définitive, il faut afficher en entrelacé du contenu 480i, et en progressif du contenu 240p. Ce qui se faisait sans mal jusqu'à une certaine époque (avant la Dreamcast). Tout le merdier à ce sujet, au niveau du traitement du 15 kHz par les TV LCD par exemple ou des portages de jeux sur les consoles 128 bits, vient du fait qu'on considère le 240p comme du 480i.
Si brancher une vieille console sur un écran plat c'est aussi crade, c'est à cause du fait que contrairement à une TV CRT 100 Hz, l'écran plat est obligé de faire une conversion de l'entrelacé en progressif : il faut "combler" les lignes manquantes de chaque image, par alternance, pour ne diffuser que des images "entières". Les sources de 240 lignes sont considérées comme des images amputées de la moitié de leur contenu, et le processeur de la TV va "inventer" les lignes manquantes, alors qu'il n'en manque précisément pas ! Et là, bonjour les dégats, bonjour la ruine de la précision du pixel art, des détails de l'ordre du pixel. Pour une image vidéo, ça n'existe pas, la dégradation apparaît comme un flou global. Pour le jeu vidéo, c'est un massacre en règle. Mais pas la peine de demander à n'importe quelle TV de simplement transformer les images de 240 lignes à la résolution native de la dalle. Parce que c'est demander de traiter un signal
non standard !
Une TV LCD considère une source 15 kHz comme une image de 480 lignes, à compléter "là où il faut" pour chaque images (alternativement), et ensuite upscaler ce tout à la résolution native de la dalle. Double traitement, double dégradation, double ruinage, et du putain de lag' qui augmente atrocement.