Le NABShow est l’occasion de faire le point sur les technologies et les acteurs de la télévision et plus généralement du monde audiovisuel, mais aussi sur la situation américaine. Cette année son slogan était « unleash ». La volonté des organisateurs (NAB National Association of Broadcasters) de couvrir les technologies nouvelles et/ou potentiellement concurrentes permet d’avoir une vision très générale. Ce document présente un essai de synthèse concernant les points marquants observés cette année.
- NAB2016
- La situation américaine
- Une vision optimiste
- ATSC 3.0 un choix décisif
- ATSC 3.0
- La transition vers l’ATSC 3.0
- Le marché des équipements et services
- Evolution du marché des équipements
- OTT et télévision
- Une industrie des médias toujours solide
- Des limites techniques et financières à l’OTT
- Deux cas : YouTube et Amazon
- YouTube
- Amazon
- La réalité virtuelle
- Le 360 degré
- Les acteurs
- Les usages
- Le cloud
- 4K, 8K, HDR,… : quelle(s) UHD ?
- 4K
- Le 4K : un succès commercial ?
- NHK et le 8K
- L’évolution future de la UHD
- Le HDR
- La gamme de couleurs
- Le nombre d’images par seconde
- De nouveaux écrans
- Les standards
- Autour du 4K
- Vers des formats libres de droits
1. NAB2016
Le NAB a maintenu son très haut niveau d’affluence avec plus de 103 000 participants, dont un quart non américains, représentant plus de 160 pays. Plus de 1700 exposants étaient présents. De nouvelles conférences et de nouveaux pavillons sont venus s’ajouter à la liste déjà longue. Au delà des pavillons (traditionnels !) dédiés à la robotique aérienne et aux drones, de l’accent mis sur la vidéo en ligne et les média connectés, est apparu un pavillon de réalité virtuelle.
2. La situation américaine
2.1. Une vision optimiste
Gordon Smith, président et CEO du NAB a présenté à nouveau une télévision américaine en
croissance, croissance accentuée par les prochaines élections américaines et le retour de la publicité, mais aussi par les revenus liés à la retransmission. Il a insisté sur ses trois points forts : le soutien aux communautés, la qualité des contenus et l’innovation.
La vente aux enchères par les chaines qui le souhaitent des fréquences inutilisées, déjà acceptées l’an dernier, a commencé et n’est plus l’objet de débats (« la FCC a été extrêmement positive »). La FCC va acheter les droits d’usage des fréquences aux chaines afin de pouvoir les revendre aux acteurs du mobile ; les sujets de discussions sont désormais « l’après vente » : après la mise aux enchères qui devrait se tenir en 2016, les fréquences restantes seront redistribuées pour former des blocs continus (le « repack »). Les modalités et le calendrier de ces opérations de repack sont encore sujets de débat.
En ce qui concerne les enchères, 104 sociétés se sont inscrites. Elles comprennent notamment
Verizon Communications, AT&T, T-Mobile US, DISH Network, Comcast et de nouveaux entrants.
Notons que selon la société Devoncroft, les enchères pourraient atteindre entre 60 et 80 milliards de dollars. Un financement public à la transition serait prévu à hauteur de 1,75 milliard de dollars.
Un autre choix majeur du NAB a été de soutenir l’usage du nouveau standard ATSC 3.0. L’association a participé une semaine avant la conférence à la pétition adressée à la FCC pour obtenir l’approbation de l’ATSC3.0. (voir ci-dessous).
2.2. ATSC 3.0 un choix décisif
2.2.1. ATSC 3.0
L’ATSC1, standard actuel de télévision terrestre numérique américain a connu des difficultés
techniques, et a peu convaincu dans le monde, où la norme DVB-T puis T2 domine. Malgré ses
versions successives, il paraît avoir atteint ses limites techniques. La montée des usages du haut débit, des mobiles et de l’IP n’est pas ou peu prise en compte dans l’ATSC 2.0, qui est la version actuelle.
La décision a été prise de définir un nouveau standard ATSC 3.0, qui utilisera comme méthode de modulation l’OFDM (utilisée par le DVB), et devra prendre en compte la UHD (Ultra Haute Définition), les mobiles et l’utilisation du haut débit avec notamment les services hybrides. Un tel choix implique une non compatibilité avec le standard actuel, ce qui explique que le président de la FCC parle d’une nouvelle transition majeure, après celle du passage au numérique.
ATSC 3.0 va inclure en les adaptant toutes les nouvelles fonctionnalités actuellement considérées, comme par exemple HBBTV, mais aussi immersion audio, gamme de couleur, luminance,… Il intègre OTT (Over The Top : via Internet non géré) et comme le déclare le président de ATSC Mark Richter, ATSC 3.0 transforme la télévision d’une île à une partie d’Internet.
Techniquement les premières démonstrations du standard avaient été présentées début 2015.
Les annonces et les démonstrations se sont depuis multipliées. Au NAB, une large gamme de
démonstrations était présentée sur les stands, mais aussi dans le pavillon ATSC 3.0 (15 sociétés), incluant une transmission en direct. Le nouveau standard n’étant pas compatible avec l’ancien, différentes solutions sont présentées pour l’accès au foyer dont des « Gateway » dédiées permettant de distribuer les programmes en WiFi vers tablette, téléphone et téléviseur.
La télévision vers les mobiles avait déjà disparue au NAB de 2015. L’ATSC3.0 va inclure une partie dédiée à la télévision vers les mobiles.
Les standards définitifs ne sont pas adoptés. L’objectif est toujours d’une approbation de chaque point en 2016 pour une adoption finale avant mi 2017. Cependant, les porteurs du standard soulignent que de nombreuses décisions restent à prendre. Aucun objectif officiel de date n’est annoncé.
Au NAB, le president de la FCC Tom Wheeler a confirmé l’importance du ATSC 3.0 et son intention de le soumettre au public.
2.2.2. La transition vers l’ATSC 3.0
Cependant il n’est pas question de gérer une nouvelle transition comme celle du passage au
numérique. L’accord paraît se faire sur l’adoption d’un standard, validé par la FCC. Son adoption sera basée sur le volontariat des chaines, qui devrait être suscité par les nouveautés technologiques qu’il contient, facilitant notamment l’usage combiné à celui d’internet. Cette transition doit être poussée par la demande des marchés, comme le signale le Vice President for Standards Development de l’ATSC, Jerry Whitaker « "We can't make consumers adopt it. It needs to be a 'pull' technology." Elle se fera donc, au moins aux Etats-Unis marché par marché.
Notons que comme pour la précédente transition, la Corée du Sud est un acteur majeur, tant par ses industriels que par sa politique étatique : ATSC 3.0 sera le standard Coréen à venir, notamment pour la télévision UHD (Ultra High Definition ou 4K).
3. Le marché des équipements et services
3.1. Evolution du marché des équipements
Il est marqué par une forte concentration à tous les niveaux de la chaîne de valeur, et la consolidation se poursuit dans le domaine des équipementiers. Il est souvent lié aux grands mouvements qui restructurent l’industrie :
- L’utilisation croissante du cloud : un nouveau produit a peu de chances d’il n’est pas "cloudcompatible "
- Le mouvement général vers les plates–formes informatiques standard et les développements logiciels, qui entraîne une baisse des marges
- La croissance continue de l’utilisation de l’IP pour la distribution, mais aussi pour la production
- Le changement des usages avec le passage au multi plate-forme et son impact sur toute la chaîne de valeur
- La présence croissante des grands acteurs de l’IT dans les équipements audiovisuels.
Après le rachat de Elemental par Amazon Web Services, plusieurs rachats dont deux sociétés
dédiées au traitement de la vidéo :
- Thomson Video Networks par Harmonic, ce qui crée probablement le leader du marché,
- Envivio par Ericsson
- Ustream par IBM, ce qui conforte la position d’IBM dans le « cloud video »
- Orad par Avid, renforçant sa position dans le domaine du sport et du direct.
Selon la société Devoncroft, qui effectue en liaison avec l’IABM un suivi du marché des équipements et services audiovisuels, le marché des équipements audiovisuels se serait élevé en 2015 à 48 milliards de dollars pour environ 3000 fournisseurs.
Les sujets clés actuels sont très différents de ceux des années 2000-2010 et comprennent la
virtualisation, la transition vers l’IP et l’outsourcing des opérations. Le multi plates formes est toujours à l’ordre du jour, mais le problème n’est plus la technologie, mais le modèle économique.
Par contre le mouvement de fond vers le passage du matériel au logiciel et de l’équipement spécialisé à l’équipement standard, se poursuit et continue à avoir un impact majeur sur l’évolution des sociétés.
L’adoption du cloud s’est accélérée en 2014, avec l’apparition croissante de projets, les prévisions de croissance forte de dépenses liées au cloud.
Le marché a aussi évolué dans un mouvement vers des infrastructures « agiles » et l’accent mis sur les services.
Le souci premier des chaines acheteuses, après avoir assumé le coût de la transmission au
numérique est toujours la baisse des coûts d’exploitation. Il faut aussi souligner la relative lenteur de la transition. Les amortissements des équipements sont souvent calculés sur 5 à 7 ans, mais la durée de vie utile est de l’ordre de 10 à 15 ans.
4. OTT et télévision
La rupture prévue depuis des décennies en raison de l’apparition de la vidéo sur Internet ne s’est pas encore produite, mais un impact réel est désormais observable lié à la montée des offres You tube, Netflix et autres.
La WebTV lancée par Microsoft en 1997, la Google TV de 2010, ou les efforts majeurs de Intel
n’avaient pas abouti, mais il semble bien que les temps soient mûrs pour un changement majeur. Il ne s’agit plus de chaines de télévision distribuées sur Internet, mais le plus souvent d’offres de type streaming et de VOD. L’importance donnée aux USA par les opérateurs à TV Everywhere (accès à de multiples plates formes via un abonnement à la télévision payante), concept lancé en 2009 par Time Warner Cable répond à la fois au développement fort des offres de streaming et à la tendance au désabonnement des clients des chaines payantes (cord-cutting). En parallèle, les broadcasters américains commencent à mettre en oeuvre des diffusions via Internet.
L’OTT génère ainsi des revenus supplémentaires pour l’industrie des médias, mais contribue
également au « cord-cutting », c’est à dire à un désabonnement qui s’accélère vis à vis des chaînes payantes.
4.1. Une industrie des médias toujours solide
Une crainte majeure est de connaître le sort de l’industrie musicale (aux US de 14,3 Md USD en 2000 à 6,8 Md USD en 2010). Cependant l’industrie des médias réalise toujours des profits considérables, avec des marges EBITDA pour les 12 derniers mois allant de 33% pour Disney et TimeWarner, 31% pour Viacom, à 46% pour Liberty Global. Elle reste confiante dans sa capacité de répondre à la distribution multi plate-forme, pour poursuivre les profits réalisés dans la télévision linéaire dans le numérique. Notons qu’en parallèle les fournisseurs de vidéo en ligne développent massivement des contenus propres. Netflix annonce 5 milliards de dollars d’investissements en 2016. Amazon pourrait investir 1,7 milliard de dollars et Hulu 1,5 milliard de dollars selon Broadcasting &Cable (mars 2016).
Une réponse des broadcasters est de développer la diffusion en ligne en utilisant des technologies streaming. HBO No a été lancé en avril 2015 en même temps que le NAB. Il offre les contenus premium de HBO, sans abonnement au câble. CBS All Access a été lancé en octobre 2014. CBS a passé des accords avec des chaines couvrant 55% des USA. ABC annonce un développement en cours, en concertation avec ses affiliés.
Aux Etats-Unis le marché de la télévision payante a continué à croître en 2014 en chiffre d’affaires (269 Md USD selon ABI), et paraît stable en 2015, mais le mouvement de « cord cutting » se poursuit en parallèle avec l’augmentation des services de SVOD. Comcast, Time Warner Cable et d’autres offrent déjà des bouquets « maigres », mais avec pour conséquence une baisse sensible des revenus par utilisateur. ESPN aurait perdu selon Nielsen 3, 2 millions d’abonnés en un peu plus d’un an.
4.2. Des limites techniques et financières à l’OTT
L’OTT est toujours contrainte par les limitations propres à Internet. La diffusion en direct
d’évènements majeurs est contrainte par ses limites techniques et son coût de distribution, qui
augmente en fonction du nombre de téléspectateurs, contrairement à celui de la télévision terrestre.
Un facteur supplémentaire est une consommation d’énergie très supérieure. Il faut ajouter à cela les revenus associés à l’OTT qui restent très inférieurs à ceux de la télévision classique. La chaine de sports ESPN a annoncé avoir atteint un revenu de 500 millions de dollars en ligne pour 100 millions d’utilisateurs, soit environ 42 cents par utilisateur et par mois.
Les revenus en ligne sont de plus menacés par les systèmes « ad blockers » qui mettent à mal leur modèle économique. Le phénomène reste limité sur ordinateur (200 millions d’ordinateurs équipés dans le monde selon PageFair, mais peut avoir une importance majeure pour les mobiles, principalement dans les marchés émergents, en raison notamment du coût de la transmission facturé aux utilisateurs. Selon PageFair 420 millions de personnes dans le monde ont installé des adblockers sur leurs mobiles.
Tout ceci ne remet pas en cause la croissance forte de l’OTT, ni l’explosion des usages multi-plate forme, mais lui impose des limites. Une évolution en profondeur des modèles économiques est en cours, en parallèle des changements technologiques et des usages et elle ne sera pas une explosion.
4.3. Deux cas : YouTube et Amazon
4.3.1. YouTube
Youtube a effectué sa première apparition au NAB via Neal Mohan Chief Product Officer. La société annonce un milliard d’utilisateurs par mois, avec un slogan « biger, better and faster ». L’offre en ligne permet de proposer immédiatement des services innovants. Par exemple pour la télévision très haute définition, YouTube annonce un million de contenus disponibles en 4K et une offre 8K, avec des développements tous azimuts concernant tablette et mobile, mais aussi réalité virtuelle. Dans le domaine de la réalité virtuelle, YouTube annonce l’offre la plus importante au monde en termes de contenus de type 360 degrés (voir plus loin). Comme ses concurrents, la société annonce le développement de contenus originaux.
4.3.2. Amazon
Amazon met en avant sa technologie (plate-forme, qualité du streaming, fiabilité) et sa capacité pour gérer le paiement. La société a commencé par louer ou vendre des films, puis les offrir en streaming.
A son offre de streaming, qui passe par des accords avec des producteurs de contenus (HBO
notamment), s’est ajouté Amazon Video Direct, lancé en mai 2016 et qui permet aux créateurs
professionnels de vidéo de télécharger leurs vidéos, accessibles à tous les clients d’Amazon, et
monétisées soit par un modèle publicitaire, soit par la location ou l’achat du contenu. Amazon a développé une politique de bundle : vidéo, musique avec en option des contenus propres.
5. La réalité virtuelle
C’est une nouveauté majeure du NAB. Un pavillon lui était dédié, de nombreux contenus étaient présentés, et le sujet a été évoqué dans plusieurs conférences.
La réalité virtuelle concerne bien d’autres domaines, dont l’apprentissage, la publicité et l’aide aux professionnels du dépannage. Une question posée était l’utilisation de la réalité virtuelle dans le domaine de la télévision, au delà des applications plus « naturelles » des jeux vidéo. L’atout majeur mis en avant est le caractère immersif de la technologie, dont on espère qu’elle séduira le spectateur.
Le casque de réalité virtuelle n’est pas une nouvelle technologie : Sony commercialisait le Glasstron en 1997. De nombreux casques professionnels existent ainsi que des offres visant spécialement le jeu vidéo La nouveauté est la présence à un prix abordable d’une offre grand public de qualité qui paraît satisfaisante. Les deux types principaux de casques étaient présents : le casque avec écran d’affichage et le casque pour lequel l’affichage est réalisé par un téléphone mobile, avec comme premier produit Google Cardboard (commercialisé pour quelques dollars). Par contre le prix des casques complets est souvent au dessus de 500 USD, et leur usage nécessite un PC haut de gamme.
5.1 Le 360 degré
Les démonstrations présentées mettaient l’accent sur le « 360 degré », c’est à dire sur la possibilité avec des casques de réalité virtuelle d’observer une scène sous l’angle choisi, simplement en tournant la tête. Une autre version était le 180 degré, qui permet par exemple de suivre un match de tennis ou tout autre sport « comme si on était au premier rang des spectateurs ».
Technologiquement, cela suppose des caméras capables de filmer sur 360°, et un nombre important de solutions était présenté, impliquant en général plusieurs caméras tournant en même temps. Dès lors un facteur important de qualité est de coudre les images, en évitant les discontinuités. Le problème est la prise en compte des erreurs liées à la parallaxe. Il faut ensuite transmettre l’image vidéo en utilisant les canaux existants au casque utilisé, et enfin afficher la partie de l’image correspondant à la vision supposée du casque. Ceci entraine évidemment une perte de définition, signalée par certains comme un handicap, même si la situation actuelle a montré une réelle amélioration en termes de définition.
Les essais que j’ai effectué ont effectivement mis en évidence ce « manque de pixels », mais la plupart du temps, il était effacé par l’impression de se déplacer dans un environnement différent, et tout à fait crédible. Ceci présente quelques limites d’usage : en se déplaçant vers un objet virtuel, on risque de se heurter au monde réel !
5.2 Les acteurs
Parmi les nombreuses démonstrations, on peut noter celle de Sky Italia, associé à Harmonic (fournissant les composants hardware), Viaccess-Orca (le logiciel de VR) et VideoStitch (la couture des images). Le format de transmission était de type Ultra HD.
Une trentaine de sociétés présentaient des produits ou des démonstrations. Le sujet a été discuté dans plusieurs conférences spécialisées, dédiées respectivement au cinéma et à la production de vidéo, et qui présentaient les aspects techniques, mais aussi les « best practices du VR », son intérêt et ses possibilités pour raconter une histoire.
Parmi les nouveaux acteurs, Nokia proposait un outil de production de contenu VR, avec sa caméra nommée Ozo, capable de filmer sur 360° en utilisant une boule munie de 8 caméras, et d’un enregistrement surround du son. La boule peut être posée sur un socle ou portée par un drone. Nokia annonce de nombreux partenariats avec des producteurs désireux de la tester, mais aussi avec Disney Studios.
Une offre de services était proposé par des sociétés comme Legend (société qui a réalisé le passage de films 2D en 3D pour Disney) pour intégrer de telles séquences dans un film.
En ce qui concerne les contenus, Hulu annonce une application VR utilisant initialement le casque Samsung.
5.3 Les usages
La disponibilité de casques (HMD Head Mounted Display) de réalité virtuelle à prix raisonnables et des techniques pour produire des images « 360 » a entrainé l’ouverture de réflexions sur les usages potentiels. Les usages évoqués vont du reportage à la publicité, et concerne également les différentes formes possibles d’offre de fictions, la mise en œuvre d’une interaction différente, qui peut impliquer d’autres terminaux en complément du casque.
L’avis unanime est que la réalité virtuelle est dans une phase d’exploration, où tous les acteurs reconnaissant avoir beaucoup à apprendre.
Le DVB, organisme de standardisation majeur au niveau mondial, a lancé une mission d’étude sur le sujet, notamment en tant qu’impactant le système de distribution des vidéos, mais en étudiant le système complet depuis la saisie de l’image (pour la VR, de la scène ?), son traitement et sa distribution et enfin son affichage.
6. Le cloud
Il avait fait une apparition fracassante au NAB 2013, avec de très nombreuses offres par des acteurs majeurs comme Amazon, IBM, Microsoft, Akamai, Aspera, Adobe, Cisco et Elemental.
Il est presque systématiquement intégré aux offres commerciales, et faisait l’objet dès l’an dernier d’une série de conférences dédiées.
Sous un même nom, le nuage regroupe de nombreuses réalités : capacités de stockage, puissance de calcul, mise à disposition de plates formes.
Les deux avantages les plus connus sont :
- La réduction du CAPEX : Les investissements sont remplacés par les dépenses de fonctionnement en fonction des besoins
- La flexibilité : La capacité de faire évoluer la puissance de calcul et le volume de stockage quasiment instantanément
Cependant, d’autres fonctionnalités ont été mises en avant, comme la possibilité de s’adapter
rapidement au contexte et au marché et de s’intégrer à un écosystème en modifiant le profil d’activité de la société pour se concentrer sur ses points forts. Un point important est la possibilité de distribuer le même contenu « anytime, anywhere, anydevice » en utilisant le nuage.
Le nuage se prête évidemment bien au streaming notamment OTT qu’il peut contribuer à renforcer en combinaison avec les progrès de la compression.
L’adoption du cloud par les acteurs des médias a largement commencé, avec des développements concernant des parts considérés comme non critiques, ou/et permettant une réduction sensible des coûts. Face à des offres très diversifiées, on constate des usages également diversifiés. La sécurité et la fiabilité proposée sont naturellement des facteurs de choix majeurs.
Les achats de service cloud sont, d’après Devoncroft, ceux qui devraient le plus fortement augmenter dans les trois prochaines années.
7. 4K, 8K, HDR,... : quelle(s) UHD ?
7.1. 4K
Le vocabulaire est multiple : on parle de UltraHD, UHD, SuperHivison, UHDTV1 et UHDTV2 et ce ne sont pas les seules dénominations.
Le format vidéo doit être capable d’afficher au moins 8 millions de pixels, soit quatre fois plus que la haute définition en 1080p. La UHD ou UHDTV1 utilise une image de 3840 x 2160 pixels.
Il ne faut pas le confondre avec le format 4K utilisé en cinéma numérique (4096 x 2160 pixels).
Un facteur favorable au 4K est l’existence de contenus grâce à l’usage de ce format par le cinéma, ce qui permet de disposer immédiatement de contenu à diffuser. Un autre facteur est le développement de la compression HEVC, dont les premiers essais remontent à 2013, et qui permet de diminuer le nombre de bits nécessaire à la transmission d’une image d’un facteur significatif. Le passage au 4K, même avec la mise en oeuvre indispensable de HEVC, implique des coûts importants, en terme de bande passante, de volume de stockage et de puissance de calcul.
De plus la capacité par le téléspectateur de voir la différence avec une vidéo diffusée en HD est
toujours objet de discussion, en fonction de la taille de l’écran et de la distance du téléspectateur à
celui-ci. Enfin les nouveaux développements sur la couleur et la luminance laissent penser que ces derniers peuvent avoir un effet plus important sur le ressenti du téléspectateur que la HD.
7.2. Le 4K : un succès commercial ?
Il est désormais acquis que le 4K ne connaîtra pas le sort malheureux de la 3D stéréoscopique, et ceci pour deux raisons majeures :
- La première version commerciale des téléviseurs UHD a été marqué par une volonté forte des producteurs chinois pour rentrer sur le marché, en jouant sur des prix très bas. Ceci a eu pour conséquence une baisse très rapide des coûts des téléviseurs UHD, et une croissance forte des ventes, ceci malgré la jusqu’ici faible présence de chaines de télévision en UHD. De plus les « up converters » HD 4K permettent des résultats visibles sur l’écran, qui peuvent convaincre des téléspectateurs (surtout si le surcoût est limité).
- Si les chaines ne se précipitent pas sur le 4K, ce dernier représente un atout compétitif majeur pour les diffuseurs en ligne, qui sont les premiers utilisateurs. Les opérateurs de satellite sont également intéressés, souvent en liaison avec leurs plates-formes IP.
Les ventes de téléviseurs 4K continuent à progresser avec –selon Digital Entertainment Group- plus de 1,5 million d’unités vendues au premier trimestre 2016 aux USA, et la sortie de DVD Blu Ray en 4K.
Les émissions en 4K se sont largement développées sur OTT, et constituent un argument publicitaire et commercial pour Netflix ou Amazon. Elles sont également de plus en plus présentes sur satellite.
Par contre sa mise en oeuvre par les émetteurs terrestres et la création de chaines terrestres 4K, avec les coûts de transmission liés, est loin de faire l’unanimité. Pour une télévision dont le modèle économique repose sur la publicité, il est loin d’être évident que les revenus publicitaires associés au 4K compensent les coûts de bande passante. En Corée, le lancement d’une chaine terrestre 4K devrait être associé au passage avec ATCS3.0.
7.3. NHK et le 8K
Depuis au moins 4 ans, NHK présente des démonstrations 8K, appelée super Hi-Vision qui utilise le 8K (soit 7 680 par 4320 pixels) avec jusqu’à 120 images par seconde. Le calendrier de passage à l’industrialisation annoncé dès le début est scrupuleusement tenu. Les premières démonstrations ont eu lieu aux Jeux de Londres en 2012. Les équipements présentés au NAB se rapprochaient d’une chaîne industrielle complète. Le calendrier du NHK permet d’aboutir à la diffusion en 8K par satellite des jeux olympiques de Tokyo en 2020. Ce calendrier a été accéléré. NHK a annoncé la diffusion de reportages en direct en 8K des jeux olympiques de Rio, associée à la mise à disposition de récepteurs 8K au Japon.
Dès lors, cette évolution rapide contribue aux débats en cours sur l’évolution de la télévision. On peut se demander si 8K pourrait faire partie des futurs standards UHD, par exemple dans le phase 2 du standard DVB.
7.4. L’évolution future de la UHD
Elle continue à faire l’objet de nombreux débats, concernant évidemment le nombre de pixels d’un poste de télévision, ou d’un écran plat. Les avis divergent sur la taille d’écran qui permet à un utilisateur de distinguer une image 4K d’une image HD : 55 pouces ou 65 pouces…Mais au delà de cette discussion traditionnelle, sont apparus depuis deux ans au NAB d’autres aspects de la qualité d’image, qui sont loin de se limiter au nombre de pixels.
L’UIT a adopté en 2012 le standard connu sous le nom BT.2020, qui définit les différents aspects de la télévision UHDTV, y compris résolution, frame rate, échantillonnage et espace de couleurs. Il constitue une base de référence commune pour les acteurs. Ce standard permet d’atteindre des niveaux de qualité jamais prévus, notamment parce que les tubes cathodiques ne permettaient pas de les afficher. Les données associées en termes de gamme de couleur et de luminance n’avaient jamais été spécifiées et encore moins transmises à travers les réseaux de distribution.
7.4.1. Le HDR
Le HDR (High Dynamic Range), peut être traduit par imagerie à grande gamme dynamique. C’est le développement technique qui provoque le plus de controverses.
HDR est une technologie qui permet d’étendre la gamme d’éclairage qu’une image de télévision peut afficher. La HDR permet d’avoir sur une même image un même haut niveau de détail dans les parties sombres et les parties claires, et d’avoir des intensités lumineuses beaucoup plus élevées. Un écran HDR peut afficher jusqu’à 1000 candelas par mètre carré ou nits, contre 200 à 300 pour un écran « actuel ». Les informations de luminance transmises vers les téléviseurs cathodiques étaient limitées par la capacité de ces derniers à les afficher. Or les écrans plats actuels offrent des possibilités d’affichage beaucoup plus riches. Les démonstrations tendent à montrer que une transmission HD utilisant un dispositif de type HDR est perçue comme beaucoup plus belle qu’une transmission 4K sans HDR.
NHK a déjà développé en liaison avec Sharp un système HDR 8K.
Le problème du HDR est qu’il fait l’objet de développements parallèles et que plusieurs propositions techniques sont en concurrence, soutenues par des producteurs de téléviseurs soucieux de les incorporer au plus vite dans leurs équipements. Les principaux systèmes sont ceux de Dolby, Philips, Technicolor et BBC/NHK. Ils divergent notamment sur la rétrocompatibilité HDR et SDR.
La norme HDR 10 est adoptée par la Blu-ray Disk Association et la Consumer Electronics Association.
Le déploiement du HDR pose aussi le problème du format utilisé pour la transmission, différente selon les propositions et la façon dont le téléviseur les utilise.
En janvier 2015, des industriels regroupant producteurs d’équipements, chaines de télévisions et broadcasters s’est créée sous le nom UHD Alliance pour définir de nouveaux standards concernant la future génération, concernant tous ces points et notamment définition (4K et au delà), HDR, gamme de couleurs, techniques audio. La solution annoncée au CES 2016 est celle d’un logo appelé « ULTRA HD PREMIUM ». La UHD Alliance regroupe studios, producteurs de CE et acteurs du Net, avec notamment Samsung, Sony, LG, Panasonic, Disney, Warner, Universal, Fox, Amazon, Dolby, Netflix, DirecTV et Microsoft.
Il vise à garantir à l’acheteur de téléviseur 4K la « conformité aux nouvelles technologies », ce qui se traduit par une liste de spécifications minimales dont les principales sont :
- La résolution - 3840x2160
- La couleur - 90% de la gamme dite P3
- HDR - La possibilité d’utiliser la fonction EOT de la société Dolby
- La brillance - des minimums définis de deux façons paraissant adaptées respectivement aux écrans LCD et OLED
Notons que tous les producteurs de téléviseurs n’adhérent pas à ces spécifications, et que chaque société est libre de mettre le logo ou non, même si elle pense y avoir droit.
En attendant, les producteurs de téléviseurs annoncent ou commercialisent des téléviseurs haut de gamme avec HDR incorporé.
7.4.2. La gamme de couleurs
Un autre aspect de la qualité de l’image est la gamme de couleurs permise : le passage de 8 bits à 10 bits largement proposé devrait permettre un gain important dans la qualité du rendu. Notons que selon les spécialistes, un tel passage ne serait pratiquement pas coûteux en termes de débit, compte tenu de la compression utilisée.
7.4.3. Le nombre d’images par seconde
Enfin le nombre d’images par seconde est un dernier facteur important, notamment pour les
séquences très animées. Le HFR « Higher Frame Rate » est aussi un sujet controversé en ce qui
concerne l’apport du passage à 100/120 fps (frame per second), en comparaison avec l’outil de
compensation de mouvement. La dernière version de l’IUT BT.2020 inclut 100Hz et 120 Hz avec des résolutions allant jusqu’à 8K.
7.4.4. De nouveaux écrans
Enfin pour compléter un tableau déjà complexe, on constate l’apparition d’écrans OLED de grande taille proposés notamment par LG à un prix élevé, permet d’offrir un affichage dans les couleurs sombres d’une qualité jusque là inégalée. Jusque là les écrans OLED étaient réservés dans les applications grand public aux Smartphones. Les producteurs annoncent la capacité de reproduire les couleurs telles qu’elles sont perçues par l’œil.
Une nouvelle technologie appelée quantum dots est apparue (avec des sociétés comme Vision
Nanosys, QD Vision et autres) annonçant une même qualité d’affichage avec un coût de production inférieur aux OLED. Elle peut constituer une solution alternative aux technologies OLED. Comme pour toute nouvelle technologie, il semble qu’il y ait quelques problèmes à résoudre. Cependant Samsung et Sony s’y intéresseraient. Les quantum dots sont des semi-conducteurs, qui peuvent être incorporés dans les écrans LCD.
7.5. Les standards
7.5.1. Autour du 4K
Le DVB, a défini UHD-1 Phase 1, qui correspond aux émissions réalisées en 2015 et 2016, avec un format 3840x2160 et des fréquences jusqu’à 60Hz.
Par contre la phase 2 est l’objet de discussions, avec l’incorporation possible de standards HDR, HFR, Wide Color Gamut (WCG) et Next Generation Audio (NGA).
De plus l’annonce faite par NHK de fournir UHD-2 (8K ou 32 millions de pixels) pour 2020, voire 2018, et son impact sur l’évolution des prochaines années est une question ouverte. Les enjeux sont bien entendus les coûts de l’évolution, tant pour l’utilisateur que pour les producteurs d’équipements, les producteurs et les diffuseurs de contenus et les opérateurs de communications, face aux revenus supplémentaires potentiels, et à la concurrence exacerbée présente aujourd’hui.
7.5.2. Vers des formats libres de droits
Lancé en septembre 2015, une organisation regroupant les acteurs de l’Internet, Alliance for Open Media, regroupe notamment Google, Microsoft, Intel, ARM, Nvidia, Mozilla, Amazon, Netflix et Cisco, s’est donnée comme objectif de codévelopper des formats libres de royalties, et en priorité un codec, qui pourrait concurrencer HEVC. Cependant le succès d’une telle tâche reste à prouver, alors que HEVC a déjà acquis des positions importantes. HEVC est compatible avec la plupart des standards : BT2020, HFR, HDR, Wide Color Gamut, MPEG DASH. Le prix des licences est désormais fixé, et HEVC est présent sur 11 millions de téléviseurs en 2016 et 313 millions de mobiles en 2015 (1,5 Md en 2020) selon DTC.