Le NABShow est l’occasion de faire le point sur les technologies et les acteurs de la télévision, mais aussi du haut débit dans le monde. Ce document présente un essai de synthèse concernant les points marquants observés cette année.
- Le NABSHOW 2013
- La télévision du futur
- Les facteurs de changement
- FOBTV et le futur de la télévision
- ATSC3.0
- La télévision sur mobile
- Aux Etats-Unis
- Dans le monde
- Les « nouveautés » techniques majeures : HEVC, 4K, MPEG-Dash
- HEVC et MPEG-Dash
- HEVC (High Efficiency Video Coding)
- MPEG-Dash
- 4K ou ultraHD
- HEVC et MPEG-Dash
- Le nuage est partout
- Multi écran : son usage et son impact
1. Le NABSHOW 2013
Le NABShow 2013 s’est tenu à Las Vegas du 6 au 11 avril. Il a été cette année particulièrement intéressant avec des réflexions multiples sur le futur de la télévision associées à des usages et à des technologies en évolution rapide. C’est le plus grand salon mondial concernant la production et la diffusion de la télévision, mais qui dépasse largement ce sujet. En effet, il a su au cours des années ne pas se limiter aux diffuseurs radio et télévision, mais ouvrir ses portes à toutes les évolutions du monde de l’audiovisuel, y compris le cinéma et surtout Internet. Le NABShow a toujours fait l’effort de présenter les nouvelles technologies qui peuvent intéresser ou menacer les chaines de télévision, par des conférences dédiées et par des lieux d’exposition spécialisés.
Le NABShow a regroupé une dizaine de cycles de conférences en parallèle, et environ 1600 exposants et 92 000 participants de 155 pays (pratiquement stable par rapport à 2012). Le NABSHOW 2013 a choisi pour slogan « MEtamorphosis, the changing face of media & entertainement ». Il met en avant ME pour Media& Entertainment.
Le NABShow permet ainsi à la fois d’avoir une vision de la situation américaine, mais aussi du développement des nouvelles technologies, tant du point de vue technique que du point de vue de leur adoption par le marché. Le NABShow est organisé par la « National Association of Broadcasters » ou NAB, qui regroupe la grande majorité des chaînes de radio et de télévision américaines, les « stations », chaînes terrestres locales, qui ont une importance majeure dans le paysage audiovisuel américain, même si la majorité des américains regardent la télévision à travers le câble et le satellite.
Gordon SMITH, président du NAB, a insisté sur la volonté d’adopter les nouvelles technologies, mais en en gardant le contrôle (« Unite new technologies under our umbrella »). Ceci correspond aux rapprochements du NAB avec des organisations Internet ou mobile. Les NAB Labs sont membres du W3C, travaillent avec le DVB et le 3GPP et sont membres de FOBTV (voir plus bas). Cependant le président du NAB a marqué son hostilité à la mise en œuvre d’une offre LTE Broadcast basée sur le standard mobile LTE (Long Term Evolution ou 4G), annoncée par le CEO de Verizon, Lowell McAdam.
La transition au numérique étant achevée, le sujet majeur de conflit est la vente aux enchères de fréquences prévues en 2014 par le gouvernement pour permettre le développement du haut débit. Les chaines américaines ont effectué et continuent à effectuer une forte pression pour garantir « qu’aucune chaine ne sera obligée de céder des fréquences ». Le développement rapide du streaming et de l’OTT était une part du contexte. Cependant les chaines considèrent que le fait de possèder la quasi totalité du contenu « monétisable » et un moyen de diffusion à coût minimal (la télévision terrestre) les mettait dans une situation favorable pour contrôler et utiliser les développements technologiques et d’usage. Ce dernier point était loin de faire l’unanimité.
Techniquement, un sujet majeur est le remplacement de l’ATSC, standard américain qui n’a que peu convaincu dans le monde et paraît avoir atteint ses limites techniques.
2. La télévision du futur
Cela fait 20 ans que la télévision numérique est apparue et l’arrêt de l’analogique est général dans les pays développés. De nombreux facteurs de changements sont apparus, technologiques mais aussi d’usage, difficilement envisageables il y a 20 ans. Une conférence était dédiée à ce sujet.
Plusieurs actions sont en cours dont le lancement du développement d’un nouveau standard américain ATSC 3.0 et la « FOBTV Initiative » (Future of Broadcast Television). Des réflexions sont en cours chez les grands industriels. Cisco a par ailleurs présenté un projet prenant en compte l’évolution future des écrans avec une démonstration tout à fait stimulante. Rappelons que la société a racheté NDS, entrant ainsi de plein pied dans le domaine des logiciels de la télévision, et a proposé au CES 2013 « Videoscape Unity », une plate forme de distribution multi-écrans, personnalisée et prenant en compte les réseaux sociaux.
Toutes ces réflexions plus ou moins coordonnées, ont permis de lister les principaux facteurs de changement depuis 20 ans.
2.1. Les facteurs de changement
Ce sont d’abord les évolutions générées par le développement d’internet : la personnalisation, les réseaux sociaux, mais aussi par le passage au numérique : la fragmentation des audiences avec la multiplication des chaines, l’apparition de chaînes distribuées sur des réseaux Internet gérés (IPVP), le développement de la télévision OTT (over the top) c’est à dire sur le réseau Internet non géré, la multiplication récente des écrans avec le succès explosif des tablettes après celui des Smartphones. Tout ceci n’était guère prévu il y a vingt ans. La technologie par ailleurs a beaucoup progressé. L’évolution technologique permet maintenant de réaliser des systèmes capables de prendre en compte des protocoles multiples et de traiter des problèmes qui étaient insolubles autrefois. S’il est très difficile de prévoir l’évolution dans 10 ou 20 ans des usages, qui seront largement déterminés par des facteurs sociologiques et non par la technologie, il est cependant possible d’anticiper sur les évolutions technologiques et de les prendre en compte avec le risque incontournable de l’apparition d’une technologie « disruptive » et surtout d’un usage imprévu.
2.2. FOBTV et le futur de la télévision
Une réflexion commune a été initiée par la « FOBTV Initiative » (Future of Broadcast Television), suite à un accord signé à Shanghai en novembre 2011. Cette initiative regroupe au niveau mondial les chaines de télévision, les acteurs technologiques et les organismes développant des standards de diffusion. Elle vise à définir le futur de la télévision diffusée face notamment aux développements Internet. Elle comprend notamment le DVB, l’ATSC américain, l’EBU (European Broadcasting Unit), mais aussi des acteurs chinois, japonais, coréen et brésilien, et regroupe 50 organisations sur les cinq continents.
Les sujets abordés comprennent la définition de modèles d’écosystème pour la télévision terrestre, prenant en compte l’environnement commercial, réglementaire et technique, pour définir les besoins de la future génération à travers des collaborations des principaux laboratoires. L’action de cet organisme doit aboutir à :
- La recommandation des principales technologies futures à adopter. Cette réflexion n’est par principe pas contrainte par les standards multiples existants aujourd’hui.
- La demande de standardisation de certaines technologies, le travail de standardisation ne sera pas effectué par la FOBTV.
Un travail important a déjà été réalisé : choix des « use cases » à prendre en compte, construction des scénarios, qui devrait déboucher sur un appel à propositions.
Les propositions techniques doivent être présentées avant septembre 2013. En 2014, la sélection des technologies doit prendre place, suivie de leur évaluation.
La structure des spécifications futures a été présentée en détail. Quelques points paraissent faire l’unanimité : la prise en compte (au moins) du 4K, de la 3D, de HEVC, la paramétrabilité de la largeur des canaux, l’usage du nuage (le fameux « cloud »), une très grande adaptabilité pour permettre de faire face à des évolutions d’usage imprévisibles, la nécessité de combiner Broadband et Broadcast de façon efficace et agréable à l’utilisateur, la prise en compte du 3G et du 4G, le support des réseaux sociaux, la publicité ciblée et la personnalisation, l’utilisation par n’importe quel équipement, la standardisation de l’interactivité et l’accessibilité notamment pour les handicapés. Ont été également évoqué la réception mobile à l’intérieur, et aussi l’utilisation systématique des « white spaces », avec déjà des propositions de solutions techniques.
2.3. ATSC3.0
Un développement d’une norme prolongeant l’ATSC actuel, ATSC 2.0 est en cours, avec des contraintes de compatibilité ascendante, mais le débat a porté sur ATSC 3.0 nouveau standard en projet qui n’a aucune contrainte de compatibilité avec le passé. Le projet a été lancé en novembre 2011 et doit déboucher en 2016 par un vote sur le standard. Les scénarios ont été partagés avec FOBTV. Deux autres contraintes : l’alerte en cas d’urgence (un point majeur de la télévision terrestre aux Etats-Unis) et l’établissement d’un standard commun mondial.
3. La télévision sur mobile
3.1. Aux Etats-Unis
C’est toujours un sujet au NAB, et toujours présenté comme un « futur succès ». Comme en 2012, les annonces de développement de la télévision sur mobile faites en 2011 ne se sont toujours pas matérialisées. Cependant la mise en œuvre d’émetteurs se poursuit.
Sous l’égide de la Open Mobile Coalition Alliance (OMVC), deux organisations sont (toujours) actives : la Mobile Content Venture (MCV) avec sa marque commerciale Dyle et la Mobile 500 Alliance avec pour marque MyDTV. Ces deux organisations ont développé conformément au standard défini par l’ATSC.
L’OMVC s’est intégrée au NAB début 2013, après 6 ans d’existence, considérant que désormais la télévision sur mobile, approchant d’une situation commerciale, devait faire parti du NAB.
La MCV est soutenue par 18 grands réseaux de télévision, dont ABC, CBS, Fox et NBC. La société couvre 39 marchés et, avec l’arrivée prochaine du groupe Sinclair, atteindra 57% des foyers. Les stations émettent actuellement en simulcast et en clair les programmes diffusés sur leur équivalent terrestre. L’accès conditionnel prévu n’est pas encore mis en œuvre. L’investissement pour chaque station est annoncé entre 100 000 et 150 000 USD.
La Mobile 500 Alliance regroupe la majorité des stations locales et propose un système développé par un ensemble de sociétés, dont la société française Expway. Elle couvrirait ainsi potentiellement 94% des foyers américains. Par contre, il semble qu’elle n’émette pas sauf à Seattle et Minneapolis.
En ce qui concerne les terminaux présentés, il n’y avait qu’un seul téléphone de marque Samsung et deux dongles. Une tablette capable de recevoir ATSC et ATSC mobile doit sortir prochainement. Face à cette situation, un responsable de Fox a répondu que le réseau était en construction et qu’il fallait atteindre une couverture de 80% pour espérer avoir des terminaux nombreux.
Le futur de la télévision mobile aux USA reste donc encore largement incertain.
3.2. Dans le monde
Le représentant de l’EBU (European Broadcast Association) a rappelé l’échec du DVB-T, et compte sur le DVB-T2 lite, considérant que l’évolution nécessaire aux Etats-Unis a été faite en Europe. Il suggère même aux américains l’usage du DVB-T2. Le broadcaster Sinclair, demandeur depuis longtemps de l’autorisation d’utiliser le DVB-T aux USA. Il a obtenu pour sa station de Baltimore l’autorisation de la FCC de tester pendant 6 mois DVB-T2.
4. Les "nouveautés" techniques majeures : HEVC, 4K, MPEG-Dash
4.1. HEVC et MPEG-Dash
HEVC et MPEG-Dash étaient deux technologies majeures présentes au NAB, la première concernant la compression et la seconde plus spécifiquement dédiée au streaming.
4.1.1. HEVC (High Efficiency Video Coding)
HEVC est un nouveau standard de compression, développé dans le cadre du MPEG (Moving Picture Experts Group, groupe de travail de l’ISO/IEC). Il s’agit du High Efficiency Video Coding, ou H.265 ou encore MPEG-H. Un draft préliminaire a été terminé en février 2012. La norme a été finalisée en janvier 2013.
D’autres extensions sont attendues pour janvier 2014, incluant MVC (Multiview Video Coding) et SVC (Scalable Video Coding).
Techniquement et en simplifiant beaucoup, HEVC diffère de H264, en ce qu’il n’analyse pas l’image par carrés de taille fixe, mais de façon plus dynamique. La mise en œuvre de HEVC se prête bien au traitement parallèle.
Un progrès dans le taux de compression de l’ordre de 50% en est attendu (ce qui correspond à une division par deux du débit pour un flux donné). Les premiers résultats observés sont plutôt entre 15% et 30%, ce qui est normal pour une technique débutante. Une estimation moyenne est qu’il faudra entre 3 et 5 ans pour atteindre le taux de 50%. On peut alors espérer que un débit de 2Mbps permettra de transmettre la HD en 720p.
Un tel développement a évidemment des applications multiples : amélioration des débits des flux actuels et diminution des coûts de stockage pour les flux actuels, mais aussi facilitation de la mise en usage du 4K, voire du 8K. Même si le passage du MPEG2 au H264 n’est pas achevé, HEVC sera probablement utilisé d’abord pour les liaisons mobiles et pour le OTT (Over The Top ou Internet non géré), mais concerne tous les réseaux : doublement de la distance pour offrir la qualité HD en IPTV, baisse des coûts pour les CDN (Content Delivery Network), diffusion de 3D de meilleure qualité, etc.
Comme on pouvait s’y attendre, HEVC était présent partout sur les stands du NAB, avec souvent « cerise sur le gâteau » HEVC pour 4K.
Le développement de l’usage du HEVC peut prendre quelque temps, de façon analogue au remplacement du MPEG2 pour H264, compte tenu du parc installé tant en MPEG2 qu’en H264. Des déploiements massifs sont probablement à prévoir (selon les personnes rencontrées) entre 2015 et 2020.
Cependant les premiers usages apparaissent :
Swisscom a lancé son déploiement sur son réseau fixe IPTV avec pour objectif de passer d’un taux de couverture HD de 55% à près de 100%.
Orange a lancé en mars 2013 un service de VOD en collaboration avec Samsung, utilisant des téléviseurs Samsung «HEVC enabled » (série 7, 8 et 9). De plus pour la diffusion via ADSL, la transition au HEVC est prévue cette année, avec pour avantage majeur soit de doubler la distance du central à l’abonné pour laquelle la HD est possible, soit, pour une distance donnée, de doubler la définition.
La France est bien placée avec plusieurs annonces au NAB : encodeur HEVC par la société Thomson Video Networks pour on line et off line, implémentation en open source d’un media player supportant HEVC par la société Ateme, encodeur logiciel HEVC par la société grenobloise AllegroDVT, sans parler d’Envivio, société américaine dont le centre de recherche est en Bretagne, qui annonçait le résultat de la coopération avec Qualcomm disponible pour le deuxième trimestre 2013.
4.1.2. MPEG-Dash
Ce standard dédié au streaming adaptatif permet de distribuer un même flux vidéo sur des liaisons ayant des débits différents, et de s’adapter automatiquement à des variations de leur débit. Il était aussi très largement présent sur les stands du NAB (il l’était déjà l’an dernier). Cependant, à l’opposé de HEVC, il souffre de l’existence de standards propriétaires notamment de Microsoft, Adobe et Apple. De plus le standard couvre de nombreuses variantes (trop nombreuses selon certains). Alors qu’HEVC est devenu un standard incontournable, MPEG-Dash, malgré ses capacités (qui incluent la prise en compte de différents DRM) peut connaître des développements plus lents. Notons cependant que certains téléviseurs de Samsung le mettent en œuvre, et que la dernière version d’HbbTV publiée par l’ETSI l’utilise.
4.2. 4K ou ultraHD
Le vocabulaire est multiple : on parle de 4K pour quatre fois le nombre de pixels de la HD (en 1080p), soit 7680x4320 pixels, avec 60 images par seconde en progressif. On parle aussi de UltraHDTV ou de UHDTV.
Les démonstrations 4K étaient présentes sur de très nombreux stands (avec parfois des affichages en HD de vidéo 4K transcodées, vu le prix des terminaux 4K).
On trouve sur les stands des annonces de l’ensemble des équipements, logiciels et chaines de traitement pour le 4K, et ceci notamment chez la société Sony, qui a annoncé de plus dans sa conférence de presse que ses téléviseurs 4K était disponible dans un magasin de Las Vegas avec des prix surprenants : 4999 USD pour un 55 pouces et 6999 USD pour le 65 pouces, c’est à dire à peu près 1000 USD de plus que le téléviseur HD. Sony a également annoncé que sa future console de jeux la PS4 accepterait le 4K. Cependant, la possibilité pour Blu-Ray de prendre en compte le 4K est encore inconnue, même si une offre « upscaling » du HD vers le 4K est déjà proposée notamment par Samsung.
Au dernier CES de janvier 2013, Samsung avait présenté un téléviseur 4K 85 pouces pour 40 000 USD.
Un facteur favorable au 4K est l’existence de contenus grâce à l’usage de ce format par le cinéma, ce qui permet de disposer immédiatement de contenu à diffuser.
Cependant, il paraît difficile pour un téléspectateur moyen de distinguer une image 4K d’une image HD en dessous d’une certaine taille d’écran. Les avis divergent sur cette taille d’écran : 55 pouces ou 65 pouces…
De plus le passage au 4K, même avec la mise en œuvre indispensable de HEVC, implique des coûts importants, en termes de bande passante, de volume de stockage et de puissance de calcul. On peut donc s’attendre pour le 4K à un développement semblable à celui de la 3D stéréoscopique : après des débuts fracassants au NAB2010, le 3D a pratiquement disparu des stands : son développement se poursuit certes, mais on n’en attend plus l’explosion alors annoncée. Le 4K est loin de poser les mêmes problèmes physiologiques que le 3D, mais son développement sera lent.
L’opérateur japonais NHK a été au delà et a présenté à nouveau la super Hi-Vision qui utilise le 8K (soit 7 680 par 4320 pixels) avec jusqu’à 120 images par seconde. Elle a été utilisée en démonstration pour les jeux de Londres 2012. Les différents équipements nécessaires (caméra, capteur, transmission, audio) ont été prototypé. NHK a également présenté sa roadmap : test via satellite du 8K en 2016, et diffusion en 2020. La diffusion 4K pourrait commencer au Japon en 2014 (au lieu de 2016 comme annoncé précédemment).
Notons que le 19 avril l’opérateur satellite SES a annoncé sa première transmission expérimentale UltraHD à partir d’un satellite Astra, en collaboration avec les sociétés Harmonic et Broadcom, en utilisant DVB-S2 à 20 Mbps.
Apple n’était pas présent au NAB, mais une rumeur courait d’un lancement en 2013 d’un téléviseur Apple 4K en liaison avec iPad, iPhone et Airplay…
5. Le nuage est partout...
Le « Cloud », le nuage a fait également une entrée fracassante au NAB, avec deux jours de conférences dédiées, avec des usages couvrant l’ensemble de la chaine de pré et post production jusqu’à la distribution.
De très nombreuses offres étaient présentes, par des acteurs majeurs comme Amazon, IBM, Microsoft, Akamai, Aspera, Adobe, Cisco, Elemental qui combinaient cloud et distribution de contenu (CDN Content Delivery Network).
Sous un même nom, le nuage regroupe de nombreuses réalités : capacités de stockage, puissance de calcul, mise à disposition de plates formes.
Les deux avantages les plus connus sont :
- La réduction du CAPEX : Les investissements sont remplacés par les dépenses de fonctionnement en fonction des besoins
- La flexibilité : La capacité de faire évoluer la puissance de calcul et le volume de stockage quasiment instantanément
Cependant, d’autres fonctionnalités ont été mises en avant, comme la possibilité de s’adapter rapidement au contexte et au marché et de s’intégrer à un écosystème en modifiant le profil d’activité de la société pour se concentrer sur ses points forts. Un point important est la possibilité de distribuer le même contenu « anytime, anywhere, anydevice » en utilisant le nuage.
Le nuage se prête évidemment bien au streaming notamment OTT (Over The Top : via Internet non géré) qu’il peut contribuer à renforcer en combinaison avec les progrès de la compression.
L’adoption du cloud par les acteurs des médias a largement commencé, avec des développements concernant des parts considérés comme non critiques, ou/et permettant une réduction sensible des coûts. Face à des offres très diversifiées, on constate des usages également diversifiés. La sécurité et la fiabilité proposée sont naturellement des facteurs de choix majeurs.
6. Multi écran : son usage et son impact
Des observations d’usage ont été rappelées aux cours des présentations :
- La consommation de la télévision linéaire ne ralentit pas, elle est même en (légère) croissance dans certains pays dont les USA.
- Par contre elle s’accompagne de plus en plus par l’usage d’un second écran tablette ou Smartphone.
- L’usage du second écran est très majoritairement décorrélé du programme regardé.
- Le second écran étant par nature interactif offre des possibilités fortes d’interaction avec le spectateur.
- Le téléviseur connecté est présent de plus en plus, mais plus rarement effectivement connecté pour de nombreuses raisons
L’usage du second écran, et son impact sur les acteurs ont été le sujet de discussions animées. Pour les acteurs, il est considéré comme un outil extraordinaire pour connaître ses auditeurs, leurs demandes et d’interagir avec eux. C’est aussi un outil pour rentabiliser les contenus (« monetize » est un des mots les plus entendus au NAB), et pour éviter que d’autres les redistribuent de façon non autorisée. Il doit permettre de mettre en œuvre les réseaux sociaux, de les utiliser éventuellement en « focus group » en direct pour réagir plus vite. De nombreuses solutions ont été présentées. Des applications mobiles peuvent se synchroniser avec une émission à partir de repérage sonore (audio watermarking). L’interaction peut se faire via un portail spécifique, ou via Twitter (afficher le Feed Twitter de l’émission), ou un smartphone. Des outils d’affichage de réseaux sociaux en incrustation sur le téléviseur sont proposés. La rentabilité pour une chaine de développer des contenus complémentaires pour le terminal « companion » est à l’étude à travers diverses expériences.
Pour l’instant on en est toujours à une phase d’exploration des possibilités et des usages. Des outils de mesure d’audience des systèmes multi-écrans se développent. Les offres de traitement de « big data » et notamment les offres de collecte, de stockage et d’analyse de données en très grand volume et de formats très différents (media analytics) apparaissent pour tirer parti des nombreuses données qui vont être de plus en plus collectées (qui incluent les réseaux sociaux), afin de mesurer la rentabilité des différentes sources de revenus qui se multiplient, mais aussi d’orienter les politiques d’investissement et de marketing.
En parallèle, la présence des chaînes sur Facebook est devenu un élément important de leur communication.