Les sources de lumière à LED

La LED fera-t-elle « plus blanc que blanc » ?

Cela a toujours été un problème de réaliser des sources de lumière blanche avec des LED. Diverses solutions existent, soit directement fournies par les fabricants de LED, soit réalisées par les fabricants de sources de lumière à partir de diverses LED commercialisées par les premiers. Chaque solution possède ses avantages et ses inconvénients, mais aucune n’est parfaite. Quoi qu’il en soit, la plus grande force des LED provient de leur souplesse de commande, tant en intensité qu’en variation de couleur.

Depuis les premières LED blanches fabriquées par l’américain Cree, le public s’est fait à l’idée que les LED blanches sont disponibles et aptes à remplacer les lampes conventionnelles. En réalité, elles souffrent d’imperfections dans la qualité de la lumière émise, qui ne permettent pas de les considérer comme directement équivalentes aux meilleures lampes utilisées en éclairage scénique et architectural. L’équilibre de couleur obtenu n’est habituellement guère satisfaisant. On a donc le plus souvent recours à des assemblages de LED un peu hétéroclites, de manière à rééquilibrer l’ensemble. L’obtention d’un « blanc » de qualités parfaitement déterminées nécessite une calibration à l’aide d’instruments de mesure, réalisée par le fabricant de la source. Ainsi, divers types de « blancs » peuvent être obtenus à la demande en réponse à certaines valeurs de codes DMX envoyés à l’appareil.

Publicité

Robert Juliat


Le blanc c’est quoi ?

Comme on sait, le blanc n’est pas à proprement parler une couleur. Les infographistes, les techniciens de prise de vue et photographes sont sensibilisés à l’influence du « blanc » sur leurs résultats et sont bien conscients que la qualité du « blanc » est un paramètre important.

Dans le domaine technique, deux situations typiques mènent à s’intéresser aux caractéristiques du « blanc »:

[private]

En visualisation, le blanc correspond à un signal dont les trois primaires (rouge, vert, bleu) sont d’amplitude égale et maximale. Selon les caractéristiques et la technologie de l’écran utilisé, l’image blanche restituée peut être de teinte neutre ou présenter une légère coloration, le plus souvent rougeâtre ou bleuâtre, plus rarement verdâtre.

En éclairage, le blanc provient d’une lampe fluorescente, à arc ou à incandescence non filtrée, ou d’un ensemble de LED. La couleur des objets éclairés par cette lumière « blanche » résulte de la manière sélective (objet coloré) ou non sélective (objet de teinte neutre, blanc ou gris) dont la surface de l’objet renvoie la lumière de la source. Ainsi les objets éclairés se comportent comme des filtres agissant en réflexion. Avec un objet strictement blanc (réfléchissant toutes les lumières reçues de manière exactement identique), l’éclairage peut apparaître neutre ou doté d’une dominante colorée, exactement comme précédemment. Mais à une lumière blanche destinée à l’éclairage (scène, photo, cinéma, muséographie…), on demande une caractéristique supplémentaire : celle de se comporter de manière aussi identique que possible quelle que soit la couleur de l’objet éclairé, en d’autre termes de ne favoriser ni désavantager aucune couleur d’objet.

En résumé, la « qualité » d’une lumière « blanche » peut être quantifiée par un jeu de deux grandeurs : l’une qui caractérise la neutralité ou la tendance colorée du blanc, et une qui décrit son aptitude à mettre en valeur toutes les couleurs d’objets éclairés.

La dominante colorée peut s’exprimer de plusieurs manières différentes. La plus complète consiste à donner les coordonnées colorimétriques de la lumière considérée (par exemple x, y), mais, comme les photographes, nous utilisons plus volontiers la température de couleur, qui est une manière de qualifier le degré de neutralité du blanc (voir encadré 1.) ; un blanc « froid » correspond à une température de couleur élevée et tire légèrement sur le bleu alors qu’un blanc « chaud » a une température de couleur plutôt basse et tire légèrement sur le rouge. Elle s’exprime en Kelvin (K). L’aptitude de la lumière « blanche » à mettre en valeur de manière semblable toutes les couleurs possibles par réflexion sur les objets peut être qualifiée par l’indice de rendu des couleurs (IRC, voir encadré 2.), qui s’exprime par un nombre sans dimension variant de 0 à 100, 100 étant pour une lumière idéale telle que la lumière solaire.

Faire du blanc avec des LED…

Plusieurs techniques permettent de réaliser des sources lumineuses « blanches » à partir de LED.

La première méthode consiste à utiliser des LED blanches. Celles-ci sont constituées de LED bleues complétées par un « phosphore », c’est-à-dire une poudre fluorescente similaire à celle qui est utilisée dans les lampes fluorescentes, les tubes cathodiques ou est écrans de télévision à plasma. Sous l’action du rayonnement bleu, le phosphore s’illumine en fournissant une lumière jaunâtre ou rougeâtre qui, mélangée au bleu naturel de la diode, produit une sensation de lumière blanche. Le rendu dépend de la composition du mélange de phosphores. Les LED blanches à bon marché émettent une lumière à forte dominante bleutée (« blanc froid »), parfois plus prononcée sur les bords du faisceau qu’au centre. Il existe aussi des LED émettant un « blanc chaud » plus proche de la lumière des lampes à incandescence.
La LED blanche présentent un IRC médiocre et sa température de couleur ne peut pas être contrôlée. Toutefois, elle reste constante lorsqu’on fait varier l’intensité.

Une autre technique consiste à utiliser des LED trichromes. Ces LED sont en fait un assemblage dans un boîtier commun de trois puces LED émettant respectivement dans le rouge, le vert et le bleu. La commande séparée des courants passant dans les trois puces permet d’agir à volonté sur la température de couleur du « blanc » ainsi formé, et d’obtenir aussi des couleurs plus pures (comme les luminophores d’un écran de télévision). En revanche, l’IRC reste relativement médiocre.

La combinaison d’une LED blanche « froide » avec une LED jaune (souvent dite « ambre ») permet d’obtenir un blanc plus équilibré présentant un IRC amélioré par rapport à la LED blanche seule.

Une autre technique consiste à juxtaposer des LED de diverses couleurs en constituant une mosaïque de faisceaux lumineux dont le mélange constitue, à une certaine distance, une lumière homogène. Si on prend des LED rouges, vertes, jaunes, bleues et blanches, on peut réaliser, en agissant sur les proportions relatives des diverses couleurs, pratiquement toutes les couleurs du spectre, et, en particulier, tous les blancs, avec un IRC satisfaisant. Le problème de cette technique est le manque d’homogénéité du faisceau dû à la multiplicité des sources de couleurs, qui se traduit par des ombres et des contours colorés qui peuvent se révéler gênants.

On notera que les LED de différentes couleurs ont des dérives thermiques différentes, tant en intensité qu’en variation de la longueur d’onde. Il en résulte que la colorimétrie du blanc est susceptible d’évoluer légèrement avant que le projecteur se stabilise en température.

A la poursuite de la source parfaite

Par définition, la source parfaite n’existe pas et les lignes qui précèdent montrent que tout est affaire de laborieux compromis. Si, dans les techniques conventionnelles, une lampe unique permet d’obtenir une source blanche satisfaisante à tous les points de vue (mais avec un cruel manque de souplesse au niveau de la commande d’intensité et de la variation de couleur), on ne trouve pas (encore) de solution strictement équivalente avec des LED.

La LED blanche n’est pas satisfaisante du point de vue de l’IRC, il faut en général la compléter par des LED de couleurs. Mais alors on a une multiplicité de sources qui laissent apparaitre, par effet de parallaxe, des ombres et contours colorés qui peuvent se révéler très gênants dans certaines applications (voir figure 1.). Le faisceau « blanc » n’est homogène en couleur qu’à une distance minimale de la source.

LED2-figure1

Figure 1. : Mécanisme de formation des ombres et contours colorés avec les sources à LED de couleurs multiples. Plus les LED sont proches et plus les ombres sont nettes et définies.

Les LED trichromes sont de ce point de vue un meilleur compromis du fait de la proximité des trois puces ; mais elles ne représentent pas une solution optimale du point de vue du flux par LED. Or il existe une technique qui permet de superposer précisément des sources lumineuses ponctuelles ou quasi-ponctuelles de différentes couleurs. Elle consiste à superposer, grâce à un prisme en croix similaire à celui qui équipe les vidéoprojecteurs à cristaux liquides (LCD, SXRD, LCoS, D-ILA…), les images de trois panneaux de LED rouges, vertes et bleues. Le résultat, après l’optique de sortie, est un faisceau de lumière blanche homogène qui ne génère pas de contours colorés. Selon l’optique choisie, on peut avoir un faisceau large ou un faisceau très directif, ou un faisceau à angle variable (zoom). Il est également possible d’insérer des gobos dans le trajet lumineux. La technologie peut s’étendre à d’autres groupes de couleurs de LED pour obtenir un meilleur IRC, voire à plus de trois groupes. En revanche, elle est par nature limitée. Le volume du prisme ne peut pas être trop grand sous peine de présenter de gros défauts optiques (outre le prix), le rendement lumineux est moindre, la complexité et le coût sont élevés. En revanche, on retrouve les propriétés de certaines sources à lampes de puissance moyenne, avec, en plus, l’extraordinaire souplesse de commande de la couleur. L’IRC est lié au choix des couleurs de LED et donc, dans la version usuelle, il est celui d’un groupe rouge, vert, bleu.

LED2-figure2

Figure 2. : sources lumineuse trichrome à LED sans effet de contours colorés. Relativement complexe et d’un rendement optique médiocre, cette structure est inspirée du « moteur optique » qui équipe les vidéoprojecteurs en technologie LCD.

Encadré 1 : La température de couleur

La notion de température de couleur fait référence au concept de corps noir. Le corps noir est un objet imaginaire inventé par les physiciens, dont la caractéristique est d’absorber toutes les radiations qu’il reçoit. Il n’en transmet ni n’en réfléchit aucune.

La théorie montre qu’un corps noir émet un rayonnement dont les caractéristiques dépendent de la température. Le spectre est continu, et le maximum d’énergie se décale vers les courtes longueurs d’ondes lorsque la température augmente (voir figure 3.). Aux températures usuelles, l’essentiel du rayonnement du corps noir se situe dans l’infrarouge (dit “ thermique ”). A partir de quelques milliers de Kelvin, le domaine visible est abordé, avec un rayonnement “ blanc ” dont les nuances de couleur évoluent avec la température.

LED2-figure3

Figure 3. : Spectre du rayonnement du corps noir pour différentes valeurs de la température.

Pour une lumière blanche quelconque (par exemple celle d’une lampe), on appelle température de couleur la température à laquelle le corps noir doit être porté pour émettre la lumière qui se rapproche le plus de celle de la lampe. Cette température s’exprime en Kelvin. Le tableau 1 donne les valeurs pour des sources courantes.

Pour des sources dont le profil spectral s’écarte trop de celui du corps noir, la notion de température de couleur devient sujette à caution. C’est en particulier le cas pour les lampes dont le spectre est composé de raies, mais aussi pour les sources à LED, dont le spectre présente de fortes irrégularités. La température de couleur ne peut plus être mesurée de manière fiable par un thermocolorimètre conventionnel, qui donne des résultats aberrants. Il faut passer par un relevé complet du spectre visible à l’aide d’un spectromètre et, par calcul, déterminer la température de couleur coordonnée (CCT), assimilée abusivement à la température de couleur tout court.

On note que le langage courant a consacré des expressions contradictoires en termes de température de couleur : les blancs réputés “ chauds ” (tendance orange ou rouge) correspondent aux températures de couleurs plus basses (2700 à 3500 K) alors que les blancs “ froids ” (dominante bleutée) correspondent aux températures de couleur les plus élevées (5700 à 10 000 K).

 

Encadré 2. : L’indice de rendu des couleurs

L’indice de rendu des couleurs (IRC) est une manière de chiffrer l’aptitude d’une source lumineuse à montrer les couleurs de l’objet qu’elle éclaire, en comparaison avec une source de référence (la lumière du jour).

Le principe de la détermination de l’IRC consiste à exposer aux deux lumières un échantillon de 8 couleurs parfaitement définies (CIE) et de comparer les teintes observées. L’indice de rendu des couleurs exprime une moyenne des résultats. Il est chiffré en %. 100 % correspond à un rendu identique à la lumière de référence. Un IRC compris entre 80 et 100 % est considéré comme “ très bon ”. Les lampes à incandescence ont un IRC excellent (90 à 100 %), car leur émission est de nature thermique (comme celle du corps noir). Les lampes à vapeur de sodium peuvent avoir des IRC allant de moins de 20 (lumière jaune pratiquement monochromatique pour les lampes à basse pression) jusque 80-90 (haute pression). Les sources aux halogénures métalliques (HMI…) vont de 60 à 100 %.

Dans la pratique, la mesure de l’IRC s’effectue à l’aide d’un spectromètre. Le relevé complet du spectre permet, par calcul, d’obtenir la valeur de l’IRC. Ainsi, une seule mesure fournit à la fois la température de couleur coordonnée et l’indice de rendu des couleurs si le logiciel du spectromètre le permet.

Curieusement, le monde de la photographie s’intéresse toujours à la température de couleurs de ses sources d’éclairage mais jamais à son IRC…

 

Température de couleur de différentes sources de lumière.

Bougie1 900K – 2 000K
Lampes à incandescence
à filament métallique2 400K – 2 700K
Lampe de projection (à filament)2 850K – 3 200K
Halogène3 000K – 3 500K
Lampes à décharge
sodium à basse pression2 200K
sodium à haute pression2 500K – 2 700K
Mercure + Halogénures métalliques4 000K – 10 000K
selon gaz de remplissage
Xenon pur6 000K
Lampes fluorescentes
« Blanc chaud »2 700K – 3 000K
« Blanc neutre »3 900K – 4 200K
« Lumière du jour »5 400K – 6 100K
Lumière du jour
ciel clair ensoleillé5 800 – 6 500
ciel voilé6 300K – 7 200K
Soleil couchant2 000K
Sources de référence :
Blanc B (lumière solaire)4 800K
Lumière du jour (D50)5 000K
Blanc W (égale énergie)5 600K
Blanc C (Ciel couvert) ou lumière du jour (D65)6 500K

[/private]

 

Avantages et inconvénients

Les sources de lumière à LED

Depuis quelques années sont proposées, dans le domaine de l’éclairage scénique et architectural, de nouvelles sources lumineuses qui font appel à des LED (diodes électroluminescentes) en lieu et place des lampes classiques. Pour le moment encore onéreuses, ces sources sont de plus en plus attrayantes… d’autant que, pour des raisons environnementales, les sources traditionnelles pourraient être prochainement interdites (c’est déjà le cas des lampes à incandescence). A-t-on vraiment avantage à basculer vers ces nouvelles sources de lumière ?

[private]

Qu’est-ce qu’une LED ?

Une LED est une diode réalisée en matériau semi-conducteur qui a la propriété d’émettre de la lumière lorsqu’elle est traversée par un courant. L’élément semi-conducteur (« puce ») est le plus souvent encapsulé dans une enveloppe transparente en plastique formée de manière à ce que la face de sortie constitue une lentille qui donne certaines caractéristiques géométriques au faisceau de lumière sortant. Pour les LED de grande puissance, le boîtier est en céramique avec une face en plastique transparent formant lentille.

Jusqu’à une époque récente, la puissance des LED était modeste, ce qui imposait l’utilisation de multiples LED pour obtenir un flux lumineux suffisant. Cette disposition reste partiellement valable et les systèmes utilisables dans l’éclairage sont presque toujours des assemblages de plusieurs LED.

Avantages et inconvénients des LED dans les sources lumineuses de grande puissance

AvantagesInconvénients
– Durée de vie des sources (>10 000 heures)– Difficulté d’obtention de flux très très élevés
– Rendement énergétique élevé– Optique de réalisation parfois délicate. Pas de poursuite à LED
– Robustesse mécanique (pas d’ampoule, pas de risque d’explosion)– Problèmes du blanc
– Protection de l’environnement (pas de mercure, pas de métaux lourds)– Dérive thermique
– Pas de haute tension– Nécessite une bonne ventilation
– Fonctionnement à basse température– Caractéristiques en forte évolution
– Faisceau naturellement froid– Coût plus élevé
– Contrôle de l’intensité de 0 à 100 % sans variation de couleur 
– Maîtrise de la couleur 
– Pas d’inertie. Temps de réponse très rapide (possibilité de stroboscope) 

Comparées aux LED, les sources classiques présentent des inconvénients parfois déterminants :

  • Durée de vie très limitée (sauf lampe à plasma sans électrodes)
  • Possibilités de variation d’intensité limitées (arc) ou avec forte variation de couleur (incandescence)
  • Manque de souplesse de contrôle de couleur (gélatines)
  • Haute tension au démarrage (amorceur) pour les arcs et plasmas, forte surintensité au démarrage (incandescence)

Les sources conventionnelles conservent toutefois les avantages de permettre l’accès aux très hautes valeurs de flux lumineux et d’offrir un rendu des couleurs d’excellente qualité (selon le type de lampe).

Alors qu’une source lumineuse classique, même de très grande puissance, n’utilise qu’une seule lampe, les sources à LED renferment toujours un assemblage de plusieurs LED car, dans l’état actuel de la technologie, une seule LED ne permet pas d’obtenir un flux lumineux suffisant.

La Led craint la chaleur

Caloduc

Certaines LED dans les machines luxueuses sont refroidies par un système à caloduc (gaz caloporteur) emprunté aux ordinateurs portables. C’est le cas du Widsun 500 Ayrton. .


AURA

Le refroidissement du circuit de LED est largement dimensionné sur le Mac Aura Martin (Photo Martin Professional) qui reste contant en flux et colorimétrie.

Dispositif semi-conducteur comme les transistors et les microprocesseurs, les LED en présentent certaines caractéristiques physiques. Ainsi leur partie active (la « puce ») est très petite (au maximum quelques millimètres de côté) et est le siège d’un intense dégagement de chaleur (plusieurs watts). Mais les semi-conducteurs n’aiment pas les températures trop élevées. Les caractéristiques des puce LED varient de manière importante lorsque leur température s’élève : les caractéristiques électriques se modifient, nécessitant que l’alimentation s’adapte, le flux lumineux émis décroit dans d’importantes proportions et la longueur d’onde émise peut également varier (de manière différente selon la couleur de la LED). Au-delà de 150°C au niveau de la puce (ce qui correspond à une température moindre au niveau du boîtier du composant), c’est la durée de vie qui peut être sérieusement affectée.

Système de refroidissement

Par conséquent, bien que de petite taille, les LED doivent être associées à un système de refroidissement efficace, lourd et volumineux, et souvent équipé d’un ventilateur. Les projecteurs à LED les plus avancés intègrent un système de refroidissement coûteux appelé caloduc inspiré de ceux qui équipent les ordinateurs.

Par conséquent, bien que de petite taille, les LED doivent être associées à un système de refroidissement efficace, lourd et volumineux, et souvent équipé d’un ventilateur. Les projecteurs à LED les plus avancés intègrent un système de refroidissement coûteux appelé caloduc inspiré de ceux qui équipent les ordinateurs.

Les sources « blanches » à LED

Des boîtiers en céramique, montés en surface, renferment trois puces.

Des boîtiers en céramique, montés en surface, renferment trois puces.

juxtaposition de groupes de différentes couleurs

L’obtention d’une lumière blanche avec des LED nécessite la juxtaposition de groupes de différentes couleurs.

Trois grandes techniques permettent d’obtenir des sources de lumière « blanche » à partir de LED

  • L’utilisation de LED blanches, c’est-à-dire des LED bleues complétées d’un « phosphore » (poudre fluorescente analogue à celle qui tapisse l’intérieur des tubes fluorescents) qui émet de la lumière avec une dominante rouge ou jaune lorsqu’il reçoit une lumière bleue
  • L’utilisation de LED trichromes, c’est à dire des assemblages de puces LED émettant dans le rouge, le vert et le bleu, encapsulées dans un même boîtier.
  • L’utilisation d’une mosaïque de LED de multiples couleurs (rouge, vert, bleu, jaune, blanc) dans un luminaire commun, dont le mélange des lumières fournit, à une certaine distance, un « blanc ».

Les deux dernières structures permettent, en contrôlant individuellement les courants qui traversent les LED de différentes couleurs, d’obtenir presque toutes les couleurs possibles depuis les couleurs saturées jusqu’aux blancs, avec un contrôle fin de la dominante du blanc. La qualité du blanc est évoquée dans un autre article.

Les points sur lesquels il faut être vigilant

Divers points sont critiques pour le choix et l’installation de systèmes d’éclairages à LED. Les négliger peut mener à des dysfonctionnements ou une fiabilité insatisfaisante du système

  • La qualité du système de refroidissement intégré, l’environnement thermique de l’installation
  • La fiabilité de l’électronique intégrée
  • La dérive thermique (attention aux systèmes de stabilisation électronique, ils sont efficaces mais provoquent une réduction du flux par rapport au maximum spécifié)
  • Les systèmes de contrôle (DMX, Ethernet, etc.), qui doivent offrir la souplesse souhaitée et la compatibilité avec d’éventuels moyens de contrôle préexistants

Conclusions

Sur les systèmes d’éclairage scénique de taille moyenne, les LED apportent un progrès important par rapport aux sources conventionnelles.

Ces avantages se mesurent en termes de légèreté, de fiabilité, de souplesse (création de couleurs sans masques de gélatine, changements de couleur immédiats et reproductibles), de stabilité des performances (hors dérive thermique), etc.

Ils ne sont pas sans contrepartie. Le coût reste plus élevé, l’électronique, bien que ne comportant pas de partie à haute tension (starter, amorceur), est complexe et constitue souvent un point faible pour la fiabilité, notamment dans les productions à bas coût. Il faut prendre garde à offrir un refroidissement correct, car l’intensité lumineuse décroît et la durée de vie diminue lorsque la température des puces LED augmente.

L’alimentation des LED en courant continu sous basse tension, relativement facile à gérer, ainsi que leur rendement élevé ouvrent la voie à des sources de lumière puissantes et innovantes fonctionnant sur une source d’énergie autonome (batterie d’accumulateurs rechargeables)

Les projecteurs à LED sont déjà largement utilisés dans les éclairages scéniques et architecturaux et sur plusieurs plateaux de télévision, où ils permettent d’obtenir des effets colorés spectaculaires et variables à volonté. Il reste tout de même des domaines encore inaccessibles (jusqu’à quand ?) aux systèmes à LED : les très fortes intensités lumineuses et les faisceaux aux bords abrupts (poursuites, etc.). Quant aux lumières blanches, il n’existe pas, pour le moment, de solution entièrement satisfaisante, les meilleurs compromis se traduisant par une complexité excessive (nombreux groupes de LED) ou un rendement lumineux dégradé (fusion par prismes).

[/private]

 

Enfin un réseau « audio-pro-friendly » ?

AVB, Audio Video Bridging

Les réseaux informatiques font rêver depuis que l’audio numérique est devenue une banalité. En effet, leur coût de mise en œuvre est modique, le câblage léger et facile à réaliser (on peut même, de plus en plus souvent, fonctionner « sans fil »), et les débits max annoncés de 100/1000 Mbits/s laisse imaginer leur capacité à véhiculer des signaux audio (réputés de « basse fréquence »), avec facilité. Hélas, ce n’est pas toujours le cas et la mise en pratique de réseaux numériques dans le domaine audio professionnel est souvent un sujet d’angoisse, lorsqu’il ne s’agit pas de grosse prise de tête.

[private]

Etablissement du routage audio sur réseau. Ici, Dante Controller d’Audinate offre une interface graphique conviviale similaire à celle de ES-Monitor d’AuviTran.

Lorsqu’on doit réaliser des liaisons audionumériques, le premier réflexe est d’utiliser les interfaces standard disponibles sur les appareils. La plus fréquente est l’AES-3, qui véhicule deux canaux audio sur une paire torsadée équipée de connecteurs XLR. Utiliser plusieurs de ces liaisons, avec une portée utile de quelques dizaines de mètres, reste possible, mais il est de très grosses installations pour lesquelles cela devient cauchemardesque. Il existe bien des standards qui autorisent des liens multicanaux (MADI, ADAT, etc.), mais ils ont des inconvénients propres à chacun comme une portée limitée ou un nombre de canaux qui s’avère rapidement insuffisant.

Si on regarde du côté des liaisons strictement informatiques, on retombe sur des problèmes similaires, qu’il s’agisse de l’USB ou de l’IEEE 1394.

Ainsi, les installations fixes comprenant plusieurs points névralgiques (scènes, cabines techniques, studios d’enregistrements, salles de répétitions, etc.) interconnectés en multicanal et les grandes prestations de concerts avec scène, diffusion et retours, constituent des cas typiques où les liaisons traditionnelles (analogiques ou numériques), mêmes regroupées au sein de câbles multipaires (« snakes ») gros comme le python qui vient d’avaler l’antilope sont deux cas typiques ou la mise en œuvre d’un réseau unifie et simplifie le problème tout en instaurant une flexibilité rarement atteinte.

En effet, c’est de manière tout à fait abusive qu’on parle de réseau en ce qui concerne les types de liaison précédemment évoqués. Les fonctions d’un réseau incluent, certes, la transmission des signaux, mais aussi leur routage (modifiable à la demande sans intervention sur les interconnexions physiques), ainsi que diverses fonctions de commande, de contrôle et d’administration de l’ensemble du système. Ainsi il est possible, via un unique réseau, d’acheminer des signaux audio dans diverses directions, de régler le gain des préamplificateurs, de visualiser l’état des appareils et de recevoir des alarmes en cas de dysfonctionnement. Chaque appareil et quelquefois chaque sous-fonction de chaque appareil est visualisée sur l’écran de l’ordinateur qui pilote le réseau au travers d’un logiciel aussi convivial que possible.

Un réseau ainsi conçu comporte tout de même quelques contraintes, telles que, par exemple, la nécessité que tous les signaux audio soient échantillonnés à la même fréquence et synchronisés entre eux, ce qui confirme le caractère local de ce type de réseau. La synchronisation est véhiculée via le réseau à partir d’un appareil choisi comme horloge mère.

Quelques principes de base dans les réseaux informatiques

Le réseau informatique standard le plus fréquemment utilisé aujourd’hui, qui offre les moindres coûts du fait de son déploiement massif et de ses éléments fabriqués à grande échelle, est Ethernet (IEE802), également souvent appelé « réseau IP ». Ces appellations mènent souvent à la confusion car elles désignent, en fait, différentes couches de protocole réseau, habituellement utilisées conjointement (donc sans distinction au niveau de l’utilisateur) dans les applications informatiques.

Quelques connecteurs de réseau numérique

Quelques connecteurs de réseau numérique. De gauche à droite : RJ-45 « ordinaire », EtherCon, fibre optique renforcée.

– Couche physique (niveau 1) : Divers types de support physique peuvent véhiculer les signaux de ce type de réseau, avec divers débits : câble coaxial (obsolète), câble à paires torsadées, fibres optiques monomodes et multimodes, liaison radio, voire lasers en vue directe. Le plus fréquent est le câble à paires torsadées Cat.5 à 100 Mbits/s. On trouve aussi fréquemment des interfaces à 1 Gbit/s. Dans la pratique, lorsqu’on parle de réseau en audio, on sous-entend le plus souvent câble à paires torsadées (Cat. 5/5e/6). Le connecteur recommandé est le connecteur en plastique « de style téléphonique » RJ-45, mais celui-ci est assez fragile. En particulier, la languette qui assure le verrouillage a tendance à casser au bout de quelques manœuvres et, en cas de traction sur le câble, le connecteur peut facilement s’arracher. En audio professionnel (et surtout en touring !), on recommande plutôt l’utilisation de câbles renforcés mécaniquement et du connecteur « EtherCon » proposé par Neutrik. Il s’agit d’un connecteur RJ-45 protégé par une coquille métallique à verrouillage et serre-câble robuste analogue à celle des connecteurs XLR (voir photo). La longueur maximale recommandée d’un bond de câble est de 100 m. Au-delà, on doit faire appel à plusieurs bonds reliés par un ou plusieurs répéteurs, ou bien, si la distance visée est considérablement plus grande, à un bond en fibre optique.

– La couche de niveau immédiatement supérieur (niveau 2) est dite Ethernet (figure 1). Elle fait appel à la notion d’adresse MAC (une adresse unique stockée « en dur » dans chaque matériel, qui l’identifie sur le réseau). Le protocole d’origine prévoit une topologie physique en étoile, où les messages sont émis vers l’ensemble des éléments connectés au réseau, un algorithme exécuté par chaque émetteur potentiel permettant d’éviter les collisions et embouteillages (dans cette logique, un seul émetteur doit « parler » à la fois). Dans la version moderne, on utilise des commutateurs et non plus des simples répéteurs (hubs) aux embranchements de l’étoile, de sorte que plusieurs émetteurs peuvent s’activer simultanément. Le protocole d’évitement des collisions est alors désactivé, mais celui-ci reste obligatoire dans certaines configurations, par exemple lorsque le réseau utilise un lien radio.
Les messages sont de longueur variable et il n’y a ni synchronisation, ni cadence fixe de trames.

Figure 1 : Trame Ethernet II. Les longueurs des champs sont indiquées en octets.

– La couche supérieure (niveau 3) est appelée couche IP (Internet Protocol) parce qu’elle fait appelle à la notion d’adresse IP. Ce protocole ne gère en rien la sûreté de fonctionnement du réseau, qui doit être assurée, si nécessaire, par les couches de niveau supérieur. (figure 2)

Figure 2 : Structure de l’en-tête de paquet IP. Les longueurs des champs sont indiquées en octets.

– La couche transport peut utiliser plusieurs protocoles différents selon l’application. Cela correspond à des syntaxes de messages différentes. UDP est le protocole simple, sans vérification de la transmission, qui s’adapte le mieux aux liaisons audiovisuelles. TCP est un protocole plus compliqué qui assure la sûreté de transmission par un processus de dialogue avec accusés de réception et réémission en cas de perte ou d’erreur. Il existe bien d’autres protocoles que nous ne décrirons pas ici (voir figure 3).

Figure 3 : segment UDP

 

Les principaux inconvénients des standards usuels

Les appareils modulaires peuvent recevoir des interfaces de réseau flexibles. Ici, une console Yamaha porte des modules d’extension pour Dante (en haut) et pour EtherSound (en bas).

Dans la pratique, dans un réseau Ethernet/IP moderne, un message est émis vers une ou plusieurs destinations, voire l’ensemble des éléments connectés au réseau (unicast, multicast ou broadcast) et le réseau doit se charger de l’acheminer en faisant usage de ses ressources réparties. Les commutateurs modernes sont dotés d’intelligence et de mémoire. Ils sont capables de déchiffrer à la volée les en-têtes des messages et les adresses de destination afin d’orienter les messages vers les bonnes branches, d’effectuer certaines modifications sur les en-têtes de messages (par exemple : translation d’adresses), des vérifications (checksums), et de gérer des files d’attente dans les directions les plus chargées. Il en résulte que le délai d’acheminement n’est pas garanti et est fondamentalement variable. Pire encore, l’ordre d’arrivée des messages n’est pas garanti non plus, il n’est pas forcément conforme à l’ordre d’émission (certains messages peuvent rester « coincés » un certain temps dans des files d’attente alors que d’autres peuvent passer plus directement). Rappelons que la notion de « temps réel », souvent mal comprise, implique que le temps de transmission soit prédictible (mais en aucun cas qu’il soit nul). C’est pourquoi IP et temps réel sont des ennemis héréditaires. Qui plus est, les protocoles réputés « sûrs » comme TCP, dans lesquels un message manqué ou erroné provoque une répétition (voire plusieurs en cas de récidive), sont fondamentalement contradictoires avec les contraintes du temps réel.

En conclusion, les grands réseaux informatiques sont une plaie pour les signaux audiovisuels à cause du temps de transmission variable. En audio, cela provoque du jitter, en vidéo, des pertes de synchronisation. Dans tous les cas, il peut y avoir des pertes d’échantillons, dont l’effet est plus ou moins désastreux selon le contexte. Cela pourrait bien s’arranger grâce à une mémoire tampon d’une taille suffisante pour absorber tous les aléas de la transmission. Cette solution fait merveille dans le streaming sur Internet, mais elle n’est pas acceptable en audio professionnel du fait du retard (latence) qu’elle introduit (plusieurs secondes), totalement rédhibitoire pour les applications de spectacle vivant (ou de vidéo en duplex pour la télévision). Même avec les solutions propriétaires qui éliminent la variation de latence, l’inconvénient majeur reste la latence elle-même dans sa valeur absolue. Au-delà de quelques millisecondes, elle n’est plus acceptable.

Les solutions habituelles

Un principe général doit être retenu dans la mise en œuvre de réseaux pour l’audio professionnel : le réseau doit être dédié. Si cette contrainte semble aller de soi pour les spectacles itinérants, elle est moins évidente pour les installations fixes, où des informaticiens possèdent souvent un réseau pour la gestion, qu’ils imaginent pouvoir utiliser conjointement pour l’audio, réputé « à bas débit ». Il ne faut pas imaginer pouvoir partager la ressource avec un trafic informatique digne de ce nom. Ainsi, un réseau audio pourra supporter les données supplémentaires à bas débit pour le contrôle des machines de l’exploitation (réglages de gain, etc.), mais guère plus, sans manifester de perturbations.

Trois standards de réseau audio propriétaires ont connu et/ou connaissent encore actuellement un certain succès (mais il y en bien d’autres). Dans l’ordre d’apparition :

  • – CobraNet
  • – EtherSound
  • – Dante

CobraNet et EtherSound utilisent le câble à paires torsadées et le protocole de niveau 2 mais pas le niveau 3. Ils ne sont donc pas compatibles avec la plupart des applications de réseau informatiques. Encore très présent dans les installations aux USA, CobraNet est sur le déclin et n’est pratiquement plus proposé pour les nouveaux systèmes. EtherSound est, quant à lui, à maturité et encore susceptible d’évoluer. Il faut prendre garde, avec ces standards propriétaires de réseau audio, à la compatibilité avec les éléments d’infrastructure. En particulier, les commutateurs, routeurs et interfaces de média (câble/fibre optique) peuvent poser problème.
Plus récemment arrivé et maintenant vraiment au point, Dante exploite le protocole IP complet, mais avec un dispositif particulier (normalisé) pour la synchronisation et une gestion de la priorité des messages. Bien que plus proche d’une approche standard W3C, et, à ce titre, plus capable de cohabiter avec un certain trafic informatique (ce que nous n’encourageons tout de même pas, …), Dante reste propriétaire.

AVB : une solution standardisée

Constatant le fait que les applications à fortes contraintes temporelles sur réseau faisaient l’objet d’une forte demande et de solutions propriétaires, l’IEEE a développé, par l’intermédiaire de son Audio Video Bridging Task Group, un ensemble de standards internationaux complétant les normes de réseau IEEE 802.1 appliqués par ailleurs. Connus sous le terme AVB, ils constituent la réponse des instances normatives aux besoins industriels. Comme leur nom l’indique, ils sont adaptés au transport de l’audio, mais aussi de la vidéo en temps réel.

Couvrant les principaux aspects défaillants des standards courants, les nouveaux textes sont :

  • – IEEE 802.1AS: Timing and Synchronization for Time-Sensitive Applications
  • – IEEE 802.1Qat: Stream Reservation Protocol (SRP)
  • – IEEE 802.1Qav: Forwarding and Queuing for Time-Sensitive Streams (FQTSS)

Le dernier : IEEE 802.1BA : Audio Video Bridging Systems regroupant les prescriptions générales pour les systèmes.
On notera une forte ressemblance avec Dante, qui peut être qualifié de précurseur. IEEE 801.1Qat et Qav sont des amendements du texte de base IEEE 801.1Q qui concerne essentiellement les commutateurs. Ils consistent à spécifier des mécanismes destinés à réserver une partie du débit disponible pour les données prioritaires (c’est-à-dire audiovisuelles) et la gestion des files d’attente ainsi qu’un mécanisme d’anticipation pour lesdites données. IEEE 802AS introduit un système de synchronisation qui est en fait un dérivé à contraintes renforcées du protocole IEEE 1588 (PTP) utilisé par Dante et par les applications d’instrumentation industrielle.

Le GS 724 T est un commutateur Ethernet à 24 ports compatible AVB, produit par NetGear et commercialisé sous les marques NetGear et BSS audio (groupe Harman).

Bien entendu, les éléments conformes AVB peuvent aussi communiquer avec les éléments qui ne supportent pas le protocole. Mais il est clair que les mécanismes d’acheminement particulier des données prioritaires et de synchronisation ne pourront franchir ce dispositif. IEEE 802.1BA inclut donc des mécanismes permettant d’identifier tous les éléments connectés au réseau qui supportent AVB, et également de reconnaître ceux qui ne le supportent pas et de les cataloguer. Bien entendu, les liaisons AVB ne peuvent pas traverser les passerelles non-AVB, même si les composants en aval supportent le protocole.

Grâce au processus de réservation de bande et de gestion de la priorité d’acheminement, une latence de 2 ms seulement est revendiquée pour un trajet incluant 7 commutateurs sur un réseau AVB à 100 Mbits/s. Sur un réseau Gigabit, la latence brute serait de 25 µs pour chaque commutateur. Cela donne, pour l’ensemble d’un réseau, une latence globale largement inférieure à celle d’un couple de convertisseurs A/N et N/A en cascade.

Les différents textes ont été adoptés et publiés en tant que normes officielles et « définitives » en 2010 et 2011. L’interopérabilité et la conformité aux normes est l’affaire de l’alliance AVnu, qui regroupe les industriels majeurs du secteur et qui élabore les tests de conformité (www.avnu.org). Sachant que les principaux acteurs du marché ont largement anticipé la publication définitive des textes, on devrait voir bientôt apparaître des équipements audio conformes à ce protocole. Quant aux éléments d’infrastructure, il semble clair que les principaux fabricants de commutateurs intelligents sont prêts à intégrer les nouveaux standards dans leurs produits. Par exemple, NetGear a annoncé, conjointement avec Harman (BSS audio), la sortie des premiers switches (16 et 24 ports) compatibles AVB à InfoComm en juin 2009. BSS audio présentait d’ailleurs à Prolight&Sound les versions AVB (64 canaux en entrée et en sortie à 48kHz ou 32 en 96 kHz) de ses processeurs 800 et 320 Cobranet, référencés respectivement BLU-825 et 325. Soundcraft (groupe Harman également) a annoncé récemment la disponibilité prochaine de cartes d’extensions compatibles AVB pour ses consoles des séries Vi, Si Compact et Si1/2/3.

Dans la pratique, il devrait être facile d’intégrer des réseaux AVB dans les appareils et le statut de standard international devrait faciliter l’administration et l’exploitation de tels réseaux au travers de logiciels conviviaux. En revanche, le statut de norme internationale ne dispense pas les fabricants et/ou intégrateurs de s’acquitter des redevances relatives à l’usage des principes brevetés qui font l’objet de la norme, et qui devraient faire l’objet d’acquisition de licences, ce qui pourrait freiner l’adoption du standard.

Conclusion

Plus on se rapproche de solutions normalisées et plus les systèmes sont « ouverts ». C’est ce qui explique que Dante soit plus facile à mettre en œuvre que les autres systèmes de réseau, mais cela ne signifie pas qu’on puisse faire n’importe quoi. Ainsi avec AVB, on s’attend à une plus grande simplicité mais il ne faut pas crier victoire trop tôt. AVB ne fonctionnera bien que si l’ensemble de l’infrastructure est équipée d’éléments compatibles. AVB ne signifie pas non plus que la cohabitation entre l’audiovisuel professionnel et l’informatique « traditionnelle » sera totale sur n’importe quel réseau. Elle ne redonnera pas aux informaticiens la maîtrise totale des systèmes que l’apparition des standards propriétaires dédiés à l’audio leur avait fait perdre. En cas de congestion du réseau, il faut qu’ils sachent que ce sont eux qui devront faire des concessions et non l’inverse. Enfin, AVB étant nouveau, il est clair que les règles de mise en œuvre précises et les difficultés d’exploitation se révéleront au fur et à mesure des expériences de terrain, dont nous ne manquerons pas de vous faire part. La diversité des produits disponibles est encore trop insuffisante pour qu’AVB puisse être considéré comme un standard mature. Mais à terme, avec AVB, on peut espérer la banalisation du réseau audio et vidéo, devenu facile et bon marché.


CobraNet : créer l’isochronisme sur Ethernet en couche 2.

Figure 4 : Trame Ethernet standard. CobraNet reprend cette structure avec un identificateur de type spécial attribué à Cirrus Logic. La longueur limite de 1 500 octets constitue l’une des contraintes majeures du protocole.

CobraNet a été développé comme une alternative au câblage analogique dans les grandes installations audio fixes. C’est la première réalisation commerciale de l’audio sur Ethernet. La Société Peak Audio (Colorado) a présenté le réseau CobraNet en 1996, acquise en 2001 par la société Cirrus Logic. Le support physique est Ethernet 100 jusqu’à la couche transport, mais les paquets CobraNet disposent d’un identifiant “ Longueur/Type ” particulier (0x8819) attribué à Cirrus Logic (figure 4). L’adressage repose uniquement sur les adresses MAC et non sur les adresses IP. Chaque élément CobraNet possède deux ports Ethernet repérés “ primaire ” et “ secondaire ”, qui fonctionnent en mode redondant. En fonctionnement normal, c’est le port primaire seul qui travaille, mais si la connexion tombe en panne, le port secondaire prend automatiquement le relais. Cela permet de raccorder chaque élément CobraNet par des commutateurs différents, pour réaliser des architectures de réseau totalement redondantes, en utilisant des commutateurs intelligents qui supportent le protocole IEEE802.1w dit “ Spanning Tree Protocol ” (STP).
Dans un réseau CobraNet, la base en termes de routage audio est le “ bundle ”. qui représente l’unité élémentaire de flux de données pour le transport de l’audio. Le nombre maximum de canaux audio par bundle est typiquement de 8 mais peut être inférieur dans certaines configurations particulières.
Les bundles peuvent être transmis selon différents modes :
– Unicast (point à point)
– Multiple Unicast (jusqu’à quatre unicast vers plusieurs récepteurs)
– Multicast (un bundle vers un nombre illimité de récepteurs)
– Privé (comme unicast ou multicast, mais nécessite de spécifier une adresse MAC).
Le réseau est synchronisé par un élément appelé chef d’orchestre (“ conductor ”). Quatre types de paquets interviennent dans la communication CobraNet :
– Synchronisation (“ Beat Packets ”) : Ces paquets sont émis en multicast avec l’adresse MAC de destination 01:60:2B:FF:FF:00. Le chef d’orchestre émet un paquet “ beat ” à raison de 750 par seconde (soit une période de 1,333… ms) à destination de tous les éléments du réseau. Tous les autres éléments audio du réseau synchronisent leur horloge audio et leur transmission de données sur ces paquets “ beat ”. Les paquets “ beat ” déterminent des intervalles de transmission isochrone et contiennent des paramètres de fonctionnement du réseau (notamment les données de routage), les données d’horloge et les autorisations pour l’émission de bundles unicast et multicast.
– Paquets audio (ou données isochrones). Ces paquets sont émis par tous les composants du réseau après réception d’un paquet “ beat ”, avec un adressage de type unicast ou multicast selon le type de bundle et le nombre de destinations. Au réglage de latence standard, un paquet audio est émis pour chaque paquet “ beat ” reçu, et chaque paquet audio transmet 64 échantillons audio par canal. Aux réglages de latence plus faible, les paquets audio peuvent être émis deux fois ou quatre fois à chaque paquet “ beat ” reçu. Les bundles ne partagent pas de paquets : les différents paquets de chaque bundle émis par un même élément sont transmis à la suite. Les paquets isochrones sont souvent relativement longs (1 000 octets et plus).
– Les paquets de réservation (“ reservation packets ”) Ces paquets sont émis lorsque c’est nécessaire, au moins une fois par seconde, avec l’adresse multicast 01:60:2B:FF:FF:01. Leur fonction est de contrôler les allocations de bande passante, d’établir les liaisons entre éléments CobraNet et de surveiller l’état des différents éléments CobraNet du réseau.
– Les paquets de passerelle série (“ serial bridge packets ”) permettent de transmettre des données asynchrones entre composants CobraNet sur le même réseau (typiquement des commandes ou des informations d’état relatives aux éléments distants connectés au réseau). Cette liaison supporte divers standards comme RS-232/422/485, MIDI, etc.
Dans la configuration standard, la formation des paquets audio implique un délai (purement numérique) de 256 échantillons, soit 5,333 ms (à 48 kHz), correspondant à 3 périodes du rythme “ beat ”. On peut réduire la latence, simplement en faisant usage de paquets plus petits, émis plus souvent. Il est ainsi possible de programmer les réseaux CobraNet pour obtenir une latence de 5,333, 2,666 ou 1,333 ms.
Pour la conception et la simulation du réseau, Cirrus Logic fournit un logiciel dénommé CobraCAD doté d’une interface graphique. L’administration peut se faire par le logiciel Discovery (CobraCAD et Discovery peuvent être téléchargés gratuitement sur le site www.cobranet.info) ou, via le réseau, par SNMP (Simple Network Management Protocol).

EtherSound, le réseau « audiosynchrone »

Figure 5 :Structure de la trame EtherSound. De longueur fixe (236 octets = 1 888 bits) et de structure figée, elle se répète à la fréquence d’échantillonnage (44,1 ou 48 kHz) et donne la synchronisation à l’ensemble du réseau.

Conçu au sein de la société française Digigram, puis développé par AuviTran, EtherSound est un standard de réseau audio propriétaire qui exploite la couche 2 d’Ethernet et dont le premier brevet remonte à 2001. La version actuelle est la troisième, dite ES100, qui retient une transmission bidirectionnelle sur un réseau connecté en chaîne ou en anneau pour la redondance. Chaque élément EtherSound comporte donc deux ports pour le réseau et un troisième auquel on peut connecter l’ordinateur qui administre l’ensemble.
EtherSound ne fait appel qu’à un seul type de trame, diffusé à la fréquence d’échantillonnage des signaux audio. Cette trame inclut l’audio, les informations de routage et d’éventuelles commandes ou informations d’état pour la gestion des éléments connectés au réseau (figure 5). Sur le réseau EherSound, il y a un “ Chef d’Orchestre ” qui synchronise tout le réseau en émettant une trame qui comporte des “ cases vides ”, dans laquelle les autres éléments du réseau peuvent insérer du contenu. L’ensemble du réseau est donc synchronisé à l’audio, dont la cadence impose le rythme d’émission de la trame EtherSound. Divers mécanismes permettent de lutter contre les fluctuations temporelles de la synchronisation, dont une horloge à boucle de phase dans chaque interface EtherSound et un compteur dans chaque trame, permettant de vérifier la continuité de la réception et de pallier la perte de paquets.
La latence est imputable uniquement aux éléments du réseau (temps de propagation, temps nécessaire à la lecture, à l’insertion de contenu audio dans la trame, à la modification des en-têtes, à la vérification et à la mise à jour des CRC). L’avantage d’EtherSound par rapport à d’autres solutions comme CobraNet est que la latence est faible, mais surtout qu’elle est constante d’un point à un autre et rigoureusement déterministe. Elle peut être calculée à l’aide de quelques chiffres de base, en ajoutant les latences cumulées des différents éléments séparant les deux points considérés :
– De point à point : 5 échantillons (2+1+2), soit 104 µs à 48 kHz.
– au travers d’un module EtherSound : 1,4 µs (c’est le temps nécessaire à régénérer les préambules)
– au travers d’un commutateur : 20 µs (retard d’une trame augmenté du temps nécessaire à la vérification du CRC)
– Selon la distance : 0,4 µs pour chaque longueur de 100 m de câble Cat.5.
Dans le cas des convertisseurs de média (par exemple si le réseau inclut un tronçon de fibre optique), un retard supplémentaire est inévitable (consulter la notice du fabricant du produit). La latence étant liée à la période d’échantillonnage, elle est un peu plus élevée en 44,1 kHz qu’en 48 kHz (la période de base passe de 20,83 µs à 22,67 µs, ce qui donne 113,28 µs pour la liaison de point à point). Pour les fréquences d’échantillonnage supérieures (96 ou 192 kHz par exemple), il n’y a pas de changement, car celles-ci sont obtenues en transmettant 2 échantillons ou 4 échantillons, en conservant la fréquence et la structure de la trame à 48 kHz. Evidemment, la capacité du réseau (en termes de canaux audio synchrones) est divisée par deux ou par quatre.
EtherSound dispose nativement de fonctions d’administration du réseau, telles que l’énumération, la détection de la hiérarchie et la détection des erreurs de connexion. Le logiciel ES-Monitor AuviTran est l’outil de gestion des réseaux EtherSound. Outre les fonctions d’administration du réseau et de routage audio, il permet la commande à distance de certains modules (gains, activation du 48 V, VU mètres, etc.). Il inclut les interfaces pour de nombreux appareils qui peuvent être contrôlés de manière totalement transparente via le réseau. Des fonctions de surveillance et de diagnostic sont également intégrées.
La réalisation du routage demande une réflexion préalable et ne doit pas être confiée aux automatismes du logiciel.
Les architectures et configurations validées peuvent être sauvegardées et rappelées à tout moment dans ES-Monitor. Le logiciel dispose d’un mode non connecté “ off-line ”, dans lequel on peut créer et simuler des installations virtuelles et les sauvegarder pour une utilisation ultérieure. Cette fonction sera très appréciée par les architectes et intégrateurs qui pourront commencer à mettre au point les systèmes avant l’achèvement des travaux et finaliser les derniers réglages sur l’installation réelle en réduisant au minimum de pertes de temps. L’outil intègre tous les appareils reconnus par ES-Monitor.

Dante : utiliser malgré tout les protocoles IP…

Figure 6 : Détail d’un paquet UDP (User Datagram Protocol). Le champ “ longueur ” indique la longueur du segment UDP en octet (minimum 8), la somme de contrôle (checksum) porte sur l’ensemble de l’en-tête UDP et sur une partie de l’en-tête IP.

Suite à la fermeture d’un laboratoire de recherche australien de Motorola, l’actuel directeur technique d’Audinate, Aidan Williams, constitua au sein du National Information and Communication Technology Australia (NICTA), avec l’aide du gouvernement australien, une équipe de chercheurs qui passa trois ans (2003-2006) à définir les bases de ce qui allait devenir Dante. En 2006, Williams fonda la société Audinate pour commercialiser Dante. La première installation utilisant Dante a été réalisée en 2008. Les promoteurs de Dante revendiquent de multiples avantages sur les systèmes de réseau audio préexistants (CobraNet, EtherSound) : la possibilité de passer au travers des routeurs standards de réseau, le support natif de l’Ethernet Gigabit, un nombre de canaux plus élevé, une plus faible latence et la configuration automatique.
Contrairement à CobraNet et EtherSound, qui considèrent que les protocoles IP de couche 3 sont inutilisables pour l’audio et construisent des protocoles propriétaires au-dessus de la couche 2, Dante n’utilise que les protocoles IP standards. De ce fait, Dante revendique une compatibilité totale avec les équipements de réseau utilisés par ailleurs, et, notamment, la cohabitation possible de trafic audio Dante avec du trafic TCP/IP de même nature que celui qu’on trouve habituellement en bureautique (Internet, e-mails, etc.), sans conséquence dommageable pour l’audio. Dante se fonde sur une transmission au sein de paquets UDP (figure 6). Chaque paquet UDP du trafic Dante peut contenir plusieurs échantillons audio d’un même canal et des échantillons audio de plusieurs canaux différents. La taille des paquets est choisie automatiquement par le système pour réaliser le compromis entre une bonne utilisation du débit disponible et maintenir la latence aux valeurs spécifiées. Le protocole UDP permet une transmission directe entre une adresse IP d’origine et une adresse IP de destination (multicast ou broadcast), sans délai et sans accusé de réception.
Dante exploite les caractéristiques de Qualité de Service (QoS) des commutateurs standards pour la voix sur IP (VoIP) pour établir une priorité des signaux de synchronisation et d’audio sur le reste du trafic circulant sur le réseau (IEEE 802.1Q). Tout commutateur qui supporte les services différenciés (Diffserv) avec priorité stricte, la qualité de service avec quatre files d’attente et qui possède des ports Gigabit Ethernet pour la connexion entre commutateurs devrait convenir pour fonctionner avec Dante. Diffserv fait appel à un champ de 6 bits dénommé Differentiated Services Code Point (DSCP) situé dans l’en-tête des paquets IP, destiné à classifier le trafic. L’attribution des priorités à chaque classe de trafic est réalisée extérieurement au protocole.
Dante repose également sur des horloges locales synchronisées sur une horloge particulière du réseau. La synchronisation exploite le protocole IEEE1588 dit PTP (Precision Time Protocol), qui s’appuie sur un échange de paquets UDP. Le dialogue permet à chaque horloge de déterminer le temps de propagation entre l’horloge-mère et elle-même et de le compenser. Ce système de synchronisation est totalement indépendant du trafic audio. Les horloges servent à horodater les paquets audio, de telle manière que le système puisse gérer leur ordre d’arrivée et détecter d’éventuelles pertes de paquets. Les fréquences d’échantillonnage acceptées sont 48 et 96 kHz, avec des profondeurs de codage de 16 et 24 bits.
On notera que la hiérarchisation du trafic est voisine de celle d’AVB, avec lequel Dante revendique la compatibilité.
Dante intègre un mécanisme grâce auquel chaque élément Dante connecté au réseau peut automatiquement découvrir les autres et se configurer dès qu’il est raccordé au réseau. C’est une approche de type plug & play. Chaque canal audio peut recevoir un nom (étiquette) plus parlant qu’un numéro ou une adresse numérique. Cette possibilité facilite le routage. Comme pour les composants informatiques plug & play, ces informations sont stockées dans une mémoire non volatile incluse dans chaque élément et restent disponibles, même si l’élément a été mis hors tension. A la première utilisation, les éléments portent des étiquettes “ par défaut ” qu’on peut remplacer par des nouvelles plus parlantes dans le contexte spécifique de l’application (les adresses IP sont gérées par le protocole du style DHCP et l‘utilisateur n’a pas à s’en occuper si le réseau intègre un serveur DHCP). Les interfaces de contrôle de chaque élément sont spécifiques à chaque constructeur. Leur usage intensif peut engendrer de pertes de paquets. Dante ne propose pas de système de simulation de réseau hors ligne analogue à celui d’EtherSound.
La topologie du réseau Dante est standard, c’est à dire typiquement en étoile avec des commutateurs. On peut sécuriser le réseau en doublant les commutateurs. La redondance des chemins est alors gérée par le protocole STP (Spanning Tree Protocol), normalisé sous la référence IEEE802.1d
Audinate indique une latence minimale de 84 µs (soit 4 échantillons à 48 kHz). Dans la réalité, ce chiffre correspond liaison de point à point en Ethernet 1 Gbit/s sans aucun élément intermédiaire (switch ou autre) et ne correspond pas à une véritable configuration en réseau. Concrètement, les chiffres se montent à 150 µs pour deux cartes Yamaha MY16-AUD raccordées directement en point par point par une liaison 1 Gbit/s et au moins 800 µs pour un PLM de Lab Gruppen (amplificateur à DSP) sur réseau 100 Mbits/s. Dans la pratique, la latence dépend fortement de l’infrastructure du réseau. S’il y a plus d’un switch entre l’émetteur et le récepteur sur un réseau Gigabit Ethernet, la latence s’élèverait à 0,5 ms.
La latence est également ajustable par configuration des éléments Dante, avec des valeurs minimales (par exemple 150 µs sur carte MY16-AUD) et des valeurs plus conservatives (5 ms pour la même carte), avec des valeurs intermédiaires de 0,5 et 1 ms selon le nombre de commutateurs intercalés dans le réseau.
Le nombre maximum de canaux audio pris en charge est de 48 dans chaque direction (24 bits/48 kHz sur réseau 100 Mbits/s), 64 canaux dans chaque direction pour chaque élément sur réseau 1 Gbit/s et pour l’ensemble du réseau 1 Gbit/s avec des commutateurs convenables, un maximum de 512 x 512 canaux.
Le logiciel d’administration des réseaux Dante, appelé Dante Controller, gère le routage audio matriciel d’une manière similaire au logiciel équivalent d’AuviTran pour EtherSound.

[/private]

Pourquoi ? Comment ?

Le « dividende numérique »…

Les révolutions technologiques peuvent provoquer des bouleversements là où on ne les attend pas. Ainsi, la généralisation de la transmission numérique aboutit à un réaménagement du partage du spectre radiofréquence entre les différents services de télédiffusion/télécommunications. Concrètement, en Europe, une partie des fréquences radio qui étaient autorisées pour les liaisons sans fil de petite puissance, moins de 30 mW en général (micros sans fil, ears monitors, …), ne l’est plus depuis le 1er décembre 2011.

[private]

Le passage généralisé à la télévision numérique pour la diffusion terrestre (TNT) a apporté des bénéfices substantiels en termes d’efficacité d’occupation spectrale de l’espace hertzien. La redistribution de ces bénéfices se traduit par un « dividende » attribué d’office aux « actionnaires » les plus gourmands.

La nouvelle réglementation qui en résulte est relativement unifiée au niveau européen et laisse apparaître quelques variantes selon les états. Le principal aménagement, le plus contraignant pour les exploitants de liaisons sans fil de petite puissance, concerne la bande dite « UHF », dont une partie est désormais amputée.

A côté de cette restriction pénalisante, d’autres bandes de fréquences sont ouvertes pour ce genre de service, certaines étant totalement nouvelles.

Les avantages de la TNT par rapport à l’analogique

allure du spectre d’une émission de télévision analogique en SECAM LL’. Le spectre n’est pas utilisé de manière uniforme et certaines raies apparaissent en permanence, générant des brouillages.

Figure 1 : allure du spectre d’une émission de télévision analogique en SECAM LL’. Le spectre n’est pas utilisé de manière uniforme et certaines raies apparaissent en permanence, générant des brouillages.

La diffusion analogique, à laquelle il a été mis fin récemment sur l’ensemble du territoire français, était particulièrement dispendieuse en termes d’encombrement hertzien. En effet, en chaque point de la couverture, chaque programme télévisé (en SECAM LL’) nécessitait un canal complet de 6,5 MHz de large (figure 1) .
Pour les 6 programmes nationaux, cela prenait 39 MHz. En fait, pour plusieurs raisons, la bande occupée par la télévision analogique était beaucoup plus large :

– En effet, pour des raisons techniques, on n’utilisait pas des canaux adjacents, mais des canaux séparés par 2 ou 3 canaux libres. La bande VHF était réservée à Canal+. Ainsi, en un point donné, l’ensemble des programmes TV occupait un espace beaucoup plus large, au moins 110 MHz.

– La couverture d’un émetteur ne cesse pas, comme le nuage radioactif de Tchernobyl, brusquement à une limite qu’on lui aurait imposée, mais s’éteint progressivement lorsqu’on s’éloigne de l’émetteur, jusqu’à un niveau où elle devient inexploitable par la plupart des récepteurs. De ce fait, il existe des larges zones où les émissions provenant de deux ou plusieurs émetteurs se recouvrent. De ce fait, pour éviter brouillages et interférences, il était indispensable que les émissions utilisent des fréquences différentes. Ainsi, dans une zone où trois émetteurs se recouvrent, ce sont 18 canaux qui sont mobilisés.

La TNT (Télévision Numérique Terrestre) se caractérise, elle, par :

– Un traitement numérique du signal avec une réduction de débit numérique (compression) de la famille MPEG (en définition standard : MPEG-2 MP@ML pour l’image, MPEG-2 audio pour le son)

– Le mutiplexage de plusieurs flux audio et vidéo (programmes) à l’intérieur d’un même signal numérique (MPEG-2 TS).

– Une modulation « numérique » du signal radio, de type COFDM (DVB-T).

Figure 2 : Allure du spectre d’une émission de télévision numérique terrestre. L’utilisation du spectre est uniforme et optimale.

Ainsi, le train numérique MPEG qui module les porteuses occupe, au final, un canal TV de 6 MHz de large avec une efficacité supérieure (figure 2), mais au lieu de véhiculer un seul programme de télévision, il en transporte plusieurs (5 ou 6 en définition standard). Par conséquent, la capacité potentielle de la télévision numérique est bien plus grande que celle du système analogique (figure 3).

Figure 3 : Mécanisme d’obtention du « dividende numérique ». Grâce aux techniques de compression et de modulation, un multiplex de 5 programmes de télévision prend place dans un canal numérique de même largeur qu’un seul canal analogique.

Ainsi l’offre TNT atteint une trentaine de programmes dans la plupart des régions.

De plus, avec l’adoption de normes de compression plus efficaces que celle utilisée en télévision standard, on peut désormais transmettre sur la TNT des programmes en haute définition (1920 x 1080 points d’image), ce qui était impensable en analogique. Deux programmes HD peuvent partager un multiplex TNT, en attendant mieux.

Enfin, la modulation adoptée est beaucoup plus robuste que l’analogique aux brouillages et interférences et procure une utilisation beaucoup plus uniforme du spectre. Cela signifie que la puissance des émetteurs numériques est très inférieure à celle des émetteurs analogiques de portée équivalente (typiquement 5 à 10 fois moindre), que la distance de réutilisation d’une fréquence peut être réduite par rapport à l’analogique, mais, plus fort encore, que, moyennant certaines précautions, des émetteurs voisins, dont les zones de couverture se recouvrent largement, peuvent utiliser la même fréquence radio. Cette particularité pourrait même être exploitée à l’échelle d’un réseau étendu (réseau monofréquence ou SFN), voire national, mais disons tout de suite que cette option n’a pas été retenue en France.

La diffusion simultanée de la TNT avec les émissions analogiques était imposée durant une période transitoire pour permettre aux téléviseurs anciens de continuer à recevoir la télévision. Cette diffusion était encore plus gourmande puisqu’elle exigeait de mobiliser des fréquences supplémentaires pour juxtaposer la diffusion numérique et les canaux analogiques. Son interruption assortie d’un réarrangement des fréquences de la diffusion numérique libère donc une quantité considérable de fréquences, qui peuvent théoriquement être allouées à de nouveaux services, tout en procurant une amélioration conséquente des services de télévision par rapport aux 6 chaînes nationales qu’on connaissait auparavant (figure 4).

Figure 4 : Disponibilités de fréquences pour les micros HF dans la bande UHF (470 – 862 MHz). A titre d’exemple, les zones mauves représentent les canaux de télévision numérique de l’émetteur de Paris-Tour Eiffel.

Figure 4 : Disponibilités de fréquences pour les micros HF dans la bande UHF (470 – 862 MHz). A titre d’exemple, les zones mauves représentent les canaux de télévision numérique de l’émetteur de Paris-Tour Eiffel.

Aménagement de la bande UHF

Dans la bande UHF (470 – 862 MHz), toutes les fréquences étaient jusqu’ici autorisées pour les micros HF. Ces utilisateurs étant secondaires, le même spectre était utilisé principalement et conjointement pour les canaux de télévision analogiques (canaux 21 à 69). La restriction d’usage de la bande UHF pour les micros HF était donc de disposer de canaux libres. Mais l’espace libre entre les canaux occupés par la télévision était suffisant pour permettre l’utilisation d’un nombre relativement élevé de micros sans fil simultanément, sans brouillage ni interférences.

Or la plupart des émetteurs de télévision utilisent les canaux les plus bas de la bande UHF, en raison, notamment, de leur meilleure propagation à longue distance. C’est pourquoi la plupart des micros HF utilisés en France étaient configurés pour émettre et recevoir dans le haut de la bande UHF, c’est-à-dire de 790 à 860 MHz, partie du spectre présumée entièrement libre un peu partout sur le territoire national.

C’est précisément cette fraction de la bande UHF (figure 5)

Nouvelle répartition des utilisations dans le haut de la bande UHF (790 à 865 MHz).

Figure 5 : Nouvelle répartition des utilisations dans le haut de la bande UHF (790 à 865 MHz).

qui est désormais interdite aux micros HF, car elle a été attribuée aux services de télécommunication mobile à haut débit (téléphonie de 4e génération dite « 4G »). Les détenteurs de micros HF opérant dans cette bande devront s’abstenir de les utiliser et « s’arranger » pour n’utiliser que du matériel conforme, soit en acquérant de nouveaux systèmes, soit en faisant modifier l’existant, lorsque cela est techniquement possible et économiquement viable.

Autres bandes de fréquences autorisées

Dans la bande VHF, les fréquences de 174 à 217 MHz étaient autorisées. Toutefois, en raison des performances médiocres qu’elles permettent d’obtenir en termes de nombre de canaux simultanés et d’un risque d’interférences plus élevé, certains constructeurs réputés s’abstiennent d’utiliser cette bande.

Il y a également une bande libre (dite « ISM ») autour de 2,5 GHz. z. Cette bande est disponible pour les micros HF numériques, mais elle est intensément brouillée par d’innombrables liaisons radio numériques (Wi-Fi, Bluetooth, etc.).

La nouvelle réglementation interdit désormais l’usage des fréquences comprises entre 791 et 821 MHz et entre 830 et 862 MHz. Pour les autres fréquences de la bande UHF, le partage entre les micros/moniteurs HF et les émissions de TV reste d’actualité. La différence est que ces émissions sont désormais numériques et susceptibles de provoquer moins de brouillage.

Dans la gamme VHF, des fréquences se libèrent du fait de l’abandon de la diffusion de Canal+ en analogique. Une nouvelle bande de 174 à 223 MHz va être attribuée aux liaisons HF.

Enfin, courant 2011, une nouvelle bande de fréquences a été ouverte entre 1785 et 1800 MHz.

Quel impact sur le parc existant ?

La plus grande partie du parc en service en France se compose de micros HF et ears monitors émettant en UHF, en modulation de fréquence analogique. Certains font usage de la bande désormais interdite (790 à 862 MHz).

La téléphonie 4G fonctionne de manière différente des systèmes de téléphonie cellulaire précédents car elle utilise des fréquences différentes pour la voie dite descendante (de la station de base vers le mobile) et pour la voie montante (c’est-à-dire du terminal mobile vers la station de base). L’espace alloué à la téléphonie 4G est donc divisé en deux bandes de fréquences distinctes, séparées par un intervalle libre pour éviter les brouillages entre ces deux sous-bandes. Les deux bandes en question ont 30 MHz de largeur et sont respectivement de 791 à 821 MHz et de 832 à 862 MHz. L’espace libre entre ces deux bandes, appelé « duplex gap », large de 11 MHz, est a priori utilisable pour les micros HF à l’exception de l’espace compris entre 830 et 832 MHz.

Les matériels fonctionnant dans la bande de 790 à 862 MHz ne devront plus être utilisés . Les fabricants ne proposeront pas de systèmes fonctionnant dans la gamme des 821 à 830 MHz car celle-ci est interdite d’utilisation dans nombre de pays et l’évolution prévisible de la réglementation irait plutôt dans le sens de la généralisation de cette interdiction.

Que risque-t-on si on ne se conforme pas à la nouvelle réglementation ?

Le premier risque, tout théorique, celui-ci, est d’être poursuivi pour usage illégal d’une fréquence non autorisée. Cela pourrait résulter d’une plainte d’un usager ou d’un opérateur éprouvant un trouble de jouissance de « sa » fréquence.

Les bandes désormais interdites étant allouées à des services de télécommunications numériques à haut débit (téléphonie « 4G), le phénomène le plus probable lors de l‘utilisation de micros sans fil analogiques sur ces fréquences est un brouillage par les services en question. Dans le meilleur des cas, ce phénomène se traduira par une réduction considérable de la portée utile des micros HF, dans le pire des cas, par une impossibilité d’exploiter la liaison.

Notons que les phénomènes de brouillage sont parfois intermittents et, en tous cas, aléatoires. Ils peuvent donc survenir sans prévenir au cours d’une prestation, même si des essais semblent montrer que la liaison est exploitable. Pour cette raison, nous déconseillons formellement à tout utilisateur « sérieux » de contrevenir à la nouvelle réglementation !

Quel impact sur la capacité en termes de liaisons simultanées ?

Clairement, les nouvelles dispositions suppriment un espace de 60 MHz sur la totalité de la bande UHF, soit un peu plus de 15 %. Pour les systèmes très denses qui exploitent la totalité de la bande disponible avec le maximum techniquement réalisable de liaisons simultanées, on peut donc considérer qu’une réduction du nombre de liaisons disponibles doit être prise en considération. Au-dessous de 4 liaisons simultanées, on peut considérer qu’il n’y a pas d’impact.

Quel impact sur le choix de nouveaux produits ?

La moindre des choses en commandant un nouveau système de micro HF ou de ears monitor analogique est d’éviter de choisir des systèmes fonctionnant dans la bande 790-862 MHz. Notons bien que, normalement, les fabricants, distributeurs et revendeurs ne devraient plus en proposer (d’autant que les dispositions entrées en vigueur le 1er décembre 2011 ont été prises à la fin de 2007, et que les différents acteurs devaient les anticiper). Cela ouvre surtout la voie à l’utilisation de liaisons sans fil numériques. Outre de meilleures performances, celles-ci devraient offrir une meilleure utilisation du spectre disponible et une résistance améliorée aux perturbations, interférences et brouillages. Il semble que l’avenir soit plutôt dans cette direction, pour autant qu’on parvienne à réduire la latence de transmission due au traitement-codage numérique de canal.

Jean-Pierre Landragin

Dans un second volet, nous aborderons l’impact au plan exploitation des systèmes de transmission audio sans fil (micros et in ear HF) auprès des utilisateurs professionnels et la stratégie des fabricants.

Les textes officiels
(dans l’ordre chronologique)
Les textes applicables en France émanent de l’ART (Autorité de Régulation des Télécommunications), rebaptisée plus récemment ARCEP (Autorité de Régulation des Communications Électroniques et des Postes). Un texte plus général définissant l’utilisation des dispositifs provient de l’ERC (European Radiocommunications Committee), l’un des trois comités de la CEPT (Conférence européenne des administrations des postes et télécommunications), organe de régulation européen qui, notamment, définit l’harmonisation des attributions de fréquences au sein de l’Europe.Ces textes sont :- Décision n° 99−781 de l’Autorité de régulation des télécommunications en date du 22 septembre 1999 attribuant des fréquences nationales pour le fonctionnement des équipements auxiliaires de  radiodiffusion.- Décision n° 99−782 de l’Autorité de régulation des télécommunications en date du 22 septembre 1999 fixant les conditions d’utilisation des équipements auxiliaires de radiodiffusion.- Décision n° 00−205 de l’Autorité de régulation des télécommunications en date du 3 mars 2000 modifiant la décision n°99−781 du 22 septembre 1999 attribuant des fréquences nationales pour le fonctionnement des équipements auxiliaires de radiodiffusion.- Décision n° 2010-0849 de l’Autorité de régulation des communications électroniques et des postes en date du 2 septembre 2010 assignant la bande de fréquences 174-223 MHz aux utilisateurs professionnels d’équipements auxiliaires sonores de conception de programmes et de radiodiffusion.

– Décision n° 2010-0850 de l’Autorité de régulation des communications électroniques et des postes en date du 2 septembre 2010 fixant les conditions d’utilisation des fréquences radioélectriques par les équipements auxiliaires sonores de conception de programmes et de radiodiffusion dans la bande de fréquences 174-223 MHz.

– Décision n° 2010-0851 de l’Autorité de régulation des communications électroniques et des postes en date du 2 septembre 2010 modifiant la décision n° 99-781 de l’Autorité de régulation des télécommunications attribuant des fréquences pour le fonctionnement des équipements auxiliaires de radiodiffusion.

– ERC recommendation 70-03 (Tromsø 1997 and subsequent amendments) relating to the use of short range devices (SRD), 22 August 2011.

[/private]