Si l’on en croit la forte audience de cette table ronde du Satis animée par Fabrice Marinoni, journaliste, producteur chez VNProd, le sujet intéresse nombre de professionnels !
La remote production, évidemment, existe concrètement depuis plus d’une dizaine d’années. C’est un sujet récurrent au sein du Satis. Néanmoins, ce sujet est abordé par le prisme des grandes productions, aux budgets assez conséquents. Mais, aujourd’hui, grâce à l’évolution des technologies, en particulier de la connectivité, la remote est accessible à un plus grand nombre de productions audiovisuelles, réalisées complètement ou en partie à distance. Ces productions à coûts raisonnés intéressent une grande partie du marché, y compris corporate. Mais quelles sont les solutions disponibles ou annoncées sur le marché ? Quelle flexibilité de moyens faut-il mettre en œuvre ?
Pour ce passage en revue d’expériences concrètes et des dispositifs disponibles, nous avons réuni Pierre-Laurent Jastrzembski, responsable commercial chez 3D Storm ; Philippe Rouault, directeur associé chez Kino ; Norbert Paquet, head of product management Sony | Professional Europe; Guillaume Brûlé, directeur de production chez Multicam Group et Jonathan Bisch, responsable d’exploitation chez Letsee.
Notre première question s’adresse à vous Philippe Rouault. Pourriez-vous nous présenter en quelques mots Kino ?
Philippe Rouault : Notre société de production audiovisuelle travaille en tant qu’agence pour des clients du monde institutionnel : petites ou grosses entreprises, professionnels aux commandes de forums internationaux. Ces derniers temps, nous avons été appelés sur des événements portant sur l’environnement, le développement durable. Les demandes en matière de remote ont complètement explosé ces dernières années, il a fallu s’adapter. Nous ne sommes ni fabricants ni revendeurs de matériel, nous ne disposons pas non plus de solutions préfabriquées. En revanche, nous sommes un agrégateur qui picore chez tous ses partenaires. Nous mettons en place du live, des solutions à distance recouvrant des réalités complètement différentes.
Parlons, si vous le voulez bien, du corporate qui utilise majoritairement le live et le streaming pour ses communications.
P. R. : C’est pratiquement devenu leur outil de base. Impossible pour des raisons de confidentialité propres au corporate de vous montrer des audiences internes faisant appel à des solutions de mise en ligne à distance, d’interactivité à distance. Je mentionnerai toutefois la convention en live et remote à Deauville de Suzuki au cours de laquelle son directeur commercial présentait une nouvelle voiture avant son lancement officiel. Nous avons mis en place des solutions avec des intervenants sur fond vert à Paris, à Barcelone et en Afrique du Sud. Toutes ces personnes sont apparues sur un même plateau via des solutions mixtes. En l’occurrence, c’était du vMix et du Zoom. Nous sommes parvenus à les filmer et à faire croire qu’elles se trouvaient sur un seul et même plateau.
J’ai le sentiment qu’il s’agit ici d’une hybridation, pas de remote…
P. R. : C’est effectivement un mélange des genres, courant en corporate pour plusieurs raisons. La première parce que nous travaillons avec des intervenants qui se trouvent le plus souvent sur des sites distants. Nous avons des problématiques de coût sur de petits événements souvent uniques, non reproductibles, contrairement à du sport pour lequel on peut imaginer mettre en place sur chaque match un dispositif quelque peu équivalent. Sur du corporate, nous sommes constamment sur du sur-mesure. Nous devons nous habituer aux conditions du lieu, adapter nos techniques. Nous rencontrons de gros soucis d’intervention notamment au sein des banques, des multinationales quand il s’agit de mettre en place des technologies qui passeront par leurs firewalls et qui doivent être compatibles avec la direction de leurs systèmes d’information. À chaque fois, nous sommes obligés d’admettre qu’il ne sera pas possible de tout mettre en place comme nous l’aurions souhaité. Si notre client est sur Teams ou Zoom, nous devrons passer sur des systèmes beaucoup plus fermés, parfois prendre leur propre système fermé, faire des boucles à partir de ce système pour pouvoir le réintroduire dans d’autres live et ainsi concevoir des solutions hybrides.
Quels types d’outils utilisez-vous aujourd’hui ?
P. R. : De manière générale, nous travaillons principalement avec la solution Phoenix Hybrid, des solutions Zoom ou Teams. En studio, nous œuvrons avec des outils de type CHM Link qui nous permettent d’enregistrer à distance, mais toujours avec des solutions hybrides. Notre métier réside dans toute une architecture d’hybridation.
Je crois savoir que Kino dispose d’un studio de mixage. En audio aussi, nombre de productions se font-elles en remote ?
P. R. : Les clients n’ont plus le temps ou l’envie de se déplacer pour une session d’une heure. Les sessions audio se pratiquent à distance depuis notre studio avec des clients qui sont ailleurs, mais aussi avec des comédiens qui sont ailleurs. La dimension internationale de notre activité nous porte à faire intervenir des comédiens japonais, coréens, de langue arabe. Il n’est pas difficile de trouver des traducteurs à Paris, en revanche, une vraie voix de pub en arabe littéraire ou en japonais, c’est beaucoup plus compliqué !
Quelles sont les limites, les difficultés auxquelles vous faites face aujourd’hui en matière de remote ?
P. R. : Notre principal problème est la connexion, la connectivité, surtout en institutionnel, en corporate, où nous sommes dépendants de la connexion de nos clients. À des coûts raisonnés vont s’ajouter des coûts de connexion parfois équivalent au prix de la mise en place globale de l’événement. C’est vraiment un point auquel il faut réfléchir, un vrai piège, parce que sur un événement remote, si la connexion ne fonctionne pas, l’événement n’existe plus.
Je vais passer la parole à Guillaume Brûlé de Multicam Group…
Guillaume Brûlé : Votre invitation me donne l’occasion de clarifier nos diverses entités. Le groupe Multicam comprend Multicam Systems, Multicam Robotics, Multicam Space et Multicam Live. C’est cette dernière marque spécialisée dans la prestation de services que je dirige. Cela fait quelques années que nous faisons de la remote notamment pour le futsal. Le futsal n’est pas le sport le plus simple à capter en remote, parce que quand l’arbitre siffle, le chrono ne s’arrête pas, contrairement au basket par exemple. Il y a un an, un diffuseur qui avait remporté l’intégralité du championnat de la division de futsal (une centaine de matchs) sur une plate-forme Web est venu nous voir avec une enveloppe en nous demandant ce que nous pouvions faire avec. La seule réponse possible au regard des contraintes budgétaires était la remote.
Nous avons alors créé des mallettes intégrant des moyens de captation et de transmission du signal jusqu’à une régie finale qu’on a, du coup, effectivement intégrée dans nos locaux. Cette mallette se balade à Nantes, Toulouse, Toulon, etc. où des prestataires locaux opèrent la captation, faisant ainsi diminuer les frais inhérents à la logistique. Le signal remonte en direct dans notre régie finale. Nous nous sommes engagés sur deux matchs en simultané. L’équipe se compose d’un cadreur sur le terrain, d’un technicien et d’un journaliste-commentateur en cabine. Dans chaque mallette envoyée aux clubs de futsal, se trouvent deux caméras : l’une est opérée par le cadreur, l’autre fait de l’analyse d’image. Tous les cadreurs n’étant pas forcément des techniciens, impossible de trop leur demander. Nous avons donc développé un petit logiciel permettant d’être multisession sur la même station.
Des contraintes se posent néanmoins à nous. Premièrement, dans le domaine du sport, le taux d’équipement n’est pas très bon, quelque 80 % des salles ne sont pas équipées en connectivité. C’est pourquoi nous nous basons sur de la 4G, voire de plus en plus sur de la 5G. Mais parfois, nous sommes dans des creux 4G, sans connexion correcte. Dans ce cas-là, nous nous appuyons sur un nouveau codec qui permet, à débit égal, d’avoir deux fois plus de qualité. Nous faisons face aussi à des problèmes de latence qui se posent quand on remonte un flux depuis un lieu de captation. Aujourd’hui, nous avons décidé de nous baser sur le protocole de transport vidéo SRT.
Jonathan Bisch, quelle est votre véritable fonction et que pouvez-vous nous dire sur la remote production ?
Jonathan Bisch : Je suis responsable technique à AMP Visual TV et en tant que tel j’ai énormément travaillé ces trois dernières années avec Letsee, notre division digitale. Au début de la crise sanitaire, nous avons cherché des solutions rapides à mettre en place chez des animateurs-présentateurs en utilisant des moyens de connexion dont nous n’osions pas jusqu’alors nous servir dans le broadcast. Principal sujet : la connectivité.
Nous avons commencé avec Cyril Lignac, par l’émission Tous en cuisine. Nous avons eu la chance de pouvoir continuer à travailler pendant le confinement, ce qui nous a permis d’évoluer à grande vitesse sur ces technologies. Nous avons installé chez Cyril des caméras remote, des PTZ, sur lesquelles nous avons pu prendre la main à distance en IP et donc transmettre de la vidéo. Nous avons utilisé du vMix pour certaines applications. Nous avons récupéré tous ces signaux dans notre Media Center à Paris. Cyril coanimait cette émission avec Jérôme Anthony qui était chez lui à Nancy où il avait une très faible réception 4G. Il fallait trouver les bons codecs pour pouvoir transmettre. Si nous n’avions pas trouvé ces possibilités de transmission, nous aurions été obligés de faire appel aux stations satellites dont le coût n’a rien à voir pour faire les duplex. Et même si Tous en cuisine est une émission de télé, son budget n’est pas faramineux.
La situation sanitaire a-t-elle du coup engendré chez vous d’autres formes d’écritures ? Avez-vous des demandes que l’on ne vous aurait pas faites par le passé parce qu’elles auraient nécessité des liaisons satellites ? L’accessibilité est-elle plus aisée et moins coûteuse pour certains types de programmes diffusés à la télévision ?
J. B. : Oui, forcément. Avant le confinement, chacun pensait plateau-régie. Et si on partait à l’étranger, il fallait emporter des moyens broadcast conséquents. Aujourd’hui, on sait aller tourner une émission à l’étranger avec des moyens légers. Ce fut le cas pour Ironman, un triathlon se déroulant dans plusieurs villes à travers le monde, capté toujours par ce même mode de transmission qu’est la 4G et qui nous permet d’aller un peu partout. Sur ce type de course, il aurait fallu déployer des moyens lourds HF, hélicoptères, relais de transmission, avion… De plus, il faut savoir que ces courses durent souvent onze heures sur une même journée. Sans ces technologies et la 4G, il serait impossible tout simplement de diffuser l’intégralité du programme. Le coût d’un satellite sur une durée aussi longue serait explosif. Alors oui, notre challenge est permanent, nos clients sont constamment demandeurs de nouvelles solutions.
J’aimerais passer la parole aux fournisseurs. Norbert Paquet, comment concevez-vous une caméra ou tout autre matériel chez Sony pour ce type de projet limité en moyens ?
Norbert Paquet : Personnellement, je travaille sur la partie broadcast, mais existent chez nous des entités corporate et éducation. Coûts techniques et coûts opérationnels sont les deux problématiques auxquelles la remote pour tous doit pouvoir répondre. Si la réponse technique est abordable, mais que le coût d’exploitation explose, l’équation ne fonctionne pas. J’ai beaucoup entendu parler de codec, mais au-delà il y a le transport du signal. Comment assurer une qualité de service sur les réseaux publics ? Dans le live, impossible de prendre le temps de précharger. Tout doit être synchronisé, un décalage entre l’image et le son et on s’arrache la tête ! C’est pourquoi existent des protocoles. Le SRT introduit une qualité de service qu’il s’agit de bien doser. Une liaison satellite dédiée, voire une bande passante symétrique en fibre, est chère, il faut donc pouvoir se servir d’une connexion 4G et la 5G arrive.
Notre rôle en tant que fournisseurs est d’intégrer la connectivité, l’encodage et le mode de transport dans des caméras robotisées, de travailler sur le duo technique-exploitation afin qu’un seul opérateur puisse opérer plusieurs caméras à distance, mais aussi sur des caméscopes plus classiques intégrant des encodeurs. Voilà pour l’acquisition. Certains téléphones sont aussi de très bonnes caméras d’acquisition. Je pourrais aussi évoquer Newtek Tricaster mais quelqu’un ici en parlera mieux que moi.
Reste le cloud que nous n’avons pas encore évoqué. Sony travaille sur des solutions clés en main permettant de répondre à la problématique événementielle du live. Pas besoin d’infrastructure, ni d’équipes de développement ou de déploiement, pas besoin de maintenance. Le client cherche dans le cloud un outil de production tout-en-un qui va pouvoir connecter les différentes sources audio-vidéo et qui, côté exploitation, va pouvoir agréger où se situent l’ensemble des exploitants : commentateur, opérateur de réalisation. En février 2023, nous avons lancé le service M2 Live qui donne accès à un système de production 100 % dans le cloud. Des informations à ce sujet sont d’ailleurs d’ores et déjà en ligne sur notre site Web. Aujourd’hui, le digital est partout et c’est génial. D’un point de vue économique, l’avantage de la remote pour tous est de ne payer que ce qu’on utilise.
Norbert a abordé le sujet mais peut-être, Pierre-Laurent, pourriez-vous développer en quoi consiste le Newtek Tricaster que distribue 3D Storm ?
Pierre-Laurent Jastrzembski : L’outil de base logicielle Tricaster a finalement permis la convergence vers les solutions proposées par Sony pour faire de la remote production. Je vais faire un bref rappel historique et poser ainsi des bases intéressantes à connaître. Le standard HiMedia a été créé pour exploiter pleinement un réseau Gigabit. En 2015, Newtek avait déjà des petites applications qui permettaient de copier le bureau d’un Mac ou d’un PC et de transmettre en IP directement comme une source au sein du Tricaster. Le génie de Newtek a été de combiner codec et protocole. Il faut bien comprendre cette notion.
Cette notion de bande passante constitue un point clé de toutes les réflexions à mener autour des transmissions sur IP, elle est vraiment majeure dans la construction d’un projet. On parle beaucoup aussi de NDI HX. Sony l’a implémenté depuis longtemps dans ses caméras PTZ. Le NDI HX permettra de diminuer la bande passante. Pour un signal HD par exemple, on sera à peu près à 20 Mbps en HX 2. C’est important en matière de remote production.
Newtek a introduit la version 3 du NDI HX qui présente plusieurs avantages par rapport à la version 2. Le NDI HX 3 permet de réduire nettement la latence et d’avoir une image plus qualitative avec un signal HD à peu près à 80 Mbps. Avec le HX 3, l’opérateur pourra configurer sa caméra et définir lui-même manuellement sa bande passante, toujours en iframe.
Newtek a introduit également la notion de Discovery Server. À travers le cloud, il sera possible de faire communiquer différentes infrastructures. C’est un peu technique mais l’important est de noter que NDI est multipoint et bidirectionnel et de tenir compte de la notion de bande passante. À chaque fois que vous allez solliciter la source, forcément la bande passante va être utilisée et vous allez multiplier du coup en unicast cet envoi de bande passante vers chacun des destinataires.
Article paru pour la première fois dans Sonovision #31, p. 26-29
Save the date pour le SATIS 2023
15 & 16 novembre – Docks de Paris, La Plaine Saint-Denis
Les accréditations visiteurs sont ouvertes et l’entrée est gratuite !
——