Thüringer Mediensymposium 2025: Das war Tag 2

Angela Bünger
Auch der zweite Tag in Erfurt bot eine große Bandbreite an aktuellen Themen aus der Medienproduktion: Von privaten 5G-Netzen über Cloud-Orchestrierung bis hin zu KI-gestützten Workflows und neuen Standards für Content-Authentizität.

Spät war es bei manchen Teilnehmenden geworden. Noch bis weit in die Abendstunden wurde beim traditionellen Get Together im Hofbräu am Dom über das Gesehene und Gehörte des ersten Tages diskutiert. Dennoch ging es pünktlich und dynamisch in Tag 2.

Den Auftakt machte Christoph Reimann (Riedel Communications), der in seinem Vortrag „Einfluss von privaten 5G-Netzen in der Medienproduktion" das Potenzial privater 5G-Netze für fixe und nomadische Produktionen beleuchtete. Er betonte, dass sich die Technologie erst ab einer gewissen Schwelle lohnt, und zwar wenn ausreichend Geräte und Use Cases (wie etwa Wireless Intercom oder Ref Cams) kombiniert werden, um Kosteneffizienz zu erreichen. Private 5G-Netze lösen dabei spezifische Probleme: Bei Großevents reicht 4G/5G-Slicing nicht aus, und mobile Geräte wie Fahrzeuge profitieren von stabilen Verbindungen ohne Zellwechsel-Probleme wie bei Wi-Fi. Reimann stellte mit „Easy 5G" eine Lösung vor, die ohne Dark Fiber auskommt, Basisstationen per Cat-Kabel anbindet und durch Frequenzmanagement, Rapid Deployment sowie Kompatibilität überzeugt, ein vereinfachtes System gegenüber komplexeren Eigenentwicklungen.

 

Christoph Reimann (alle Bilder: Angela Bünger)

 

Jens Gnad (LOGIC) erläuterte im Anschluss, wie Cloud-Technologien die TV-Produktion grundlegend verändern. Im Zentrum seines Vortrags stand die effiziente Orchestrierung wiederkehrender Live-Events durch das hauseigene Tool PORTAL, das auf AWS-Infrastruktur aufsetzt. Besonders hob er das BBC-Konzept Time Addressable Media Store (TAMS) hervor, bei dem Medieninhalte als zeitbasierte Datenpakete vorliegen und dadurch Bearbeitung sowie Verbreitung erheblich vereinfachen. Gnads Ansatz zielt darauf ab, Ressourcen nur dann zu aktivieren, wenn sie tatsächlich benötigt werden. Ein siebenstufiges Verfahren soll Leerlaufkosten durch gezieltes Hochfahren, Steuern und Freigeben von Systemen minimieren. Die Verbindung von Finanzkontrolle und technischer Orchestrierung (FinOps) gewinnt dabei an Bedeutung für planbare Erlösmodelle. Am Beispiel einer Sportübertragung zeigte er, wie Live-Signale über Cloud-Backbone-Strukturen fließen und sich Kosten transparent kalkulieren lassen. Mit Verweis auf die kommende AWS-Region in Brandenburg betonte Gnad zudem die wachsende Möglichkeit datenhoheitlicher Cloud-Lösungen in Deutschland.

 

Infrastruktur: Digitale Transformation bei der ARD

Franziska Rumpelt (MDR) stellte das Distribution Media Asset Management System (D-MAM) vor, mit dem die ARD ihre digitale Infrastruktur grundlegend neu aufstellt. Das System soll künftig als zentrale Drehscheibe für Mediathek, Audiothek und sämtliche Online-Angebote fungieren und die bislang föderal organisierte, oft manuelle Verwaltung von Audio- und Videoinhalten ablösen. Rumpel beschrieb das D-MAM als Teil eines größeren Vorhabens zur digitalen Erneuerung, das aus 18 Modulen besteht und nach dem Federführerprinzip von einzelnen Landesrundfunkanstalten oder LRA-Gruppen umgesetzt wird, koordiniert durch die ARD Tech-Unit. Der Ansatz folgt dem Prinzip „Modulith statt Monolith": Statt eines starren Gesamtsystems entstehen flexible, miteinander verbundene Komponenten. Ziel ist es, Redaktionen das plattformübergreifende Publizieren ohne technische Hürden zu ermöglichen, Workflows zu automatisieren und dadurch schnellere Veröffentlichungszeiten, höhere Datenqualität sowie barrierefreie Ausspielung zu gewährleisten. Erste produktive Anwendungsfälle zeigen bereits konkrete Verbesserungen für Arbeitsabläufe und Nutzererleben. Der Zeitplan sieht Meilensteine bis 2026 vor, ein ambitioniertes Projekt, das die historisch gewachsene Komplexität der ARD-Systeme aufbrechen soll.

 

Franziska Rumpelt

 

Auch Stefan Schilk und Christian Hoffmann (MDR) berichteten über die grundlegenden Neuerungen in der ARD, und zwar die Zusammenlegung bislang getrennter Hörfunk- und Fernsehschalträume. Ihr Werkstattbericht zu einem der Kernprojekte der ARD-Strukturreform verdeutlichte, wie tiefgreifend die Reform in Produktion, Organisation und technische Infrastruktur eingreift. Ausgehend von der spezifischen Situation beim MDR zeichneten sie die strategischen, technologischen und organisatorischen Rahmenbedingungen nach, unter denen die Konsolidierung erfolgt. Dabei nannten sie die leitenden Prinzipien des Prozesses und benannten konkrete Herausforderungen – insbesondere im technischen Bereich und bei der personellen Integration unterschiedlicher Arbeitskulturen. Die beiden Referenten legten dar, welche Fortschritte bereits erzielt wurden und an welchen Punkten das Projekt derzeit steht. Der Vortrag schloss mit einem Ausblick auf die kommenden Umsetzungsschritte. Als Werkstattbericht angelegt, gewährte die Präsentation Einblick in einen laufenden Transformationsprozess, der exemplarisch zeigt, wie die ARD-Anstalten strukturelle Vorgaben in operative Realität überführen.

 

KI in der Medienproduktion: Automatisierung und kreative Grenzen

Das Tool AutoCut, eine KI-gestützte Lösung für die Produktion vorn Kurznachrichten (NiFs), die der WDR seit 2021 im Rahmen eines Proof of Concept testet, präsentierte Janis Tarut (WDR). Hintergrund ist der Mangel an Cutter-Ressourcen für digitale Verbreitungswege sowie die zeitliche Verzögerung durch lineare Erstsendungen, wodurch Nachrichtenbeiträge online oft zu spät erscheinen. AutoCut ermöglicht es Autorinnen und Producern ohne Schnittkenntnisse, über eine Webanwendung aus Text und Rohmaterial automatisch fertige Beitragsvorschläge zu generieren. Das in Kooperation mit Television AI entwickelte System bietet synthetische Vertonung, wahlweise mit der Stimme der WDR-Sprecherin Regina Münch oder einer Microsoft-Standardstimme, jeweils mit KI-Kennzeichnung, sowie automatische Kennzeichenverpixelung und Formatkonvertierung von 16:9 auf 9:16. Die redaktionelle Kontrolle bleibt vollständig erhalten: Vor Veröffentlichung erfolgt stets eine inhaltliche Abnahme. Aktuell nutzt bereits die WDR-Sportredaktion das Tool produktiv für sportschau.de, der Newsbereich soll folgen. Tarut benannte als verbleibende Herausforderungen die Schnittdramaturgie und den Umgang mit O-Tönen, wenngleich sich die Agentensteuerung bereits verbessert habe.

Musikalisch wurde es im Vortrag von Hanna Lukashevich und Steffen Holly (Fraunhofer IDMT), die Herausforderungen und Grenzen generativer KI ausloteten und jeweils mit passenden Musikstücken untermalten. Zwar beschleunige die generative KI die Ideenfindung erheblich, drohe aber zugleich traditionelle Arbeitsweisen zu verdrängen. Die beiden Referenten untersuchten zunächst die rechtlichen Unklarheiten zwischen Urheberrecht, EU-AI Act und den Bedingungen für Trainingsdaten. Ein technischer Einblick in die Architektur einer Music-Gen-KI zeigte das Zusammenspiel mehrerer neuronaler Netze, deren Datenfluss, Modelldesign und Prompt Engineering den Output prägen. Daraus leiteten Lukashevich und Holly weitreichende Konsequenzen für Kreativschaffende ab: Geschäftsmodelle, Rollenverständnisse und Wertschöpfungsketten müssen neu gedacht werden, da KI zunehmend als Co-Autorin auftritt. Der Ausblick zeichnete eine Zukunft, in der Kreativtools durch Hyperpersonalisierung Kreativität demokratisieren, allerdings begleitet von neuen ethischen, ökonomischen und regulatorischen Herausforderungen. Die Präsentation verzichtete bewusst auf Grundlagenwissen und fokussierte stattdessen auf die spezifischen Grenzen und strukturellen Auswirkungen generativer Systeme für die Medienproduktion.

 

Hanna Lukashevich und Steffen Holly

 

Authentizität von Inhalten und Fehlerdiagnose in IP-Umgebungen

Kenneth Warmuth (WDR) erläuterte anschließend den Standard C2PA (Coalition for Content Provenance and Authenticity) als Ansatz gegen die globale Herausforderung manipulierter Inhalte. Das offene Verfahren ermöglicht es, Herkunft und Bearbeitungsschritte direkt in Mediendateien zu dokumentieren, ein sogenanntes C2PA-Manifest speichert alle relevanten Nachweise zum Inhalt. Ziel ist es, Manipulationen frühzeitig erkennbar zu machen, bevor sich Desinformation verbreitet. Warmuth betonte jedoch eine wichtige Einschränkung: C2PA gibt keinen Aufschluss über die redaktionelle Validität eines Inhalts, sondern dokumentiert lediglich dessen technische Entstehungsgeschichte. Ab 2026 gelten verbindliche Konformitätsregeln: Zertifikate müssen alle 90 Tage erneuert werden und sind an eine übergeordnete Zertifizierungsstelle (Rooted Authority) gebunden. Der Standard zielt darauf ab, technische Transparenz zu schaffen, die inhaltliche Bewertung bleibt hingegen Aufgabe der Nutzerinnen und Redaktionen.

Hartmut Opfermann (BFE) verdeutlichte, dass die Fehlersuche in IP-basierten Produktionsumgebungen nach ST2110 ein grundlegend anderes Vorgehen erfordert als bei SDI. Während SDI-Signale linear nachverfolgbar waren, müssen bei IP verschiedene Protokollschichten und deren Wechselwirkungen analysiert werden, gewohnte Methoden versagen hier. Opfermann stellte typische Fehlerbilder vor und zeigte systematische Eingrenzungsstrategien auf. Zentral ist dabei der Einsatz von Telemetrie und kontinuierlicher Systemüberwachung: Statt Verbindungen physisch zu unterbrechen, lassen sich relevante Werte direkt aus den Geräten auslesen, oft remote und dauerhaft. Dies erleichtere nicht nur die reaktive Fehlersuche, sondern ermögliche auch präventive Problemberkennung. Opfermann wies auf die Standardisierungsbemühungen der AMWA hin, deren "Best Current Practice" BCP-008 erstmals eine Grundlage für herstellerübergreifendes Status-Monitoring schafft, während viele Anbieter noch auf proprietäre Lösungen setzen.

 

Hartmut Opfermann

 

Balanceakt zwischen Automatisierung und Kontrolle

Auch die Vorträge des zweiten Tages des Thüringer Mediensymposiums verdeutlichten den tiefgreifenden Wandel der Medienproduktion. Technologische Innovationen wie 5G, Cloud-Orchestrierung und KI-Tools versprechen Effizienzgewinne und neue kreative Möglichkeiten. Gleichzeitig erfordern sie strukturelle Anpassungen, neue Kompetenzprofile und transparente Standards. Die ARD-Projekte zeigen exemplarisch, wie komplex die Transformation gewachsener Strukturen ist. Zentral bleibt die Balance zwischen Automatisierung und redaktioneller Kontrolle. Technische Lösungen müssen letztlich Qualität und Authentizität stärken, nicht ersetzen.

 

=> Thüringer Mediensymposium 2025 Tag 1

Das könnte Sie auch interessieren

Gemeinsam mit Spirent entwickelte Testplattform senkt Implementierungszeit für Software-Upgrades....
Test der 4K-Systemkamera HDC-F5500V von Sony beim päpstlichen Weihnachtssegen....
Regionalveranstaltung am 20. November 2025 beim ZDF in Mainz. Mit Präsentation zum Download!...