Software-Defined Telecom – Revolution in der Telekommunikation

 19.06.2020     Provider

Die klassische Telefonie

Die Geschäftsmodelle der Telekommunikationsanbieter änderten sich bisher nur langsam, auch wenn die eingesetzten Technologien einem permanenten Wandel unterlagen. Als ehemals staatliche Unternehmen haben viele große Telekommunikationsanbieter ihren Ursprung in der Festnetztelefonie. Unter dem Einfluss des Internets verliert diese stetig an Bedeutung. Die klassischen Sprachdienste werden weniger genutzt und die Umsätze fallen. Im Jahre 2019 wurden in Deutschland erstmals mehr Gesprächsminuten über das Internet (WhatsApp, Facetime etc.) geführt als über das Festnetz. Die Bedeutung der mobilfunkbasierten Telefonie bleibt jedoch erhalten.

 

Sprachminuten DeutschlandBild 1: Bedeutung der Telefonie für Telekommunikationsanbieter

 

Bereit für neue Services

Auf diese Veränderungen müssen die Telekommunikationsanbieter reagieren und sich neue Dienste und Märkte erschließen. Dabei kann man davon ausgehen, dass es ein zum Sprachdienst vergleichbar lukratives Produkt, das vielen Konzernen über Jahrzehnte gute Verdienstmöglichkeiten bot, nicht mehr geben wird. Stattdessen werden stetig neue Services aufpoppen, die für eine beschränkte Zeit gute Einnahmen erwarten lassen. Daher muss die künftige Infrastruktur so aufgebaut sein, dass sich neue Dienste sehr schnell implementieren lassen. Aktuell sehen viele Telekommunikationsanbieter im Internet of Things (IoT), dem Edge Computing sowie bei Streaming und Gaming ihre Zukunftspotenziale.

 
 

IoT LösungBild 2: Aufbau einer IoT-Lösung - Das Geschäft der Zukunft

 

Erste Integrationsansätze der TK-Plattformen

In der Vergangenheit waren Telekommunikationsplattformen meist sehr dienstspezifisch aufgebaut, auch wenn man über Jahrzehnte diesbezüglich Optimierungen vornahm. Diese lassen sich in Deutschland z. B. bis auf das Jahr 1975 zurückverfolgen, als das integrierte Text- und Datennetz (IDN) eingeführt wurde, das erste nicht dienstspezifische Fernmeldenetz der Deutschen Bundespost.

Auch die Einführung von ISDN (Integrated Services Digital Network), welches als Revolution des Marktes angesehen wurde und Sprache, Text, Bild und Daten vereinen sollte, hatte genau dieses Ziel. Diesen Ansätzen gemeinsam ist die Tatsache, dass man stets eine Provider-Technologie eingeführt hat, die möglichst viele Dienste transportieren konnte. Die Lösung kam typischerweise von einem der wenigen weltweit tätigen Telekommunikationsausrüster, der mittels entsprechender Appliances, also spezialisierter Hardware, die hohen Verfügbarkeits-, Sicherheits- und Skalierungsanforderungen abdecken konnte.

Wurden neue Leistungsmerkmale erforderlich, so hat man diese meist durch ergänzende Hardware-Plattformen bereitgestellt, welche das gemeinsame Transportnetz des Service Providers mitnutzten. Als Folge davon kämpfen die Telekommunikationsanbieter mit einer Vielzahl an Hardware-Plattformen, welche mangels Synergieeffekten hohe Bereitstellungs- und Betriebskosten verursachen und die auch wenig flexibel sind. Änderungen sind somit meist mit hohen Kosten verbunden.

 

Konvergentes Netz

Bild 3: Streben nach einer Plattform für alle Dienste


 

Die Revolution der IT Services

In den letzten zwei Jahrzehnten hat sich in der IT die Bereitstellung von Anwendungen und Diensten komplett verändert. Nach der Speicher- und Netzwerkvirtualisierung sorgte insbesondere die Servervirtualisierung für neue Architekturen und Bereitstellungskonzepte in den Rechenzentren.

Die durch die Virtualisierung erreichte strikte Trennung von Hard- und Software schaffte viele neue Möglichkeiten, die weit über das Anlegen von Snapshots oder das Migrieren virtueller Maschinen hinausgingen. Insbesondere das hohe Maß an Automatisierung, welches die Virtualisierung mit sich bringt, begeisterte die Administratoren.

Microservices statt monolithischer Software

Die Tech-Konzerne wie Google, Netflix & Co. erkannten als erstes weiteres Potenzial und begannen damit, moderne Anwendungen zu gestalten, die nicht mehr aus nur einer Codebasis bestehen (monolithische Anwendung). Sie erschufen Applikationen, die aus vielen kleinen unabhängigen und spezialisierten Anwendungsteilen – den so genannten Microservices – aufgebaut sind.

Die Gesamtanwendung besteht dann oft aus mehreren hundert Microservices, deren Zusammenspiel so hoch automatisiert ist und zugleich so wenig zusätzliche Performance beansprucht, dass die dadurch gewonnen Vorteile die Aufwände deutlich übersteigen. Dabei sollte ein Microservice nicht größer werden, als dass er von einem agilen Entwicklungsteam – welches in der Regel aus 3 bis 9 Personen besteht – erstellt, betrieben und weiterentwickelt werden kann.

Die Tools, die zur Bereitstellung und Administration einer Microservices-Landschaft benötigt werden, wie Container-Images, Containervirtualisierung, Orchestrierung, Software-defined-Networking etc., stammen häufig aus der Open-Source-Welt. Daran, dass diese Art der Anwendungen auch als Cloud-native Lösungen bezeichnet werden, lässt sich leicht erkennen, dass sie aufgrund ihres Aufbaus besonders gut auf modernen Cloud-Infrastrukturen zu betreiben sind.

 

 

 

Microservices

• Cloud-ready   ⇒ Optimal für den Einsatz in Cloud-Umgebungen
• Veränderbarkeit   ⇒ Einfache Weiterentwicklung und Wartung
• Technologieunabhängigkeit   ⇒ Einsatz unterschiedlichster Plattformen, Programmiersprachen und Unterstützungsdienste
• Kurze Releasezyklen   ⇒ App-Entwicklung in kleinen agilen Teams
• Austauschbarkeit   ⇒ Erneuerung, Verbesserung
• Technologieerneuerung   ⇒ Einsatz neuer Programmiersprachen in Häppchen
• Bessere Skalierung   ⇒ Unabhängige Skalierbarkeit einzelner Prozesse
• Continuous Delivery   ⇒ Bereitstellung unterschiedlicher Versionen
• Security   ⇒ Schützen von Einzelprozessen

 

Bild 4: Microservice-basierte Anwendungen und ihre Vorteile

 

Die Entwicklung auf diesen Gebieten geht rasend schnell voran. Sie hat bereits einen Reifegrad erreicht, der den Einsatz auch für Telekommunikationsanbieter ratsam erscheinen lässt. Letztere träumen gerade davon, bald nur noch eine einzige Hardware-Plattform zu haben, auf der sie alle ihre Dienste mittels Open Source Software-Lösungen unterschiedlichster Hersteller bereitstellen können. Neben dem Transportnetz, welches vor allem auf Basis von Glasfasern und optischen Übertragungstechnologien sehr hohe Bandbreiten ermöglichen soll, werden Cloud-Plattformen mit Standard Server Hardware aufgebaut. Aus diesen Cloud-Rechenzentren heraus sollen die Dienste bereitgestellt werden.

Edge Computing für mehr Speed

Neben den großen zentralen Rechenzentren wird man auch dicht beim Kunden mit Standard Servern Rechenleistung für das so genannte Edge Computing bereitstellen. Somit lassen sich die Latenzzeiten (Laufzeiten eines Signals) deutlich verringern und das Netzwerk des Telekommunikationsanbieters wird entlastet. Des Weiteren besteht der Trend, auch die Netzabschlussgeräte mittels klassischer Server Hardware anstelle von speziellen Appliances wie Routern oder Firewalls zu realisieren.

Die Server Hardware besitzt heutzutage ausreichend Performance für die Datenweiterleitung, so dass in der Regel kein merklicher Unterschied zu optimierten Appliances besteht. Zugleich lassen sich auf Server Hardware via Software fast beliebige Dienste wie Routing, Firewalling, WAN-Beschleunigung, SD-WAN etc. abbilden. Dazu kommt, dass man nicht mehr von nur einem einzigen Hersteller abhängig ist.

Netzwerk-Disaggregation

Die Entwicklungen in den Bereichen Software-Defined Networking und Network Functions Virtualization lassen sich so in vollem Maße nutzen. Der durchgängige Einsatz des gleichen Virtualisierungs-Layers ermöglicht dabei die vollständige Trennung der Hardware- von den Softwarekomponenten – vom Rechenzentrum bis zum Customer Premise Equipment (CPE), was gerne als Netzwerk-Disaggregation bezeichnet wird.

 

Software Defined TelecomBild 5: Netzwerk-Disaggregation: Trennung von Hard- und Software-Ebene
 


Die hohe Automatisierung, die sich dadurch erreichen lässt, wird dafür sorgen, dass sich die Betriebsaufwände und Betriebskosten deutlich reduzieren lassen. Dies bedeutet auch, dass die Betriebsmannschaften bei den Telekommunikationsanbietern deutlich kleiner werden, während die Zahl der Software-Entwickler und Virtualisierungsexperten steigen wird.

 

ONF

Bild 6: Vorteile des neuen Ansatzes nach der Open Networking Foundation (ONF)


 

O-RAN Alliance – TK meets Open Source

Die architekturelle Veränderung des Aufbaus der Netzwerke von Telekommunikationsanbietern wirkt sich auf das komplette Ecosystem aus. Plötzlich stehen zum Partnering nicht mehr nur die großen Telekommunikationsanbieter bereit. Stattdessen öffnet sich den Telekommunikationsanbietern die große Welt der Software-Entwicklung, insbesondere im Open-Source-Umfeld.

Dies erfordert auch komplett neue Organisationsstrukturen und Prozesse. Es wird versucht, das Zusammenspiel der Lösungen verschiedener Hersteller über entsprechende Standards bereitzustellen. Die O-RAN Alliance, in der zahlreiche führende Mobilfunkanbieter vertreten sind, hat sich zum Ziel gesetzt, künftige Radio Access Networks (RANs) auf einem Fundament aus virtualisierten Netzwerkelementen, White-Box-Hardware und standardisierten Schnittstellen aufzubauen.

Intelligenz und Offenheit sollen als Kernprinzipien von O-RANs berücksichtigt werden. Ziel ist es, ein Ökosystem innovativer neuer Produkte zu schaffen, welche Grundlage für herstellerunabhängige, interoperable und autonome RANs ist. Somit können die eingesetzten Komponenten Basisstation, Software und Antennen von verschiedenen Anbietern stammen, was neben mehr Innovation auch geringere Kosten verspricht. Dabei sucht man den engen Schulterschluss mit der Linux Foundation, was sich in der Gründung der O-RAN Software Community (SC) ausdrückt.

 

Open RAN
Bild 7: Flexibilität beim Aufbau von Radio-Access-Networks (RAN)

 

Die Open Network Foundation (ONF)

Die Ziele der O-RAN Alliance decken sich mit denen der Open Networking Foundation (ONF), wobei die ONF über den Mobilfunk hinausgeht und auch Themen wie Breitband, Edge Cloud oder SDN-Projekte adressiert. Ein Ansatz, der dort für den herstellerübergreifenden disaggregated Breitband-Access Service beschrieben wird, ist Virtual OLT Hardware Abstraction (VOLTHA)™. VOLTHA bietet derzeit ein gemeinsames, herstellerunabhängiges GPON-Kontroll- und Managementsystem für eine Reihe von White-Box- und herstellerspezifischen PON-Hardware-Geräten an.

Nimmt man diesen Ansatz genauer unter die Lupe, wird sehr schnell klar, dass mehr und mehr moderne IT genutzt wird, um die Herausforderungen der Telekommunikationsanbieter wie Automatisierung, Agilität, Skalierbarkeit und Kosteneffizienz zu lösen.

Microservices, Container-Virtualisierung wie Docker und Orchestrierung mit Tools wie Kubernetes spielen hier oftmals eine wichtige Rolle. Zudem werden Technologien wie Machine Learning und Big Data immer wichtiger, um die Flut an Informationen schnell und zuverlässig analysieren und in Business Intelligence umsetzen zu können. Für die zentrale Steuerung wird die Open Network Operating System (ONOS) Plattform vorgeschlagen.

 

ONOS

Bild 8: Die Open Source Plattform ONOS


 
Andere Organisationen in diesem Umfeld gehen einen sehr ähnlichen Weg. So schlägt die 3GPP eine Service-Based Architecture (SBA) für 5G vor, welche auf vergleichbaren Konzepten beruht. Das Broadband Forum treibt das Projekt Broadband Network Gateway (BNG) Disaggregation voran und adressiert damit das Problem, die Skalierbarkeit der Steuerebene (Control) von der Skalierbarkeit der Benutzerebene zu trennen. Das BNG ist ein zentrales Element in modernen Netzwerken der Telekommunikationsanbieter, die den Datenverkehr der Endbenutzer ins Kernnetzwerk leiten. Da immer mehr bandbreitenhungrige Anwendungen wie z. B. Video und Gaming genutzt werden, müssen auch hier neue Wege beschritten werden.

Neue Technik revolutioniert die Arbeitsmethoden

Diese technischen Neuerungen gehen mit enormen organisatorischen Veränderungen einher. Wurde früher in Projekten langfristig nach dem Wasserfall-Prinzip gearbeitet, so findet man sich nun in der DevOps-Welt wieder, wo Continuous Integration und Continuous Delivery (CI/CD) den Alltag bestimmen. Statt Heerscharen von Netzwerkern werden nun vor allem moderne Anwendungsentwickler benötigt, welche die von ihnen entwickelten Dienste auf einer gemeinsamen Plattform anbieten.

 

Scrum Methode

Bild 9: Agiles Arbeiten mit Scrum


 
Die damit einhergehende Abschaffung von Spezialplattformen ändert wiederum die kompletten Planungs-, Beschaffungs-, Roll-out und Betriebsprozesse, was sich natürlich auch auf Themen wie Partnering, Staffing oder Budget-Planung auswirkt. Der Schwenk vom klassischen Telekommunikationsanbieter zur Software-Defined Telecom hat also nicht nur einen technischen Wandel zur Folge, sondern auch einen organisatorischen.

Mein Provider erfindet sich neu

Das Unternehmen erfindet sich quasi neu, auch wenn in Richtung Kunde noch die gleichen Geschäftsmodelle angeboten werden – nur eben etwas flexibler, schneller und kostengünstiger. Der Nutzer wird zunächst kaum erkennen, dass sich sein Telekommunikationsanbieter gerade vollkommen neu aufgestellt hat!

Das könnte Sie auch interessieren

Software-Defined Telecom – Cloudifizierung, Virtualisierung und Automation – unser Kurs zum Thema!

Statistik der Woche – der deutsche Markt für Telekommunikation

NG-SDN der Open Networking Foundation

Open Network Operating System (ONOS)