Zum Inhalt

ES Networks Beiträge

VDSL: Der Internet-Turbo

Foto: pixabay.com
Foto: pixabay.com

Der „Very High Speed Digital Subscriber Line“-Standard (kurz: VDSL) ist eine Übertragungstechnik, die im Festnetz einen Breitband-Internetzugang mit besonders hohen Übertragungsraten ermöglicht. Um korrekt zu sein, ist die aktuelle Version das VDSL2 (G993.2); der erste VDSL-Standard (G.993.1) konnte sich in Deutschland nie durchsetzen. Daher meinen wir auch VDSL2, wenn die Rede von VDSL ist. Zur Funktionsweise und seinen Eigenschaften erfahren Sie im folgenden Artikel mehr.

 

VDSL

Besonders interessant für Netzbetreiber ist VDSL durch seine Abwärtskompatibilität, da bestehende ADSL2 und ADSL2+ Leitungen weiter genutzt werden können und so eine relativ aufwandsarme Aufrüstung möglich ist. Grundsätzliche Voraussetzung für den VDSL-Betrieb ist ein sogenanntes Hybridnetz. Dieses besteht aus Glasfaser- und Kupferleitungen. Durch die Kombination dieser beiden Leitungstypen können bis zum Anschluss des Abnehmers sehr hohe Datenraten erreicht werden. Angestrebt werden zwischen 50 und 100 MBit/s, jedoch muss erwähnt werden, dass diese Werte von Anbieter, Leitung und Anschluss abhängig sind und variieren können.

Vor allem will die VDSL-Technik der TV-Kabelmodemtechnik den Rang ablaufen. In Bezug auf den Downstream kann die TV-Kabelmodemtechnik allerdings mit bis zu 200 MBit/s auftrumpfen und ist somit deutlich überlegen. Auf Seiten des Upstreams hingegen sieht es schon etwas anders aus: während über das TV-Kabel derzeit maximal 12 MBit/s machbar sind, soll unter Verwendung von VDSL mehr möglich sein. Im Zeitalter von Videostreams und Online-Liveübertragungen sicherlich ein Vorteil.

Zusätzliche Informationen zum VDSL-Standard liefert dieses Video von DSLWEB:

Weltweit setzen mittlerweile immer mehr Anbieter VDSL ein (AT&T, Swisscom, France Telekom, Dt. Telekom, etc.). In Deutschland wollen neben der Deutschen Telekom auch weitere Anbieter nachziehen und machen sich dafür das sogenannte VDSL-Vectoring zunutze. Worum es sich hierbei genau handelt, lesen Sie im nächsten Abschnitt.

VDSL-Vectoring

Das VDSL-Vectoring ist eine Erweiterung des regulären VDSL. Unter Verwendung dieser Technik lassen sich die Downstream-Übertragungsraten verdoppeln. So wäre es möglich eine 50-MBit-Leitung auf eine 100-MBit-Leitung aufzuwerten. Um dies möglich zu machen, müssen alle Anschlüsse einer Signalaufbereitungsanlage zulaufen, welche sich um die Verdopplung der Datenrate kümmert. Damit ein VDSL-Vectoring-Ausbau vorgenommen werden kann, müssen gewisse Voraussetzungen erfüllt werden, wie beispielsweise die korrekte Verkabelung sowie im Kabelverzweiger enthaltene Outdoor-SLAMs. In 2015 entschied die Bundesnetzagentur, dass das bestehende Telefonnetz zu einem Festnetz mit VDSL-Vectoring aufgerüstet werden soll. Hierzu müssen einige Änderungen am Festnetz vorgenommen werden, was einen gewissen Zeit- und Kostenaufwand mit sich bringt. Ob es in Ihrer Region bereits VDSL-Vectoring unterstützt wird, erfahren Sie bei der Bundesnetzagentur oder bei direkt bei den Telekommunikationsanbietern.

IT-Netzwerke im Umbruch – das sind die künftigen Trends

Foto: pixabay.com
Foto: pixabay.com

Im Laufe der Digitalisierung gibt es kaum Stagnation, im Gegenteil: kaum eine Branche entwickelt sich so schnell und stetig weiter wie die Tech-Industrie. Aktuell besonders betroffen: die Netzwerktechnik. Welche Trends die nähere Zukunft prägen werden und mit welchen Herausforderungen diese verbunden sind, lesen Sie in diesem Artikel.

 

Netzwerktechnologien in Unternehmen

Die bereits angesprochene Digitalisierung bringt neben zahlreichen Neuerungen auch neue Herausforderungen mit sich. Allen voran ist das ständig wachsende Datenaufkommen, dass von Peer to Peer geschubst werden will und oftmals die Grenzen des Machbaren aufzeigen. Denn neben dem eigentlichen Transport der Datenmengen müssen Sicherheit und Geschwindigkeit gewährleistet werden. Hier stoßen einige Netzwerke und deren Administratoren häufig an ihre Grenzen.

Hier helfen neben höheren Bandbreiten auch Technologien wie SDN und Fabrics, um den Anforderungen des Tagesgeschäfts gerecht zu werden. Neben externen Anfragen sind es vor allem interne Anfragen (zwischen einzelnen Anwendungen), die hohe Datenströme verursachen. Daher werden vielerorts bereits interne 100 Gigabit-Leistungen genutzt. Durch den entsprechenden Kostenfaktor sind derart gewaltige Bandbreiten nicht für jedes Business passend und rentabel. Die Hersteller reagieren und darauf mit flexibleren Lösungen, die neben den bekannten 10- und 40 Gigabit-Leitungen künftig auch 25- und 50 Gigabit-Leitungen zur Verfügung stellen wollen.

Ein weiterer Trend zeichnet sich im Bereich der Organisationsstrukturen ab: während bisher mehr oder minder streng nach Server, Storage und Netzwerk gesplittet wurde, wird bereits immer mehr Arbeit zusammengelegt. Die separaten Technologien wachsen immer weiter zusammen und sorgen so langfristig für mehr Stabilität, Flexibilität und Geschwindigkeit.

 

Virtualisierung und Automatisierung

Die beiden großen Begriffe im aktuellen Wandel der Netzwerktechnologie sind Virtualisierung und Automatisierung. Wirklich neu sind beide Maßnahmen nicht, aber das Neuerfinden des Rades scheint auch nicht erforderlich. Viel mehr geht es darum, bestehende Möglichkeiten passgenauer auf anwendungsspezifische Applikationen umzulegen. So können nachhaltig Ressourcen geschont werden, was auch der Vermögensbilanz zugute kommt. Investitions- und Betriebskosten lassen sich senken, bei gleichzeitig steigenden Kapazitäten. Mit der Multirate-Technologie kann bestehende Hardware weiter genutzt und gleichzeitig in ihrer Performance gesteigert werden. So wird ein einfacher Netzwerk-Switch zum Multitalent, das mit verschiedenen Anbindungen zurecht kommt und völlig neue Möglichkeiten bringt. Der wirkliche Trend geht also immer weiter in die Richtung, kreativ zu denken und vorhandene Hardware neu zu interpretieren um mit ihr zusammen neue Performance-Maßstäbe zu setzen.

 

Netzwerkkomponenten im Detail

Foto: pixabay.com
Foto: pixabay.com

Um Daten in einem Netzwerk zu übertragen, bzw. um überhaupt ein Netzwerk zu erstellen, bedarf es einiger Hardwarekomponenten. Worin sie sich unterscheiden und was beachtet werden muss, wird in diesem Artikel näher erläutert.

 

Die Basics

Kein Datenverkehr ohne die fundamentalen Bestandteile eines Netzwerks. Sie lauten Router, Switch und Hub. Je nach Anwendungsfall und Bedarf kommen natürlich auch andere Komponenten wie Bridges, Accesspoints, Repeater usw. zum Einsatz. Wir beschränken und an dieser Stelle auf das Wesentliche.

Router, Repeater, Switch und Hub haben einiges gemein, denn sie alle sind wichtige Knotenpunkte, an denen der Datenverkehr aufläuft. Sie leiten die Datenpakete weiter, nutzen hierfür jedoch unterschiedliche Methoden.

Router, Switch und Hub

Der Router: Einfach ausgedrückt ist er der Netzwerk-Türsteher. Er leitet Daten weiter oder hält sie von selbigem ab. Sollte ersteres der Fall sein, gelangen die Daten entweder direkt in ein verknüpftes Netzwerk oder sie werden zu einem weiteren Router geschickt. Unterschieden wird zwischen Hardware- und Softwareroutern. Die erstgenannten sind auf den Dauerbetrieb ausgelegt und so optimiert, dass sie Ausfälle weitestgehend ausschließen können um ein konstantes Routing zu gewährleisten. Software-Router hingegen sind in Wirklichkeit Server (oder auch Workstations), welche mittels entsprechender Software zum Router „gemacht“ werden. Wirklich sinnvoll sind diese jedoch aufgrund ihres hohen Stromverbrauchs nur für Unternehmen.

Der Switch: Er kann problemlos in bestehende Netzwerke eingebunden werden und bietet bei deutlich niedrigeren Kosten eine gute Möglichkeit zur Netzwerkerweiterung. Ein weiterer Vorteil ist der, dass ein Switch in der Regel nicht zusätzlich konfiguriert werden muss („Plug&Play“). Switches leiten Datenpakete nahezu verzögerungsfrei weiter, abhängig davon, ob eine CRC-Prüfung stattfinden soll oder nicht. Sie kann auch an anderer Stelle vorgenommen werden und sorgt für einen schnelleren Datendurchsatz am Switch selbst. Üblicherweise können Switches ideal transparent in ein bestehendes Netzwerk integriert werden und sind somit quasi unsichtbar. Einziges Manko: wenn Datenpakete an andere Segmente des Netzwerks übermittelt werden, können Verzögerungen auftreten. Diese können jedoch unter Zuhilfenahme von Protokollen wie TCP kompensiert werden. Rein theoretisch können unbegrenzt viele Switches miteinander verbunden werden; lediglich richtet sich die maximale Knotenzahl nach dem kleinsten eingebundenen Gerät. Wird diese Anzahl überschritten, bricht die Verbindung ein.

Hubs: Sie arbeiten ähnlich der Switches und verteilen Datenpakete innerhalb eines Netzwerkes. Der wesentliche Unterschied liegt hierbei in der Art der Verteilung: ein Hub schickt die Daten immer an alle angeschlossenen Geräte und nutzt dabei alle Ports, während beim Switch einzelne Ports selektiert werden können. Begründet durch seine „einfache“ Arbeitsweise können allerdings andere Stationen im Netzwerk nur senden, während der Hub es gerade nicht tut. Zusätzlich wirken Hubs wie kleine Signalverstärker und sorgen somit indirekt für eine stabile Leitung.

Hardwareentwicklung: Technologieknoten

Foto: pixabay.com
Foto: pixabay.com

Der Begriff Technologieknoten bezeichnet in der Halbleitertechnik eine wahre Revolution, nämlich die kleinste fotolithografisch herstellbare Strukturgröße. Diese hat sich innerhalb der letzten Jahrzehnte stark verändert. Die Entwicklung der Technologieknoten und ihre Hintergründe wird im folgenden Artikel näher behandelt.

 

Hintergründe

Die Benennung der jeweiligen Technologieknotengeneration (Bsp.: 180nm) bezieht sich auf den Half Pitch von DRAM-Bauelementen wie beispielsweise dem Abstand zweier Leiterbahnen. Diese Angabe beschreibt jedoch nicht direkt die kleinste fotolithografische Struktur, da es sich lediglich um den halben Abstand handelt (daher auch „Half Pitch“). So kann die Gatelänge eines 65nm-Prozeses auch kleiner sein als 65nm und lässt keine unmittelbaren Rückschlüsse auf die tatsächliche Strukturgröße zu.

Des Weiteren ist zu beachten, dass die Technik der Hersteller grundlegend unterschiedlich ausfallen kann und so nicht untereinander vergleichbar ist. Beispiele hierfür sind die Materialwahl sowie die High-k+Metal-Gate-Technik. Ebenfalls nutzt nicht jeder Hersteller die Benennung seiner Produkte mittels Technologieknoten-Kennung, da es nicht zwingend vorgeschrieben ist.

Von 180nm zu 14nm in 15 Jahren

Im Jahr 1999 wurde die erste nm-Struktur eingeführt. Von nun an waren 180nm das Maß der Dinge. Die wesentliche Neuerung bestand in der Materialwahl (Kupfer statt Aluminium), womit auch einige zusätzliche Prozessschritte notwendig wurden, um die notwendigen Rahmenbedingungen zu schaffen. Innerhalb der folgenden zehn Jahre war es möglich, die Fertigungsprozesse bis auf die 45nm-Größe zu schrumpfen. Die neu eingeführte High-k+Metal-Gate-Technik ist seither kaum noch wegzudenken. Sie ermöglicht eine deutlich kleinere Bauweise und völlig neue Anwendungsbereiche der Halbleitertechnik. Zudem konnten Leckströme durch Tunneleffekte am Transistor deutlich reduziert werden.

Die kurze Zeit später folgende 32nm-Technik kombinierte die Immersionslithografie mit dem Double-Patterning-Verfahren. Zuvor wurden zwar schon beide Verfahren genutzt, jedoch mussten sie nun beide zusammen eingesetzt werden, um eine prozesssichere Fertigung zu gewährleisten. Die Paradebeispiele für 32nm-Prozessoren sind Intels i3- und i5-CPUs.

Spätestens nach 2010 wurde deutlich, wie schnell nun die Weiterentwicklung der Technologieknoten vorangeschritten war und dass ihre Wachstumsgeschwindigkeit exponentiell zunahm. Innerhalb der folgenden vier Jahre wurde eine weitere Verkleinerung der Strukturgröße auf 14nm möglich (Intel Broadwell). Der Hersteller Intel konnte sich in den vergangenen Jahrzehnten deutlich von der Konkurrenz absetzen und gilt heute als Marktführer.

Ein großer Schritt war die Umstellung vom Planarprozess auf den Einsatz von Multigate-Feldeffekttransistoren. So konnten Leckströme weiter minimiert werden, wodurch derart kleine Strukturgrößen erst ermöglicht wurden.

Für den Alltag bedeuten die enormen Änderungen in der Halbleitertechnik vor allem, dass immer mehr Rechenleistung in immer kleiner werdenden Formfaktoren angeboten werden kann, was einen gewaltigen Facettenreichtum bzgl. der Anwendungsgebiete mit sich bringt. Viele Experten sind sich sicher, dass eine weitere Verkleinerung der Strukturgrößen kaum mehr möglich ist. Ob und wie sich die Technologieknoten weiter verändern, werden die nächsten Jahre zeigen.

 

 

Internet of Things

01 - IoT
Foto: pixabay.com 

Das Internet der Dinge (IoT) hat innerhalb der letzten Jahre für jede Menge Trubel und Wachstum gesorgt. Durch die Vernetzung von Alltagsgegenständen ergaben sich völlig neue Anwendungsgebiete von Netzwerktechnologien und sorgten für glückliche Verbraucher und volle Taschen bei den Herstellern.

 

Von Fitness, Ressourcenverwaltung, Organisation und Co.

Überall findet das IoT Anwendung, egal ob im Fitnessarmband des Freizeitsportlers, der Ressourcenverwaltung von Kommunen und Ländern sowie unzähligen Geräten, die bei der generellen Organisation des Alltags behilflich sind.

Das Ziel des Internets der Dinge ist es, die Informationslücke zwischen der realen und virtuellen Welt zu minimieren. Diese Informationslücke besteht, weil in der realen Welt Dinge tatsächlich einen bestimmten Zustand haben (z. B. „Luft ist kalt“, „Druckertoner ist voll“), dieser Zustand im Internet jedoch nicht bekannt ist. Ziel ist also, dass viele reale Dinge die eigenen Zustandsinformationen für die Weiterverarbeitung im Netzwerk zur Verfügung stellen.

Stets im Fokus sind Transparenz und Effizienz. Alles zu jeder Zeit und von jedem Ort aus managen zu können, von der Heizung bis zur Eieruhr, das verspricht das IoT und der Verbraucher liebt es. Die großen Tech-Unternehmen zeigten wahre Kreativität und brachten allerhand neuer Hardware auf den Markt und kombinierten diese mit passenden Apps und Anwendungen. Eine wahre Goldgrube mit nach wie vor jeder Menge Potential.

Ein Statement zum Internet of Things aus der Sicht des Tech-Riesen IBM finden Sie in diesem Video:

Das Internet der Dinge in der Industrie

Auch Industriekonzerne wie Bosch, Siemens und viele weitere machen sich die Neuerungen zunutze. So werden Produktionsanlagen und Fertigungsbänder intelligent miteinander vernetzt, besser aufeinander abgestimmt und perfekt überwachbar gemacht. Genannt wird diese Entwicklung Industrie 4.0 und ist bereits ein absoluter Zukunftstrend. Wer es sich leisten kann, macht es auch, denn die damit einhergehende Prozessoptimierung sowie verbesserte Automatisierungsmöglichkeiten versprechen hohe Effizienzgewinne und somit langfristige Kostenersparnisse. So ist es nur nachvollziehbar, dass immer mehr Unternehmen auf den IoT-Zug aufspringen und ein Stück vom Kuchen abhaben wollen. Denn wer jetzt investiert, sichert sich neben Effizienzgewinnen auch einen wichtigen Schritt in Richtung Zukunftssicherheit, wobei der Begriff heutzutage sicher mit Vorsicht zu genießen ist.

Als Resümee kann von einer sehr spannenden Technologie gesprochen werden, deren Potential noch nicht vollends ausgeschöpft ist und viele Möglichkeiten für alle Bereiche des täglichen Lebens bereithält.