Der Blätterkatalog benötigt Javascript.
Bitte aktivieren Sie Javascript in Ihren Browser-Einstellungen.
The Blätterkatalog requires Javascript.
Please activate Javascript in your browser settings.
www lanline de LANline 2 2022 15 Schwerpunkt Messtechnik und Monitoring Die Gründe für Latenz können vielfältig sein Bild Neox Networks gel den Hauptgeschäftssitz umgehen ist es nicht verwunderlich dass Latenz immer schwerer zu erkennen und zu beheben ist Ein Opfer der Latenz ist zum Beispiel die VoIP-Anrufqualität die sich in unnatürlichen Verzögerungen bei Telefongesprächen manifestiert Ein weiterer Bereich in dem die Latenz ihren Tribut fordert ist die Datenübertragungsgeschwindigkeit Dies kann zu einer Reihe von Problemen führen insbesondere wenn Organisationen große Dateien von einem Ort zu einem anderen übertragen oder kopieren Auch bei großen Datentransaktionen wie einer Datenbankreplikation kann die Latenz ein Problem darstellen da mehr Zeit für die Durchführung von Routineaktivitäten erforderlich ist Auswirkungen von dezentralisierten Netzwerken und SaaS Bei vielen standortübergreifenden Verbindungen zum Internet ergibt es Sinn dass die Leistungsüberwachung von Unternehmensnetzwerken aus dem Datacenter heraus erfolgt Ein Ansatz besteht darin Tools zu finden die die Verbindungen an allen Remote-Standorten überwachen In den meisten Unternehmen sind fast täglich Anwendungen wie Outlook Word und Excel im Einsatz Bei der Verwendung von Office 365 sind diese Anwendungen wahrscheinlich so konfiguriert dass sie sich mit Azure verbinden und nicht mit dem Unternehmens-RZ Wenn das IT-Team die Netzwerkleistung nicht direkt in der Zweigstelle überwacht verliert es die Nutzererfahrung an diesem Standort vollständig aus den Augen Wenn Datenverkehr von SaaS-Anbietern und anderen Cloudbasierten Speicheranbietern von und zu einem Unternehmen gelangt kann es beispielsweise durch Jitter oder geringe Rechengeschwindigkeit zu Beeinträchtigungen kommen Die entstehende Latenz kann für die Beteiligten eine ernsthafte Einschränkung darstellen Die Zusammenarbeit mit Anbietern die sich in der Nähe der benötigten Daten befinden ist eine Möglichkeit um potenzielle Probleme aufgrund von Entfernungen zu minimieren Aber selbst in einem parallelen Prozess haben Unternehmen möglicherweise Tausende oder Millionen von Verbindungen die versuchen gleichzeitig „durchzukommen“ Dies führt zwar zu einer eher geringen Verzögerung jedoch summieren sie sich auf und vergrößern sich über weite Distanzen Früher war es so dass IT-Teams klare Netzwerkpfade zwischen ihrem Unternehmen und Rechenzentrum definieren und überwachen konnten Sie konnten auf internen Systemen ausgeführte Anwendungen steuern und regulieren da alle Daten lokal installiert und gehostet waren ohne auf die Cloud zuzugreifen Dieses Kontrollniveau ermöglichte einen besseren Einblick in Probleme wie Latenz und erlaubte es eventuell auftretende Probleme schnell zu diagnostizieren und zu beheben Die Verbreitung von SaaS-Anwendungen und Cloud-Diensten hat die Leistungsdiagnostik von Netzwerken allerdings so kompliziert gemacht dass neue Maßnahmen erforderlich sind Ursachen für diesen Trend sind die zusätzliche Komplexität Distanz und mangelnde Sichtbarkeit Wenn ein Unternehmen seine Daten oder Anwendungen an einen externen Anbieter überträgt anstatt sie lokal zu hosten fügt dies effektiv eine dritte Partei in den Mix der Netzwerkvariablen ein Jeder dieser Punkte führt zu einer potenziellen Schwachstelle die sich auf die Netzwerkleistung auswirken kann Diese Dienste sind zwar größtenteils stabil und zuverlässig aber Ausfälle bei einem oder mehreren Diensten kommen selbst bei den Branchengrößten vor und können sich auf Millionen von Benutzer auswirken Tatsache ist dass es viele Variablen in einer Netzwerklandschaft gibt die die IT-Teams der Unternehmen nicht mehr kontrollieren können Eine Möglichkeit mit der Unternehmen versuchen die Leistung sicherzustellen besteht darin einen dedizierten MPLS-Tunnel zu nutzen der zur eigenen Unternehmenszentrale führt Aber dieser Ansatz ist teuer und die meisten Unternehmen nutzen diese Methode nicht für ihre Zweigstellen Bis zu einem gewissen Grad lässt sich die Latenz durch die Verwendung traditioneller Methoden zur Überwachung der Netzwerkleistung mindern aber eine Latenz ist naturgemäß nicht vorhersehbar und schwer zu verwalten Wie sieht es hier mit dem Einsatz künstlicher Intelligenz aus? Es gibt zahlreiche Beispiele von Techniken die große Fortschritte machen indem sie eine Form des maschinellen Lernens verwenden Der Punkt an dem maschinelle Lernverfahren die Latenz signifikant minimieren können ist jedoch noch nicht erreicht Es ist aktuell nicht möglich vorherzusagen wann ein bestimmter Switch oder Router mit Datenverkehr überlastet sein wird Das Gerät kann einen plötzlichen Daten-Burst erleben der nur eine Verzögerung von einer Millisekunde oder zehn Millisekunden verursacht Sobald diese Geräte überlastet sind kann KI-Technik