Juniper AI-Native JETZT... oder SPÄTER?

von | Mrz 12, 2024 | Blog, Veranstaltungen

Falls Sie es verpasst haben, Juniper hat letzte Woche ein Web-Event mit dem Titel AI-Native NOW. Ich dachte, es könnte Juniper als Igel-Konkurrenten für den Besitz der KI-Netzwerk-Kategorie einführen. Es stellt sich heraus, dass wir uns keine Sorgen um Juniper als KI-Netzwerk-Konkurrenten machen müssen, zumindest vorerst nicht.

Es war eine gut inszenierte Veranstaltung, aber die Neuigkeiten bestanden hauptsächlich darin, dass Juniper bei den KI-Ops-Fähigkeiten zu Cisco aufschließt. Juniper stellte auch eine natürlichsprachliche Schnittstelle für den Netzwerkbetrieb vor, die unserer Meinung nach ein Nice-to-have-Feature ist, das die Kunden übernehmen werden, nachdem sie die Grundlagen für KI-Netzwerke geschaffen haben.

Hedgehog AI Network

Unsere Kunden definieren die AI-Netzwerk als ein Cloud-Netzwerk, das:

  1. Erfüllt die einzigartigen Anforderungen von KI-Workloads mit einer Hochleistungs-Ethernet-Fabric.
  2. Erleichtert den Betrieb der KI-Cloud-Infrastruktur mit einer vertrauten Cloud-Benutzeroberfläche. Diese UX besteht aus grundlegenden Cloud-Diensten, die mit den von AWS, Azure und GCP angebotenen Diensten vergleichbar sind.
  3. Ermöglicht die Investition in eine private KI-Cloud-Infrastruktur mit Open-Source-Software, die die Investitionskosten senkt, und eine vollautomatisierte Lösung, die die Betriebskosten reduziert.

Die Ankündigung von Juniper AI Native NOW befasst sich mit der Anforderung einer vollautomatisierten Lösung mit AI Ops, aber es wurde nichts angekündigt, was die primären AI Network-Anforderungen für AI-Workload-Performance oder Cloud UX anspricht.

AI Ops

Die Hauptbotschaft der AI Native NOW betraf AI Ops. AI Ops ist die Praxis der Datenerfassung und des maschinellen Lernens, um Netzwerkleistungsmetriken zu ermitteln, Leistungsanomalien zu identifizieren, Netzwerkfehler mit Vorfällen zu korrelieren und Vorfälle mit Leistungsanomalien zu korrelieren. Die Vorteile von KI Ops werden nicht an der Zeit gemessen, in der ein KI-Job abgeschlossen wird, sondern an der durchschnittlichen Zeit, die benötigt wird, um Probleme zu identifizieren, die Ursache zu ermitteln und Tickets zu lösen.

Juniper AI Ops

Juniper macht dies mit seinem Nebel AI Produkt. Wenn Sie sich die Produktseite ansehen, werden Sie feststellen, dass Juniper Mist sehr gut als Sicherheitslösung für Wi-Fi, kabelgebundene Netzwerke, WAN, IoT und Zugangsnetzwerke vermarktet. Was fehlt, damit es sich um ein KI-Netzwerkprodukt handelt, ist ein Hinweis auf Flow-Orchestrierung oder Staumanagement für KI-Workloads. Das ist natürlich das, was Hedgehog mit unserem AI Network in Angriff nimmt.

Cisco AI Ops

Juniper Mist AI schließt an die Architektur der Eagle Eyes-Versicherungslösung an, die ich vor einigen Jahren bei Cisco mit definiert und aufgebaut habe. Wir erbten ein Produkt namens Crosswork Situation Managerdas ein Cisco OEM von Moogsoft. Juniper hat Recht, dass die Sammlung und Anreicherung von Daten aus Netzwerkgeräten ein wichtiger Teil des AI Ops-Puzzles ist. Wir benötigten Moogsoft zur Integration mit Crosswork Daten-Gateway für die Datenerhebung, was sie eigentlich nicht tun wollten. Chris Menier war viel eifriger dabei, dies mit seinem VIA AI Ops ProduktDeshalb haben wir ihm die Möglichkeit gegeben, das Projekt voranzutreiben. Später haben wir Akedian zu der Lösung für das Sondieren, das das Netzwerk testet und mehr Daten für die AI Ops-Ingestion generiert. Mist AI von Juniper sieht aus wie eine straffere Version der AI Ops-Lösung von Cisco.

Hedgehog Assurance Strategie

Während AI Ops in der Tat für einen effizienten Cloud-Rechenzentrumsbetrieb nützlich ist, konzentriert sich Hedgehog auf eine leistungsstarke Datenebene, die durch AI-Workloads verursachte Engpässe verhindert.

Überlastungsmanagement für KI-Workloads

Unsere Ziele für ein Hochleistungs-AI-Ethernet-Fabric sind:

  1. Hohe effektive Bandbreite
  2. Kein Paketverlust
  3. Geringe Latenzzeit

Bei einer Last von 95% benötigen KI-Netzwerke ein orchestriertes und kontrolliertes Verkehrsmanagement. Andernfalls werden KI-Ops-Lösungen wie Mist AI tatsächlich Netzwerküberlastungen und Leistungsanomalien melden. Netzwerke, die mit einer hohen effektiven Bandbreite betrieben werden, führen zu einer unfairen GPU-Nutzung aufgrund von In-Cast-Lasten, falsch ausgerichteten Lastverteilungen und einem breiten Spektrum von GPU-zu-GPU-Latenzen. Dies führt zu einem verlängerten Schwanz von verzögerten Berechnungen, was wiederum die Dauer der Auftragsabwicklung verlängert. Die leistungsstarke KI-Datenebene von Hedgehog umfasst ein orchestriertes und kontrolliertes Verkehrsmanagement, das eine 95% effiziente GPU-Nutzung ermöglicht.

Datenerhebung und -anreicherung

Hedgehog Observability Stack mit Datensammlung, -anreicherung und Integration in Prometheus und Grafana Loki

Hedgehog Observability Stack mit Datensammlung, -anreicherung und Integration in Prometheus und Grafana Loki

Wir verhindern nicht nur, dass KI-Leistungsprobleme überhaupt entstehen, sondern sammeln auch Daten von allen Netzwerkgeräten, die wir unterstützen, und reichern sie an. Dazu gehören Switches von Supermicro, Celestica, Micas Netzwerke, Dell und Edgecore heute. In naher Zukunft wird es auch DPU SmartNICs von NVIDIA, AMD, Marvell und Intel auch. Anschließend integrieren wir diese Daten mit Cloud-nativen Beobachtungstools.

Cloud-native Tools für die Beobachtung

Die meisten unserer Kunden verwenden bereits einen gemeinsamen Satz von Cloud-nativen Tools für die Beobachtung ihres Cloud-Betriebs. Wir könnten den gleichen Ansatz wie Arista, Cisco und Juniper verfolgen: proprietäre Dashboards entwickeln und unseren Kunden deren Nutzung in Rechnung stellen. Stattdessen wählen wir einen kundenfreundlicheren Ansatz für den Betrieb eines Cloud-Netzwerks zu geringen Kosten. Wir übertragen die von uns gesammelten Daten einfach in die quelloffenen, Cloud-nativen Tools, die unsere Kunden bereits für ihren Cloud-Betrieb verwenden. Zu diesen Tools gehören die Prometheus Toolkit zur Systemüberwachung und -warnung sowie das Grafana Loki Logging-Stack.

Marc Austin

Marc Austin

Marc Austin ist der Vorstandsvorsitzende und Gründer von Hedgehog. Marc ist ein Fuchs, der viele Dinge weiß und ein Igel, der eine große Sache weiß. Als Hedgehog weiß er, dass Millionen von Cloud Native-Entwicklungsteams Hedgehog Open Network Fabrics nutzen werden, um ihre Anwendungen auf einer verteilten Cloud-Infrastruktur bereitzustellen. Als Fuchs weiß er viele Dinge aus seiner Erfahrung als Leiter der Automatisierungsstrategie bei Cisco, der Vernetzung des Internets der Dinge bei Jasper, der Bereitstellung digitaler Medien bei Amazon, der Entwicklung mobiler Anwendungen bei der Gründung von Canvas, der Geburt der Smartphones bei AT&T, der Gründung von Mobiquity, der Internetsuche bei Infoseek, dem E-Commerce bei Internet Shopping Network und der Führung von Menschen durch Widrigkeiten in der US-Armee.