Können wir Ihnen behilflich sein?
AI-Rechenzentren
Entfesseln Sie die nächste Generation der KI-Innovation
Erschließen Sie das Potenzial von AI
Ein KI-Rechenzentrum ist nur so zuverlässig wie sein schwächstes Glied. Jeder Chip, jedes Kabel, jede Verbindung, jeder Switch, jeder Server und jeder Grafikprozessor birgt sowohl Potenzial als auch Risiko in sich. Die einzelnen Komponenten müssen nicht nur unabhängig voneinander funktionieren, sondern auch als System unter unerbittlichen Anforderungen zusammenarbeiten.
Der Aufbau von Netzwerken, die den Anforderungen von KI-Workloads gerecht werden, bedeutet, dass jede Komponente, Verbindung und Konfiguration validiert werden muss. Bei einem derart hohen Einsatz und Umfang können selbst kleinste Effizienzsteigerungen, betriebliche Verbesserungen oder Leistungsverbesserungen zu erheblichen Erträgen führen, indem sie Unterbrechungen reduzieren und kaskadenartige Ausfälle verhindern.
KI-Rechenzentren: Ein technischer Wendepunkt
Ethernet
Die Geschwindigkeiten in Rechenzentren werden von 400/800G auf Hochgeschwindigkeits-Ethernet mit 1,6/3,2T steigen.
Speicher
DDR5 macht Platz für DDR6 und HBM3 - mit Geschwindigkeiten von bis zu 12,8 GT/s.
Optisch
Die Übertragungsgeschwindigkeiten von 112 Gb/s werden den Standards 224 und 448 Gb/s weichen.
PCIe® / CXL
PCIe® 7 wird PCIe® 5 und PCIe® 6 aktualisieren, da die Übertragungsraten von 32 auf 128 GT/s steigen.
Testen von AI-Rechenzentren: Eine vielschichtige Herausforderung
Beschleunigung des digitalen Hochgeschwindigkeitsdesigns im Zeitalter der KI
KI-Rechenzentren erfordern KI-fähige Halbleiter, Chipsätze und High-Speed-Digital-Designs (HSD). Doch Spitzenleistung hat ihren Preis. Geschwindigkeiten und Standards entwickeln sich ständig weiter, und um auf dem neuesten Stand zu bleiben, muss man manchmal ein bis zwei Generationen vorausdenken. Die Erfüllung fortschrittlicher Designanforderungen bedeutet, dass man über das Debugging hinausgeht. Um die neuesten PCIe®-, DDR- und CXL-Standards zu erfüllen oder zu übertreffen, sind fortschrittliche Simulationswerkzeuge erforderlich, die Designs analysieren und potenzielle Probleme vorhersagen können, bevor sie auftreten.
Neugestaltung der KI-Infrastruktur für 1.6T und darüber hinaus
Mit der Einführung von KI-Rechenzentren 1.6T Um die hohen Ethernet-Geschwindigkeiten zu unterstützen, entwickeln Netzwerkgerätehersteller neue optische Transceiver. Hochgeschwindigkeitsverbindungen erfordern jedoch auch eine Validierung der Leistungsfähigkeit unter den realen Anforderungen von KI-Netzwerken. Die Skalierung von Forschung und Entwicklung sowie Produktionstests bedeutet, über rauscharme Messgeräte für die physikalische Schicht hinauszugehen und auch Ethernet-Protokollschichttests zur Validierung der realen Leistung einzusetzen.
Optimierung der Leistung und Effizienz von AI-Rechenzentren
KI-Netze erfordern mehr als eine Validierung auf Komponentenebene. Tests auf der physikalischen Ebene sind nicht genug. Interoperabilität, Leistung und Effizienz können nur auf Systemebene gemessen werden - unter realen Netzwerkbedingungen. Die Validierung von KI-Cluster-Komponenten, die Optimierung der Effizienz und die Skalierung der Kapazität erfordern fortschrittliche Erkenntnisse, die aus der Emulation vollständiger KI-Arbeitslasten gewonnen werden. Die Verfolgung von Metriken wie Auftragsabwicklungszeit und kollektiver Kommunikationsbandbreite hilft, Engpässe zu erkennen, die KI-Workload-Verteilung zu optimieren und Probleme auf Komponentenebene zu identifizieren, die sonst verborgen bleiben würden.
Maximierung der Energieeffizienz zur Skalierung von KI-Workloads
In KI-Rechenzentren ist das Energiemanagement ebenso wichtig wie die Leistung. Auch wenn High-End-Server und Rack-Switches mit den besten Chips und Verbindungen ausgestattet sind, können Übersprechen und elektromagnetische Interferenzen Probleme bei der Energieverwaltung verursachen, die letztlich die Skalierbarkeit eines KI-Rechenzentrums beeinträchtigen. Ohne vielseitige Design-Automatisierungs- und Messtools ist es äußerst schwierig, Stromversorgungsnetzwerke zu simulieren, die Ursachen von Stromversorgungsproblemen zu identifizieren und letztendlich die Energieeffizienz sicherzustellen.
Erweitern Sie Ihr Wissen über KI-Rechenzentren
5 Strategien zur Optimierung und Skalierung von KI-Rechenzentren
KI verändert die Industrie und treibt Innovationen voran. Einzigartige Datenverkehrsmuster, dynamische Workloads und unerbittlicher Leistungsdruck können jedoch selbst kleinste Probleme zu kritischen Problemen auswachsen lassen.
In diesem eBook finden Sie fünf praktische Lösungen zur Optimierung der KI-Rechenzentrumsleistung für moderne Anwendungen.
AI Networking Bootcamp
Tauchen Sie gemeinsam mit Keysight-Ingenieuren tief in die Welt des Testens von KI-Netzwerken und der Validierung von KI-Rechenzentrumsimplementierungen ein. Am Ende dieses Kurses werden Sie das nötige Wissen - und Vertrauen - erlangen, um dieses sich schnell verändernde, innovative neue Netzwerkparadigma zu beherrschen.
Verbesserung der Skalierbarkeit in KI-Rechenzentrums-Clustern
Kann Ihre Netzwerkinfrastruktur skaliert werden, um die komplexen, hochfrequentierten KI-Trainings-Workloads zu bewältigen? Dies white paper befasst sich mit der Skalierung von KI-Rechenzentrumsclustern, identifiziert kritische Netzwerkherausforderungen und erklärt, wie Sie skalierbare und zuverlässige Netzwerke für die KI-Ambitionen Ihres Unternehmens sicherstellen.
Benchmarking kollektiver Maßnahmen
Durch die Messung oder das Benchmarking der Netzwerkleistung in einem KI-Cluster können Unternehmen Möglichkeiten zur Optimierung und Verbesserung des Gesamtdurchsatzes ohne zusätzliche Hardwarekosten identifizieren. Dies white paper erklärt die Funktionsweise von KI-Kollektiven, definiert die Terminologie und überprüft die gängigsten Metriken im Zusammenhang mit dem Benchmarking von KI-Netzwerken.
Wie Keysight zur Verbesserung von KI-Rechenzentren beiträgt
Schwachstellen beseitigen
Sicherstellung der Leistung auf Komponentenebene durch Tests auf der physikalischen Ebene und Netzwerkemulationen auf Systemebene.
Optimieren Sie jede Ebene
Modellierung von Rechenzentrumsentwürfen, Validierung von Netzwerkausrüstung im AI-Maßstab und Feinabstimmung der Leistung auf Systemebene.
AI-Kapazität skalieren
Maximieren Sie die Leistung Ihres Rechenzentrums mit realitätsnahen Protokoll-, Anwendungs- und Netzwerkemulationen.
Entdecken Sie unsere neusten AI Data Center Lösungen
Optimieren Sie Ihre KI-Infrastruktur mit KAI Data Center Builder
Testen Sie die Leistung von KI-Rechenzentren mit unvergleichlicher Genauigkeit. KAI Data Center Builder emuliert die Kombination aus kollektiver Kommunikation und Algorithmen, die zum Aufbau eines großen Lernmodells (LLM) verwendet werden, und erleichtert so die Validierung von Netzwerkinfrastruktur und KI-Fabrics durch systemweite Tests.
Maximieren Sie die Ethernet-Zuverlässigkeit mit Hochgeschwindigkeits-Benchtop-Testern
Testen Sie die neueste Generation KI-optimierter Netzwerke und Verbindungen. Mit vollständiger Testabdeckung der Schichten 1–3 und Unterstützung von bis zu 40 W pro Port ist der Keysight Interconnect and Network Performance Tester bestens geeignet. 1.6T bietet modernste Ethernet-Testfunktionen für Switch-Hersteller und Hyperscaler gleichermaßen.
Validierung von AI-Verbindungen mit DCA-M-Abtastoszilloskopen
Maximieren Sie die Netzwerkzuverlässigkeit mit 224-Gbit/s-Abtastoszilloskopen, die unübertroffene optische Präzision und Transceiver-Testeffizienz bieten. Testen Sie KI-fähige 800G-Netzwerke. 1.6T Netzwerkgeräte mit optischer Testsoftware, die die Fertigungsprüfung für optische Transceiver in großen Stückzahlen optimiert.
Besuchen Sie unser AI Showcase Event
Erfahren Sie, wie Sie KI-Rechenzentren ohne kostspielige GPU-Ressourcen entwickeln, validieren und skalieren können. Entdecken Sie neue Wege zur Leistungsmaximierung mit Tools, die von der physikalischen bis hin zur Anwendungsebene funktionieren - und das alles bei Live-Fragen und Antworten mit Top-Ingenieuren von Keysight, die an der Spitze der KI-Innovation arbeiten.
Erkunden Sie AI-fähige Testaufbauten
Test AI Data Center Netzwerke
Emulation von KI-Workloads zum Benchmarking von Netzwerkgeräten und zur Validierung von KI/ML-Fabrics.
Validierung von Ethernet-Verbindungen
Sicherstellung einer hochwertigen Datenübertragung und Fehlerkorrektur durch Prüfung der Zuverlässigkeit und Leistung.
Optimieren 1.6T Prüfung optischer Transceiver
Skala 1.6T Herstellung optischer Transceiver mit schnellen, effizienten Messungen der Senderdispersion und TDECQ.
Emulation von AI-Rechenzentrums-Workloads
Optimieren Sie die Infrastruktur für die KI-Trainingsleistung mit einer konsistenten und skalierbaren Testmethodik.
Analysieren von PAM4-Empfangssignalen
Nutzen Sie die Fehleranalyse, um Einblicke in PAM4-Empfängersignale zu erhalten.
Analysieren der PCB-Signalintegrität
Reduzieren Sie die Risiken für die Signalintegrität in einer digitalen Hochgeschwindigkeitsleiterplatte durch die Erkennung und Diagnose von Übersprechen, Jitter, vertikalem Rauschen und Phasenrauschen.
PCle® 6.0 Protokoll-Validierung durchführen
Protokollvalidierung auf der physikalischen, der Datenverbindungs- und der Transaktionsschicht.
Bewertung der FEC-Leistung
Testen Sie Hochgeschwindigkeits-Ethernet-Verbindungen, indem Sie den Fehlerkorrekturmechanismus auswerten.
Erfahren Sie mehr über das Testen von AI-Rechenzentren
Häufig gestellte Fragen: AI-Rechenzentren
Ein KI-Rechenzentrum ist eine einzigartige Art von Rechenanlage, die speziell für die Unterstützung von Anwendungen der künstlichen Intelligenz (KI) entwickelt wurde. KI-Rechenzentren nutzen robuste Tools wie Grafikprozessoren (GPUs) und Tensor Processing Units (TPUs), die es ihnen ermöglichen, große Datenmengen zu verarbeiten, große Lernmodelle (LLMs) zu trainieren und Benutzeranfragen auszuführen - ein Begriff, der allgemein als "Inferenz" bekannt ist.
KI-Rechenzentren werden weltweit gebaut, um die wachsende Nachfrage zu decken. Die Mehrzahl der KI-Rechenzentren befindet sich jedoch in den Vereinigten Staaten - insbesondere in Texas, Kalifornien und Virginia.
KI-fähige Rechenzentren zeichnen sich durch mehrere Merkmale aus:
- Hardware: Hochleistungs-GPUs und TPUs, die die KI-Berechnungen beschleunigen.
- Speicherung: Hochgeschwindigkeits-Speichersysteme mit großer Kapazität, die die riesigen Datenmengen verwalten, die für KI-Training und -Schlussfolgerungen erforderlich sind.
- Kühlung: Die KI-Infrastruktur erzeugt viel Wärme, weshalb KI-fähige Rechenzentren fortschrittliche Kühltechnologien wie Flüssigkeitskühlung und Präzisionskühlung benötigen, um Überhitzung zu vermeiden.
- Skalierung: KI-Rechenzentren müssen ihre Ressourcen auf der Grundlage der schwankenden Anforderungen von KI-Aufgaben effizient skalieren.
- Vernetzung: Verbindungen mit hoher Bandbreite und geringer Latenzzeit sind für die Datenverarbeitung und -kommunikation in Echtzeit entscheidend.
- Sicherheit: Robuste Sicherheitsmaßnahmen und eine zuverlässige Infrastruktur gewährleisten Schutz und Verfügbarkeit gegen eine Reihe von KI-spezifischen Cyberangriffen.
Während herkömmliche Rechenzentren ein breites Spektrum an allgemeinen Rechenaufgaben bewältigen, sind KI-Rechenzentren für die Verarbeitung großer Datenmengen, das Training großer Lernmodelle und die Ableitung von Benutzeranfragen optimiert. Herkömmliche Rechenzentren nutzen CPUs für allgemeine Rechenaufgaben und Standard-Netzwerkarchitekturen für Datenübertragungen zwischen Speichern, Servern und Cloud-Umgebungen, während KI-Rechenzentren auf GPUs, TPUs und Hochgeschwindigkeitsnetzwerke mit geringer Latenz angewiesen sind, um schnelle Datenbewegungen zwischen Prozessoren zu bewältigen.
KI-Rechenzentren bewältigen eine Vielzahl von Arbeitslasten - jede mit eigenen Anforderungen an Rechenleistung und Speicherplatz. Zu den häufigsten Arten von Arbeitslasten gehören die folgenden:
- Arbeitsbelastung durch Datenverarbeitung
- Arbeitsbelastung durch maschinelles Lernen
- Deep Learning-Workloads
- Verarbeitung natürlicher Sprache (NLP) Arbeitslasten
- Generative KI-Workloads
- Computer-Vision-Arbeitsbelastungen
KI-Rechenzentren nutzen mehrere Strategien für ein effizientes Datenmanagement - darunter Hochleistungsspeichersysteme wie NVMe-SSDs (um einen schnellen Datenzugriff und -abruf zu gewährleisten), Daten-Tiering, bei dem Daten zwischen verschiedenen Speicherebenen (basierend auf Nutzungsmustern) verschoben werden, sowie Datenkomprimierungs- und Deduplizierungsverfahren, die Speicherplatz sparen und die Effizienz verbessern.
KI-optimierte Rechenzentren verwenden spezielle Hardware, um Training und Schlussfolgerungen zu beschleunigen. Hier sind einige der gängigsten Komponenten:
- Grafikprozessoren (GPUs): Essential Ausrüstung für parallele Verarbeitungsaufgaben – die häufig für KI-Anwendungen benötigt werden.
- Tensor Processing Units (TPUs): Entwickelt für Aufgaben des maschinellen Lernens, die leistungsstarkes Training und Inferenz für KI-Modelle bieten.
- KI-optimierter Speicher: Leistungsstarke Speicherlösungen wie NVMe-SSDs helfen bei der Verwaltung großer Datensätze mit effizientem Abruf.
- Netzwerk-Infrastruktur: Infiniband, Ethernet und NVIDIA Spectrum-X bieten Hochgeschwindigkeitskommunikation, reduzieren Engpässe und erhöhen den Durchsatz.
- Kühlsysteme: Advanced Kühltechnologien wie die Flüssigkeitskühlung tragen zur Optimierung der thermischen Effizienz von Netzwerkgeräten und -infrastruktur bei.
GPUs und TPUs beschleunigen die Leistung in KI-Rechenzentren, indem sie die rechenintensiven Anforderungen von KI-Workloads effizient verarbeiten. Hier sind einige der wichtigsten Vorteile, die sie bieten:
- Verkürzte Trainingszeit: GPUs und TPUs verkürzen die Zeit zum Trainieren von KI-Modellen und erleichtern so die schnelle und effiziente Entwicklung und Bereitstellung von KI-Anwendungen.
- Energieeffizienz: GPUs und TPUs sind energieeffizient und helfen Hyperscalern, die Betriebskosten und die Umweltbelastung zu kontrollieren.
- Verbesserte Fähigkeiten: GPUs und TPUs helfen KI-Rechenzentren, komplexere und fortschrittlichere KI-Modelle zu unterstützen - und treiben damit Innovationen in verschiedenen Branchen voran.
KI-Rechenzyklen erzeugen enorme Wärmemengen. Deshalb benötigen KI-Rechenzentren fortschrittliche Kühllösungen, um die Wärme zu verwalten und auszugleichen. Im Folgenden finden Sie einige der gängigsten Techniken, die in KI-Rechenzentren zur Kühlung eingesetzt werden:
- Flüssigkeitskühlung: Das flüssige Kühlmittel wird direkt in die Wärmequellen - wie GPUs und TPUs - geleitet.
- Eintauchkühlung: IT-Komponenten werden in eine dielektrische Flüssigkeit getaucht, die Wärme besser absorbiert als Luft.
- Rücktür-Wärmetauscher: Kühlsysteme, die an der Rückseite von Server-Racks angebracht werden und mit Hilfe von Flüssigkeitskühlung die Wärme direkt aus der Abluft des Racks abführen.
KI-Rechenzentren verwenden in der Regel mehrere Strategien, um die Skalierbarkeit zu gewährleisten:
- Modularität: KI-Rechenzentren verwenden modulare Komponenten, die bei steigendem Bedarf erweitert werden können und eine schrittweise Skalierung ohne erhebliche Ausfallzeiten ermöglichen.
- Kühlung: Effiziente Kühlung ist für KI-Rechenzentren unerlässlich, um Leistung und Zuverlässigkeit zu erhalten. Flüssigkeitskühlung und KI-gesteuertes Management können helfen, den Energieverbrauch zu optimieren und zusätzliche Skalierung zu unterstützen.
- KI-Verwaltung: KI kann helfen, Arbeitslasten vorherzusagen und zu verwalten, Ressourcen zu optimieren und die Effizienz des Rechenzentrums zu verbessern. Dieser proaktive Ansatz hilft Hyperscalern bei der Skalierung auf schwankende Anforderungen und der Aufrechterhaltung einer optimalen Leistung.
Edge Computing kann die Leistung verbessern, Latenzzeiten verringern und die Ressourcennutzung in KI-Rechenzentren optimieren. Edge-Computing bietet Datenverarbeitung in Echtzeit, da die Inferenz näher an der Quelle stattfinden kann, wodurch die Daten weniger weit transportiert werden müssen, was die Bandbreite optimiert und die Gesamtlatenzzeit verringert.
Hyperscaler setzen mehrere innovative Strategien ein, um einen effizienten Energieverbrauch in KI-Rechenzentren zu gewährleisten:
- Erneuerbare Energien: Hyperscaler setzen zunehmend auf erneuerbare Energiequellen - einschließlich Solar- und Windenergie. Diese nachhaltigen Quellen verringern den CO2-Fußabdruck und gewährleisten eine nachhaltige Energieversorgung.
- Kühlung: Das Wärmemanagement ist entscheidend für die Reduzierung des Energieverbrauchs in KI-Rechenzentren. Aus diesem Grund investieren Hyperscaler in Flüssigkeitskühlung und KI-gesteuertes Kühlmanagement, um eine effiziente Energienutzung zu gewährleisten.
- Infrastruktur: Layout und Design von KI-Rechenzentren spielen eine entscheidende Rolle für Energieverbrauch und Effizienz. Strategien wie die Eingrenzung von Warm- und Kaltgängen, die ideale Platzierung von Servern und ein angemessener Luftstrom können die Energieeffizienz verbessern.
KI-Rechenzentren erfordern einen speziellen Sicherheitsansatz zum Schutz vor bestimmten Schwachstellen. So sind beispielsweise große Lernmodelle besonders anfällig für Prompt Injection und feindliche Angriffe, bei denen böswillige Eingaben die KI-Modelle täuschen könnten. Aus diesem Grund sind Sicherheitsstrategien wie kontinuierliche Tests (mit einem Anwendungs- und Sicherheitstesttool), Zugriffskontrolle (einschließlich Multi-Faktor-Authentifizierung und rollenbasierter Zugriffskontrolle) und routinemäßige Sicherheitsaudits entscheidend.
KI-Rechenzentren sind speziell für die hohen Anforderungen von Deep Learning und maschinellem Lernen ausgelegt:
- Leistungsstarke Netzwerkhardware wie GPUs, TPUs und KI-Beschleuniger verarbeiten die komplexen Berechnungen, die beim Training von Modellen für maschinelles Lernen und Deep Learning anfallen.
- Verbindungsleitungen mit hoher Bandbreite sorgen für einen effizienten Hochgeschwindigkeitsdatenaustausch zwischen Speicher- und Rechenknoten.
- Eine skalierbare Infrastruktur trägt dem wachsenden Bedarf an Rechenleistung und Speicherplatz Rechnung, was für komplexe KI-Modelle und immer größere Datensätze unerlässlich ist.
Es gibt eine Reihe von Hyperscalern und KI-Anbietern, die KI-Rechenzentren auf der ganzen Welt aufbauen und unterhalten. Zu den größten Anbietern gehören Amazon Web Services, Google, OpenAI, Apple und Meta.
Sie brauchen Hilfe oder haben Fragen?