Garantire una connettività affidabile per le interconnessioni AI

Convalidare i ricetrasmettitori ottici rispetto alle esigenze e alle condizioni reali dei data center AI. Scalare i test di R&S e produzione per le interconnessioni pronte per l'intelligenza artificiale con soluzioni di progettazione e test avanzate e a basso rumore. Garantire la connettività 1.6T ottimizzando e validando le prestazioni ottiche ed elettriche a ogni livello con strumenti di test e misura ottimizzati per l'AI.

Ottimizzazione delle prestazioni e dell'affidabilità a velocità 800G e 1.6T

Rimanete al passo con le crescenti richieste di prestazioni per le interconnessioni AI con soluzioni di test ad alta larghezza di banda e a basso rumore per ricetrasmettitori ottici.

Accelerare lo sviluppo di ottiche di nuova generazione pronte per l'IA

Accelerate la ricerca e lo sviluppo con strumenti ad alte prestazioni e a prova di futuro, costruiti per gestire più generazioni di sviluppo di standard di rete per data center.

Massimizzare l'efficienza del test senza compromettere l'accuratezza

Semplificate i test di conformità e di produzione con soluzioni di automazione che aumentano la produttività e riducono i costi senza sacrificare la qualità.

1.6T è il futuro di Ethernet. Siete pronti?

L'esplosione del traffico dei data center guidata dall'intelligenza artificiale è ben avviata. Tra non molto, anche gli 800G non saranno più sufficienti. 1,6T è il futuro di Ethernet, e il futuro è adesso.

Con la continua evoluzione degli standard e dei test di conformità, la tecnologia deve essere al passo con il mercato. Assicuratevi di essere pronti con le previsioni, i consigli e le soluzioni di test degli esperti. Ascoltate come gli esperti del settore discutono gli ultimi sviluppi di Ethernet, cosa aspettarsi dall'1.6T, le sfide che il mercato deve superare e le soluzioni di test complete per questa tecnologia.

Webinar sull'interconnessione 1.6T

Domande frequenti: Interconnessioni AI

Un'interconnessione (ricetrasmettitore) è un dispositivo che collega i server agli switch di una rete, consentendo il trasferimento di dati tra i componenti. Per le brevi distanze, l'interconnessione può essere elettrica (rame) o ottica. Per le distanze più lunghe, si utilizzano in genere interconnessioni ottiche, grazie alle loro prestazioni più elevate e alla minore perdita di segnale su lunghezze maggiori.

Sebbene un'interconnessione per l'intelligenza artificiale (utilizzata in un ambiente di data center per l'apprendimento automatico) non sia diversa da un'interconnessione simile utilizzata per l'inferenza (ambiente di data center tradizionale), il carico/utilizzo dell'interconnessione sarà molto maggiore per periodi di tempo prolungati. La scelta delle interconnessioni per l'implementazione dell'intelligenza artificiale per l'apprendimento automatico deve essere effettuata con attenzione per garantire le prestazioni e la longevità della rete. Occorre prestare attenzione a misure come il tasso di errore di bit (BER) per garantire che vi sia spazio sufficiente per le variazioni da campione a campione tra le interconnessioni di produzione.

Un'interconnessione in una rete collega i server agli switch o gli switch agli switch. Per una rete di intelligenza artificiale ad alte prestazioni, è importante che i carichi di lavoro siano eseguiti in un ambiente ottimizzato. Le interconnessioni ad alta velocità e di qualità che funzionano in una rete ottimizzata contribuiscono a garantire che in una rete di intelligenza artificiale i carichi di lavoro non attendano i dati dalla rete.

Esistono due famiglie principali di tecnologie di interconnessione utilizzate nei sistemi di intelligenza artificiale: le interconnessioni off-chip e on-chip.

Le interconnessioni off-chip gestiscono la comunicazione tra componenti separati, come server, switch e acceleratori, spesso attraverso schede o rack. Le tecnologie leader in questa categoria includono Ethernet con RDMA / RoCEv2, InfiniBand, PCI Express (PCIe), Compute Express Link (CXL) e NVLink.

Le interconnessioni on-chip operano all'interno di un singolo chip o pacchetto, consentendo una comunicazione ultraveloce tra componenti interni come core e memoria. Le tecnologie chiave di questa famiglia comprendono la memoria ad alta larghezza di banda (HBM), la rete su chip (NoC) e l'ottica confezionata (CPO).

Le interconnessioni on-chip sono limitate alle comunicazioni tra componenti come GPU, CPU e memoria su un singolo chip. Si tratta di percorsi di comunicazione estremamente brevi, veloci ed efficienti dal punto di vista energetico. Le interconnessioni off-chip possono coprire un data center e oltre. Sono veloci, ma non quanto le brevi interconnessioni on-chip. Tuttavia, sono più tolleranti ai guasti e ottimizzati per le comunicazioni a livello di sistema.

Le innovazioni nelle interconnessioni per l'intelligenza artificiale includono l'ottica coerente, l'ottica lineare collegabile (LPO), l'ottica confezionata (CPO), il Compute Express Link (CXL) e le topologie di rete di interconnessione avanzate.

Volete aiuto o avete domande?