LMS3821-PC5 OSFP Transceiver 8x100G 2xDR4 500m

Technologie
Glasfaser-Transceiver
Partner
Ligent

Der LMS3821-PC5 ist ein leistungsstarker optischer 800 Gbit/s Transceiver im OSFP-Formfaktor, der für KI- und HPC-Netzwerke der nächsten Generation entwickelt wurde. Er kombiniert im Wesentlichen zwei 400G DR4-Transceiver-Engines in einem Modul und ermöglicht damit ultraschnelle duale 400G-Verbindungen über einen einzigen OSFP-Steckplatz. Unter Verwendung von acht 100G PAM4-Lanes über 1310 nm Singlemode-Faser unterstützt er Reichweiten von bis zu 500 Metern – ideal für die Verbindung von Racks mit GPU-Servern oder Spine-Switches innerhalb einer Rechenzentrumshalle.

Dieses Modul arbeitet nahtlos sowohl in InfiniBand- als auch in Standard-Ethernet-Umgebungen und bietet Flexibilität für den Einsatz in spezialisierten Supercomputing-Fabrics ebenso wie in modernen 800G Ethernet-Netzwerken. Es ist sowohl mit geripptem Kühlkörper als auch in Flat-Top-Varianten erhältlich und gewährleistet damit die Kompatibilität mit herkömmlichen luftgekühlten Systemen und modernen flüssigkeitsgekühlten GPU-Clustern (zum Beispiel in NVIDIA DGX™-Setups).

Mit seinem massiven Durchsatz und seinen Eigenschaften mit geringer Latenz wurde der LMS3821-PC5 Transceiver gezielt entwickelt, um die steigenden Anforderungen von KI-Trainingsclustern, Hochleistungsrechner-Interconnects und Cloud-Infrastrukturen mit extrem hoher Bandbreite zu erfüllen – und das alles in einem kompakten, hot-pluggable Modul.

LMS3821-PC5 OSFP Transceiver 8x100G 2xDR4 500m

Eigenschaften

  • 800 Gb/s Gesamtdurchsatz – Kombiniert zwei 400G-Links in einem Modul, maximiert die Bandbreite pro Port und reduziert die Anzahl der für Hoch­geschwindig­keitsverbindungen erforderlichen Transceiver.
  • Duale 400G-DR4-Architektur – Ermöglicht gleichzeitige 400G-Verbindungen zu mehreren Geräten über ein einziges Modul, vereinfacht komplexe HPC-Netzwerktopologien und erhöht die Link-Dichte.
  • 8×100G PAM4-Lanes – Nutzt die fortschrittliche PAM4-Modulation auf acht optischen Lanes, um 800G in kompakter Bauform zu erreichen, und ermöglicht eine effiziente Datenübertragung mit hoher Dichte für anspruchsvolle Workloads.
  • Bis zu 500 m Reichweite über SMF – Unterstützt Distanzen im Rechenzentrum von bis zu 500 Metern über Single-Mode-Faser und eignet sich für Verbindungen über große Hallen oder zwischen benachbarten Räumen in Unternehmens- und Campus-Umgebungen.
  • InfiniBand- & Ethernet-Kompatibilität – Interoperabel sowohl mit latenzarmen InfiniBand-HPC-Fabrics als auch mit 800G-Ethernet-Netzwerken und ermöglicht einen flexiblen Einsatz in GPU-Clustern oder bei standardmäßigem Rechenzentrums-Switching.
  • Für HPC-Cluster optimiert – Validiert mit führender HPC-Hardware (z. B. NVIDIA® ConnectX-7 NICs und BlueField-3 DPUs), um eine zuverlässige Plug-and-Play-Integration in AI-Supercomputer und GPU-Server-Racks sicherzustellen.
  • Optionen für das thermische Design – Verfügbar in Versionen mit offenen Kühlrippen und als Flat-Top (RHS): Das Modell mit Kühlrippen eignet sich für luftgekühlte Systeme, während die Flat-Top-Variante für flüssigkeitsgekühlte Setups mit externen Kühlkörpern (z. B. DGX™-Server) ausgelegt ist.
  • Hot-Plug-fähiger OSFP-Formfaktor – Entspricht den OSFP-MSA-Standards und unterstützt CMIS-Management; dadurch bietet er eine einfache Installation und einen einfachen Austausch sowie Laser-Sicherheit der Klasse 1 und RoHS-Konformität für einen sicheren, umweltfreundlichen Betrieb.

Downloads

für LMS3821-PC5 OSFP Transceiver 8x100G 2xDR4 500m

dat
800G OSFP (2×DR4, 500 m) Transceiver – Datasheet
Download

Verfügbare Modellvariationen

Alle verfügbaren Varianten und ein Vergleich ihrer Spezifikationen

FeatureSpecification

Data rate

800 Gb/s aggregate (2 × 400 Gb/s)

Modulation

8 × 100G PAM4 (optical lanes)

Wavelength

1310 nm (single-mode)

Fibre type

Single-mode fibre (9 µm core)

Connectors

2 × MPO-12 (APC polish)

Form factor

OSFP (Octal Small Form-factor Pluggable)

Cooling variant

Flat-top design (RHS-compatible)

Reach

Up to 500 m on SMF

Transmit power

–2.4 to +4.0 dBm (per lane)

Receiver sensitivity

–5.9 dBm (per lane)

Operating temperature

0 °C to +70 °C (standard range)

Power consumption

≤ 18 W (max); ~2 W in low-power mode

Power supply

Single 3.3 V DC

Laser source

EML lasers (Class 1 eye safe)

Hot pluggable

Yes

Management interface

CMIS v5.3 compliant

Firmware security

Secure boot and upgrade supported

Compliance

OSFP MSA specification; RoHS compliant

FAQs

für LMS3821-PC5 OSFP Transceiver 8x100G 2xDR4 500m

"2×DR4" bedeutet, dass der Transceiver zwei optische 400-Gb/s-DR4-Engines in einem einzigen OSFP-Modul enthält. In der Praxis heißt das, dass das Modul gleichzeitig zwei separate 400G-Links übertragen kann (jeder Link ist ein Standard-DR4 mit vier 100G-Lanes). Diese Dual-400G-Architektur ergibt einen aggregierten Durchsatz von 800 Gb/s in einem Modul und erhöht die Portdichte im Vergleich zu einem einzelnen 400G-Transceiver deutlich.

Ja. Dieses Modul unterstützt sowohl InfiniBand- als auch Ethernet-Protokolle für den 800G-Betrieb. Es ist vollständig mit der InfiniBand-NDR-Technologie kompatibel (dem in vielen GPU-Clustern verwendeten 400G-pro-Link-Standard) und kann ebenso als zwei 400G-Kanäle in einer 800G-Ethernet-Umgebung betrieben werden. Diese Dual-Kompatibilität bedeutet, dass es sowohl in HPC-Fabrics (mit InfiniBand für extrem niedrige Latenz) als auch in modernen Ethernet-Switch-Infrastrukturen problemlos eingesetzt werden kann.

Das Modul verwendet Single Mode Fiber (SMF) und ist mit MPO-12-Optiksteck­verbindern ausgestattet. Da es zwei 400G-Links trägt, nutzt es an der Vorderseite tatsächlich zwei MPO-12-APC-Ports – einen für jeden 400G-DR4-Link. Jeder MPO-12-Steck­verbinder führt 8 Faser-Lanes (4 Senden, 4 Empfangen) für einen 400G-Link. Bei Verwendung von Standard-Single-Mode-Faser (z. B. OS2) unterstützt das Modul Entfernungen von bis zu 500 Metern.

Ja, mit der entsprechenden Breakout-Hardware. Jeder interne 400G-DR4-Link kann bei Bedarf optisch in vier 100G-Links aufgeteilt werden (zum Beispiel über ein MPO-zu-LC-Breakout-Kabel oder ein Patchpanel). Das bedeutet, dass ein 800G OSFP Transceiver bis zu acht 100G-Endpunkte ansteuern kann (4×100G aus jeder 400G-Gruppe). Das ist nützlich für Szenarien, in denen Sie die Kapazität auf viele Knoten verteilen möchten oder wenn Sie eine Verbindung zu Geräten mit ausschließlich 100G-Ports herstellen.

Dieser Transceiver ist in zwei Kühlungs-Bauformen erhältlich: als Standardversion mit Kühlrippen an der Oberseite und als Flat-Top-RHS-Version. Das Modul mit Kühlrippen an der Oberseite verfügt über einen integrierten Kühlkörper mit Kühlrippen und ist für typische luftgekühlte Einsätze vorgesehen (Standard-Netzwerk-Switches und Server mit Luftstrom). Die Flat-Top- (Riding Heat Sink-) Version hat eine glatte Oberseite ohne Kühlrippen – sie ist für Systeme mit externer oder Flüssigkeitskühlung ausgelegt. Die Flat-Top-Variante würden Sie in Chassis mit hoher Dichte wie fortschrittlichen GPU-Servern (z. B. NVIDIA DGX) verwenden, bei denen zur Wärmeableitung eine gemeinsame Kühlplatte oder ein Flüssigkeitskühlblock auf die Oberseite des Moduls gepresst wird. Im Gegensatz dazu wird die Version mit Kühlrippen in konventionellen Setups eingesetzt, die auf Luftstrom angewiesen sind, um jeden Transceiver einzeln zu kühlen.

Das LMS3821-PC5 Modul verbraucht unter Volllast bis zu etwa 18 Watt. Dies ist eine relativ hohe Leistungsaufnahme (typisch für ein optisches 800G Modul), daher erzeugt es entsprechend viel Wärme. Rechenzentrumsgeräte, in denen dieses Modul eingesetzt wird, müssen eine ausreichende Kühlung bereitstellen – entweder durch einen starken Luftstrom bei der Version mit Kühlrippen oder durch Flüssigkeitskühlung bei der Flat-Top-Version –, um sichere Betriebstemperaturen aufrechtzuerhalten. Der OSFP-Steckplatz stellt die erforderliche 3,3-V-Versorgung bereit und ist für Module in diesem Leistungsbereich (15–20W-Klasse) ausgelegt. Wenn das Modul nicht aktiv mit voller Kapazität sendet, kann es in einen Niedrigleistungszustand von etwa 2W wechseln, was dazu beiträgt, die thermische Belastung zu verringern, wenn keine hohe Bandbreite benötigt wird.

Der primäre Einsatzbereich liegt in High-Performance-Computing- und AI-Clustern, die eine extrem hohe Bandbreite zwischen den Knoten erfordern. Dieses Modul ist beispielsweise ideal, um die neuesten GPU-Server (etwa Systeme auf Basis von NVIDIA H100 GPUs) über InfiniBand oder 800G Ethernet mit Top-of-Rack-Switches zu verbinden. Es wird auch für die Rechenzentrumsvernetzung innerhalb eines Campus oder einer großen Einrichtung eingesetzt – etwa um eine Rack-Reihe mit einer anderen mit 800G Kapazität zu verbinden, wenn die Entfernung unter 500 m liegt. Generell ist es für jedes Szenario gut geeignet, bei dem massive Datenmengen mit geringer Latenz über relativ kurze Distanzen (innerhalb eines Rechenzentrums oder Campus) übertragen werden müssen – einschließlich verteiltem Training von AI-Modellen, Supercomputer-Clustern und moderner Cloud-Infrastruktur.