Mar 26, 2026

Optische interconnectie voor desaggregatie van datacenters

Laat een bericht achter

Door de desaggregatie van datacenters worden rekenkracht, geheugen, opslag en netwerken gescheiden in onafhankelijke, samengevoegde bronnen, in plaats van ze op te sluiten binnen vaste servergrenzen. Die scheiding creëert een nieuwe architecturale afhankelijkheid: de verbindingslaag tussen deze pools moet voldoende bandbreedte, voldoende lage latentie en voldoende bereik bieden om het hele systeem zich als één gecoördineerd weefsel te laten gedragen. Optische interconnectie is de transporttechnologie die deze rol steeds meer vervult -, vooral daar waar koperverbindingen fysieke grenzen tegenkomen op het gebied van afstand, vermogen en signaalintegriteit.

In dit artikel wordt uitgelegd hoe optische interconnectie gedesaggregeerde architecturen ondersteunt, waar het beter presteert dan koper, hoe het zich verhoudt tot CXL en co{0}}verpakte optica, en wanneer het praktisch zinvol is om dit te gebruiken.

Disaggregated data center linked by optical fabric

Wat is datacenterdesaggregatie?

In een traditioneel server-gericht model zijn CPU, geheugen, opslag en netwerken gebundeld in één chassis. U koopt een server en u krijgt een vaste verhouding van alle vier -, ongeacht of uw werklast die verhouding nodig heeft of niet. Door de desaggregatie van datacenters wordt deze bundel uit elkaar gehaald. Elk resourcetype is georganiseerd in een eigen pool, en werklasten halen alleen datgene uit elke pool via een gedeelde structuur.

Dit is van belang omdat moderne werklasten zelden in evenwicht zijn. Een grote taalmodeltraining kan het GPU-geheugen en de oost-westbandbreedte verzadigen, terwijl de lokale opslag nauwelijks wordt aangeraakt. Een realtime analysepijplijn heeft mogelijk een enorme geheugencapaciteit nodig, maar slechts een bescheiden rekenkracht. In een server-gericht ontwerp leidt deze mismatch tot resource stranding: inactieve CPU-cycli naast uitgeput geheugen, of opslagcapaciteit die geen werklast gebruikt.

DeOpen Compute-project (OCP)heeft sinds het midden van de jaren 2010 de drijvende kracht achter gedesaggregeerde rackontwerpen, en hyperscalers als Meta en Microsoft hebben gedesaggregeerde opslag en netwerken op schaal geïmplementeerd. De opkomst vanCompute Express-link (CXL)heeft die visie uitgebreid naar geheugendesaggregatie, waardoor de architectuur steeds praktischer wordt voor een breder scala aan omgevingen.

Waarom traditionele server-centrische ontwerpen op een muur botsen

Er zijn twee krachten die infrastructuurteams in de richting van disaggregatie duwen: gebruiksdruk en bandbreedtedruk.

Aan de gebruikskant zorgen vaste serverbundels voor verspilling op schaal. Uit onderzoek uit de sector blijkt dat gemiddeld ongeveer 25% van de DRAM-capaciteit in conventionele servers ongebruikt blijft, terwijl geheugen bijna de helft van de totale serverkosten voor zijn rekening neemt. Vermenigvuldigd over duizenden knooppunten vertegenwoordigt die gestrande capaciteit een aanzienlijke kapitaal- en machtslast.

Aan de bandbreedtekant genereren AI-trainingsclusters en hoogwaardige analyses verkeerspatronen die sterk verschillen van de traditionele noord-zuidweb--belastingen. Deze productietaken produceren zwaar oost-west-verkeer - GPU-naar-GPU, accelerator-naar-geheugen en knooppunt-naar-knooppunt - over honderden of duizenden eindpunten. Traditionele server-centrische topologieën met korte kopertrajecten tussen vaste boxen zijn niet voor dat patroon ontworpen. Naarmate de verbindingssnelheden stijgen van 400G naar 800G en hoger, worden de elektrische beperkingen van koper steeds moeilijker te omzeilen.

Hoe werkt Optical Interconnect in een gedesaggregeerd datacenter?

Zodra reken-, geheugen- en acceleratorresources zich in afzonderlijke pools bevinden, wordt het weefsel dat deze pools verbindt de -kritische prestatielaag. Optische verbindingen bedienen die laag door elektrische signalen in licht om te zetten en gegevens over te dragenenkele-modusofmultimode glasvezel, en weer omzetten naar elektrisch aan de ontvangende kant.

De fysica van optisch transport geeft het structurele voordelen voor deze taak. Lichtsignalen in glasvezel ervaren veel minder demping per meter dan elektrische signalen in koper, wat betekent dat optische verbindingen de signaalkwaliteit over langere afstanden kunnen behouden zonder de energie-vretende signaalconditionering (retimers, DSP's, equalizers) die koper bij hogere snelheden nodig heeft. Bij 800 Gbps is passief koper praktisch tot ongeveer 3 à 5 meter. Actieve elektrische kabels verlengen dat tot misschien wel 7 meter. Optische verbindingen bestrijken routinematig 100 meter tot 2 kilometer met dezelfde datasnelheid, en coherente optica kan tientallen kilometers reiken.

Short copper links and longer optical connections

In een gedesaggregeerde architectuur is dit bereikvoordeel niet abstract. Het bepaalt direct hoe ver de bronnenpools uit elkaar kunnen liggen terwijl ze zich nog steeds gedragen als een verenigd systeem. Specifiek:

  • Binnen het rek:Koper domineert nog steeds vanwege de zeer korte verbindingen - server-naar-top-van-rackswitch, GPU-naar-GPU in een lade. Op afstanden onder de 2 à 3 meter is koper eenvoudiger, goedkoper en met een lagere- latentie.
  • Rek-naar-rek (2–100 m):Dit is waar optische interconnectie de praktische standaard wordt bij 400G en hoger. Voor het aansluiten van een computerrack op een geheugenpool in een aangrenzend rack, of het koppelen van GPU-trays over een rij, is doorgaans de bandbreedtedichtheid en het bereik nodig die glasvezel biedt.GlasvezelkabelassemblagesEnMPO/MTP-connectiviteitzijn standaard voor deze paden.
  • Kamer-naar-kamer en gebouw-naar-gebouw (100 m–10+ km):Alleen optisch transport is haalbaar op deze afstanden en snelheden. Deze reikwijdte is van belang voor de desaggregatie op campus-schaal, waarbij opslagpools, back-upcomputers of noodherstel-resources zich in afzonderlijke gebouwen bevinden.

Optische interconnectie versus koper in gedesaggregeerde datacenters

De keuze tussen optisch en koper is niet binair - maar afhankelijk van het bereik-. Hier ziet u hoe de twee zich verhouden tot de factoren die er het meest toe doen in een gedesaggregeerd ontwerp:

Factor Koper Optische vezel
Praktisch bereik bij 800G 3–7 m (passief/actief) 100 m – 10+ km (afhankelijk van het type optiek)
Bandbreedte dichtheid Lager per kabel; kabels zijn dikker bij hogere snelheden Hoger per kabel; dunne vezels ondersteunen hoge poortaantallen
Vermogen per bit (groter bereik) Hogere - DSP's, retimers en signaalconditionering vereist Lager met gelijkwaardig bereik en snelheid
Latency (kort bereik) Zeer laag (passief koper heeft geen conversieoverhead) Iets hoger vanwege elektro-optische conversie
EMI-immuniteit Gevoelig voor elektromagnetische interferentie Immuunsysteem - belangrijk in omgevingen met hoge concentraties-
Kabelgewicht en luchtstroom Zwaarder en omvangrijker bij hogere aantallen Lichter en dunner, beter voor de luchtstroom in dichte racks
Kosten (kort bereik, lage snelheid) Lager vooraan Hoger vooraf
Kosten (systeem-niveau, op schaal) Kan hoger zijn als rekening wordt gehouden met vermogen, koeling en bereiklimieten Vaak lagere totale eigendomskosten bij 400G+ en langere paden
Beste pasvorm in gedesaggregeerd ontwerp Korte links voor intra-tray, intra-rack Rek-naar-rek, rij-naar-rij, kamer-naar-kamer en campus-schaal

De praktische boodschap: gebruik koper waar de eenvoud op korte- afstanden nog steeds wint. Gebruik optisch waar bereik, bandbreedtedichtheid, energie-efficiëntie of kabelbeheer de bindende beperking worden. In een opgesplitste omgeving groeit het optische aandeel van de totale interconnectie omdat de architectuur zelf langere paden met hogere- bandbreedte creëert tussen gescheiden bronnenpools. Voor een diepere vergelijking van mediatypen, zieglasvezel versus koperen kabels: wat geschikt is voor uw implementatie.

Copper versus optical interconnect comparison

Belangrijkste voordelen van optische interconnectie voor disaggregatie

Hogere bandbreedtedichtheid voor gescheiden resourcepools

Disaggregatie vergroot het volume van het verkeer dat de verbindingslaag kruist, omdat bronnen die ooit op dezelfde locatie -geplaatst waren, nu via de structuur communiceren. Glasvezel ondersteunt deze vraag met een hogere bandbreedte per-vezel en meer vezels per kabel. Een enkelelint glasvezelkabelkan honderden vezels vervoeren in een compacte dwars-doorsnede, waardoor het soort poortdichtheid mogelijk wordt dat voor opgesplitste GPU-clusters en geheugenpools nodig is.

Lagere energie- en thermische belasting op schaal

Energie-efficiëntie is belangrijker in een gedesaggregeerd ontwerp, omdat de verbindingslaag een groter deel van het totale systeemverkeer vervoert. Bij 800G en hoger vereisen koperverbindingen over middelmatige afstanden aan beide uiteinden een stroom-intensieve DSP-verwerking. Optische verbindingen met gelijke snelheden en afstanden verbruiken minder stroom per bit. De technische documentatie van NVIDIA over het co-verpakte optica-switchingplatform rapporteert a3,5× reductie in energieverbruikvergeleken met traditionele inplugbare transceivers. Op datacenterschaal vertaalt dat verschil zich rechtstreeks in lagere elektriciteitsrekeningen en een verminderde koelinfrastructuur.

Modulair, onafhankelijk schalen

Een van de belangrijkste beloften van disaggregatie is dat rekenkracht, geheugen en opslag met verschillende snelheden kunnen worden geschaald. Optische interconnectie ondersteunt deze belofte, omdat het toevoegen van capaciteit aan één resourcepool niet vereist dat de hele structuur opnieuw hoeft te worden ontworpen.Insteekbare optische moduleskan stapsgewijs worden geüpgraded of toegevoegd - van 400G naar 800G naar 1,6T - zonder de onderliggende vezelinstallatie te wijzigen.

Flexibiliteit voor heterogene werklasten

Wanneer bronnen worden gebundeld en verbonden via een hoogwaardig optisch weefsel-, kunnen infrastructuurteams bronnen dynamisch aan werklasten toewijzen in plaats van werklasten rond vaste serverconfiguraties vorm te geven. Die flexibiliteit is vooral waardevol in omgevingen waar AI-trainingstaken, real-time-inferentie, analysepijplijnen en opslag-zware applicaties naast elkaar bestaan ​​en concurreren om verschillende soorten bronnen.

Hoe optische interconnectie zich verhoudt tot CXL en co-verpakte optica

CXL: de protocollaag voor het delen van geheugen en bronnen

CXL (Compute Express Link) en optische interconnect lossen verschillende delen van het desaggregatieprobleem op. CXL is een open standaardprotocol - gebouwd op de fysieke PCIe-laag - dat cache-coherente communicatie tussen CPU's, geheugenapparaten en versnellers mogelijk maakt. Het definieert hoe gescheiden bronnen efficiënt kunnen worden gebundeld en gedeeld op software- en protocolniveau.

Het CXL Consortium, met als leden Intel, AMD, NVIDIA, Samsung, Microsoft, Google en Meta, heeft in november 2023 CXL 3.1 uitgebracht met expliciete ondersteuning voorschakelen op meerdere-niveaus en op structuur-gebaseerde disaggregatievoorbij het rek. CXL 3.0 introduceerde ondersteuning voor maximaal 4.096 knooppunten in een uniforme structuur, waardoor geheugenpooling op rack-schaal en potentieel cluster-schaal mogelijk wordt.

Optische interconnect is het fysieke transport dat CXL-verkeer (en andere protocollen) tussen deze gedistribueerde knooppunten kan vervoeren. Een team dat op CXL-gebaseerde geheugenpooling evalueert en een team dat optische interconnectie evalueert, werken vaak aan hetzelfde desaggregatie-initiatief vanuit verschillende invalshoeken - de ene richt zich op de logica van het protocol en het delen van bronnen-, de andere op het fysieke transport.

CXL over optical transport with co-packaged optics

Co-gecombineerde optica: optiek dichter bij de chip brengen

Co{0}}verpakte optica (CPO) gaat nog verder door optische motoren rechtstreeks op hetzelfde pakketsubstraat te integreren als de switch-ASIC of GPU, in plaats van te vertrouwen op afzonderlijke inplugbare transceivers die zijn aangesloten via elektrische sporen op een voorpaneel. Hierdoor worden de langste en meest energieverslindende elektrische paden in het systeem geëlimineerd.

Op GTC 2025 kondigde NVIDIA zijn eerste aanco-verpakte schakelplatforms voor siliciumfotonica(Quantum-X Photonics en Spectrum-X Photonics), met een bandbreedte tot 409,6 Tb/s en 512 poorten met een snelheid van 800 Gb/s. NVIDIA-CEO Jensen Huang merkte op dat het opschalen naar een miljoen GPU's met behulp van conventionele inplugbare transceivers alleen al ongeveer 180 MW aan transceiververmogen zou verbruiken - een onhoudbaar cijfer dat CPO moet aanpakken.

CPO is niet iets dat elk team dat desaggregatie evalueert vandaag de dag moet inzetten. Inplugbare optische modules blijven voor de meesten de dominante vormfactordatacenter glasvezelimplementaties en zal in ieder geval tot eind 2020 doorgaan. Maar CPO vertegenwoordigt de richting van de optische routekaart, en teams die grote AI-clusters of de volgende-generatie-gedesaggregeerde structuren plannen, moeten de volwassenheid ervan nauwlettend in de gaten houden.

Wanneer is optische interconnect het meest zinvol?

AI en accelerator-zware omgevingen

AI-trainingsclusters behoren tot de sterkste gebruiksscenario's voor optische interconnectie in een opgesplitste context. Deze systemen genereren enorm veel oost-west-verkeer via GPU-naar-GPU en GPU-naar-geheugenpaden. Naarmate de clustergrootte groeit van honderden naar duizenden GPU's, overstijgen het bereik en de bandbreedtevereisten snel wat koper kan ondersteunen. In de GB200 NVL72-architectuur van NVIDIA vertegenwoordigen de netwerkkosten (inclusief optische transceivers) bijvoorbeeld 15-18% van de totale clusterkosten, en zijn optische transceivers goed voor ongeveer 60% van die netwerkkosten. De economische en prestatietechnische argumenten voor het optimaliseren van de optische laag zijn aanzienlijk.

Geheugenpooling en samenstelbare infrastructuur

Als uw team op CXL-gebaseerde geheugenpooling evalueert, moet de fysieke transportlaag deze scheiding ondersteunen zonder onaanvaardbare latentie toe te voegen of de schaal te beperken. CXL 3.1 richt zich expliciet op fabric-schaaldisaggregatie buiten het rack, wat betekent dat verbindingspaden langere afstanden zullen overbruggen dan traditionele intra-servergeheugenbussen. Optische links zijn de natuurlijke oplossing voor deze paden.

Grootschalige-omgevingen met ongelijke schaalbehoeften

Optische interconnectie is ook zinvoller wanneer rekenkracht, geheugen en opslag met verschillende snelheden moeten worden geschaald. Als uw computercapaciteit 3x per jaar groeit, maar de opslag 1,5x, kunt u met een opgesplitste architectuur elke pool onafhankelijk uitbreiden - en optische interconnectie maakt dat fysiek mogelijk zonder de bekabelingsinstallatie elke keer opnieuw te ontwerpen.

Wanneer het GEEN zin heeft

Optische interconnectie is niet het juiste startpunt voor elke omgeving. Als uw datacenter voornamelijk gebalanceerde workloads voor algemene- doeleinden uitvoert op conventionele servers, en uw rack-naar-rack-verkeer bescheiden is en goed-wordt bediend door de bestaande koperinfrastructuur, zijn de kosten en complexiteit van een optische-eerste structuur mogelijk niet gerechtvaardigd. Op dezelfde manier, als u op een schaal werkt waarbij enkele tientallen servers aan uw behoeften voldoen, kan de desaggregatie zelf meer operationele complexiteit met zich meebrengen dan het bespaart. De architectuur loont wanneer schaal, heterogeniteit en onevenwichtigheid van hulpbronnen reëel en meetbaar zijn - en niet hypothetisch.

Wat u moet evalueren vóór implementatie

1. Breng uw daadwerkelijke knelpunt in kaart

Begin met een duidelijke vraag: wat is de bindende beperking? Is het bereik (koperpaden te kort voor uw rackindeling)? Bandbreedtedichtheid (niet genoeg doorvoer per kabel om uw GPU-cluster te voeden)? Vermogen (elektrische verbindingen verbruiken te veel wattage bij 400G+)? Gebruik van hulpbronnen (servers zijn overprovisioneerd op de ene as en uitgehongerd op de andere)? Optische interconnectie is het meest waardevol wanneer het knelpunt fysiek en meetbaar is, niet wanneer het wordt aangenomen als een algemeen moderniseringsgebaar.

2. Evalueer de totale systeemkosten, niet de kabelkosten

Een veelgemaakte fout is het vergelijken van de prijs van een koperen kabel met de prijs van eenoptische kabelin isolatie. Die vergelijking is misleidend. De zinvolle vergelijking omvat het energieverbruik, de thermische overhead (en de koelingskosten die dit met zich meebrengt), de poortdichtheid per rack-eenheid, het bruikbare bereik, de upgradeflexibiliteit en de kosten van gestrande bronnen in de bredere architectuur. In veel gedesaggregeerde omgevingen met 400G en hoger zijn de totale eigendomskosten van glasvezel lager dan die van koper als je rekening houdt met het volledige systeem.

3. Controleer de compatibiliteit en operationele gereedheid

Evalueertesten van glasvezelkabelsvereisten, module-interoperabiliteit, monitoringtools en de operationele bekendheid van uw team met glasvezel. Inplugbare optische modules (OSFP, QSFP-DD) zijn goed-gestandaardiseerd en breed ondersteund, maar uw operationele team moet vertrouwd zijn met het omgaan met glasvezel, het opschonen en het oplossen van problemen voordat u het op grote schaal kunt implementeren. Overweeg om te beginnen met een pilotdomein waarin u deze operationele factoren kunt valideren.

4. Houd rekening met de levensduur van de vezelfabriek

Een belangrijk voordeel van glasvezelinfrastructuur is dat de passieve glasvezelinstallatie - de kabels, patchpanelen en paden - meerdere generaties transceivertechnologie kan ondersteunen. Een goed-ontworpenconnectiviteit van datacentersDe glasvezelfabriek die vandaag voor 400G is geïnstalleerd, kan upgrades van 800G en 1,6T ondersteunen door transceivers te verwisselen, zonder nieuwe kabels te trekken. Dat maakt de initiële investering in glasvezel beter verdedigbaar over een planningshorizon van tien jaar.

Een praktisch adoptiepad

Stap 1: Identificeer één beperkt domein.Zoek naar de plek waar koperbereik, stroom, bandbreedtedichtheid of stranding van hulpbronnen al meetbare pijn veroorzaken. Dat kan een GPU-clusteruitbreiding zijn, een knelpunt van rack-naar-rack in een analyseomgeving, of een pilot met geheugenpooling.

Stap 2: Pilot en valideer.Implementeer optische interconnect in dat domein. Meet latentiegedrag, stroomverbruik, operationele complexiteit en uitbreidingseconomie ten opzichte van uw bestaande basislijn.

Stap 3: Breid uit op basis van bewijs.Gebruik de pilotgegevens om de zakelijke en technische argumenten op te bouwen voor bredere acceptatie. Disaggregatie en optische migratie kunnen zelden het beste worden aangepakt als één groot-knalproject. Dankzij de gefaseerde implementatie kunt u leren, aanpassen en het vertrouwen van uw organisatie opbouwen.

Beslissingschecklist: is Optical Interconnect geschikt voor uw desaggregatie-initiatief?

  • Zijn de verbindingsafstanden van uw rack-naar-rack of kamer-naar-kamer groter dan het praktische bereik van koper bij uw doelsnelheid?
  • Bent u van plan om op korte termijn 400G of hogere verbindingssnelheden in te zetten?
  • Wordt het stroomverbruik van elektrische verbindingen een betekenisvol deel van het energiebudget van uw datacenter?
  • Evalueert u CXL-gebaseerde geheugenpooling, samenstelbare infrastructuur of GPU-clusteruitbreiding?
  • Is het vastlopen van resources (inactieve rekenkracht, geheugen of opslag opgesloten in vaste servers) een meetbaar kostenprobleem?
  • Moet uw omgeving rekenkracht, geheugen en opslag met verschillende snelheden schalen?

Als drie of meer hiervan van toepassing zijn, verdient optische interconnect een serieuze evaluatie als onderdeel van uw desaggregatie-roadmap.

Veelgestelde vragen

Wat is optische interconnectie in een datacenter?

Optische interconnectie is een transporttechnologie die gebruik maakt van lichtsignalenglasvezelkabelsom gegevens te vervoeren tussen netwerkapparaten, servers, switches, opslagsystemen en bronnenpools binnen en tussen datacenters. Het biedt een hogere bandbreedte, een groter bereik en een lager vermogen per bit vergeleken met koper bij gelijkwaardige snelheden - waardoor het vooral belangrijk is voor gedesaggregeerde en AI--georiënteerde architecturen.

Hoe verschilt optische interconnect van CXL?

Ze opereren op verschillende lagen. Optische interconnectie is een fysieke transporttechnologie - die bits van punt A naar punt B verplaatst met behulp van licht. CXL is een protocolstandaard die definieert hoe CPU's, geheugen en versnellers coherent communiceren. Optische verbindingen kunnen CXL-verkeer vervoeren, maar CXL loopt ook via elektrische verbindingen voor verbindingen met een kort-bereik. Teams evalueren beide vaak tegelijkertijd omdat disaggregatie vraag creëert naar zowel betere protocollen (CXL) als beter fysiek transport (optica).

Kunnen koper en optisch naast elkaar bestaan ​​in een opgesplitst datacenter?

Ja, en dat doen ze meestal ook. De meeste gedesaggregeerde omgevingen gebruiken koper voor zeer korte verbindingen binnen- racks (minder dan 3-5 meter), waar het eenvoudiger en goedkoper blijft, en optische vezels voor rack-naar-rack, rij-naar-rij, en langere paden waar de beperkingen van het bereik, het vermogen en de dichtheid van koper bindend worden. De beslissing is bereik-afhankelijk, niet alles-of-niets.

Wat is co-verpakte optica en heb ik dit nu nodig?

Co{0}}packaged optics (CPO) integreert optische motoren rechtstreeks in hetzelfde pakket als de switch-ASIC of processor, waardoor de noodzaak voor afzonderlijke insteekbare transceivers wordt geëlimineerd en het stroomverbruik en de latentie worden verminderd. NVIDIA en Broadcom implementeren CPO in de volgende-generatie AI-netwerkplatforms. De meeste datacenters hebben tegenwoordig geen CPO nodig -insteekbare optische modulesblijven de standaard - maar CPO staat op de routekaart voor grootschalige- AI-infrastructuur in de periode 2026-2028.

Wanneer moet ik GEEN disaggregatie nastreven met optische interconnectie?

Als uw productietaken goed zijn-gebalanceerd over rekenkracht, geheugen en opslag; je schaal is bescheiden (enkele tientallen servers); en uw bestaande koperinfrastructuur kan probleemloos uw huidige bandbreedtebehoeften en de komende -termijnbehoeften op de korte termijn verwerken - de extra complexiteit van desaggregatie en optische migratie is wellicht de investering niet waard. Begin met het knelpunt, niet met het modewoord.

Welke soorten glasvezel worden gebruikt in de optische interconnectie van datacenters?

Single-glasvezelwordt gebruikt voor verbindingen over langere- afstanden en hogere- snelheden (doorgaans rack-naar-rack en verder).Multimode glasvezelis gebruikelijk voor kortere intra{0}}data-verbindingen tot een paar honderd meter. De keuze is afhankelijk van het benodigde bereik, de snelheid en het kostenprofiel van elke koppeling.

 

Aanvraag sturen