InfiniBand

De Viquipèdia
Dreceres ràpides: navegació, cerca

InfiniBand és un bus de comunicacions sèrie d'alta velocitat, dissenyat tant per a connexions internes com a externes.

Les seves especificacions són desenvolupades i mantingudes per la Infiniband Trade Association (IBTA).

Descripció[modifica | modifica el codi]

Igual que Fibre Channel, PCI Express i altres maneres d'interconnexió moderns, Infiniband utilitza un bus sèrie bidireccional de tal manera que evita els problemes típics associats a busos paral·lels en llargues distàncies (en aquest context, una habitació o edifici). Malgrat ser una connexió sèrie, és molt ràpid, oferint una velocitat bruta d'uns 2.5 Gigabits per segon (Gbps) en cada adreça per enllaç. Infiniband també suporta doble i fins i tot quàdruples taxes de transferència de dades, arribant a oferir 5 Gbps i 10 Gbps respectivament. S'usa una codificació 8B/10B, amb el que, de cada 10 bits enviats solament 8 són de dades, de tal manera que la taxa de transmissió útil és 4/5 de la mitjana. Tenint això en compte, les amplades de banda ofertes per les maneres simple, doble i quàdruple són de 2, 4 i 8 Gbps respectivament.

Els enllaços poden afegir-se en grups de 4 o 12, anomenats 4X o 12X. Un enllaç 12X a quàdruple ritme té un cabal brut de 120 Gpbs, i 96 Gbps de cabal eficaç. Actualment, la majoria dels sistemes usen una configuració 4X amb ritme simple, encara que els primers productes suportant doble ritme ja estan penetrant al mercat. Els sistemes més grans, amb enllaços 12X s'usen típicament en llocs amb gran exigència d'amplada de banda, com a clústers de computadors, interconnexió en superordenadors i per a interconnexió de xarxes.

La latència teòrica d'aquests sistemes és d'uns 160 ns. Les reals estan entorn dels 6 us, depenent bastant del programari i el firmware.

Infiniband utilitza una topologia commutada de manera que diversos dispositius poden compartir la xarxa al mateix temps (en oposició a la topologia en bus). Les dades es transmeten en paquets de fins a 4 kB que s'agrupen per formar missatges. Un missatge pot ser una operació d'accés directe a memòria de lectura o escriptura sobre un node remot (RDMA), un enviament o recepció pel canal, una operació de transacció reversible o una transmissió multicast.

Igual que en el model de canal utilitzat en la majoria dels mainframes, totes les transmissions comencen o acaben amb un adaptador de canal. Cada processador conté un host channel adapter (HCA) i cada perifèric un target channel adapter (TCA). Aquests adaptadors també poden intercanviar informació relativa a la seguretat o a la qualitat de servei de l'enllaç.


Història[modifica | modifica el codi]

Infiniband sorgeix com a resultat de la unió de dos dissenys competidors, Future I/O, desenvolupat per Compaq, IBM i Hewlett-Packard, juntament amb Next Generation I/O (ngio), dissenyat per Intel, Microsoft i Sun Microsystems. Al seu torn, el disseny de Compaq va tenir el seu origen en Servnet, de Tandem Computer Inc. Unides ja ambdues branques, durant un breu període de temps el nom de la tecnologia va ser System I/O, fins que finalment es va canviar a Infiniband.

Infiniband es va dissenyar al principi com una xarxa a nivell de sistema que valdria per connectar processadors i proporcionar funcions d'entrada/sortida d'alta velocitat per a les aplicacions de baix nivell. Jugant aquest paper podria desplaçar a molts estàndards d'entrada/sortida de dades, com PCI, Fibre Channel i fins i tot algunes xarxes com Ethernet. En el seu lloc, totes les CPUs i perifèrics es connectarien a un només node de commutació Infiniband. Aquesta visió oferia un gran nombre d'avantatges a part de l'alta velocitat, com per exemple que l'entrada/sortida deixaria de carregar als processadors i dispositius d'emmagatzematge. En teoria, això permetria crear clústers a menor preu i amb major facilitat, perquè els dispositius podrien ser compartits i moguts fàcilment segons la càrrega de treball. Una visió no tan revolucionària consistia a veure Infiniband com una connexió de baixa latència i gran amplada de banda per datacenters, amb enllaços connectant potser solament els servidors i emmagatzematge, deixant la resta de les connexions a altres protocols i estàndards com PCI.

No obstant això, l'ús donat a Infiniband ha estat fins i tot menor. Avui dia s'usa en la seva major part per a clústers d'alt rendiment, encara que hi ha hagut esforços per adaptar l'estàndard a connexions entre màquines de baix cost per a aplicacions comercials i tècniques més usuals. Del TOP500 de Supercomputadores, unes quantes han usat Infiniband incloent el System X de Virginia Tech.

Malgrat no haver-se convertit en la tecnologia de xarxa multiús, Infiniband està tenint més èxit que altres solucions de connexió entre computadores, com Quadrics (QsNet) i Myricom (Myrinet). En el segment dels superordinadors, la competència de Infiniband segueix sent el baix cost i relativa difusió de Gigabit Ethernet. A més, els professionals de xarxes i informàtica posseeixen un vast coneixement i experiència en instal·lació de Ethernet. Segons Gigabit Ethernet evolucioni cap a 10-gigabit Ethernet, Infiniband s'enfrontarà a una competència encara més dura. Infiniband conservarà un throughput màxim global major (en maquinari QDR), però al nivell de 10 Gbit/s i nivells inferiors, l'avantatge principal de Infiniband és la seva arquitectura (més que la seva velocitat). Altres competidors amb Infiniband són les diverses TCP i Ethernet millorades, com TCP Offload Engine, i RDMA Ethernet.

Recentment, SGI ha presentat productes d'emmagatzematge amb "adaptadors objectiu" Infiband.