Az új adatátviteli rendszert rendkívül nagy sebességre tervezték a fejlesztők, megjelenésével nagyobb lendületet ad majd a PC-knek, mint egy átlagos új technológia.
Az elsők között lenni nem mindig akkora előny, mint azt sokan hiszik - állítják a technológiát implementálni tervező cégek. Nem lehet egy korábban bevált stratégiát követni, nincsenek tapasztalatok, és nincsen visszajelzés sem az előző termékekről. A fejlesztési és előállítási költségek jóval magasabbak, mint egy elterjedt technológia esetében, ami jó ideig szinte lehetetlenné teszi a termékek jövedelmezőségét, mivel egy új rendszer elfogadtatásához és elterjesztéséhez olyan szinten kell tartani az árakat, ami versenyképessé teszi azokat. Ráadásul eleinte gondok lehetnek még a kompatibilitás és a támogatás kérdésében is.
Az InfiniBandet azonban olyan öszszefogással fejlesztették ki, hogy ezekkel a gondokkal a lehető leggyorsabban megbirkózzon. Ennek ellenére egyelőre nehéz lenne megmondani, hogy az új összeköttetési technológia mikor és hol lesz a leghasznosabb.
A buszrendszerek múltja
Amikor az Intel 386 szélesebb körben kezdett elterjedni, az IBM, a Hewlett-Packard és a többi gyártó is elismerte, hogy az akkori 8,3 MHz-es, 16 bites ISA busz nem elég a nagy teljesítményt igénylő alkalmazások megfelelő futtatásához. Az ISA-forgalmazók csoportja és az IBM óriási fejlesztésekbe kezdett, hogy egy új, 32 bites buszrendszert fejlesszen ki, amely hatékony megoldást jelent a problémára. E törekvések eredménye volt az EISA szabvány, amely egész egyszerűen az ISA busz megduplázása volt, elődjénél kétszer több összeköttetéssel. Az EISA bevezette a "bus masteringet", ami lehetővé tette a perifériáknak, hogy könnyebben kommunikáljanak egymással. Az IBM Microchannel egy ennél sokkal jobb technológiának látszott, de ahogy a VHS-béta esetében, itt is a rosszabb technológia győzött. Ennek oka leginkább az volt, hogy az EISA-t könnyebb volt implementálni. Az IBM végül feladta, és maga is EISA buszos termékeket adott ki.
A 90-es évek elején ismét egy újabb, gyorsabb technológia vált szükségessé az akkor még mindig általános ISA leváltására. Az új, gyorsabb buszra leginkább a videokártyák miatt volt igény, amelyek sebességét behatárolta a lassú adatátviteli platform. A CPU, a memória és a videokártya közti adatátvitelre a 8,3 MHz-es sín édeskevésnek bizonyult. A fejlesztők azt is észrevették, hogy a gyorsabb sínek a szoftverek működési sebességére is jelentős hatással vannak. A VESA Local Bus (VLB) szinkronban működött az ISA busszal, néhány pluszösszeköttetéssel, illetve közvetlenebb memória- és processzoreléréssel.
Sajnos a VLB kártyák csak a videokártyák esetében jelentettek sebességnövekedést. A VESA Local Bus versenytársa, a Peripherial Connect Interface (PCI) volt, amely különálló, 32 bites, 33 MHz-es buszt jelentett. A PCI sokkal gyorsabb volt, tehát nagyobb adatmenynyiségek továbbítását tette lehetővé, ráadásul mindenféle kártyához optimálisnak bizonyult. A PCI kisebb helyet foglalt, és úgy tervezték, hogy sebességét a jövőben fokozatosan növelni lehessen.
Manapság a legtöbb PC-kategóriájú asztali gépben a PCI busz az elsődleges, a szerverekben pedig tulajdonképpen egyeduralkodó. A dupla, négyszeres és hatszoros sebességű változatokat az AGP-sín képében találhatjuk meg, amelyet grafikus kártyákhoz alakítottak ki. Úgy tűnik, a jelenlegi leggyorsabb PCI busz a maga 66 MHz-es órajelével és 64 bites kialakításával is lassan kevés lesz.
Hogy miért a PCI lett sikeres, amikor a Microsoft ugyanabban az időben egy sokkal jobb technológiával elbukott? A PCI-t számos cég közösen fejlesztette ki, és ezek a társaságok még most is együttműködnek. Ezenkívül az ISA busz lassúságát is túlélte a számítástechnika, a gyors processzoroknak és memóriáknak köszönhetően. Az InfiniBand, amennyiben a helyes utat követi, ugyanolyan sikeres lehet, mint a PCI.
Kinőttük a PCI-t?
Ma már egyre jobban látszik, hogy a megosztott buszarchitektúra - amelyben az egységeknek meg kell küzdeniük a sávszélességért - már idejétmúlt. A mai bővítőkártyák túl nagy sávszélességet igényelnek ahhoz, hogy ez a módszer tökéletes eredményhez vezessen. A helyzet valamennyit javítható a busz sebességének növelésével vagy több független busz létrehozásával.
A nagyobb adatátviteli sebességhez magasabb órajel vagy nagyobb menynyiségű, párhuzamosan továbbított adat kell. A párhuzamosan továbbított bitek számának növelése a sebesség mellett rohamosan bonyolítja a szükséges interfészelektronikát is, ami a költségek szempontjából nem kívánatos. Ennél jobb megoldásnak tűnik a párhuzamosan érkező adatok sorossá alakítása, majd az átvitel utáni újbóli visszaalakítása - és az InfiniBand éppen így működik.
Ugyanazok az áramkörök megemelt sebesség mellett többet fogyasztanak, aminek kompenzálása költséges technikai átalakításokat igényel, és ez az árakat emeli, vagy a cég profitját rontja le. A nagyobb sebességhez precízebben működő félvezetők kellenek, emiatt általában csökken a gyár előállítási kapacitása is. A párhuzamos csatornáknál, mint amilyen a PCI, a párhuzamosan átvitt bitek számával egyre nagyobb gondot jelent a csatornák között létrejövő interferencia. Ez ráadásul még tovább nő, ha emeljük a frekvenciát.
PC-szerverekben gyakran lehet találkozni több egyenértékű, de egymástól független PCI busszal. Bár a rendszer működik, a buszok hatékony használata, valamint a számítógép házának mérete korlátokat szab. A legjobb megoldás feltehetően az lenne, ha egy PCI buszhoz csak egy kártya tartozna, és a PCI buszok - független működtethetőségük megtartása mellett - kommunikálni tudnának egymással.
Milyen termékek várhatók?
Mint már szó volt róla, az InfiniBandet rendkívül nagy adatátviteli sebességre tervezték, így elsőként a nagy teljesítményű, 4-16 processzoros, minimum 4 GB memóriával rendelkező szerverekben és munkaállomásokban alkalmazzák. Az ilyen kategóriájú gépek ma még igen ritkák, de a technika fejlődésével egyre elérhetőbbek lesznek.
Az első szembetűnő tulajdonság a kapcsolt architektúra, amely lehetővé teszi, hogy az InfiniBand egységek a szerver magjától külön házban legyenek. Egyes szerverek ma is alkalmaznak ilyen technikát, például a Dell PowerEdge 6000 is, amelynek házában csak a processzorok vannnak, a memória, a perifériák pedig külön egységben kaptak helyet.
Bár a perifériák külön elhelyezésével megnövekedhet a hibalehetőség, a szerver magja egyszerűbbé válik. A módszerrel nincs szükség a PCI buszok és a hot-swap merevlemezek fődobozba zsúfolására, így kisebb az esélye, hogy a meghajtók karbantartása közben gondok akadnak a szerver magjával. A zsúfoltság megszűnésével a hűtés is kisebb gondot jelent majd, ezért a teljesítményfelvétel csökken.
Az InfiniBand kapcsolt architektúrája a Fibre Channelhez hasonlóan több, jól elkülöníthető egységből épül fel. Ezek az egységek a Host Channel Adapter (HCA), a kapcsolóegység és a célsín egységei. Ezek közül a Host Channel Adapternek mindenképpen az alaplapra integrálva kell lennie, és közvetlen hozzáféréssel kell rendelkeznie a memóriához és a CPU-(k)hoz. Amennyiben
a rendszerben PCI buszra is szükség van, akkor a HCA kapcsolódik közvetlenül a processzorhoz, és a PCI csak ezen keresztül kommunikálhat a CPU-val, a memóriával és a többi egységgel. A HCA a központi chipset része.
A jövő év közepétől várhatóan esik az InfiniBand egységek ára, ami lehetővé teszi kisebb szerverekben, munka-állomásokban való használatukat is. Az InfiniBand eszközök (például merev-lemezek) előnye, hogy több gépről is elérhetőek, tehát hardverszinten hálózat alakítható ki belőlük.
Az InfiniBand olyan lökést adhat a PC-k fejlődésének, hogy a technológiát alkalmazó szerverek akár a nagygépes rendszerekkel is felvehetik majd a versenyt. A nagygépes rendszerek I/O megoldásai sokkal fejlettebbek, mint a PC-ké, mert a nagygépek fejlesztői több figyelmet fordítottak erre a kérdésre. A személyi számítógépek fejlesztői a nyers számítási teljesítményre koncentrálnak leginkább, ezen a téren a PC-k lemaradása nem is olyan nagy. Szakértők szerint a személyi számítógépek operációs rendszerei tudásban sajnos sokkal nagyobb lemaradásban vannak a nagygépes rendszerekhez képest - e hátrány ledolgozására sokkal több időre lesz szükség.