W ramach naszej witryny stosujemy pliki cookies. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w twoim urządzeniu końcowym. Możesz dokonać w każdym czasie zmiany ustawień dotyczących cookies. Więcej szczegółów w naszej Polityce Prywatności. Kliknij tutaj aby ukryć ten komunikat.
Logo Alstor

Adaptery Mellanox Connect-IB™ Single/Dual-Port InfiniBand Host Channel

Karty sieciowe Connect-IB to najwyższa jakość i najbardziej skalowalne rozwiązanie do podłączenia serwerów i pamięci masowych. High- Performance Computing, Web 2.0, Cloud, Big Data, Usługi Finansowe, Virtualized Data Centers czy Storage, wszystkie te aplikacje osiągną znacznie większą wydajność, co przekłada się na krótszy czas realizacji zadań i niższe koszty eksploatacji.

Producent: Mellanox

Karty sieciowe Connect-IB to najwyższa jakość i najbardziej skalowalne rozwiązanie do podłączenia serwerów i pamięci masowych. High- Performance Computing, Web 2.0, Cloud, Big Data, Usługi Finansowe, Virtualized Data Centers czy Storage, wszystkie te aplikacje osiągną znacznie większą wydajność, co przekłada się na krótszy czas realizacji zadań i niższe koszty eksploatacji.

Connect-IB zapewniają najwyższą wydajność przy maksymalnej przepustowości i niskie opóźnienia dla serwerów i pamięci masowych nastawionych na dużą wydajność. Maksymalna przepustowość jest zapewniona poprzez złącze PCI Express 3.0 x16 oraz dwa porty FDR InfiniBand, zapewniając ponad 100 Gb/s całkowitej przepustowości wraz z konsekwentnie niskimi opóźnieniami pomiędzy wszystkimi rdzeniami procesora. Connect-IB umożliwia również systemom ze złączem PCI Express 2.0  na pełne wykorzystanie zalet FDR, które zapewniają co najmniej dwa razy większą przepustowość niż istniejące rozwiązanie PCI-e 2.0.

Korzyści

  • Najwyższa wydajność kastra, sieci czy pamięci masowej
  • Gwarantowana przepystowość i niskie opóźnienia
  • Konsolidacja I/O
  • Akceleracja wirtualizacji
  • Oszczędność energii
  • Skalowalność do kilkudziesieciu tysiecy nodów

Główne zalety

  • Ponad 100Gb/s poprzez InfiniBand
  • Poand 130M messages/sec
  • 1us MPI ping latency
  • PCI Express 3.0 x16
  • odciążenie CPU z operacji przesyłu danych
  • Odciążenie aplikacji
  • Przyśpieszenie komunikacji GPU
  • Wewnętrzna ochrona danych end-to-end
  • QoS i kontrola zatorów end-to-end
  • Sprzętowa wirtualizacja I/O
  • RoHS-R6
Symbol Porty InfiniBand PCI Express
MCB191A-FCAT  Single FDR 56Gb/s 3.0   x8
MCB192A-FCAT  Dual FDR 56Gb/s 3.0   x8
MCB193A-FBAT  Single FDR 56Gb/s 2.0   x16
MCB193A-FCAT  Single FDR 56Gb/s 3.0   x16
MCB194A-FCAT  Dual FDR 56Gb/s 3.0   x16