INFINIBAND(인피니밴드)

   

대부분의 컴퓨터 장치들은 I/O를 위해 하나의 데이터 통로를 공유하는버스(BUS)기반의 I/O 아키텍처를 채택하고 있다. 하지만 최근 들어 전통적 I/O 아키텍처가 한계를 드러내고 있다.

   

실제로 대규모의 서비스 경우에는 이러한 I/O의 성능 저하를 줄이고자다수의 Gigabit LAN을 사용한다. 이는 PCI-X나 PCI_Express 인터페이스를 통하여 빠른 데이터환경을 구성한다. 하지만 PCI의 성능에도 한계가 있다. 64비트 전송모드에서 초당 1Gbytes를 전송하는데 그치기 때문이다. 이는 대략 8Gbps의 전송량이다.또한 10Gbps의 네트워크 인터페이스는 쌍방향 통신을 하기 때문에 실제 20Gbps의 대역폭이 필요하다.

  

동작 주파수

최대 32bit 전송 속도

최대 64bit 전송 속도

PCI

33Mhz

133MB/s

266MB/s

PCI

66Mhz

266MB/s

532MB/s

PCI-X

100Mhz

지원 안함

800MB/s

PCI-X

133Mhz

지원 안함

1GB/s

AGP8X

-

2.1GB/s

지원 안함

   

이와 같은 상황에서도 네트워크을 통하여 파일을 복사해 보면 시스템 성능이 저하되는 것을 확인 할 수 있다. 이처럼 I/O 처리에 따른 성능 저하를 해결하기 위해 1999년 InfiniBand Trade Association(IBTA)라는단체를 출범 하였으며 Dell, Intel, Sun, AMD, HP, IBM, 오라클, 시스코 등 업체가 참여 하였다. 슈퍼컴퓨터나 HPC(High Performance Computing)에서 서버간 데이터 통신에 사용되고 있다.

   

 

   

 

    

   

   

INFINIBAND는 PCIExpress, Sas 및 광 채널 인터페이스처럼 통신 채널과 같이 쌍방향 시리얼 버스를 이용하는 통신 채널이다. 인피니 밴드의 특징으로는 하나의 채널 만으로도 2.5Gbps 정도의높은 속도를 제공한다. 또한 이 채널을 4개 또는 12개 단위로 묶을 수 있고 묶은 규격에 따라 4X, 12X로 표현하고있다.

[인피니밴드 채널 별 속도 (총대역폭 / 사용자 사용 가능 대역폭)]

  

Single Data Rate

Double Data Rate

Quad Data Rate

1X

2.5 / 2Gbit/s

5 / 4Gbit/s

10 / 8Gbit/s

4X

10 / 8Gbit/s

20 / 16Gbit/s

40 / 32Gbit/s

12X

30 / 24Gbit/s

60 / 48Gbit/s

20 / 96Gbit/s

   

인피니밴드의 활용으로는 컴퓨팅 자원의 클러스터링이나 그리드 컴퓨팅에 매우 유용할 듯 하다. 또한 스토리지 시스템도 기존의 방식(서버에 종속적인 스토리지)에서 벗어나 스토리지를 공유 함으로써 더욱 고성능 하드웨어의 I/O 및신뢰성 등을 지향 할 수 있으며 서버 이중화 및 확장에 이점이 많으리라 생각한다.

   

참고 자료

https://blogs.oracle.com/networking/entry/infiniband_building_blocks

http://www.intel.com/content/www/us/en/data-center/data-center-management/infiniband-architecture-general.html

'SW Engineering > IT 일반' 카테고리의 다른 글

IP로 접속 위치 확인하기  (0) 2015.07.22
IncrediBuild 설정  (0) 2015.07.22
INFINIBAND(인피니밴드)  (0) 2015.07.22
VMware 가상 머신 설정  (0) 2015.07.22
VMware 환경의 성능모니터 확인  (0) 2015.07.22
원격 데스크톱 연결 관리프로그램  (0) 2015.07.22

+ Recent posts