기술 포털
기술 포털
GigE Vision 카메라용 UDP, TCP 및 RDMA
GigE 비전 + GVSP
- 15년 이상의 광범위한 사용
- 완전히 승인되고 성숙한 표준
- 대규모 채택
- UDP 기반 프로토콜
- 진정한 스트리밍 프로토콜
- 멀티 캐스트 지원
- 필요한 모든 것을 갖추고 있습니다
- 고속에서 적절하게 설계된 수신기 필요
잠시 시간을 내어 GigE Vision의 이면에 있는 기술을 이해하겠습니다. GVSP는 현재 표준에서 사용되는 이더넷 스트리밍 프로토콜입니다. 스트림은 여러 프레임(또는 이미지)으로 구성됩니다. 각 프레임은 리더 패킷, 여러 이미지(또는 페이로드) 패킷 및 트레일러 패킷으로 구성됩니다. 모든 패킷은 연결되지 않은 프로토콜인 UDP 이더넷 프로토콜을 따릅니다. 이것은 단순히 카메라가 패킷을 전송하고 수신기가 대상 버퍼에 데이터를 배치하는 작업을 맡는다는 것을 의미합니다. 연결되지 않은 프로토콜이라는 것은 최대 네트워크 성능으로 이어지는 네트워크 오버헤드가 없음을 의미합니다. 또한 멀티캐스팅과 같은 기본 기능이 지원됨을 의미합니다. 데이터 손실을 방지하려면 수신기를 적절하게 설계해야 합니다. CXP도 이와 동일한 프로토콜을 따르고 대상 버퍼에 데이터를 배치하는 작업을 수신기에 맡깁니다. 이것은 고품질 수신기로 최고의 성능과 최저 대기 시간 및 지터로 이어집니다. 일부 회사는 품질이 좋은 수신기를 설계할 수 없기 때문에 대체 경로를 선택하게 되었습니다.
그림: GVSP 프레임 및 패킷 구조.
기존 GigEVision + GVSP
- 메모리 복사 필요(소프트웨어에서 헤더 분할)
- 더 높은 CPU %
- 3x 시스템 메모리 대역폭
- 3배 더 강력한 PC
- 3x PC 수량
- 1/3 시스템 밀도
- 고속에서 잘 설계된 수신기 필요
기존 GVSP는 소프트웨어에서 헤더 분할을 사용합니다. GVSP 패킷에서 헤더를 제거하고 페이로드 패킷의 이미지 데이터를 연속 메모리 버퍼에 저장합니다. 이 프로세스는 CPU 사용량을 높이지만 더 중요한 것은 3 복사 구현에 비해 0배의 시스템 메모리 대역폭 사용량. 그 결과 시스템에 대해 33%의 효율성이 발생합니다. 다양한 방식으로 시스템 비용에 포함됩니다. 이것은 잘못 설계된 수신기의 예이며 시장에 많이 있습니다. 10GigE에서도 여전히 이 작업을 수행하고 있지만 일부 회사는 단일 서버에서 여러 1GigE 카메라를 실행하는 데 문제가 있습니다. 모두 열악한 수신기 설계와 관련이 있습니다.
그림: 기존 GigEVision + GVSP 구현의 데이터 경로.
최적화된 GigEVision + GVSP
- 진정한 제로 카피
- OTS NIC에서 헤더 분할(HS) 사용
- 전체 커널 우회
- M&E 시장에서 SMPTE 2110에 사용되는 HS
- 산업 처리 카드 지원
- 최저 대기 시간 및 지터
- 품질 구현으로 재전송 또는 흐름 제어가 필요하지 않음(필요하지 않음)
- GigEVision 준수 유지
최적화된 GVSP는 OTS 성능 NIC 및 기타 처리 장치에서 사용할 수 있는 하드웨어에서 헤더 분할을 사용합니다. 이는 데이터 손실에 대한 허용 오차가 2110인 대규모 M&E 시장의 SMPTE 0에서 사용되는 것과 동일한 방법입니다. 이 시장에서 그들은 잘 설계된 수신기에 의존하며 OTS NIC는 SMPTE 2110과 같은 스트리밍 구현뿐만 아니라 RDMA/RoCE와 같은 메시지 및 연결 프로토콜에도 사용되는 헤더 분할 기술을 제공합니다. 우리는 RDMA/RoCE를 지원하는 동일한 공급업체와 협력하여 헤더 분할을 사용하여 현재의 매우 성숙한 GigEVision 사양을 준수하면서 기능이 가장 풍부하고 성능이 가장 뛰어난 수신기를 달성합니다.
그림(위): GigEVsion의 최적화된 구현에서 데이터 경로.
그림(아래): Emergent Vision Technologies의 파트너.
GigEVision + TCP (시도 #1)
- GigEVision 표준 추가 제안
- 비준될 때까지 (아마도 2년 후) *완전 소유권*
- TCP 기반 프로토콜
- 오버헤드로 인해 UDP보다 성능이 저하됨
- 제로 카피 기술이 아님(3x mem bw)
- 재전송/흐름 제어를 버팀목으로 사용
- 스트리밍 프로토콜이 아님(예: USB)
- 엄밀히 말해서 USB/CXP와 같은 포인트 투 포인트
- 멀티캐스트 지원 없음(예: USB/CXP)
- GPUDirect 지원 없음
일부 공급업체는 구현이나 성능 달성 시 헤더 분할 기술에 문제가 있어 다른 솔루션을 찾습니다. 일부는 또한 매우 저렴한 NIC 또는 낮은 성능의 마더보드 상주 칩에 의존하려고 시도합니다. 이는 문제가 발견될 경우 높은 처벌을 받는 웨이퍼 처리와 같은 응용 분야에 위험합니다. 한 가지 제안은 TCP를 사용하는 것입니다. 이 연결된 프로토콜은 UDP에 비해 제한된 이점을 제공합니다. TCP는 보다 안정적인 전송을 위해 재전송 및 흐름 제어를 제공하지만 이는 성능에 영향을 미칠 뿐만 아니라 대기 시간 및 지터를 유발합니다. TCP에는 여전히 데이터 복사본이 필요하며 연결된 프로토콜이기 때문에 시스템에 카메라가 추가될 때 안정적인 전송의 이점을 상쇄하는 오버헤드가 있습니다. 성능이 낮은 시스템에서는 괜찮을 수 있지만 많은 시스템을 실행하는 경우 GigE 카메라 단일 시스템에서는 성능이 거의 보장되지 않습니다. 하드웨어 헤더 분할이 없더라도 UDP를 기반으로 적절하게 설계되고 마진이 있는 시스템도 마찬가지입니다. 시스템이 잘 설계되고 여유가 없다면 성능은 결코 보장되지 않습니다.
CXP는 재전송 및 흐름 제어를 사용하지 않으며 최적의 수신기 성능, 대기 시간 및 지터를 제공합니다. 그렇다면 GigE Vision에 다음이 필요한 이유는 무엇입니까?
한 가지 이유는 일부 NIC 카드의 물리적 버퍼링이 불충분하여 OS 변동에 대처할 수 없기 때문입니다. 다른 하나는 열악한 BER 성능입니다.
좋은 소식은 고품질 NIC에 CXP와 같은 충분한 물리적 버퍼링이 있어 이를 처리할 수 있다는 것입니다. 솔직히 BER은 매우 형편없이 설계된 저비용 제품에서만 문제가 됩니다.
그러나 현실은 적절하게 작성된 수신기 코드와 함께 BIOS 변경을 포함하여 적절하게 조정된 서버가 모든 경우에 중요하다는 것입니다.
그림: GigE Vision + TCP 구현은 1단계 전진 및 2단계 후퇴입니다.
GigE Vision + RDMA/RoCE(시도 #2)
- GigEVision 표준 추가 제안
- 비준될 때까지 (아마도 2년 후) *완전 소유권*
- OTS NIC에서 지원하는 RDMA 기반 프로토콜
- 오버헤드로 인해 UDP보다 성능이 저하됨
- 제로 카피 기술
- 재전송/흐름 제어를 버팀목으로 사용
- 스트리밍 프로토콜이 아님(예: USB/CXP)
- 엄밀히 말해서 USB/CXP와 같은 포인트 투 포인트
- 멀티캐스트 지원 없음(예: USB/CXP)
- Windows에서 NVIDIA GPUDirect 지원 없음
RDMA 카메라: 더 많은 오버헤드로 제로 복사 전송
UDP와 마찬가지로 일부 공급업체는 헤더 분할 구현을 피하기 위해 RDMA를 찾고 있습니다. 이들은 시스템에서 2개 이상의 10GigE 카메라로 작업하는 데 문제가 있고 솔직히 1GigE 기반의 다중 카메라 시스템에 문제가 있는 동일한 공급업체입니다.
RDMA는 이미지 버퍼로의 복사 전송을 0으로 달성합니다. 양호합니다. TCP와 마찬가지로 RDMA는 연결된 기술이므로 오버헤드가 발생하고 확장성이 제한됩니다. 시스템이 잘 설계되고 여유가 없으면 성능이 보장되지 않습니다.
RDMA는 보다 안정적인 전송을 위해 재전송 및 흐름 제어를 제공하지만 이것은 TCP와 마찬가지로 성능에 영향을 미치고 대기 시간과 지터를 유발합니다.
TCP와 마찬가지로 RDMA도 멀티캐스팅과 같은 기본적인 네트워킹 기술을 지원할 수 없습니다.
RDMA는 기본적으로 제로 복사 TCP 또는 심지어 USB입니다.
RDMA와 TCP는 모두 점대점 기술이므로 특히 CXP 프레임 그래버와 Emergent의 자체 카드에 사용되는 fpgas에 대해 훨씬 향상된 비용 대비 성능 비율을 고려할 때 CXP나 USB 대신 GigEVision을 사용하는 이유가 궁금할 수 있습니다. RDMA에 사용되는 것과 동일한 NIC를 사용하면 카드의 헤더 분할 기능을 활용하여 무제한 통합을 위해 GigEVision 표준을 그대로 유지할 수도 있습니다.
또 다른 중요한 현실은 TCP 및 RDMA에 대한 흐름 제어 및 재전송이 카메라의 버퍼링을 사용하여 작동한다는 것입니다. 그것이 어디에 있든(카메라에 있든 카드에 있든) 버퍼링은 안정적인 전송을 위한 기본 요구 사항입니다. 또한 모든 디자인에서 UDP, TCP, RDMA 및 CXP를 사용하더라도 이러한 보호 버퍼가 오버플로되면 데이터가 손실됩니다.
그림: GigE Vision + RDMA/RoCE 구현은 1단계 전진 및 2단계 후퇴입니다.
멀티캐스팅
- 연결된 기술은 브로드캐스트/멀티캐스트 앱을 지원하지 않습니다.
- 효율적인 중복 제거
- 분산 처리 제거
- 네트워킹의 주요 기본 요소 제거
- 지금 사용 가능합니다!
이 슬라이드는 멀티캐스트 기술에 대한 요점을 강조합니다. GigEVision+GVSP는 현재 지원하는 유일한 프로토콜입니다. 이 기본 네트워킹 기능. 다른 표준은 신속하게 효율적인 이중화를 요구하는 애플리케이션에서 기각되고 분산 처리.
그림: GigEVision + GVSP만 브로드캐스팅 및 멀티캐스팅을 지원합니다.
인터페이스의 융합
이 슬라이드는 제안되거나 승인된 변경 사항이 어떻게 인터페이스 표준을 수렴하는지 보여줍니다. USB는 대부분 동일하게 유지되지만 점대점 기술입니다. CXP는 GigEVision으로 수렴하는 이더넷 물리 계층을 채택했습니다. GigEVision+RDMA 및 GigEVision+TCP(비준된 경우)는 점대점 기술로서 CXP 및 USB로 통합되고 있습니다. (아마도 2년 후). GigEVision+GVSP는 무결성과 기능 세트를 유지하고 다른 프로토콜과 수렴하지 않습니다.
그림: GigEVision + GVSP만이 진정한 스트리밍 프로토콜로 두드러집니다.
처리 기술
- GPU 카드 – 카드에서 모든 처리 수행
- FPGA 카드 – 카드에서 모든 처리 수행
- GPUDirect - 시스템 메모리를 GPU로 우회
- 피어 투 피어 전송 – 데이터 노드를 노드로 이동
- AI 엔진 – GPU 및 FPGA 카드의 기능
- HPC와 융합하는 NIC 시장
이제 어떤 방법으로든 시스템 메모리에 데이터를 안전하게 보관했다고 가정해 보겠습니다. 이제 우리는 그것으로 무엇을합니까? 우리는 위에서 이 아이디어를 다루었지만 RDMA 또는 TCP를 추가하기 위해 GigE Vision 표준을 수정하려는 사람들의 논의의 일부가 아닌 것 같습니다. 일부 고속 비전 애플리케이션s, CPU 및 시스템 메모리는 충분한 리소스입니다. 여러 개를 사용하는 다른 성능 응용 프로그램의 경우 100GigE, 25GigE 심지어 10GigE 카메라, 실시간 처리를 위해서는 더 적합한 처리 노드로 작업을 오프로드해야 합니다. CPU와 시스템 메모리는 종종 대처할 수 없습니다. 이제 RDMA와 TCP가 중요합니까? 카드가 GVSP를 동일하게 처리할 수 있으므로 대답은 아니오입니다. 이유를 이해하기 위해 몇 가지 예를 살펴보겠습니다.
그림: 기성품 NIC는 픽셀 데이터를 처리할 수 없으며 단순히 픽셀 데이터를 시스템으로 전달합니다.
GPU다이렉트
- 0 CPU 및 0 시스템 메모리 대역폭
- NVIDIA 제품에는 Windows용 Rivermax가 필요합니다.
- NVIDIA는 파트너십이 필요합니다 – 소수 선택
- Linux는 표준 GPU에서 GPUDirect를 위해 열려 있습니다.
- Windows에서 80% MV 애플리케이션
- 일부 앱에는 AOI, 드론, VR, 스포츠가 포함됩니다.
- PC 요구 사항 감소
- 피어 투 피어 지원
- 지금 사용 가능합니다!
GPUDirect는 환상적인 기술이며 많은 고객들이 사용하고 있습니다. AOI, 드론, VR 및 스포츠 애플리케이션에서 몇 가지 예를 들 수 있습니다. 이 경우 CPU와 시스템 메모리는 그대로 유지됩니다. 데이터는 NIC에서 GPU로 직접 전송됩니다. Linux에서는 임의의 NIC가 있는 많은 GPU로 이와 같은 많은 일이 가능합니다. Windows의 NVidia GPU는 Rivermax를 사용하는 Mellanox NIC의 GPUDirect만 허용합니다. Emergent와 같은 엄선된 파트너 공급업체의 경우. 여기서 RDMA는 GPUDirect를 지원하지 않습니다. 머신 비전 애플리케이션의 80%가 Windows에 있기 때문에 제한이 있습니다. 이 기능을 구현하려는 다른 사람들. 이자형mergent는 2년 넘게 이 기능을 지원했습니다.
그림: GPUDirect는 픽셀 데이터를 CPU와 시스템 메모리를 거치지 않고 GPU로 직접 전달합니다.
비디오: GPU 다이렉트 + HZ-65000G 100GigE 데모.
비디오: NVidia Xavier + HZ-21000G 100GigE.
엔비디아 블루필드
- 0 CPU 및 0 시스템 메모리 대역폭
- 단일 PCIe 슬롯 필요
- CPU가 전혀 관여하지 않음
- NVidia 제품은 Windows에서 Rivermax가 필요합니다.
- NVidia는 파트너십이 필요합니다
- Windows에서 80% MV 애플리케이션
- PC 요구 사항 감소
- 피어 투 피어 지원
- HPC를 위한 미래의 통합 모델 출시
- 지금 사용 가능합니다!
이전 슬라이드와 유사하게 NVidia는 NIC를 처리 리소스와 병합했습니다. 단일 슬롯 솔루션을 가능하게 합니다. 미래 모델은 NVidia로 예상됩니다. HPC에 중점을 둡니다. NVidia 파트너로서 Emergent는 이러한 모든 기술에 액세스할 수 있습니다. 이러한 기술은 단일 비디오 스트림에 국한되지 않고 처리할 수 있습니다. 장치의 리소스에 의해서만 제한되는 여러 스트림.
그림: Nvidia Bluefield 기술은 처리 리소스가 내장된 NIC를 제공합니다.
OTS FPGA 카드(GVSP 포함)
- 0 CPU 및 0 시스템 메모리 대역폭
- CPU가 전혀 관여하지 않음
- 기본 Emergent 제공 GVSP 코어 지원 또는 Xilinx 등의 OTS GVSP 코어가 포함된 OTS FPGA 카드
- 풍부한 MV 알고리즘
- 윈도우와 리눅스 지원
- PC 요구 사항 감소
- 피어 투 피어 지원
- 지금 사용 가능합니다!
머신 비전 공간 내에서 우리는 GigEVision+GVSP 프런트 엔드가 있는 FPGA 처리 카드를 제공하는 Matrox 및 Gidel과 같은 회사를 살펴보고 있습니다.
Emergent 카메라와의 원활한 통합. GPU는 처리 노드로서의 역할을 하지만 종종 FPGA 카드는 워크로드를 보다 효율적으로 처리할 수 있습니다. 고객은 공급업체 IP를 활용하여 출시 기간을 단축할 수 있습니다. 이러한 기술은 단일 비디오 스트림에 국한되지 않고 장치 리소스에 의해서만 제한된 여러 스트림을 처리할 수 있습니다.
그림: GigEVision+GVSP 프런트 엔드가 있는 FPGA 처리 카드.
OTS FPGA 카드
- 0 CPU 및 0 시스템 메모리 대역폭
- CPU가 전혀 관여하지 않음
- 기본 Emergent 제공 GVSP 코어 지원 또는 Xilinx 등의 OTS GVSP 코어가 포함된 OTS FPGA 카드
- 풍부한 MV 알고리즘
- 윈도우와 리눅스 지원
- PC 요구 사항 감소
- 피어 투 피어 지원
- 지금 사용 가능합니다!
이더넷의 좋은 점 중 하나는 우리가 활용할 수 있는 방대한 산업 간 리소스 풀입니다. Xilinx는 고급 처리 리소스를 제공하기 위해 긴밀하게 협력하는 공급업체 중 하나입니다. Emergent 카메라와 통합하기 위해 고객은 현재 GigEVision 코어를 가져오고 이를 이미 우리 카메라와 동일한 인터페이스를 가지고 있는 Xilinx Alveo와 같은 많은 카드 중 하나에 포팅할 수 있습니다. GigEVision 드라이버를 처음 사용하는 사용자를 위해 이와 같은 카드용 포팅된 펌웨어 및 드라이버를 제공하여 빠르게 시작하고 실행하고 애플리케이션의 특정 사항에 집중할 수 있도록 합니다. 빠른 검색을 통해 마음대로 사용할 수 있는 풍부한 FPGA 코드 리소스를 알게 될 것입니다. 이러한 기술은 단일 비디오 스트림에 국한되지 않고 장치 리소스에 의해서만 제한된 여러 스트림을 처리할 수 있습니다.
그림: Emergent 카메라는 Xilinx Alveo와 원활하게 통합됩니다.
긴급 카드
- GVSP 지원
- 윈도우와 리눅스 지원
- PC 요구 사항 감소
- GPU다이렉트 지원
- 피어 투 피어 지원
- 전면 포트 트리거
- 전체 공급망 제어
- 지능형 이미지 라우팅
- MV용 스마트 NIC 시리즈의 첫 번째 제품
- 지금 사용 가능합니다!
Emergent의 진출이 시작됩니다. PCIe 카드 지능형 이미지 재정렬, 라우팅,
그리고 확장된 버퍼. 또한 멀리 떨어진 카메라와 광섬유에 적합한 거리에 있는 설정에서 스위치를 피하고자 하는 고객이 있습니다. 그러나 그들은 여전히 긴밀한 동기화를 원합니다. 이미지 트리거링을 위한 작업 명령이 포함된 전면 포트 트리거는 이러한 요구를 충족합니다. 자체 카드를 개발함으로써 일반적인 고객 애플리케이션에 대한 전체 공급망을 관리하고 엄격한 품질 관리를 유지할 수 있습니다. Emergent는 고객의 요구 사항을 충족하는 고급 처리 카드와 애플리케이션별 모듈을 개발하여 시장 출시 시간을 단축할 것입니다. 이러한 기술은 단일 비디오 스트림에 국한되지 않고 장치 리소스에 의해서만 제한된 여러 스트림을 처리할 수 있습니다.
그림: Emergent의 자체 PCIe 카드를 사용하면 데이터 전달을 위한 전체 공급망을 관리할 수 있습니다.
36 카메라 시스템
- 최고 성능의 단일 PC 솔루션
- 윈도우와 리눅스 지원
- 최저 비용의 다중 카메라 설정
- 턴키 eCapture 소프트웨어 지원
- GPU 또는 FPGA 처리 노드로 사용자 지정
- 여러 서버 및 처리 노드로 쉽게 확장 가능
- 0 데이터 손실
- 지금 사용 가능합니다!
우리는 지난 달 NAB Vegas와 같은 무역 박람회와 Stuttgart의 Vision Show에서뿐만 아니라 몇 가지 온라인 프레젠테이션 중에 이 설정을 발표했습니다. 이 시스템은 시장에서 단연 최고 성능과 최고 밀도 솔루션입니다. 이 시스템은 0Gbps의 이미지 데이터를 가져와 210개의 U.8 NVMe 드라이브에 저장하는 데이터 손실이 없습니다. 서버는 eCapture Pro 성능 소프트웨어를 실행하는 단일 미드레인지 AMD 및 Asus 서버 구성입니다. 일부 고객은 이 설정을 사용하고 실시간 처리를 수행하기 위해 사용 가능한 슬롯에 GPU를 추가하기를 원합니다.
우리는 당사의 시스템을 사용하여 단일 시스템에서 최대 250대 이상의 카메라로 시스템을 확장한 고객이 있습니다. 25GigE 카메라 – 이것은 확장성의 용이성을 보여줍니다.
언급했듯이 설정에서 전환을 피하려는 고객이 있습니다. 스위치는 파트너 네트워크를 통한 7,000포트/48G+25포트/8G 구성의 경우 약 $100부터 더 비쌀 수 있지만 전체 시스템 비용을 크게 줄이는 데 도움이 됩니다. 18포트/25G+4포트/100G와 같은 더 작은 구성도 사용할 수 있습니다. 더 많은 회사가 25G/100G 및 PTP 지원을 시장에 출시함에 따라 스위치 시장의 경쟁도 치열해지고 있습니다. 스위치 공급 및 구성 지원을 위해 Emergent에 의지할 수 있습니다.
그림: 36 x 10GigE 카메라 시스템의 구조.
비디오: 36 x 10GigE 카메라 시스템의 데모.
eCapture 프로
eCapture 프로 Emergent의 eSDK 위에 구축되었으며 시장에서 최고의 성능을 달성할 수 있게 해주는 접착제입니다. 맞춤형 성능 배치 가능 시스템을 위해 프로세싱 노드 기술이 추가 및 지원되고 있습니다.
지금 사용 가능합니다!
그림: Emergent의 완전한 기능을 갖춘 애플리케이션 소프트웨어인 eCapture Pro.
질문 / 대답
Emergent는 GigEVision+TCP 또는 GigEVision+RDMA를 채택합니까?
현재 소수의 소규모 기업만이 이 작업에 적극적으로 참여하고 있습니다. 시장에서 가장 큰 플레이어가 부업에 앉아있는 동안 표준. 일부는 실제로 이것을 초기 단계에서 마케팅 노이즈로 사용하려고 합니다. 기존 솔루션에 비해 몇 가지 이점을 설명합니다. 업계 채택은 내 대부분의 것들이 매우 느릴 것으로 예상됩니다. 머신 비전 시장. 완전히 비준된 표준은 2년이 걸릴 수 있습니다. 그래서 우리는 확실히 적응할 시간이 있고 Emergent의 경우 이것은 매우 빠를 것입니다. 기존의 완전히 인증된 제품에 대한 펌웨어 업그레이드를 통해 필요한 경우. 사실은 일반 헤더 분할이 가장 성능이 뛰어나고 가장 유연하다는 것입니다. 오프로드 방법. 유연성의 예는 동일한 방법을 사용할 수 있다는 것입니다. SMPTE 2110 프로토콜용 – RDMA 및 TCP를 사용하는 GigEVision 구현은 다음과 같습니다. 코너에 자신을 권투. 우리가 하지 않을 한 가지는 RDMA 또는 TCP를 함께 사용하는 카메라를 홍보하고 판매하는 것입니다. 오해의 소지가 있을 수 있으므로 추가 사항이 비준될 때까지 GigEVision 로고.
고객이 GigEVision+TCP, GigEVision+RDMA 또는 심지어 GigEVision+GVSP 중 어떤 것을 사용하는지 관심이 있습니까?
현재 어떤 Emergent 고객도 TCP 또는 RDMA에 관심이 없습니다.
다음은 고속 애플리케이션에 대해 고려해야 할 사항입니다.
- 약속 – 공급업체가 빠른 속도에 전념하고 있습니까, 아니면 초점이 부족하여 공급업체가 너무 얇게 분산되어 있습니까?
- 성능 – 나의 성능은 어떤 수단으로 달성됩니까?
- 유연성 – 공급업체가 사용자 지정 옵션을 제공합니까?
- 지원하다 - 지원 요청에 대한 처리 속도는 얼마나 빠른가요? 응용 프로그램의 모든 수준에서 처음부터 끝까지 공급업체와 함께 하시겠습니까?
- 가격 - SYSTEM LEVEL 가격 대비 성능 비율이 수용 가능합니까? 전체 솔루션의 가격을 비교해야 합니다.
- 공급망 – 현재 제품을 얼마나 빨리 받을 수 있으며 몇 년 후에는 받을 수 있습니까?
- 경험 - 이 제품은 얼마나 성숙합니까 한 벤더의 주장을 너무 믿지 않습니까? 실사와 마찬가지로 경험도 중요합니다.
이 모든 사항을 고려하고 결정을 내리십시오.
표준에서 수렴의 원인은 무엇입니까?
표준화가 강력하지 않은 산업에서 컨버전스가 발생합니다. 표준의 문제를 강조 표시할 수 있습니다. 예를 들어 CXP는 앞을 내다보지 못했고 동축 케이블로는 고속 및 더 긴 케이블 길이를 달성할 수 없다는 사실을 깨달았습니다. 그래서 CXP는 이더넷 물리 계층을 채택했습니다. 다른 경우에는 GigEVision+GVSP와 같이 문제가 표준이 아니라 구현에 있기 때문에 일부 사람들은 때때로 매우 서둘러 표준을 변경하고 때로는 마케팅 "나 먼저" 상태를 달성하기 위해 표준을 변경하려고 합니다.
GigEVision+RDMA 대 GigEVision+GVSP에서 버퍼 오버플로가 발생할 가능성이 더 높습니까?
언급한 바와 같이 GigEVision+RDMA의 오버헤드는 GigEVision+GVSP보다 높을 것이며 이로 인해 GigEVision+RDMA 시스템에서 더 빨리 버퍼 오버플로가 발생할 수 있습니다. 이 버퍼를 덜 사용할수록 시스템에서 나타나는 대기 시간과 지터가 낮아진다는 점에 유의해야 합니다. 더 큰 버퍼로 더 큰 안정성을 가질 수 있지만 버퍼에 이미지 백업이 많을수록 성능이 낮아지고 대기 시간과 지터가 높아집니다. 따라서 성능 수신기 드라이버와 협력하여 BIOS 변경 사항을 포함하여 적절하게 조정된 서버는 성능을 최대화하기 위해 버퍼 백업을 제한하는 모든 경우에 중요하다는 점을 상기하십시오.
멀티캐스팅은 고객에게 얼마나 중요합니까?
멀티캐스팅의 주요 두 가지 고려 사항은 분산 처리와 시스템 중복성입니다. 일부 시스템은 중단 시간을 허용할 수 있으며, 이 경우 의심스러운 구성 요소를 수동으로 교체하거나 온라인 상태로 돌아오기 전에 시스템이 재부팅될 때까지 대기하여 시스템 중복성을 처리할 수 있습니다. 멀티캐스팅을 사용하면 가장 빠른 장애 조치 구현이 가능합니다.
일부 시스템은 처리 요구 사항이 낮고 해당 처리는 단일 CPU 처리 노드에서 처리할 수 있습니다. 멀티캐스팅을 사용하면 실시간 병렬 처리를 위해 동일한 이미지 데이터를 여러 처리 노드로 동시에 보낼 수 있습니다.
응급 비전 기술 정보
다음은 Emergent의 모든 내용을 요약한 것입니다.
- 혁신과 고속 GigEVision 이미징 움직임의 개척에 대한 10개 이상의 상
- 10년 이상 배송 10GigE 140개 이상의 모델이 있는 카메라
- 5년 이상 배송 25GigE 55개 이상의 모델이 있는 카메라
- 2년 이상 배송 100GigE 16개 이상의 모델이 있는 카메라
- 카메라 기술 성능 리더
- 고속 이더넷/GigEVision에 집중
- 고속 이미지 데이터 처리 가능에 집중
- 영역 스캔 및 라인 스캔 모델
- 다중 스펙트럼 응용 분야를 위한 UV, NIR, Polarized, Color, Mono 모델
- 완전한 애플리케이션 유연성을 위한 Emergent eSDK
- 나타나는 eCapture 프로 고도로 포괄적인 소프트웨어 솔루션
- 고속 이미징 애플리케이션을 위한 가장 포괄적인 범위의 제품 및 지원
- 모든 속도, 모든 해상도, 모든 케이블 길이
- 지금 사용 가능합니다!
우리는 고속 GigEVision 제품에 중점을 둔 여러 상을 수상한 회사입니다.
우리는 수년 동안 다양한 속도의 제품을 배송했습니다. 10GigE ~까지 100GigE.
우리는 엔드투엔드 기술을 제공하고 고객 애플리케이션을 지원하는 데 중점을 두고 있습니다.
대부분의 애플리케이션 요구 사항을 충족할 수 있습니다.
마지막으로, 제시된 제품은 현재 구매 가능합니다.
10GigEVision 이상 채택
다음은 에서 속도에 이르는 GigEVision 제품의 채택에 대한 빠른 스냅샷입니다. 10GigE ~까지 100GigE. Emergent는 최고의 성능을 달성할 수 있는 방법을 보여주었고 이러한 기술을 사용하여 머신 비전을 포함한 많은 시장을 열었습니다. 일부 회사는 이제 막 25G 및 더 빠른 속도의 제품을 출시하기 위한 우리의 노력을 활용하고 있지만 여전히 비준 및 성능 제품을 출시할 방법은 남아 있습니다.
그림: Emergent Vision Technologies는 10GigE, 25GigE, 50GigE 및 100GigE 인터페이스를 기반으로 하는 최초의 카메라 제공업체입니다.