logo Multitronic Oy
Korsholmanpuistikko 38
65100 Vaasa
Web: www.multitronic.fi
Puhelin: 06 - 319 77 00
Sähköposti: info@multitronic.fi

Accelerator Card

Accelerator Card

Valmistaja: QNAP SYSTEMS
ID: MUSTANG-F100-A10-R10
3425,90 € Näytä ALV 0% Näytä ALV 24%
Tällä hetkellä ei saatavilla Arvioitu toimitus: Tuntematon
Tuotetiedot
Kuvaus
Myymäläsaatavuus
Toimitus
Hinnan muutokset
Liitettävyys
Sisäinencheckmark
Isäntäkoneen käyttöliittymäPCIe
Paino ja mitat
Tuotteen korkeus33,7 mm
Tuotteen leveys169,5 mm
Tuotteen syvyys68,7 mm
Virranhallinta
Virrankulutus60 W
Ympäristöolosuhteet
Suhteellinen kosteusalue5 - 90%
Käyttölämpötila (T-T)5 - 60 °C
Pakkauksen sisältö
Määrä1
Suunnittelu
Tuulettimien määrä2 tuuletin(ta)
Jäähdytyksen tyyppiAktiivinen
Suorituskyky
PiirisarjaIntel Arria 10 GX1150 FPGA
Tuotteen väriMusta, Harmaa
EAN4713291730889
Takuu2 vuotta
Source: Icecat.biz

As QNAP NAS evolves to support a wider range of applications (including surveillance, virtualization, and AI) you not only need more storage space on your NAS, but also require the NAS to have greater power to optimize targeted workloads. The Mustang-F100 is a PCIe-based accelerator card using the programmable Intel® Arria® 10 FPGA that provides the performance and versatility of FPGA acceleration. It can be installed in a PC or compatible QNAP NAS to boost performance as a perfect choice for AI deep learning inference workloads.

OpenVINO™ toolkit
OpenVINO™ toolkit is based on convolutional neural networks (CNN), the toolkit extends workloads across Intel® hardware and maximizes performance.

It can optimize pre-trained deep learning model such as Caffe, MXNET, Tensorflow into IR binary file then execute the inference engine across Intel®-hardware heterogeneously such as CPU, GPU, Intel® Movidius™ Neural Compute Stick, and FPGA.

Get deep learning acceleration on Intel-based Server/PC
You can insert the Mustang-F100 into a PC/workstation running Linux® (Ubuntu®) to acquire computational acceleration for optimal application performance such as deep learning inference, video streaming, and data center. As an ideal acceleration solution for real-time AI inference, the Mustang-F100 can also work with Intel® OpenVINO™ toolkit to optimize inference workloads for image classification and computer vision.

QNAP NAS as an Inference Server
OpenVINO™ toolkit extends workloads across Intel® hardware (including accelerators) and maximizes performance. When used with QNAP’s OpenVINO™ Workflow Consolidation Tool, the Intel®-based QNAP NAS presents an ideal Inference Server that assists organizations in quickly building an inference system. Providing a model optimizer and inference engine, the OpenVINO™ toolkit is easy to use and flexible for high-performance, low-latency computer vision that improves deep learning inference. AI developers can deploy trained models on a QNAP NAS for inference, and install the Mustang-F100 to achieve optimal performance for running inference.

- Half-height, half-length, double-slot
- Power-efficiency, low-latency
- Supported OpenVINO™ toolkit, AI edge computing ready device
- FPGAs can be optimized for different deep learning tasks
- Intel® FPGAs supports multiple float-points and inference workloads

MT Vaasa: 0 kpl
Arvioitu toimitus: Tuntematon
Pietarsaari: 0 kpl
Arvioitu toimitus: Tuntematon
Seinäjoki: 0 kpl
Arvioitu toimitus: Tuntematon
Jyväskylä: 0 kpl
Arvioitu toimitus: Tuntematon
Lappeenranta: 0 kpl
Arvioitu toimitus: Tuntematon
Maarianhamina: 0 kpl
Arvioitu toimitus: Tuntematon
iT Vaasa: 0 kpl
Arvioitu toimitus: Tuntematon
Nouto myymälästä
Arvioitu toimitusaika: Tuntematon
Ilmainen
Postin pakettiautomaatti
Arvioitu toimitusaika: Tuntematon
Ilmainen
Postipaketti
Arvioitu toimitusaika: Tuntematon
Ilmainen
Matkahuolto Bussipaketti
Arvioitu toimitusaika: Tuntematon
Ilmainen
Ovelle-paketti
Arvioitu toimitusaika: Tuntematon
2,90 €
Matkahuolto Lähellä-paketti
Arvioitu toimitusaika: Tuntematon
6,20 €
Kotipaketti
Arvioitu toimitusaika: Tuntematon
11,70 €