Qualcomm / AI 100

高性能かつ高効率なAI推論を実現する Qualcomm AI 100 AIアクセラレータ

Qualcomm® AI 100は、データセンターおよびエッジ向けに設計された高性能・高効率なAIアクセラレータです。大規模なAI推論処理を低消費電力で実行し、画像認識、自然言語処理など幅広いAIワークロードに対応します。

特長

  • 高性能AI推論
    最大数百TOPS級の推論性能により、大規模ニューラルネットワークを高スループットで処理
    画像認識や自然言語処理などのAI推論を高速に実行
  • 高い電力効率
    優れたワット当たり性能を実現し、GPU比で消費電力を抑えながら安定したAI推論性能を提供
    電力・冷却制約のある環境に最適
  • 低レイテンシ処理
    推論特化アーキテクチャにより、リアルタイム処理が求められるAIワークロードでも低レイテンシで応答
  • スケーラブル構成
    PCIe接続による拡張に対応し、複数アクセラレータ構成でAI推論性能を柔軟にスケール可能
  • 推論特化アクセラレータ
    学習処理を排除し推論に最適化することで、AI運用時の性能効率とシステムコストを最適化

製品ラインナップ

型番 AI 100 Ultra AI 80 Ultra AI 100 Pro AI 100 Standard AI 80 Standard
形状 PCIe FH3/4L
(111.2mm x 237.9mm)
PCIe FH3/4L
(111.2mm x 237.9mm)
PCIe HHHL
(68.9mm x 169.5mm)
PCIe HHHL
(68.9mm x 169.5mm)
PCIe HHHL
(68.9mm x 169.5mm)
消費電力(TDP) 150W 150W 75W 75W 75W
ピーク整数演算性能(INT8) Up to 870 TOPS Up to 618 TOPS
(155 TOPs/SoC)
Up to 400 TOPS Up to 350 TOPS Up to 190 TOPS
ピーク浮動小数点演算性能(FP16) Up to 288 TFLOPS Up to 222 TFLOPS
(56 TFLOPS/SoC)
Up to 200 TFLOPS Up to 175 TFLOPS Up to 86 TFLOPS
SRAM 576 MB 576 MB 144 MB 126 MB 126 MB
DRAM (w/ ECC) 128 GB LPR4x 128 GB LPR4x 32 GM LPR4x 16 GB LPR4x 16 GB LPR4x
DRAM BW 548 GB/s 548 GB/s 137 GB/s 137 GB/s 137 GB/s
Host Interface PCIe Gen4, 16 lanes PCIe Gen4, 16 lanes PCIe Gen4, 8 lanes PCIe Gen4, 8 lanes PCIe Gen4, 8 lanes

アプライアンス製品

Advantech社 AIR-410

  • AMD Ryzen 8040 プロセッサ搭載 最大54W と AI性能 39TOPS (CPU+iGPU+iNPU)
  • DDR5 5600MT/s デュアルチャンネルメモリ 最大96GB
  • PCIe x16スロット搭載、550W GPUサポート、850W 電源内蔵
  • Edge AI SDK開発ツール提供、サポート OS: Windows 11 LTSC & Ubuntu 24.04 LTS

Advantech社 AIR-410

ページの
先頭へ