Qualcomm / AI 100
高性能かつ高効率なAI推論を実現する Qualcomm AI 100 AIアクセラレータ
Qualcomm® AI 100は、データセンターおよびエッジ向けに設計された高性能・高効率なAIアクセラレータです。大規模なAI推論処理を低消費電力で実行し、画像認識、自然言語処理など幅広いAIワークロードに対応します。
特長
- ● 高性能AI推論
最大数百TOPS級の推論性能により、大規模ニューラルネットワークを高スループットで処理
画像認識や自然言語処理などのAI推論を高速に実行 - ● 高い電力効率
優れたワット当たり性能を実現し、GPU比で消費電力を抑えながら安定したAI推論性能を提供
電力・冷却制約のある環境に最適 - ● 低レイテンシ処理
推論特化アーキテクチャにより、リアルタイム処理が求められるAIワークロードでも低レイテンシで応答 - ● スケーラブル構成
PCIe接続による拡張に対応し、複数アクセラレータ構成でAI推論性能を柔軟にスケール可能 - ● 推論特化アクセラレータ
学習処理を排除し推論に最適化することで、AI運用時の性能効率とシステムコストを最適化
製品ラインナップ
| 型番 | AI 100 Ultra | AI 80 Ultra | AI 100 Pro | AI 100 Standard | AI 80 Standard |
| 形状 | PCIe FH3/4L (111.2mm x 237.9mm) |
PCIe FH3/4L (111.2mm x 237.9mm) |
PCIe HHHL (68.9mm x 169.5mm) |
PCIe HHHL (68.9mm x 169.5mm) |
PCIe HHHL (68.9mm x 169.5mm) |
| 消費電力(TDP) | 150W | 150W | 75W | 75W | 75W |
| ピーク整数演算性能(INT8) | Up to 870 TOPS | Up to 618 TOPS (155 TOPs/SoC) |
Up to 400 TOPS | Up to 350 TOPS | Up to 190 TOPS |
| ピーク浮動小数点演算性能(FP16) | Up to 288 TFLOPS | Up to 222 TFLOPS (56 TFLOPS/SoC) |
Up to 200 TFLOPS | Up to 175 TFLOPS | Up to 86 TFLOPS |
| SRAM | 576 MB | 576 MB | 144 MB | 126 MB | 126 MB |
| DRAM (w/ ECC) | 128 GB LPR4x | 128 GB LPR4x | 32 GM LPR4x | 16 GB LPR4x | 16 GB LPR4x |
| DRAM BW | 548 GB/s | 548 GB/s | 137 GB/s | 137 GB/s | 137 GB/s |
| Host Interface | PCIe Gen4, 16 lanes | PCIe Gen4, 16 lanes | PCIe Gen4, 8 lanes | PCIe Gen4, 8 lanes | PCIe Gen4, 8 lanes |
アプライアンス製品
Advantech社 AIR-410
- AMD Ryzen 8040 プロセッサ搭載 最大54W と AI性能 39TOPS (CPU+iGPU+iNPU)
- DDR5 5600MT/s デュアルチャンネルメモリ 最大96GB
- PCIe x16スロット搭載、550W GPUサポート、850W 電源内蔵
- Edge AI SDK開発ツール提供、サポート OS: Windows 11 LTSC & Ubuntu 24.04 LTS
![]()