Raptor 系列
LLM 加速晶片
產品
Viper Series 語言模型推論卡
創鑫智慧Viper 系列是一個針對企業的離線 AI 解決方案,搭載 Raptor N3000 LLM加速晶片、先進的數據壓縮技術和 64GB 的記憶體。它專注於安全高效的 RAG 應用,同時通過本地處理保持完整的數據隱私。
概覽
創鑫智慧產品 | Viper 系列 LLM 加速卡 | |||||
---|---|---|---|---|---|---|
離線 AI 解決方案 | ||||||
領域專注 AI 應用 |
|
|
|
|
|
|
系統集成商 | 硬件與軟件系統集成服務 | 領域專用API管理 | |||||
軟件服務 提供者 / 應用介面 | 設備管理平台 | 微調 | 文檔合作夥伴 | RAG...等 | |||||
開源 AI 模型 | Gen AI / LLM 模型(Llama3.2 | Mistral NeMo | Phi 3.5 | TAIDE | Breeze) | |||||
系統硬件製造商 | PC | IPC | 工作站 | 伺服器 |
易於使用的 SDK
用戶應用 | ||
軟件開發工具包 (SDK) | ||
編譯器 | Neuchips PyTorch 擴展 | |
FFP8 量化 | ||
運算符優化 | ||
圖分區 | ||
圖優化 | ||
記憶體規劃 | ||
共享核心 | 自定義核心 | |
運行時 | ||
安全無縫地轉變您的企業 AI
Viper LLM加速卡代表了企業 AI 解決方案的突破,結合了強大的硬件加速和實用的業務功能。其核心配備了 Raptor LLM加速晶片,具有專門的嵌入式引擎,可提供 10 倍的效率提升。系統的 32GB 板載記憶體作為專用的向量數據庫,實現了安全的本地數據處理,顯著減少了 CPU 負擔。通過支持多個開源 LLM 模型並與現有基礎設施無縫集成,Viper 使企業能夠在不妥協數據安全性或不需要大規模系統改造的情況下實現 AI 能力。這使其對於希望利用 AI 技術並保持對敏感數據和運營過程完全控制的企業尤其有價值。
規格
Viper 系列規格 | |
---|---|
規格 | 描述 |
支持 LLM 模型 | Llama3.2, Mistral NeMo, Phi3.5, Breeze, TAIDE |
總板功率 | 最小 = 25W 默認 = 45W 最大 = 75W |
散熱解決方案 | 可提供主動與被動散熱 |
機械外形尺寸 | HHHL-SS (半高、半長、單插槽) |
記憶體類型 | LPDDR5 |
記憶體大小 | 最高可達 64GB |
記憶體時鐘 | 6400 Mbps |
工作環境溫度 | 0°C 至 50°C |
儲存溫度 | -40°C 至 75°C |
工作濕度 | 5% 至 85% 相對濕度 |
儲存濕度 | 5% 至 95% 相對濕度 |
主要特色
嵌入式向量處理引擎
- 內建高效嵌入引擎
- 減少卡片和主機 CPU 之間的通信開銷
- 向量相似性搜索效率提高 10 倍
- 擁有 64GB LPDDR5 記憶體,支持單晶片和單卡片配置下 12B LLM 模型
32GB 額外向量存儲
- 作為本地向量數據庫運行
- 減少散熱需求
- 支持在板上直接存儲大量向量數據
- 使用創新的量化技術將向量數據壓縮 4 倍
LLM 模型支持
- 兼容預訓練 LLM 模型
- 支持 Llama, Mistral, Phi, TAIDE 和 Breeze
- 支持多語言,如英語和繁體中文
低功耗設計
- 平均總板功率僅 45W
- 操作溫度範圍為 0°C 至 50°C
- 支持主動和被動散熱解決方案
主要優勢
最大化節省,最小化AI成本
即刻高效轉型AI運營
高效緊湊,無硬體麻煩
簡化運營,最大化產出
離線安全,零數據洩漏
低功耗,高可持續性
生態系統聯盟