產品

Viper Series 語言模型推論卡

創鑫智慧Viper 系列是一個針對企業的離線 AI 解決方案,搭載 Raptor N3000 LLM加速晶片、先進的數據壓縮技術和 64GB 的記憶體。它專注於安全高效的 RAG 應用,同時通過本地處理保持完整的數據隱私。


概覽
創鑫智慧產品
Raptor 系列
LLM 加速晶片
Viper 系列
LLM 加速卡
離線 AI 解決方案
行銷與銷售
運營
IT與工程
IT與風險與法律
人力資源
公共事業與製造
領域專注
AI 應用
  • 創建產品文獻
  • 分析客戶反饋
  • 客戶支持服務...
  • 識別生產良率
  • 自動處理與代理
  • 文檔分析
  • 創建技術文檔
  • 自動生成數據
  • 草擬與總結法律文件
  • 總結與高亮...
  • 協助面試HR訓練系統
  • 候選人評估...
  • 搜索與問答
  • 優化員工
  • 溝通
  • 展示材料創建
  • 文檔提取與數據分析
系統集成商硬件與軟件系統集成服務 | 領域專用API管理
軟件服務
提供者 /
應用介面
設備管理平台 | 微調 | 文檔合作夥伴 | RAG...等
開源 AI 模型Gen AI / LLM 模型(Llama3.2 | Mistral NeMo | Phi 3.5 | TAIDE | Breeze)
系統硬件製造商PC | IPC | 工作站 | 伺服器
易於使用的 SDK
用戶應用
軟件開發工具包 (SDK)
編譯器Neuchips PyTorch 擴展
FFP8 量化
運算符優化
圖分區
圖優化
記憶體規劃
共享核心自定義核心
運行時
創鑫智慧 Raptor 系列
安全無縫地轉變您的企業 AI
Viper LLM加速卡代表了企業 AI 解決方案的突破,結合了強大的硬件加速和實用的業務功能。其核心配備了 Raptor LLM加速晶片,具有專門的嵌入式引擎,可提供 10 倍的效率提升。系統的 32GB 板載記憶體作為專用的向量數據庫,實現了安全的本地數據處理,顯著減少了 CPU 負擔。通過支持多個開源 LLM 模型並與現有基礎設施無縫集成,Viper 使企業能夠在不妥協數據安全性或不需要大規模系統改造的情況下實現 AI 能力。這使其對於希望利用 AI 技術並保持對敏感數據和運營過程完全控制的企業尤其有價值。

規格
Viper 系列規格
規格描述
支持 LLM 模型Llama3.2, Mistral NeMo, Phi3.5, Breeze, TAIDE
總板功率最小 = 25W
默認 = 45W
最大 = 75W
散熱解決方案可提供主動與被動散熱
機械外形尺寸HHHL-SS
(半高、半長、單插槽)
記憶體類型LPDDR5
記憶體大小最高可達 64GB
記憶體時鐘6400 Mbps
工作環境溫度0°C 至 50°C
儲存溫度-40°C 至 75°C
工作濕度5% 至 85% 相對濕度
儲存濕度5% 至 95% 相對濕度

主要特色
嵌入式向量處理引擎
  • 內建高效嵌入引擎
  • 減少卡片和主機 CPU 之間的通信開銷
  • 向量相似性搜索效率提高 10 倍
  • 擁有 64GB LPDDR5 記憶體,支持單晶片和單卡片配置下 12B LLM 模型
32GB 額外向量存儲
  • 作為本地向量數據庫運行
  • 減少散熱需求
  • 支持在板上直接存儲大量向量數據
  • 使用創新的量化技術將向量數據壓縮 4 倍
LLM 模型支持
  • 兼容預訓練 LLM 模型
  • 支持 Llama, Mistral, Phi, TAIDE 和 Breeze
  • 支持多語言,如英語和繁體中文
低功耗設計
  • 平均總板功率僅 45W
  • 操作溫度範圍為 0°C 至 50°C
  • 支持主動和被動散熱解決方案

主要優勢
最大化節省,最小化AI成本
即刻高效轉型AI運營
高效緊湊,無硬體麻煩
簡化運營,最大化產出
離線安全,零數據洩漏
低功耗,高可持續性

生態系統聯盟
  • AIR-510
  • MIC-770
Top