首页
解决方案
关于我们
LLM推理卡
玄宇芯推理卡是专为大规模语言模型高效推理设计的一款全自研LLM推理卡。产品集成自研LPU,通过软硬协同优化,实现高性能、低功耗的AI推理。研发初衷旨在通过超高性价比,加速不同行业AI应用的低成本落地。
AI钢琴banner图 AI钢琴banner图
产品性能与主要指标
模型规模

模型规模

320亿

TPS

TPS

>= 2000token/分钟

标称功耗

标称功耗

≈120 W

技术优势

专用LPU架构

1、摒弃通用GPU设计,自主研发LPU: “Large-language-model Processing Unit”

2、针对Transformer类模型的稀疏计算、低精度运算和注意力机制深度优化

高算力密度

专用高速处理单元与HBM,可最大限度减少数据搬移与内存访问延迟

兼容性与易集成

无缝对接主流AI框架与中间件,部署维护简便,延迟可控

可扩展集群

多芯片互联,实现近线性扩展,满足大规模部署需求

低功耗混合精度

原生支持INT2/INT4/INT8等动态精度调度,在保证精度的前提下进一步压榨性能/功耗比

适用客户
开发者

开发者

开箱即用,无需复杂的配置或二次开发,降低了开发门槛

软件开发者

代码生成、代码审查等

数据分析师

数据挖掘、信息提取等

AI算法研究员

语言数据处理和分析

公检法/政府/国有企业

公检法/政府/国有企业

数据安全可控,防止数据泄露违规

小型地市/区县公检法

案件/案例分析辅助、智能庭审辅助

小型地市/区县级政府

政策制定辅助政务智能客服

中小型国有企业

辅助降本增效、提高研发效率和创新

中小型民企

中小型民企

算力超过英伟达 RTX 4090,功耗仅为它的1/4

电商企业

智能客服

制造企业

生产流程优化

创意型企业

内容创作辅助

教育教学机构

教育教学机构

性价比超高,能满足不同研究方向对模型高频次推理的教学需求

中小学

课程安排优化、辅助教学

职业教育机构

实践操作评估、就业服务支持

在线教育机构

学习诊断分析、智能作业批改

端侧计算企业

端侧计算企业

低功耗,小型化,更适宜端侧AI应用落地

智能硬件企业

语音交互、智能问答等

边缘计算企业

端侧数据冞集分析和响应

移动应用开发

智能机器人、智能推荐等

微信咨询
- 微信扫码咨询 -