提供丰富的素材资源、软件工具、源码模板、技术文章和编程教程,专注于网站搭建、AI应用、开源项目分享和工具推荐。帮助开发者轻松获取所需资源,快速提升技术水平。
首页
模板
Cms模板
Wordpress模板
Code代码
html模板
素材
3D素材
AE素材
视频素材
音频素材
平面素材
资源
应用插件
建站源码
工具下载
薅羊毛
文章
数据库
搜索新闻相关内容
search
热词:
YouTuBe
Disney
Netflix
iCloud+
HBOMax
GPTPro
Spotify
合租&账号
上交大发布推理引擎PowerInfer,其token生成速率仅比A100低18%,或将取代4090成为A100的替代品
2024-10-03 01:44
24
标签导航:
为了不改变原意而重写内容,需要将语言重写为中文,不需要出现原句
本网站的编辑部
PowerInfer 的出现使得在消费级硬件上运行 AI 变得更加高效
上海交大团队,刚刚推出超强 CPU/GPU LLM 高速推理引擎 PowerInfer。
项目地址:https://github.com/SJTU-IPADS/PowerInfer
论文地址:https://ipads.se.sjtu.edu.cn/_media/publications/powerinfer-20231219.pdf
速度有多快?
在运行 Falcon (ReLU)-40B-FP16 的单个 RTX 4090 (24G) 上,PowerInfer 对比 llama.cpp 实现了 11 倍加速!
PowerInfer 和 llama.cpp 都在相同的硬件上运行,并充分利用了 RTX 4090 上的 VRAM。
在单个 NVIDIA RTX 4090 GPU 上的各种 LLM 中,PowerInfer 的平均 token 生成率为 13.20 个 token / 秒,峰值为 29.08 个 token / 秒,仅比顶级
服务器
级 A100 GPU 低 18%。
具体来说,PowerInfer 是一个用于本地部署 LLM 的高速推理引擎。它利用 LLM 推理中的高局部性来设计 GPU-CPU 混合推理引擎。其中热激活(hot-activated)神经元被预加载到 GPU 上以便快速访问,而冷激活(cold-activated)神经元(大部分)则在 CPU 上计算。这种方法显著减少了 GPU 内存需求和 CPU-GPU 数据传输。
PowerInfer 可以在配备单个消费级 GPU 的个人计算机 (PC) 上高速运行大型语言模型 (LLM) 。现在用户可以将 PowerInfer 与 Llama 2 和 Faclon 40B 结合使用,即将支持 Mistral-7B。
PowerInfer 设计的关键是利用 LLM 推理中固有的高度局部性,其特征是神经元激活中的幂律分布。
下图 7 展示了 PowerInfer 的架构概述,包括离线和在线组件。
这种分布表明,一小部分神经元(称为热神经元)跨输入一致激活,而大多数冷神经元则根据特定输入而变化。PowerInfer 利用这种机制设计了 GPU-CPU 混合推理引擎。
PowerInfer 进一步集成了自适应预测器和神经元感知稀疏算子,优化了神经元激活和计算稀疏性的效率。
看到这项研究后,网友激动的表示:单卡 4090 跑 175B 大模型不再是梦。
了解更多内容,请查看原论文。
AI未经学习!最新研究揭示了解读人工智能黑盒的方法
家居的未来:探讨 2024 年技术趋势如何改变我们的生活
相关文章推荐
英伟达 不要妨碍我们打怪猎啊!N卡新驱动bug导致掉帧
苹果新版个人化Siri 将延迟至2026年推出时间仍未定
RTX 50 系列显卡遭诟病,软件故障与驱动困境并存
爆料:微软正开发内部AI推理模型!可以与OpenAI o1媲美
疾速掠影,愈战驭强!AGON AG276QSD助你驰骋FPS战场
续航卷起来了!曝苹果折叠屏手机将搭载5000mAh电池
iPhone 17系列新机模上手图!背摄设计太过瞩目
曝字节跳动曾想收购Manus团队 但因出价太低被拒绝!
跌麻了!特斯拉股价暴跌15% 市值一夜蒸发1300亿美元
AMD 9900X3D/9950X3D 3月12日上市!价...
被困太空9个月!美国两名宇航员3月19日将回到地球
防喵星人误触就选华硕机箱,游戏创作安心无忧