英特尔开源NPU加速库,方便使开发人员优化其AI应用
科技
科技 > 人工智能 > 正文

英特尔开源NPU加速库,方便使开发人员优化其AI应用

IT之家 3 月 3 日消息,@Tony MongkolsmAI 发现,英特尔已经在 GitHub 上开源了其 NPU 加速库,支持 Windows 和 Linux。

开发人员可以按照相应文档对其软件进行优化,从而适配新一代 AI 模型,包括 TinyLlama 和 Gemma-2b-it。

根据官方描述:英特尔 NPU 加速库是一个 Python 库,旨在利用英特尔神经处理单元 (NPU) 的强大性能在兼容硬件上执行高速计算,从而提高应用的效率。

英特尔还表示其 NPU 加速库目前不断开发中,后续将推出各种能显著提高性能的功能,截至IT之家发稿已经实现了 8bit 量化、Float16 支持、torch.compile 支持等,后续还将支持 NPU / GPU 异构计算等功能。

亲爱的凤凰网用户:

您当前使用的浏览器版本过低,导致网站不能正常访问,建议升级浏览器

第三方浏览器推荐:

谷歌(Chrome)浏览器 下载

360安全浏览器 下载