IREE AI编译器编译测试流程指南

iree onnx demo

计划协议系列博客,记录学习iree编译器的过程.

今天第一篇博客,记录安装和测试iree

文章目录

  • iree onnx demo
    • 下载安装iree
    • python环境安装
    • 编译测试
      • 1. [前端] onnx模型转MLIR文件
      • 2. [后端] MLIR文件转可执行文件
      • 3. [执行] 执行测试编译后的文件
    • 关于后端设备的介绍

下载安装iree

IREE官网教程

这里都已经非常详细了,按照官网教程可以成功配置

当然如果你和我一样懒得看这么多, 你可以直接下载iree项目后, 项目内有一个编译脚本

build_tools/cmake/build_all.sh ,直接执行 build_tools/cmake/build_all.sh build就可以编译iree到build文件夹了.

python环境安装

上述的编译步骤会自动编译iree python的相关库,前端IR的导入就是依赖这一部分,可以惨考 官网-python包编译安装 , 我是使用cmake指令直接安装的

CMAKE_INSTALL_METHOD=ABS_SYMLINK python -m pip install -e ../iree-build/compiler
CMAKE_INSTALL_METHOD=ABS_SYMLINK python -m pip install -e ../iree-build/runtime

编译测试

1. [前端] onnx模型转MLIR文件

下载onnx 模型可以在: https://github.com/onnx/models/tree/main 这里找onnx 模型用来实验.

本文将下载模型: https://github.com/onnx/models/tree/main/Computer_Vision/adv_inception_v3_Opset16_timm 用于后续的测试

  • 使用下述指令即可将onnx模型转为mlir文件,
    • free-import-onnx 是python工具,需要编译IREE后安装python相关的东西,
      • 也可以直接使用pip下载,自行查阅官网文档.
iree-import-onnx \./*.onnx \--opset-version 17 \-o model.mlir

生成的MLIR文件是一个文本文件,可以直接打开

image-20250320230858104

里面基本分类2个部分:

  1. 有哪些算子,比如

    1. 卷积算子

      1. %190 = torch.operator "onnx.Conv"(%arg0, %2, %3) {torch.onnx.dilations = [1 : si64, 1 : si64], torch.onnx.group = 1 : si64, torch.onnx.kernel_shape = [3 : si64, 3 : si64], torch.onnx.pads = [0 : si64, 0 : si64, 0 : si64, 0 : si64], torch.onnx.strides = [2 : si64, 2 : si64]} : (!torch.vtensor<[1,3,299,299],f32>, !torch.vtensor<[32,3,3,3],f32>, !torch.vtensor<[32],f32>) -> !torch.vtensor<[1,32,149,149],f32> 
        
      2. 常量算子

        1.     %188 = torch.operator "onnx.Constant"() {torch.onnx.value = dense_resource<_onnx__Conv_1156> : tensor<192x2048x1x1xf32>} : () -> !torch.vtensor<[192,2048,1,1],f32> 
          
  2. 有哪些常量

    1. 一般就是权重和算子的参数

      _onnx__Conv_1156: "0x0800000098233D3B52728ABEE29334BE1F0CF4BD48A5BDBD8D90713D..."
      

2. [后端] MLIR文件转可执行文件

  • 编译MLIR
iree-compile \model.mlir \--iree-hal-target-backends=llvm-cpu \--iree-llvmcpu-target-cpu=host \-o model_cpu.vmfb

可以生成最终的编译结果 vmfb 文件, 这是一个flatbuffer格式的, 可以通过 iree-dump-module ./model_cpu.vmfb 指令来看模型的结构.


#   # | Offset   |   Length | Blocks | i32 # | ref # | Requirements | Aliases
# ----+----------+----------+--------+-------+-------+--------------+-----------------------------------------------------
#   0 | 00000000 |    17232 |      1 |   340 |     4 |              |
#   1 | 00004350 |      488 |      1 |    24 |     8 |              | main_graph$async
#   2 | 00004538 |       90 |      1 |     2 |     3 |              | main_graph
#   3 | 00004598 |     2311 |     14 |    26 |     6 |              | __init

其中J:

# main_graph$async 和 main_graph 更有可能是用于模型推理的函数。其中,main_graph$async 或许是异步执行的函数,而 main_graph 是同步执行的函数。你可以先尝试使用 main_graph 作为函数名来运行模型

3. [执行] 执行测试编译后的文件

  • 执行测试
    • 这里使用的是fp32全是2的数值的TV.
iree-run-module \--module=model_cpu.vmfb \--device=local-task \--function=main_graph \--input="1x3x299x299xf32=2" \./model_cpu.vmfb

image-20250320231446248

关于后端设备的介绍

1. llvm-cpu

  • 通用 CPU 后端(默认选项)
  • 基于 LLVM 编译器优化 CPU 指令
  • 支持 x86/ARM 等主流 CPU 架构
  • 适合没有专用加速硬件的设备

2. metal-spirv

  • 苹果专有 GPU 加速方案
  • 支持 iOS/macOS 设备的 Metal API
  • 适配 Apple Silicon(M 系列芯片)和 A 系列芯片
  • 需要 macOS 10.13 + 或 iOS 11+

3. vmvx

  • 针对 Intel 视觉处理单元(VPU)
  • 如 Movidius Myriad X 等边缘 AI 芯片
  • 适合低功耗嵌入式设备的视觉推理
  • 需安装 VPU 驱动和相关工具链

4. vmvx-inline

  • 实验性的 VPU 内联编译模式
  • 直接在 CPU 上模拟 VPU 指令集
  • 主要用于开发调试,性能较低

5. vulkan-spirv

  • 跨平台 GPU 加速方案
  • 支持 NVIDIA/AMD/Intel 等主流 GPU
  • 适用于 Linux/Windows/macOS 等系统
  • 需安装对应 GPU 的 Vulkan 驱动

6. webgpu-spirv

  • 浏览器端 GPU 加速方案
  • 基于 WebGPU API(需 Chrome/Firefox 等支持)
  • 允许在网页中直接运行 AI 模型
  • 适用于 WebAssembly 环境

选择建议

  • CPU 设备 → llvm-cpu
  • 苹果设备 → metal-spirv
  • 通用 GPU → vulkan-spirv
  • 边缘 AI 设备 → vmvx
  • 网页应用 → webgpu-spirv

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/898477.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

【产品小白】如何运营一个新的产品

运营一个新产品既充满机遇&#xff0c;也伴随着挑战。新产品运营的核心在于快速获取用户、验证市场假设、持续迭代与优化&#xff0c;并通过有效的推广和用户反馈机制不断完善产品。 1. 市场调研与定位 用户调研&#xff1a;在产品初期&#xff0c;通过访谈、问卷、竞品分析等…

破解验证码新利器:基于百度OCR与captcha-killer-modified插件的免费调用教程

破解验证码新利器&#xff1a;基于百度OCR与captcha-killer-modified插件的免费调用教程 引言 免责声明&#xff1a; 本文提供的信息仅供参考&#xff0c;不承担因操作产生的任何损失。读者需自行判断内容适用性&#xff0c;并遵守法律法规。作者不鼓励非法行为&#xff0c;保…

JSON 解析中需要清理的危险字符

在代码中 replace(chr(0), "") 的作用是删除 JSON 响应中可能存在的空字符&#xff08;Null character&#xff09;。以下是详细解释&#xff1a; 1. chr(0) 是什么&#xff1f; chr(0) 表示 ASCII 码为 0 的字符&#xff0c;即空字符&#xff08;Null Character&am…

指令系统2(Load/Store 指令)

一. Load/Store 指令 1. 前变址 前变址指令是在读取或存储数据时&#xff0c;先根据基址寄存器&#xff08;Rn&#xff09;与偏移量&#xff08;offset&#xff09;计算出有效地址&#xff0c;再进行数据操作。相关指令及示例如下&#xff1a; LDR R0, [R1, #4]&#xff1a;从…

ubuntu部署运行xinference全精度对话deepseek本地部署图文教程

前置环境搭建劳请移步往期 source activate 自己环境名启动python3.12环境安装xinference&#xff0c; 按教程敲命令&#xff0c;wheel包与wsl的通用&#xff0c;pip install 包名。 vllm引擎&#xff0c;transform引擎也会顺带自动装上了。 后续操作请参照往期教程。本地部署模…

技术分享 | MySQL内存使用率高问题排查

本文为墨天轮数据库管理服务团队第51期技术分享&#xff0c;内容原创&#xff0c;如需转载请联系小墨&#xff08;VX&#xff1a;modb666&#xff09;并注明来源。 一、问题现象 问题实例mysql进程实际内存使用率过高 二、问题排查 2.1 参数检查 mysql版本 &#xff1a;8.0.…

[AI速读]混合语言IP集成:挑战与高效解决方案

在现代SoC(系统级芯片)设计中,IP(知识产权模块)复用是提升开发效率的关键。然而,当设计涉及多种硬件描述语言(如SystemVerilog、VHDL、SystemC)时,如何高效集成不同语言的IP模块成为一大难题。本文将从实际设计场景出发,探讨混合语言IP集成的核心挑战,并介绍一套方法…

【vulhub/wordpress靶场】------获取webshell

1.进入靶场环境&#xff1a; 输入&#xff1a;cd / vulhub / wordpress / pwnscriptum 修改版本号&#xff1a; vim docker-compose.yml version: 3 保存退出 开启靶场环境&#xff1a; docker - compose up - d 开启成功&#xff0c;docker ps查看端口 靶场环境80…

微信小程序:用户拒绝小程序获取当前位置后的处理办法

【1】问题描述&#xff1a; 小程序在调用 wx.getLocation() 获取用地理位置时&#xff0c;如果用户选择拒绝授权&#xff0c;代码会直接抛出错误。如果再次调用 wx.getLocation() 时&#xff0c;就不会在弹窗询问用户是否允许授权。导致用户想要重新允许获取地理位置时&#x…

NLP 与常见的nlp应用

自然语言处理&#xff08;NLP&#xff09;是一个广泛的领域&#xff0c;它不仅包括自然语言理解&#xff08;NLU&#xff09;&#xff0c;还涉及一系列其他任务和子领域。以下是NLP领域中的主要组成部分及其相关任务&#xff1a; 1. 自然语言理解&#xff08;NLU&#xff09; …

全网首创/纯Qt/C++实现国标GB28181服务/实时视频/云台控制/预置位/录像回放和下载/事件订阅/语音对讲

一、前言说明 用纯Qt来实现这个GB28181的想法很久了&#xff0c;具体可以追溯到2014年&#xff0c;一晃十年都过去了&#xff0c;总算是整体的框架和逻辑都打通了&#xff0c;总归还是杂七杂八的事情多&#xff0c;无法静下心来研究具体的协议&#xff0c;最开始初步了解协议后…

Django+celery+flower

Djangoceleryflower Django的定时任务及可视化监控Django Django的定时任务及可视化监控 Django的定时任务&#xff0c;以及可视化监控。 Django Django&#xff1b; 首先在python中新建虚拟环境并激活 pip install virtualenv python -m venv venv source venv/bin/activa…

Python 编程题 第十一节:选择排序、插入排序、删除字符、目标移动、尾部的0

选择排序 假定第一个为最小的为已排序序列&#xff0c;与后面的比较&#xff0c;找到未排序序列中最小的后&#xff0c;交换位置&#xff0c;获得最小元素&#xff0c;依次往后 lst[1,14,25,31,21,13,6,8,14,9,7] def selection_sort(lst):for i in range(len(lst)):min_inde…

组态王Kingview配置为OPCUA服务器的一些问题处理

一、问题描述 1、组态王【运行配置】界面没有【服务配置】的选项&#xff0c;无法将组态王Kingview配置为OPCUA服务器&#xff1b; 2、点击组态王【运行配置界面】的【服务配置】选项弹窗警告提示【试图执行的操作不受支持】&#xff0c;如下图所示&#xff1a; 二、问题分析 …

模块二 单元4 安装AD+DC

模块二 单元4 安装ADDC 两个任务&#xff1a; 1.安装AD活动目录 2.升级当前服务器为DC域控制器 安装前的准备工作&#xff1a; 确定你要操作的服务器系统&#xff08;Windows server 2022&#xff09;&#xff1b; 之前的服务器系统默认是工作组的模式workgroup模式&#xff08…

git clone项目报错fatal: fetch-pack: invalid index-pack output问题

前情回顾&#xff1a;git项目放在公司服务器上面&#xff0c;克隆等操作需要连接VPN才能操作。由于项目比较大&#xff0c;网速比较慢&#xff0c;克隆项目经常出现fetch-pack: invalid index-pack output。在网上查找各种解决方法。也就这一种有点效果。仅供参考&#xff0c;不…

前端Tailwind CSS面试题及参考答案

解释 Tailwind CSS 中 w-1/2 和 max-w-md 的区别及适用场景 在 Tailwind CSS 里&#xff0c;w-1/2 和 max-w-md 属于不同类型的宽度控制类&#xff0c;它们的功能和适用场景存在明显差异。 w-1/2 是用来设定元素宽度的类。它把元素宽度设定为其父元素宽度的一半。例如&#xff…

《深度剖析:BERT与GPT——自然语言处理架构的璀璨双星》

在自然语言处理&#xff08;NLP&#xff09;的广袤星空中&#xff0c;BERT&#xff08;Bidirectional Encoder Representations from Transformers&#xff09;与GPT&#xff08;Generative Pretrained Transformer&#xff09;系列模型宛如两颗最为耀眼的星辰&#xff0c;引领…

VMware主机换到高配电脑,高版本系统的问题

原来主机是i3 ,windows7系统&#xff0c;vmware 14.0,虚机系统是ubuntu 14.04。目标新机是i7 14700KF,windows11系统。原以为安装虚拟机&#xff0c;将磁盘文件&#xff0c;虚拟机配置文件拷贝过去可以直接用。 新目标主机先安装了vmware 15&#xff0c;运行原理虚机&#xff0…

后端框架模块化

后端框架的模块化设计旨在简化开发流程、提高可维护性&#xff0c;并通过分层解耦降低复杂性。以下是常见的后端模块及其在不同语言&#xff08;Node.js、Java、Python&#xff09;中的实现方式&#xff1a; 目录 1. 路由&#xff08;Routing&#xff09;2. 中间件&#xff08;…