请下载【初赛全流程代码+赛题数据集+比赛所使用预训练模型】,里面包含初赛和复赛所使用到的预训练模型,初赛和复赛数据集test_hq,初赛全流程代码。【tpu-mlir_v0.8.13-g327ff6dc-20230113.tar.gz】则包含初赛和复赛使用到的环境
复赛数据集包含200张汽车图像(.jpg 文件),每辆车最多有 16 张图像,每张都是从不同角度拍摄的。每辆汽车都有一个唯一的 ID,图像根据id_01.jpg、id_02.jpg … id_16.jpg命名。
example_picture文件夹包含每个图像掩模样例,example_masks.csv文件包含复赛提交样例,分为两列:
1. img表明图片的名称
2. rle_mask为游程长度编码,表明哪部分为车辆哪部分为背景
在输出csv后,需要您直接将example_masks.csv命名test_masks.csv,并且在model下找到后缀为bmodel.compiler_profile_0.txt的文件,并命名为profile.txt,之后提交test_masks.csv与profile.txt。
*注:复赛数据集将会在初赛阶段就提供,但是不开放排行榜,初赛流程打通的同学可以提前准备复赛。
TPU-MLIR学习资料: https://tpumlir.org/index.html
TPU-MLIR开源仓库:https://github.com/sophgo/tpu-mlir
UNet开源模型:https://github.com/milesial/Pytorch-UNet
TPU-MLIR学习视频:https://space.bilibili.com/1829795304/channel/collectiondetail?sid=734875
TPU-MLIR入门手册:https://tpumlir.org/docs/quick_start/index.html
前后处理代码baseline:baseline解读请参考【TPU-MLIR参赛指南v2】
参赛者将前后处理python代码和fp32bmodel模型放到目录后一起压缩为submit.zip文件,之后将zip文件提交到指定邮箱 yi.chu@sophgo.com,提交时邮件名遵循 队伍名称-历史第几次提交-TPU-MLIR比赛,例如“说的都队-第一次提交-TPU-MLIR比赛“。初赛阶段每只队伍每天只能向指定邮箱提交一次代码,如果同一天多次提交,我们将会以当日最后一次提交为准,能够打通流程者即可进入复赛阶段。提交目录格式如下
submit
--tpu_tester.py
--xx.bmodel
*注1:我们将会每周日晚上10.00前在企业微信群公布能够打通流程的队伍的名单,请添加赛事助手,加入企业微信群。
*注2:前后处理代码文件请参考【初赛参赛指南】。
*注3:请不要直接将python文件发到yi.chu@sophgo.com,这样会无法接收,请和bmodel文件一起压缩为zip,之后将zip发送到yi.chu@sophgo.com
参赛者只需要提交通过mlir_tester.py生成的test_masks.csv以及编译过程中生成的后缀为bmodel.compiler_profile_0.txt的文件,其中mlir_tester.py请见【复赛参赛指南】。
请阅读【复赛参赛指南】以了解详细的提交方法。每个参赛团队每天最多提交3次结果文件,如果新提交结果优于之前提交结果,排行榜中的成绩将自动进行更新覆盖
参赛者将主观题文档与答辩PPT打包,以zip文件提交到平台,答辩主观题内容包括以下几点:
1. 描述UNet适配过程
a. 步骤详细
b. 可复现的结果
2. 解决问题的过程
a. 列举在适配过程中遇到的困难,以及解决方法
3. 提出TPU-MLIR可以改进的部分
a. 在使用上可以精简的地方
b. 在功能上可以增强的地方(需具备可行性)
4. 简介对TPU-MLIR工程的看法
a. 对MLIR的看法
b. 对TPU-MLIR在DSA相关编译器的看法
c. 对TPU-MLIR在异构计算编译器方面的看法
5. 提交补丁到tpu-mlir工程(可选,加分项)
a. 文档修正
b. 代码注释
c. 修复bug
复赛测评标准:
1. 通过编译生成的中间文件mlir来推理两百张图片,之后使用dice指标评估模型精度;
2. 通过profile.txt 中的runtime来预估模型推理时间,单位为秒;
3. 最终得分计算公式为: score = dice_score + (0.3 - time_score),结果将会精确到小数点后三位,例如0.728;
4. 要求精度dice不低于0.85,平均推理延时小于0.3s。