智能视觉深度学习处理器,8路高清视频智能分析,16路高清硬解码,10路高清硬编码
智能视觉深度学习处理器,8路高清视频智能分析,16路高清硬解码,10路高清硬编码
SRA3-40是一款面向高性能计算的RISC-V通用服务器,国产主控具备强劲性能,融合智算,支持强编解码。
SRB3-40是一款高性能的RISC-V存储服务器,多盘位大容量安全存储。
智算服务器SGM7-40,适配主流LLM,单卡可运行70B的大语言模型
SOM1684,搭载算能BM1684,支持16路高清视频分析
Core-1684-JD4,搭载算能BM1684,支持16路高清视频分析
SBC-6841,搭载算能BM1684,支持16路高清视频分析
iCore-1684XQ,搭载算能BM1684X,支持32路高清视频分析
Core-1684XJD4,搭载算能BM1684X,支持32路高清视频分析
Shaolin PI SLKY01,搭载算能BM1684,支持16路高清视频分析
QY-AIM16T-M,搭载算能BM1684,支持16路高清视频分析
QY-AIM16T-M-G,搭载算能BM1684,支持16路高清视频分析
QY-AIM16T-W,搭载算能BM1684,支持16路高清视频分析
AIV02T,PCIE板卡,1684*2,半高半长
IVP03X,搭载算能BM1684X,支持32路高清视频分析
IVP03A,微服务器 被动散热,12GB内存
Coeus-3550T,搭载算能BM1684,支持16路高清视频分析
EC-1684JD4,搭载算能BM1684,支持16路高清视频分析
CSA1-N8S1684,算力集群服务器,BM1684*8,1U
DZFT-ZDFX,ARM+DSP智能封条分析,搭载算能BM1684X
ZNFX-32,搭载算能BM1684,支持16路高清视频分析
ZNFX-8,ARM+DSP架构,隔爆兼本安分析装置符合煤安要求,搭载BM1684X
EC-A1684JD4,微服务器主动散热,16GB内存,32GB eMMC
EC-A1684JD4 FD,搭载算能BM1684,支持16路高清视频分析,16GB内存,32GB eMMC
EC-A1684XJD4 FD,搭载算能BM1684X,支持32路高清视频分析
ECE-S01,搭载算能BM1684,支持16路高清视频分析
IOEHM-AIRC01,微服务器,主动散热,搭载算能BM1684,支持16路高清视频分析
IOEHM-VCAE01,搭载算能BM1684,支持16路高清视频分析
CSA1-N8S1684X,算力集群服务器,BM1684X*8,1U
QY-S1U-16,1U版本BM1684盒子
QY-S1U-192,算力集群服务器,BM1684*12,1U
QY-S1X-384,算力集群服务器,BM1684X*12,1U
为交通拥堵、行车安全、车辆违法和道路污染治理问题赋能
利用深度学习云边结合方式解决全域多家餐饮机构的食品安全监管需求,为政府、企业级公众打造监督闭环
对生产全过程、全方位实时感知与精细化监管,推进应急监测智能化,赋能风险识别预警
以云边协同的新型算力基础设施赋能各类数字城市场景,为数字经济发展提供源动力
以自动化训练推理一体化平台为基础,助力算力/算法整合应用快速、高效工程化落地
请下载【初赛全流程代码+赛题数据集+比赛所使用预训练模型】,里面包含初赛和复赛所使用到的预训练模型,初赛和复赛数据集test_hq,初赛全流程代码。【tpu-mlir_v0.8.13-g327ff6dc-20230113.tar.gz】则包含初赛和复赛使用到的环境
复赛数据集包含200张汽车图像(.jpg 文件),每辆车最多有 16 张图像,每张都是从不同角度拍摄的。每辆汽车都有一个唯一的 ID,图像根据id_01.jpg、id_02.jpg … id_16.jpg命名。
example_picture文件夹包含每个图像掩模样例,example_masks.csv文件包含复赛提交样例,分为两列:
1. img表明图片的名称
2. rle_mask为游程长度编码,表明哪部分为车辆哪部分为背景
在输出csv后,需要您直接将example_masks.csv命名test_masks.csv,并且在model下找到后缀为bmodel.compiler_profile_0.txt的文件,并命名为profile.txt,之后提交test_masks.csv与profile.txt。
*注:复赛数据集将会在初赛阶段就提供,但是不开放排行榜,初赛流程打通的同学可以提前准备复赛。
TPU-MLIR学习资料: https://tpumlir.org/index.html
TPU-MLIR开源仓库:https://github.com/sophgo/tpu-mlir
UNet开源模型:https://github.com/milesial/Pytorch-UNet
TPU-MLIR学习视频:https://space.bilibili.com/1829795304/channel/collectiondetail?sid=734875
TPU-MLIR入门手册:https://tpumlir.org/docs/quick_start/index.html
前后处理代码baseline:baseline解读请参考【TPU-MLIR参赛指南v2】
参赛者将前后处理python代码和fp32bmodel模型放到目录后一起压缩为submit.zip文件,之后将zip文件提交到指定邮箱 yi.chu@sophgo.com,提交时邮件名遵循 队伍名称-历史第几次提交-TPU-MLIR比赛,例如“说的都队-第一次提交-TPU-MLIR比赛“。初赛阶段每只队伍每天只能向指定邮箱提交一次代码,如果同一天多次提交,我们将会以当日最后一次提交为准,能够打通流程者即可进入复赛阶段。提交目录格式如下
submit
--tpu_tester.py
--xx.bmodel
*注1:我们将会每周日晚上10.00前在企业微信群公布能够打通流程的队伍的名单,请添加赛事助手,加入企业微信群。
*注2:前后处理代码文件请参考【初赛参赛指南】。
*注3:请不要直接将python文件发到yi.chu@sophgo.com,这样会无法接收,请和bmodel文件一起压缩为zip,之后将zip发送到yi.chu@sophgo.com
参赛者只需要提交通过mlir_tester.py生成的test_masks.csv以及编译过程中生成的后缀为bmodel.compiler_profile_0.txt的文件,其中mlir_tester.py请见【复赛参赛指南】。
请阅读【复赛参赛指南】以了解详细的提交方法。每个参赛团队每天最多提交3次结果文件,如果新提交结果优于之前提交结果,排行榜中的成绩将自动进行更新覆盖
参赛者将主观题文档与答辩PPT打包,以zip文件提交到平台,答辩主观题内容包括以下几点:
1. 描述UNet适配过程
a. 步骤详细
b. 可复现的结果
2. 解决问题的过程
a. 列举在适配过程中遇到的困难,以及解决方法
3. 提出TPU-MLIR可以改进的部分
a. 在使用上可以精简的地方
b. 在功能上可以增强的地方(需具备可行性)
4. 简介对TPU-MLIR工程的看法
a. 对MLIR的看法
b. 对TPU-MLIR在DSA相关编译器的看法
c. 对TPU-MLIR在异构计算编译器方面的看法
5. 提交补丁到tpu-mlir工程(可选,加分项)
a. 文档修正
b. 代码注释
c. 修复bug
复赛测评标准:
1. 通过编译生成的中间文件mlir来推理两百张图片,之后使用dice指标评估模型精度;
2. 通过profile.txt 中的runtime来预估模型推理时间,单位为秒;
3. 最终得分计算公式为: score = dice_score + (0.3 - time_score),结果将会精确到小数点后三位,例如0.728;
4. 要求精度dice不低于0.85,平均推理延时小于0.3s。