智能视觉深度学习处理器,8路高清视频智能分析,16路高清硬解码,10路高清硬编码
智能视觉深度学习处理器,8路高清视频智能分析,16路高清硬解码,10路高清硬编码
SRA3-40是一款面向高性能计算的RISC-V通用服务器,国产主控具备强劲性能,融合智算,支持强编解码。
SRB3-40是一款高性能的RISC-V存储服务器,多盘位大容量安全存储。
智算服务器SGM7-40,适配主流LLM,单卡可运行70B的大语言模型
SOM1684,搭载算能BM1684,支持16路高清视频分析
Core-1684-JD4,搭载算能BM1684,支持16路高清视频分析
SBC-6841,搭载算能BM1684,支持16路高清视频分析
iCore-1684XQ,搭载算能BM1684X,支持32路高清视频分析
Core-1684XJD4,搭载算能BM1684X,支持32路高清视频分析
Shaolin PI SLKY01,搭载算能BM1684,支持16路高清视频分析
QY-AIM16T-M,搭载算能BM1684,支持16路高清视频分析
QY-AIM16T-M-G,搭载算能BM1684,支持16路高清视频分析
QY-AIM16T-W,搭载算能BM1684,支持16路高清视频分析
AIV02T,PCIE板卡,1684*2,半高半长
IVP03X,搭载算能BM1684X,支持32路高清视频分析
IVP03A,微服务器 被动散热,12GB内存
Coeus-3550T,搭载算能BM1684,支持16路高清视频分析
EC-1684JD4,搭载算能BM1684,支持16路高清视频分析
CSA1-N8S1684,算力集群服务器,BM1684*8,1U
DZFT-ZDFX,ARM+DSP智能封条分析,搭载算能BM1684X
ZNFX-32,搭载算能BM1684,支持16路高清视频分析
ZNFX-8,ARM+DSP架构,隔爆兼本安分析装置符合煤安要求,搭载BM1684X
EC-A1684JD4,微服务器主动散热,16GB内存,32GB eMMC
EC-A1684JD4 FD,搭载算能BM1684,支持16路高清视频分析,16GB内存,32GB eMMC
EC-A1684XJD4 FD,搭载算能BM1684X,支持32路高清视频分析
ECE-S01,搭载算能BM1684,支持16路高清视频分析
IOEHM-AIRC01,微服务器,主动散热,搭载算能BM1684,支持16路高清视频分析
IOEHM-VCAE01,搭载算能BM1684,支持16路高清视频分析
CSA1-N8S1684X,算力集群服务器,BM1684X*8,1U
QY-S1U-16,1U版本BM1684盒子
QY-S1U-192,算力集群服务器,BM1684*12,1U
QY-S1X-384,算力集群服务器,BM1684X*12,1U
为交通拥堵、行车安全、车辆违法和道路污染治理问题赋能
利用深度学习云边结合方式解决全域多家餐饮机构的食品安全监管需求,为政府、企业级公众打造监督闭环
对生产全过程、全方位实时感知与精细化监管,推进应急监测智能化,赋能风险识别预警
以云边协同的新型算力基础设施赋能各类数字城市场景,为数字经济发展提供源动力
以自动化训练推理一体化平台为基础,助力算力/算法整合应用快速、高效工程化落地
本次赛题提供的数据集包含image和label两个文件夹。image文件夹由2885张训练集和133张测试集组成;label文件夹中包含2885个带有对应每张图片全部标签的txt文件。标签共包括三种类别:机动车、行人和非机动车。数据标签格式如下:
<class_id> <ct_x> <ct_y> <w> <h>
标签对应id:0:car, 1:person, 2:bike
E.g.
0 0.4284 0.6977 0.2984 0.5361
1 0.2784 0.6125 0.0380 0.0361
2 0.6706 0.7072 0.0255 0.0645
参赛者在训练完成并对测试集图片进行推理后,将测试集图片的检测结果以与训练集标签同名的txt文件保存,并上传至result_submit/文件夹下,具体保存方式见result_submit/README.md。上传格式实例如下所示:
<class_name> <confidence> <left> <top> <right> <bottom>
E.g.
car 0.399786 3 642 125 690
person 0.395193 1549 621 1686 796
bike 0.386811 373 647 395 701
P.S. 我们在scripts/文件夹中为选手提供脚本,可将<class_id> <confidence> <ct_x> <ct_y> <w> <h>
格式转换为提交所需的 <class_name> <confidence> <left> <top> <right> <bottom>
格式。
将检测结果保存至input/detection-results
将测试图片保存至images/
运行如下指令
python3 convert_gt_yolo.py
选手提交成绩后,若审核无误将会每日于result_submit/readme.md中更新分数,每周于赛事官网页面更新分数
通过mAP(mean Average Precison)指标评测模型精度。mAP即各类别APIoU=0.5的平均值,其中APIoU=0.5为IoU阈值为0.5 的平均精度。初赛最终得分计算公式为:score=mAP*100,分数高者为优。
1. 通过与初赛相同的mAP(mean Average Precison)指标评测模型精度。
2. 通过模型推理时间i_time评测模型性能,i_time为测试集图片推理的平均时间,单位为ms。
3. 最终得分计算公式为:score=mAP*100+(1000-i_time)*0.1,分数高者为优。