深度神经网络模型能很快地被训练、测试,然后被产业界部署从而有效完成现实世界中的任务,在小体积、低功耗的 AI 边缘计算平台上部署这类系统很受产业界欢迎。本课程以实践驱动的方式带领大家直观学习、实战和掌握深度神经网络的知识和技术。
SOPHON AI微服务器SE5是一款高性能、低功耗边缘计算产品,搭载算能自主研发的第三代TPU芯片BM1684,INT8算力高达17.6TOPS,支持32路全高清视频硬件解码与2路编码,本课程带你快速玩转功能强大的SE5服务器,通过本课程的学习你即能理解AI的基本知识,又能掌握AI基本应用。
课程特点
1、一站式服务
所有SE5应用遇到的常见问题都可以在这里找到答案
2、体系化教学
从环境搭建到应用开发,从模型转化到产品部署,镜像实战环境
3、资料齐全
课程包括视频教学、文档指导、代码脚本等,详尽丰富
代码下载链接:https://github.com/sophon-ai-algo/examples
4、免费的云开发资源
可以在线免费申请使用SE5-16微服务器云测试空间
云平台申请地址:https://account.sophgo.com/sign_in?service=https://cloud.sophgo.com&locale=zh-CN
云平台使用说明:https://cloud.sophgo.com/tpu.pdf
课程目录
学生在完成本课程的学习后将能够掌握以下能力:
本课程全面、系统地介绍了深度学习的基础知识、TPU硬件平台和TPU平台实践基础以及图像分类等内容。学习本课程需要有一定的 Python 编程基础,以及概率统计的数学知识基础。
TPU-MLIR是专注于AI芯片的TPU编译器,该编译器工程提供了一套完整的工具链,可以实现将多种不同的深度学习框架(PyTorch、ONNX、TFLite和Caffe)下预训练的神经网络模型,通过编译和转换实现转化为可以在算能TPU上高效运算的模型文件bmodel/cvimodel,通过量化为不同精度的bmodel/cvimodel实现在算能硬件TPU上的加速和模型性能的优化,从而实现将各种目标检测、语义分割和目标跟踪等相关模型部署到底层硬件上进行加速。
本节课程主要分为三大部分:
一、实现本地开发环境的搭建和配置,并完成相关Sophon SDK、TPU-MLIR编译器核心理论及相关加速接口的学习。
二、完成ONNX、TFLite、Caffe和PyTorch四种深度学习模型样例的转换与量化,以及其他深度学习框架转换中间格式ONNX的方法。
三、带领大家进行实战化移植四个实例算法(检测、识别和跟踪等方向算法)进行编译转换和量化,最终部署到算能1684x张量处理器的TPU芯片上进行性能测试。
本课程将通过实战演示作为驱动,带领大家全面、直观地了解TPU-MLIR编译器的使用,实现快速上手转换和量化不同深度学习模型算法并能够在移植到算能AI芯片TPU上进行部署测试。目前TPU-MLIR的使用已被应用在算能研发的最新一代人工智能芯片BM168X及CV18XX上,搭配上芯片本身的高性能ARM内核以及相应的SDK,能够实现深度学习算法的快速部署。
本课程的学习在模型移植部署上具备以下优势:
1、支持多种深度学习框架
目前直接支持的框架有PyTorch、ONNX、TFLite和Caffe。其他框架的模型需要转换成ONNX模型。如何将其他深度学习架构的网络模型转换成ONNX, 可以参考ONNX官网: https://github.com/onnx/tutorials。
2、易操作
通过阅读开发手册及相关部署案例,了解TPU-MLIR的原理和操作步骤,实现模型从零到部署,掌握相关Linux操作命令和模型编译量化命令即可上手实操。
3、量化部署步骤简便
模型转换需要在算能提供的docker内执行, 主要分两步, 一是通过 model_transform.py 将原始模型 转换成mlir文件, 二是通过 model_deploy.py 将mlir文件转换成bmodel格式。bmodel便是可以在算能TPU硬件上运行加速的模型文件格式。
4、适配多架构多模式硬件
量化好的bmodel模型可以运行在PCIe和SOC两种模式上的TPU上进行性能测试
5、资料手册齐全
丰富的教学视频,包含详细的理论讲解与实战操作,充分的实操指导和规范化的代码脚本均开源至课程中,供所有用户进行学习。
SOPHON-SDK开发指南:https://doc.sophgo.com/sdk-docs/v23.05.01/docs_latest_release/docs/SophonSDK_doc/zh/html/index.html
TPU-MLIR快速入门手册:https://doc.sophgo.com/sdk-docs/v23.05.01/docs_latest_release/docs/tpu-mlir/quick_start/html/index.html
示例模型仓库地址:https://github.com/sophon-ai-algo/examples
TPU-MLIR官方仓库地址:https://github.com/sophgo/tpu-mlir
SOPHON-SAIL开发手册:https://doc.sophgo.com/sdk-docs/v23.05.01/docs_latest_release/docs/sophon-sail/docs/zh/html/
本课程介绍了Milk-V Duo开发板的硬件电路设计以及基本环境搭建,并且提供了一些简单开发实例和基础AI实例。
Milk-V Duo是基于CV1800B的超小型嵌入式开发平台,体积小,功能全面,搭载双核可分别运行linux和rtos系统,可连接的外设多样。
可扩展性:Milk-V Duo核心板有GPIO、I2C、UART、SDIO1、SPI、ADC、PWM等多种接口。
可连接的外设多样:Milk-V Duo核心板的可以扩展LED、便携屏幕、摄像头、WIFI等各种设备。
课程特点:
1. 内容资料丰富齐全,开发板硬件设计、外设接口说明、基本环境搭建方法、样例代码脚本。
2. 学习路线科学合理,通过开发板的介绍和基础例程使用来了解学习开发板,然后引出实战项目,让开发板物尽其用,也为用户自行开发提供参考。
3. 实战项目丰富,课程提供有许多实战代码样例的使用及功能展示,只需修改、组合就能完成不同功能的实现。
课程目录
欢迎加入AI大模型课程!本课程将带你深入了解什么是AI大模型,并帮助你掌握应用这些强大模型的技能。无论你是对人工智能领域感兴趣,还是想在实际项目中应用AI大模型,本课程都将为你提供宝贵的知识和实践经验。
AI大模型是指具有巨大参数量和复杂结构的深度学习模型。这些模型在处理大规模数据集和复杂任务时表现出色,如图像识别、自然语言处理、语音识别等。AI大模型的兴起引发了人工智能领域的巨大变革,并在许多领域取得了突破性的成果。
在本课程中,你将学习AI大模型的基本概念和原理。我们将详细介绍LLM(Large Language Models)的基础理论、发展历程、常用的大模型和不断发展的Prompt和In-context learning技术。随着课程的深入,我们将进行AI大模型实战应用。你将学习到如何部署Stable Diffusion和ChatGLM2-6B等备受关注的大模型到算能自研的最新一代人工智能芯片BM1684X。SOPHON BM1684X, 是算能面向深度学习领域推出的第四代张量处理器,算力可达32TOPS,支持32路高清硬解码和12路高清硬编码,可用于人工智能、机器视觉、高性能计算等环境。
无论你是想在学术界深入研究AI大模型,还是在工业界应用这些技术,本课程都将为你提供坚实的基础和实践能力。准备好迎接AI大模型的挑战了吗?让我们一起探索这个令人着迷的领域吧!