V
主页
DeepSpeed 大规模深度学习分布式训练优化框架 DeepSpeed-Chat 02 Step 1 actor 模型微调
发布人
欢迎参与DeepSpeed与DeepSpeed-Chat的探索之旅!在这一课程中,我们将深入探索这两个重要的深度学习优化工具,为您揭示其背后的原理,特点以及如何有效地应用它们来提升您的深度学习项目效率。 相关课程资料请在我的公众号:唐国梁Tommy 菜单栏“资料获取”页面自助获取。 1. DeepSpeed简介 ① 定义与背景:了解DeepSpeed是什么,以及为何它在深度学习领域受到如此广泛的关注。 ② 核心特性与优势:探索DeepSpeed的主要特点,如模型并行、ZeRO优化、内存效率和通讯效率等。 ③ 实际应用:通过实际示例,学习如何将DeepSpeed整合到您的项目中,从而更快地训练模型,同时减少计算资源的使用。 2. DeepSpeed-Chat的探索 ① 定义与特性:了解DeepSpeed-Chat是什么,以及它如何基于DeepSpeed提供针对聊天模型的特定优化。 ② 如何利用DeepSpeed-Chat:学习如何在聊天模型上应用DeepSpeed-Chat,以实现更高效的训练和部署。 ③ 性能和效率:通过对比实验,体验DeepSpeed-Chat如何在实际应用中显著提高模型的性能和计算效率。
打开封面
下载高清视频
观看高清视频
视频下载器
llama3-01-模型简介
LangChain 实战案例-01 基于上传PDF文档进行QA问答 第2节 案例实现
LangChain 实战案例-01 基于上传的PDF文档进行QA问答 第1节 项目简介
案例实战-06-上集—基于LLaMA和LoRA模型进行指令精调
04-3 轻松学 PyTorch 迁移学习,模型微调
LangChain 教程 实战案例-01 基于上传PDF文档进行QA问答 第3节 向量数据库
01 轻松学 PyTorch 简介和安装
Chat-36-step2-源码解读-forward算法-第1节
Chinese LLaMA Alpaca 案例实战-01-项目概览
案例实战-05-基于LLaMA和LoRA模型进行预训练
02 轻松学 PyTorch 初识Tensor
LoRA_04_基于PEFT进行llama3模型微调实战
llama3-06 基于llama-factory和自定义数据集进行模型微调
LoRA_05_02_基于GPT-2进行LoRA微调实战
llama-2-模型推理
DeepSpeed-Chat-08-step1_源码解读_创建LoRA层
案例实战-03-Chinese-LLaMA-AIpaca模型本地部署
LoRA_05_01_基于GPT-2进行LoRA微调实战
Chat-29-step2-源码解读-创建数据集
方案1-CIFAR10-05-基于FastAPI实现推理服务
DeepSpeed-Chat-25 Step-2-01 简介
Chat-27-step2-源码解读-参数配置和初始化
QLoRA_02_算法原理_深入解析
DeepSpeed-Chat-09-step1_源码解读_创建数据集-第1节.mov
方案1-CIFAR10-03-模型训练和本地保存
源码讲解-04-上集-模型预训练代码逐行剖析
02_轻松学OpenCV_图像基础
DeepSpeed-Chat-21-step1_源码解读_模型评估
Chinese- LLaMA- Alpaca 案例实战-02-指令数据生成
DeepSpeed-Chat-07-step1_源码解读_创建 tokenizer 和 model
方案2-CIFAR10-DeepSpeed-05-配置文件参数讲解
03-1 轻松学 PyTorch 手写字体识别 MNIST (理论)
DeepSpeed-Chat-16-step1_源码解读_deepspeed初始化
Chat-37-step2-源码解读-forward算法-第2节
DeepSpeed-Chat-11-step1_源码解读_创建数据集-第3节
Chat-39-step2-源码解读-forward算法-第4节
03_ES python API基础操作入门
02_多模态_基于Gradio和Streamlit实现Web端问答交互
源码讲解-01-中文词汇表扩充
7-01 最牛算法之一_lightGBM算法_理论部分