V
主页
案例实战-10-LLaMA tokenizer模型与中文tokenizer模型合并操作
发布人
欢迎参与我们的大语言模型开源课程!在这个系列课程中,我们将深入解析最新的研究论文,详细讲解相关代码,以及研究开源项目的实施细节。这是一次探索AI的旅程,帮助你理解并掌握大语言模型的精髓。无论你是研究人员,开发者,或是对AI技术感兴趣的学习者,都能从中受益。 *** 请到我的公众号根据提示下载相关课程的源代码:*** 个人公众号 + 网易云课堂 :唐国梁Tommy
打开封面
下载高清视频
观看高清视频
视频下载器
精讲版-12 天气预测实战-模型搭建
02_多模态_基于Gradio和Streamlit实现Web端问答交互
llama-2-模型推理
LoRA_05_02_基于GPT-2进行LoRA微调实战
LoRA_06_LoRA核心算法实现
LoRA_05_01_基于GPT-2进行LoRA微调实战
进阶学·ES-04-03 analyzer IK分词器-自定义词典
DeepSpeed-Chat-10-step1_源码解读_创建数据集-第2节
llama3-03-torchrun推理与特殊标记的应用
llama3-05 使用Docker部署llama3量化模型API服务
02_ES 基础操作快速入门
DeepSpeed分布式训练框架 DeepSpeed-Chat Step-1-04 actor 模型推理
Chat-28-step2-源码解读-创建Reward模型
精讲版-13 天气预测实战-模型训练和验证
方案2-CIFAR10-DeepSpeed-04-模型性能验证
llama3-01-模型简介
DeepSpeed-Chat-20-step1_源码解读_模型保存-第3节
案例实战-07-下集-基于LLaMA和LoRA模型进行指令精调
Chat-38-step2-源码解读-forward算法-第3节
案例实战-09-剧透-使用 FastAPI 实现 LLaMA API服务
案例实战-16-llama.cpp量化模型GPU加速推理
llama3-02-环境配置 基于vLLM推理
EMNLP2024分享会之NER、模型微调
轻松学·Streamlit_06_基础功能探索
方案2-CIFAR10-DeepSpeed-01-超参数定义
案例实战-03-Chinese-LLaMA-AIpaca模型本地部署
DeepSpeed-Chat-16-step1_源码解读_deepspeed初始化
llama3-04 使用llama.cpp进行llama3模型的量化和部署
Chat-27-step2-源码解读-参数配置和初始化
Chat-31-step2-源码解读-deepspeed初始化
30分钟教会你使用Llama Factory微调一个专属自己的中文llama3
精讲版-11 天气预测实战-数据预处理
方案1-CIFAR10-03-模型训练和本地保存
DeepSpeed-Chat-09-step1_源码解读_创建数据集-第1节.mov
DeepSpeed分布式训练框架 DeepSpeed-Chat Step-1-02 actor 模型微调
多模态大模型 前沿算法与实战应用 系列课程 第一季:图文与视频理解
OpenAI assistant API 学习指南-简介
轻松学·Streamlit_01_专题简介
DeepSpeed-Chat-15-step1_源码解读_创建优化器和调度器
LoRA_02_算法原理深入解析-下集