V
主页
transfomers源码阅读——Trainer解读系列1_了解训练流程
发布人
很多同学,都让我把transformers的Trainer介绍一下。但是介绍Trainer,不能只介绍Trainer,需要先了解相关的训练流程,然后才能介绍Trainer。 本期视频,将是介绍Trainer的第一篇——了解训练流程。了解训练流程,让你从全局视角,了解Trainer需要接收什么内容、起到什么作用。为后面更好的认识Tainer打下基础。
打开封面
下载高清视频
观看高清视频
视频下载器
transformers源码阅读——Trainer解读系列2_关键方法
图解llama架构 解读源码实现
transformers二次开发——(定义自己的数据加载器 模型 训练器)bge模型微调流程
transformers源码阅读——transformers包的文件框架介绍
vLLM源码阅读s1——源码介绍
如何丝滑的下载大模型——下载hf的大模型真的会谢(太慢了)
强化学习TRL包源码解读S1——reward_Trainer
【附源码】2024最新53个大模型实战项目!练完即就业Ⅰ基础到框架Ⅰ适合小白入门_LLM_RAG_Agent_ChatGPT_Prompt
训练LLaVA模型(数据集构建、基于Trainer的训练框架搭建)——LLaVA系列
transformers源码阅读——如何看懂模型代码(以llama为例)
transformers源码阅读——neftune的工程实现
chatglm3源码阅读——吐槽角度
transformers源码阅读——llama模型调试
vLLM源码阅读s2——是如何进行离线推理的
【黑马】AI大模型训练营2期
【全126集】目前B站最系统的Transformer教程!入门到进阶,全程干货讲解!拿走不谢!(神经网络/NLP/注意力机制/大模型/GPT/RNN)
使用vscode愉快的阅读transformers源码
大模型量化是怎么实现的——transformers源码解读
nlp开发利器——vscode如何debug transformers源码
nlp开发利器——vscode如何debug transformers源码(deepspeed形式)
transformers二次开发——bge-reranker模型微调流程
【大模型面试】Flash Attention面试连环炮,淘汰80%面试竞争者
AutoModel的lazy加载方式原理解读
miniCPM系列S1——技术报告解读(吊打llama2-70b-chat模型?)
强推!这可能是B站最全的(Python+Transformer+大模型)系列课程了,堪称AI大模型系列课程的巅峰之作!-人工智能/提示词工程/RAG/大模型微调
transformers二次开发——百度轩辕70b大模型数据调度的实现
为什么我的模型就没有办法使用ddp——基于bert做embedding任务 使用ddp进行训练
transformers二次开发——为什么要实现自己的sentence-embedding训练代码
transformers二次开发——为什么要实现自己的sft代码
自定义多模态大模型LLaVA——LLaVA系列
【AI大模型】全面对比解析5款开源免费本地知识库,你更适合哪一款?带你一探究竟!
一个视频让你对flash attention2下头(比较FA2和sdpa的效率)
transformers更新了啥S1——InternLM模型和llama模型竟然是差不多的
transformers包新功能——一行代码将模型效率提高40%
你好小智 ESP32S3 SP_V3对话立创S3开发板
nlp开发利器——vscode愉快的写nlp代码
(超爽中英!) 2024公认最全的【吴恩达大模型LLM】系列教程!附代码_LangChain_微调ChatGPT提示词_RAG模型应用_agent_生成式AI
【微调实战】30分钟学会微调大模型,通义千问1.8B大模型微调从0到1,实现天气预报功能,进行结构化信息提取
从零开始,教你手搓一个精简版LLM,把参数缩减到足够单卡训练的NanoGPT,纯小白教学!
transformers更新了啥S3——23-10-22日更新