V
主页
大模型全栈–微调01-微调前置-内含openAI垂直大模型生成方案介绍
发布人
介绍了微调与预训练的区别 open AI垂直大模型工作流程 全参微调介绍
打开封面
下载高清视频
观看高清视频
视频下载器
大模型全栈总览
Qwen2-7B-微调-训练-评估
Gemma2-9B-微调-训练-评估
垂直领域大模型解决方案:煤矿安全大模型基于免费的glm-4-flash
接chatglm4微调以及部署介绍实操测试多模态以及文档分析部分
01AI应用-卖货主播大模型02-微调卖货主播大模型、微调数据集的生成、未来应用的展望
【亲测】用指令写出10万+爆文,今日 头条账号图文玩法与细节,AI一天自动写50篇文章,单日轻松产出500+,小白轻松上手!!!保姆级项目拆解
chatglm4微调以及部署介绍
Llama3.1-8B-微调-部署
大模型全栈-数据介绍
大模型全栈总览-tokenizer
北大发布多模态大模型LLaVA-o1(已更名为LLaVA-CoT)推理计算Scaling新思路
大模型全栈-提词工程
Gemma2-2B-微调-部署
13大模型全栈-强化学习06-DPO流程、代码以及损失函数介绍
最新ChatGPT4.0国内如何使用,保姆级教程来了!
AI绘画教程|AI艺术字创意设计,工作流一键生成,商业落地应用,AIGC教程
微软Phi3.5系列模型分析、微调、部署-Phi-3.5-vision-instruct、Phi-3.5-MoE-instruct、Phi-3.5-mini
01AI应用-卖货主播大模型01-手把手教你部署
大模型全栈–transformer原理-embedding原理-增量预训练技巧
17大模型全栈-强化学习10-DPO变体-DPOP+ORPO:微调阶段实现对齐
ComfyUI零基础教学01,全新客户端新体验,从0到1精讲,StableDiffusion节点式搭建入门教程
18大模型全栈-分布式训练01-数据并行-Ring–Allreduce和PS原理
大模型全栈–微调02-PEFT高效参数微调技术速览lora等技术、lora应用场景、lora调优经验
20大模型全栈-分布式训练03-模型并行-张量并行、朴素流水线并行原理
02 通用人工智能的雏形-OpenAI o1核心原理揭秘-通过解读谷歌的推理时计算论文来证明
15大模型全栈-强化学习08-DPO变体:IPO、KTO:无需偏好数据实现对齐
08大模型全栈-强化学习01-RLHF前言传统强化学习
12大模型全栈-强化学习05-RLHF实战-端到端全流程解决方案-轩辕大模型强化学习完整流程介绍(数据+奖励模型+强化学习调参经验)
01 通用人工智能的雏形-OpenAI o1介绍-推理能力炸裂,在推理时思考,AIME数学竞赛轻松拿下
14大模型全栈-强化学习07-DPO原理公式推导
19大模型全栈-分布式训练02-数据并行-deepspeed zero1/2/3原理
16大模型全栈-强化学习09-DPO变体:TDPO:更细粒度控制的DPO;RPO:带有离线奖励的DPO
11大模型全栈-强化学习04-RLHF实战-deepspeed-chat实战
10大模型全栈-强化学习03-RLHF原理以及流程介绍
21大模型全栈-分布式训练04-模型并行02-流水线并行GPipe和PipeDream原理
【ChatGPT】ChatGPT Search 模型上线:革命性更新
AI绘画教程|如何提升画面的质量,StableDiffusion教程,AIGC,AI绘画工作流
大模型全栈总览-训练总览
09大模型全栈-强化学习02-RLHF前言LLM强化学习