V
主页
大模型全栈总览-tokenizer
发布人
介绍了大模型tokenizer,tokenizer的分词粒度。以及分词算法:wordpiece,BPE BBPE 以及如如何从零训练一个tokenizer分词器
打开封面
下载高清视频
观看高清视频
视频下载器
大模型全栈总览
Qwen2-7B-微调-训练-评估
Llama3.1-8B-微调-部署
大模型全栈总览-训练总览
垂直领域大模型解决方案:煤矿安全大模型基于免费的glm-4-flash
18大模型全栈-分布式训练01-数据并行-Ring–Allreduce和PS原理
大模型全栈-数据介绍
13大模型全栈-强化学习06-DPO流程、代码以及损失函数介绍
20大模型全栈-分布式训练03-模型并行-张量并行、朴素流水线并行原理
Gemma2-9B-微调-训练-评估
微软Phi3.5系列模型分析、微调、部署-Phi-3.5-vision-instruct、Phi-3.5-MoE-instruct、Phi-3.5-mini
01AI应用-卖货主播大模型01-手把手教你部署
11大模型全栈-强化学习04-RLHF实战-deepspeed-chat实战
01AI应用-卖货主播大模型02-微调卖货主播大模型、微调数据集的生成、未来应用的展望
大模型全栈–微调02-PEFT高效参数微调技术速览lora等技术、lora应用场景、lora调优经验
21大模型全栈-分布式训练04-模型并行02-流水线并行GPipe和PipeDream原理
19大模型全栈-分布式训练02-数据并行-deepspeed zero1/2/3原理
大模型全栈-提词工程
Gemma2-2B-微调-部署
16大模型全栈-强化学习09-DPO变体:TDPO:更细粒度控制的DPO;RPO:带有离线奖励的DPO
15大模型全栈-强化学习08-DPO变体:IPO、KTO:无需偏好数据实现对齐
chatglm4微调以及部署介绍
09大模型全栈-强化学习02-RLHF前言LLM强化学习
17大模型全栈-强化学习10-DPO变体-DPOP+ORPO:微调阶段实现对齐
用好豆包电脑版,顺利毕业、早下班!豆包AI干货教程
10大模型全栈-强化学习03-RLHF原理以及流程介绍
大模型全栈–transformer原理-embedding原理-增量预训练技巧
01 通用人工智能的雏形-OpenAI o1介绍-推理能力炸裂,在推理时思考,AIME数学竞赛轻松拿下
从0到1搭建智能体教学!5分钟搭建语音法律助手!
被疯狂刷屏的大模型在9.9和9.11比较中翻车原理分析-为什么大模型不擅长数学类问题?
14大模型全栈-强化学习07-DPO原理公式推导
如何根据自身业务场景计算大模型推理所需的最小GPU显存以及推理的时延:以Llama-7B为例验证公式和实测相差不大
02 通用人工智能的雏形-OpenAI o1核心原理揭秘-通过解读谷歌的推理时计算论文来证明
12大模型全栈-强化学习05-RLHF实战-端到端全流程解决方案-轩辕大模型强化学习完整流程介绍(数据+奖励模型+强化学习调参经验)
05Mathstral-7B-数学大模型推理部署
大模型全栈–微调01-微调前置-内含openAI垂直大模型生成方案介绍
08大模型全栈-强化学习01-RLHF前言传统强化学习
接chatglm4微调以及部署介绍实操测试多模态以及文档分析部分
AI内战?我做了个AI谣言生成器,又用AI"杀死"了它【图灵计划12】
从谣言到“有图有真相”,我们该怎么对抗AI的深度伪造?