V
主页
模型微调中最不需要关注的应该是GPU成本
发布人
打开封面
下载高清视频
观看高清视频
视频下载器
【行业内幕】百度的技术路径 永远不可能赢亏平衡 自动驾驶抢出租车司机饭碗 还早8至10年 | LI道长的世界观48
奇葩问题把李沐大神整不会了
大模型项目选择RAG还是微调:八个判断依据
天才乔布斯,一语道破计算机的本质
最近火爆的GraphRAG是什么? 真的那么有用吗?
乔布斯对优秀人才的定义
微调一个模型需要多少GPU显存?
李沐-YOLOv3史上写的最烂的论文-但很work
女孩子到底是喜欢前面还是后面?
通俗易懂理解自注意力机制(Self-Attention)
Qwen2-7B-微调-训练-评估
LoRA是什么?| 5分钟讲清楚LoRA的工作原理
通俗易懂理解大模型预训练和微调
好好珍惜自己的另一半啊
没以前那感觉了
吴恩达大模型系列教程:2024吴恩达LLM大模型教程,手把手带你实现大模型预训练和模型微调,中英字幕(附学习课件)
AI 工程师都应该知道的GPU工作原理,TensorCore
RAG实战中常见的问题
如何把RAG和知识图谱结合
大模型为什么需要微调?有哪些微调方式?#大模型 #微调
什么是大模型量化和蒸馏?
大模型是如何生成回复的?背后逻辑又是怎样?
RAG增强检索是如何工作的?
如何给大模型喂数据?让AI更懂你~【小白科普】
动手学RAG:Part1 什么是RAG?
【研1基本功 (真的很简单)LoRA 低秩微调】大模型微调基本方法1 —— bonus "Focal loss"
【官方双语】直观解释注意力机制,Transformer的核心 | 【深度学习第6章】
读书时间!一起读《软技能:代码之外的生存指南》
GraphRAG:很好,但很贵!
什么是混合专家模型(MoE)?
在GitHub上一天获得将近1万颗星,火爆全球,MemAI开源Mem0,LLM 和 AI 代理的记忆层,实现真正个性化的 AI 交互。
什么是灾难性遗忘?为什么要重视它?
比Python快35000倍,新编程语言官宣,打入AI领域
当前大模型技术能否走向AGI?
通俗易懂理解提示工程、RAG和微调
从传统RAG到GraphRAG
7年前李健这段话的含金量还在不断上升
怎么加快大模型推理?10分钟学懂VLLM内部原理,KV Cache,PageAttention
通俗易懂理解全量微调和LoRA微调
「官方教程」GLM-4-9B 实战部署和微调