V
主页
传统AI与基于大模型AI之间的区别
发布人
打开封面
下载高清视频
观看高清视频
视频下载器
啥是大语言模型(LLM)?| AI大模型科普2
RAG增强检索是如何工作的?
最近火爆的GraphRAG是什么? 真的那么有用吗?
什么是大模型量化和蒸馏?
微调一个模型需要多少GPU显存?
什么是混合专家模型(MoE)?
如何把RAG和知识图谱结合
什么是模型的泛化能力?
通俗易懂理解自注意力机制(Self-Attention)
大模型项目选择RAG还是微调:八个判断依据
大模型项目落地中的五个坑
什么是知识图谱?与大模型的关系是什么?
大模型和小模型的区别是什么?
大模型成功背后的RLHF到底是什么?
当前大模型技术能否走向AGI?
使用大模型时可调节的TopK、TopP到底是什么意思?
通俗理解大模型领域关键术语以及它们之间的关系
经典RAG结构的问题以及几点解决思路
选择大于一切:AI项目技术可行性与商业价值的双重解析
关于Llama3.1模型简要总结&启示
理解向量数据库与文本向量检索效率
什么是大模型幻觉?为什么会产生幻觉?
通俗易懂理解提示工程、RAG和微调
经典RAG很难解决的问题以及Agent思路
从技术可行性剖析AI搜索场景的可落地性
通俗易懂理解大模型预训练和微调
通俗理解OpenAI O1的技术和应用
什么是端到端(End-to-End)模型?
大模型项目选择RAG还是微调:三个案例
从Scaling laws来分析GPT5是否会远超GPT4
未来一年大模型发展的八大趋势
大模型是如何生成回复的?背后逻辑又是怎样?
通俗易懂理解全量微调和LoRA微调
奇葩问题把李沐大神整不会了
RAG、In-context learning微调之间的选择
【包教包会】一条视频速通AI大模型原理
什么是灾难性遗忘?为什么要重视它?
为什么需要智能体(Agent)
RAG实战中常见的问题
适合与不适合用生成式AI的场景