V
主页
当前大模型技术能否走向AGI?
发布人
打开封面
下载高清视频
观看高清视频
视频下载器
通俗易懂理解自注意力机制(Self-Attention)
从零开始学习大语言模型(一)
RAG增强检索是如何工作的?
最近火爆的GraphRAG是什么? 真的那么有用吗?
什么是混合专家模型(MoE)?
模型微调中最不需要关注的应该是GPU成本
通俗理解OpenAI O1的技术和应用
大模型项目选择RAG还是微调:八个判断依据
怎么加快大模型推理?10分钟学懂VLLM内部原理,KV Cache,PageAttention
什么是大模型量化和蒸馏?
RAG实战中常见的问题
经典RAG很难解决的问题以及Agent思路
通俗易懂理解大模型预训练和微调
使用大模型时可调节的TopK、TopP到底是什么意思?
理解向量数据库与文本向量检索效率
大模型成功背后的RLHF到底是什么?
【卢菁老师说】Agent就是一场彻头彻尾的AI泡沫
通俗易懂理解全量微调和LoRA微调
什么是端到端(End-to-End)模型?
大模型是如何生成回复的?背后逻辑又是怎样?
微调一个模型需要多少GPU显存?
通俗易懂理解提示工程、RAG和微调
什么是模型的泛化能力?
经典RAG结构的问题以及几点解决思路
传统AI与基于大模型AI之间的区别
什么是生成式AI?生成AI不等于大模型,判别模型和生成模型
什么是灾难性遗忘?为什么要重视它?
如何把RAG和知识图谱结合
什么是知识图谱?与大模型的关系是什么?
通俗理解大模型领域关键术语以及它们之间的关系
奇葩问题把李沐大神整不会了
使用大模型时可调节的温度指的是什么?
什么是In-context learning
大模型项目选择RAG还是微调:三个案例
在大模型项目中构造好Benchmark的重要性
什么是Continue Pretraining(增量预训练)?
GraphRAG:很好,但很贵!
关于Llama3.1模型简要总结&启示
大模型项目落地中的五个坑
从技术可行性剖析AI搜索场景的可落地性