V
主页
什么是灾难性遗忘?为什么要重视它?
发布人
打开封面
下载高清视频
观看高清视频
视频下载器
【淘汰】人与人工智能的思考
灾难性遗忘(catastrophic forgetting)
为什么需要智能体(Agent)
大模型为什么需要微调?有哪些微调方式?#大模型 #微调
什么是大模型幻觉?为什么会产生幻觉?
L20.2- 机器终身学习2:灾难性遗忘的克服之道
什么是端到端(End-to-End)模型?
针对灾难性遗忘在尝试的措施
大模型是如何生成回复的?背后逻辑又是怎样?
大模型的训练流程是什么?详解大模型预训练和微调间区别 #大模型 #微调
经典RAG结构的问题以及几点解决思路
当前大模型技术能否走向AGI?
RAG增强检索是如何工作的?
Python性能这么差,为什么会在AI中大量使用
通俗理解OpenAI O1的技术和应用
RAG实战中常见的问题
大模型项目落地中的五个坑
大模型项目选择RAG还是微调:三个案例
【我,机器人】人工智能意图消灭人类?
经典RAG很难解决的问题以及Agent思路
使用大模型时可调节的温度指的是什么?
什么是混合专家模型(MoE)?
微调一个模型需要多少GPU显存?
通俗易懂理解大模型预训练和微调
模型微调中最不需要关注的应该是GPU成本
未来一年大模型发展的八大趋势
通俗易懂理解提示工程、RAG和微调
03 什么是预训练(Transformer 前奏)
RAG、In-context learning微调之间的选择
如何把RAG和知识图谱结合
适合与不适合用生成式AI的场景
最近火爆的GraphRAG是什么? 真的那么有用吗?
【天文新鲜事】首次观测到黑洞暴跌区!重元素或许另有起源!
模型推理时所需的GPU显存
大模型项目选择RAG还是微调:八个判断依据
使用大模型时可调节的TopK、TopP到底是什么意思?
消费主义的本质:花钱你会成为穷人,抠门你会成为新穷人。【围炉夜话】
理解向量数据库与文本向量检索效率
通俗易懂理解自注意力机制(Self-Attention)
在大模型项目中构造好Benchmark的重要性