V
主页
什么是大模型幻觉?为什么会产生幻觉?
发布人
打开封面
下载高清视频
观看高清视频
视频下载器
【人工智能】万字综述大语言模型幻觉 如何定义幻觉 评估基准和方法 幻觉的来源 如何减少幻觉
什么是大模型量化和蒸馏?
射精后,还勃起,可以来第二次吗?
降低大模型幻觉的5种方案
最近火爆的GraphRAG是什么? 真的那么有用吗?
大模型项目选择RAG还是微调:八个判断依据
微调一个模型需要多少GPU显存?
什么是混合专家模型(MoE)?
如何把RAG和知识图谱结合
我让六个AI合租,居然出了个海王?
【知识幻觉 上】看完这个视频,我终于明白AI为什么会胡言乱语了
【Nature】通过语义熵检测大语言模型幻觉
RAG增强检索是如何工作的?
模型微调中最不需要关注的应该是GPU成本
最便宜的48GB显存运算卡-RTX8000
【13B大模型无用】大家不需要用自己的8G显存跑大模型了,没意义,70B也许成,我试试
通俗易懂理解自注意力机制(Self-Attention)
使用大模型时可调节的TopK、TopP到底是什么意思?
通俗易懂理解大模型预训练和微调
什么是知识图谱?与大模型的关系是什么?
什么是模型的泛化能力?
大模型项目落地中的五个坑
为什么人工智能会产生幻觉,如何消除?一起读两篇有关GPT-4的技术报告
大模型成功背后的RLHF到底是什么?
RAG实战中常见的问题
什么是生成式AI?生成AI不等于大模型,判别模型和生成模型
什么是端到端(End-to-End)模型?
通俗理解OpenAI O1的技术和应用
双4090部署qwen72b大模型 每秒150tokens
为什么需要智能体(Agent)
核能挑战:8GB显存本地跑Llama 405B
未来一年大模型发展的八大趋势
传统AI与基于大模型AI之间的区别
经典RAG很难解决的问题以及Agent思路
大语言模型幻觉问题调研
理解向量数据库与文本向量检索效率
关于Llama3.1模型简要总结&启示
从技术可行性剖析AI搜索场景的可落地性
通俗易懂理解提示工程、RAG和微调
当前大模型技术能否走向AGI?