V
主页
京东 11.11 红包
论文分享 | Arxiv-23 | LLaMA:开放高效的基础语言模型
发布人
论文名称:LLaMA: Open and Efficient Foundation Language Models 论文链接:https://arxiv.org/pdf/2302.13971.pdf 现有的大规模语言模型的目标是如何最佳地扩展数据集和模型大小,使模型达到最佳的性能。然而,这个目标忽略了推理预算,而推理预算在大规模语言模型应用时变得至关重要。因此,LLaMA的重点是训练一个语言模型,在给定的推理预算下达到最佳的性能。
打开封面
下载高清视频
观看高清视频
视频下载器
论文分享|ICLR-23|知识在上下文中:走向知识化的半参数语言模型
论文分享|Arxiv-23|REPLUG:检索增强黑盒语言模型
论文分享 |Arxiv-23|HuggingGPT:语言模型ChatGPT作为智慧大脑,控制各AI模型
论文分享|ICLR-23|REACT: 语言模型结合推理和行动,动态构建prompt
清华教授刘嘉谈中美AI差距:可怕的是我们落后速度在加快
论文分享|ArXiv-23|BLIP-2:基于冻结的视觉模型和大规模语言模型进行视觉-语言预训练
论文分享|ArXiv-23|在代码之外思考:头脑风暴促进代码生成中的大型语言模型
论文分享|Arxiv-23|学习从大规划语料库中生成事实正确的文章
揣摩工作|ArXiv-23|链中搜索:迈向准确,可信,可溯源的大语言模型
论文分享 | CVPR21 | 反事实 VQA——如何用因果推断的方法消除视觉问答中的语言偏差
论文分享|ArXiv-23|通过多智能体辩论鼓励大型语言模型中的发散思维
论文分享|ACL-23-Findings|IF 的魔力:研究大型代码语言模型中的因果推理能力
论文分享|ArXiv-23|DetectGPT:利用概率曲率的零样本机器生成文本检测
【全网最细】逼自己一周吃透AI大模型(LLM+RAG系统+GPT-4o+OpenAI)通俗易懂,2024最新版,学完即就业!!
论文分享|ICLR-22|微调语言模型是零样本学习者
论文分享|NIPS-23|思维树:用大型语言模型有意识地解决问题
论文分享|ICLR-23|通用视觉-语言稠密检索:多模态检索的统一表示空间学习
论文分享 | Arxiv-22 | InstructGPT : chatGPT背后技术究竟是怎么样的?
论文分享 | Arxiv-22 | Self-Instruct : 一种自动化生成指令微调数据集的方法
论文分享|ICLR-23|GENERATE RATHER THAN RETRIEVE:大型语言模型是强大的上下文生成器
论文分享|ArXiv-23|一滴墨水引发百万思考:大语言模型中错误信息的传播
论文分享|ArXiv-23|图像检索的生成式建模
论文分享 | NeurIPS-22 | Diffusion-LM:用于提升可控生成的扩散语言模型
论文分享 | arXiv-21 | 利用虚拟交互优化基于表示的文本匹配模型
论文分享 | NeurIPS-21 | 对抗性GLUE:一种用于语言模型鲁棒性评估的多任务基准测试
揣摩工作|EMNLP-23|LLMDet:第三方大型语言模型生成的文本检测工具
论文分享|ArXiv-23|通过“梯度下降”和波束搜索自动提示优化
论文分享|Arxiv-22|任务导向的指令检索
论文分享|ArXiv-23|mPLUG-Owl : 模块化学习使LLM具有多模态能力
论文分享 | ACL-22 | 好久不见!具有长期角色记忆的开放域会话
论文分享|EMNLP-22|代码语言模型是小样本常识学习者
完整60讲!计算机博士手把手教学的【Transformer】入门到精通,从零讲解基础原理及模型架构,绝对通俗易懂!
论文分享|ACL-23|何时不信任语言模型:研究参数和非参数记忆的有效性
论文分享 | ACL-20 | 选择性作答:一种可以提升模型指标的测试方式
论文分享 | arXiv-22 | 怎样打破文本生成中的循环
论文分享 | ICLR-22 | 如何鲁棒化黑盒ML模型?零阶优化视角
论文分享 | arXiv-22 | Tailor:基于prompt的多属性可控文本生成方法
【动手学习大模型 1/12】LLM 面试和工作的区别,让我们一起 import transformers,了解大模型的基本使用流程 (有较好基础同学不推荐观看)
杨立昆哥大演讲:大语言模型成发展瓶颈,AI真正突破在于理解物理世界
论文分享|ArXiv-23|SWIFTSAGE: 针对复杂交互任务具有快速和慢速思考的生成式智能体