V
主页
微软2023年Build大会演讲:如何训练和应用GPT
发布人
这是本次微软2023年Build大会来自OpenAI的AI 研究员和创始成员Andrej Karpathy的一个主题为State of GPT的演讲。 演讲主要有两部分内容: 1. OpenAI是如何训练GPT的 2. 我们如何有效应用GPT 首先对于如何训练GPT,通常来说是四个阶段预训练(Pretraining),有监督的微调(Supervised Finetuning),奖励建模(Reward Modeling)和强化学习(Reinforcement Learning),这几个阶段通常是依次进行,每个阶段都有不同的数据集。 预训练(Pretraining): 这个阶段的目标是让模型学习一种语言模型,用于预测文本序列中的下一个单词。训练数据通常是互联网上的大量文本。模型从这些文本中学习词汇、语法、事实以及某种程度的推理能力。这个阶段结束后,模型可以生成一些有意义且语法正确的文本,但可能无法理解具体任务的需求。 有监督的微调(Supervised Finetuning): 在预训练后,模型会进入微调阶段。在这个阶段,人类评估员将参与并给出指导,他们会给模型提供对话样本,样本中包含了输入和期望的输出。这使得模型能更好地适应特定任务或应用,例如回答问题或编写文章。 奖励建模(Reward Modeling): 评估员将对模型生成的不同输出进行排名,以表示它们的质量。这个排名将被用作奖励函数,指导模型优化其生成的输出。 强化学习(Reinforcement Learning): 强化学习阶段是一个迭代的过程,模型会试图优化其行为以获得最大的奖励。在这个阶段,模型会产生新的输出,评估员会对这些输出进行排名,然后模型根据这个反馈调整其行为。 然后是如何有效应用GPT 在演讲中Andrej举了一个非常好的例子:人类和大语言模型(LLM)都是如何写作的?从这个例子中你能明显感觉到人类和GPT之间的差异。 假设你要写一篇文章去比较加利福尼亚州和阿拉斯加州的人口,你的写作的过程中可能是像这样的: - 我需要写一篇文章去比较加利福尼亚州和阿拉斯加州的人口 - 我需要去获取两个州的人口数据 - 我不知道这两个周的人口数据 - 去维基百科找到加利福尼亚州的人口是39.2M - 去维基百科找到阿拉斯加州的人口是0.74M - 现在我需要计算一下两个州人口数相差多少倍,但是可能需要计算机帮忙 - 用计算器算出来39.2除以0.74约等于53 - 快速的检查一下53倍这个数字是不是符合常识,嗯,这是一个相当大的比值,但加利福尼亚州毕竟是人口最多的州,所以这个结果或许是合理的,可以继续 - 好了,我现在有了我需要的所有信息 - 写下:“加利福尼亚州的人口比53倍的……” - 觉得好像不太好,删除重写成:“加利福尼亚州的人口是阿拉斯加州的53倍。” - 嗯,觉得还不错 也就是说,当人类写作时,哪怕是这样一个简单的句子,可能内心实际上进行了大量的运算的。 但当我们用GPT进行写作这样的句子看起来会是什么样呢? 从GPT的角度看,这只是一系列的标记(Tokens)。当GPT在接收到一个输入,比如你给出的主题。它会生成一段与输入相关的文本,GPT的目标是预测下一个词,所以它会连续生成一串词,形成一段连贯的文本。 从本质上看,Transformer只是标记模拟器,它不知道自己知道什么不知道什么,它不知道自己擅长什么或不擅长什么,它只是尽力生成下一个标记,它也不会进行反思,也不会不进行任何合理性检查。它不会纠正自己的错误,它只是产生抽样的标记序列,它没有像人类那样的内心独白流。 但是,GPT有一些优势,如它们拥有大量的基于事实的知识,并且拥有相对大的并且完美的工作记忆。GPT通过自我注意力机制,能立即获取到上下文窗口中的信息,从而进行无损记忆。然而,GPT在推理和判断方面的能力相对较弱,如果提出的问题需要更复杂的推理,单凭一个标记的信息,GPT往往无法给出正确的答案。 一些技巧可以提升GPT的表现,比如Cot(Chain of Though)设定步骤来引导GPT展示其工作过程,或者通过多次抽样然后选择最佳结果等,或者可以让GPT检查自己的输出,比如询问它是否完成了任务,最好是在Prompt中明确的要求它检查自己的输出。 后面还介绍了目前比较流行的GPT应用,比如Agent、Plugin、CoT、Embedding等 原始视频地址: https://build.microsoft.com/en-US/sessions/db3f4859-cd30-4445-a0cd-553c3304f8e2
打开封面
下载高清视频
观看高清视频
视频下载器
2024吃透AI大模型(LLM+RAG系统+GPT-4o+OpenAI)通俗易懂,学完即就业!拿走不谢,学不会我退出IT圈!!!
斯坦福大学《强化学习|Stanford CS234 Reinforcement Learning 2024》deepseek翻译
11月官方版GPT-4国内免费使用了!免翻,零门槛,点击即可使用
斯坦福大学教授李飞飞在2024年数据与人工智能峰会上的人工智能历史与未来演讲(双语字幕)
B站大佬自制免费GPT站点,180个GPT账号随便用
一个视频讲清楚研究生如何用好ChatGPT(科研绘图、论文撰写投稿、数学建模等)
【11月6日最新版可直连ChatGPT4.0】免费使用教程!免翻,无魔法,无任何限制
借助伪代码让 ChatGPT 一次画多张图片甚至绘本。
超低成本手把手带你Fine-Tuning基于Qwen2.5-7B大模型从零微调酒店推荐行业大模型,过程可视化呈现,低成本RTX4090显存24G超强算力解决方案
【11月最新版ChatGPT4.0】免费使用教程!免翻,无任何限制,GPT4o体验分享
11月官方版GPT4o国内免费使用了!免翻免梯子,零门槛
【2024年11月最新版ChatGPT】免费 ,无需翻墙,无限次数使用chatgpt3.5和gpt4.0教程。
【2024年11月最新chatgpt】无需翻墙,无需账号,直接使用chatgpt4.0!
目前,最满意的本地知识库 Copilot【总第 128 期】
大语言模型课程Lesson1-1 什么是大语言模型?
永不跑路!280个ChatGPT plus共享账号网站,支持白嫖!
让 GPT 帮你卖旧东西,写吸引人的文案
【11月14日最新版国内直连ChatGPT4.0】免费使用教程,免翻,无任何限制!
如何写好提示词?(上)
【沉浸式】使用ChatGPT驱动ABAQUS Python建模过程案例
【AI大模型】3天构建一个AI Chatbot聊天机器人,2025版最系统全面的AI大模型教程(LLM+RAG+Open AI+GPT+生成式AI)
如何构建Supabase的OpenAI文档搜索对话机器人ClippyGPT
Canvas画布:让ChatGPT真正成为生产力工具,全新的交互,更高效的写作,更好的编码
逆天!可免费用GPT-4o的站点,白嫖就是赚到!
【11月最新版国内直连ChatGPT4.0】官方版ChatGPT4o国内免费使用了!免翻,无任何限制,国内即可直接使用,最新GPT4o白嫖分享教程!
WWDC24: 在Apple GPU上训练您的机器学习和AI模型 | Apple
【国内白嫖】11月15日最新ChatGPT4.0
马克·扎克伯格前几天接受了Robin Kallaway的采访,讨论了未来的技术发展,尤其是智能眼镜、神经腕带和 AI 技术在创作者和小企业中的应用
用了几天ChatGPT Seatch,可以检索知网、万方了,实测后发现了更多的细节!
一口气入门2024最好用的六大AI视频工具!免费且强大!
OpenAI 创始人 John Schulman 访谈节选:为什么 GPT-4 比一年前更“聪明”了?
通用人工智能是否已经到来?
B站Up搭建的免费GPT站点,超详细使用教程!
分享一个ChatGPT润色sci文章的指令
哈佛的CS50课程节选:GPT-4是如何工作的?
【国内白嫖】10月31日最新ChatGPT4.0随便用
ChatGPT4.0国内如何免费使用?免翻,无任何限制!官方版GPT4,最新教程它来了!
使用ChatGPT API构建系统6——检查输出(中英文字幕)
【2024最新版】清华大佬终于把AI大模型(LLM+RAG系统+GPT-4o+OpenAI)讲清楚了!全程干货讲解,通俗易懂!学不会我退出IT圈!