V
主页
生成式AI学习8——Transformer模型和BERT模型(上)概述
发布人
https://www.cloudskillsboost.google/course_templates/538 Transformer模型和BERT模型 本课程向您介绍Transformer架构和来自Transformer(BERT)的双向编码器表示法模型。您将学习Transformer架构的主要组件,如自我关注机制,以及如何使用它来构建BERT模型。你还会了解到BERT可用于的不同任务,如文本分类、问题回答和自然语言推理。 在本课程中,您将了解到Transformer架构的主要组成部分,如自我关注机制,以及如何使用它来构建BERT模型。你还会了解到BERT可用于的不同任务,如文本分类、问题回答和自然语言推理。 课程地址:https://www.cloudskillsboost.google/course_templates/538
打开封面
下载高清视频
观看高清视频
视频下载器
生成式AI学习5——编码器-解码器架构(上)概述
生成式AI学习2——大语言模型介绍
生成式AI学习3——负责任的人工智能入门
大型语言模型与生成式AI——介绍LLM和生成式AI项目的生命周期 2——介绍
Google的教学视频《生成式AI介绍》(中英双语字幕)
生成式 AI 入门教程 3 - 什么是生成式 AI - 大语言模型作为思考助手
面向所有人的生成式 AI 入门课程 8 - 生成式 AI 应用 - 大语言模型的能力与局限
面向所有人的生成式 AI 入门课程 4 - 什么是生成式 AI - AI 是一种通用技术
生成式AI学习6——编码器-解码器架构(下)Lab演练
生成式AI学习1——生成式人工智能简介
从商业思维到AI实施:利用Semantic Kernel构建插件之路3 —— 利用 Kernel 烹制美味的 SWOT 商业分析
生成式AI学习9——Transformer模型和BERT模型(下)演示
大型语言模型与生成式AI——人类反馈强化学习7——PPO增强学习算法深度解析
大型语言模型与生成式AI——人类反馈强化学习1——引言
大型语言模型与生成式AI——参数高效微调1——参数高效微调(PEFT)
大型语言模型与生成式AI——参数高效微调2——PEFT技术1 - LoRA(低秩适应)
大型语言模型与生成式AI——使用指令对LLM进行微调4——多任务指令微调
大型语言模型与生成式AI——使用指令对LLM进行微调2——指令微调
从商业思维到AI实施:利用Semantic Kernel构建插件之路1 —— 介绍
使用Gradio构建生成式AI应用6:构建与大语言模型交互的聊天应用
大语言模型微调之道4——指令微调
使用Gradio构建生成式AI应用4:图像生成应用
大型语言模型与生成式AI——介绍LLM和生成式AI项目的生命周期9——生成配置
生成式AI学习7——注意力机制
大型语言模型与生成式AI——使用指令对LLM进行微调1——介绍
基于LangChain的大语言模型应用开发4——链
大型语言模型与生成式AI——人类反馈强化学习3——通过人类反馈进行强化学习(RLHF)
标题:吴恩达 - AI领域的机遇 - 斯坦福在线 2023
基于LangChain的大语言模型应用开发3——记忆
从商业思维到AI实施:利用Semantic Kernel构建插件之路7 —— 只需说“我饿了”,智能厨房即刻为你服务!
Google教学视频:解析 Transformers:理解 GPT,BERT 和 T5 模型背后的原理
大型语言模型与生成式AI——介绍LLM和生成式AI项目的生命周期7——用Transformer生成文本
大型语言模型与生成式AI——使用指令对LLM进行微调3——对单一任务进行微调
Geoffrey Hinton 对 AI 未来的见解(双语字幕)
The Prompt with Trevor Noah | 第2集:AI 如何保护脆弱社区?
大型语言模型与生成式AI——介绍LLM和生成式AI项目的生命周期6——Transformer架构
大型语言模型与生成式AI——人类反馈强化学习9——扩大人类反馈的规模
大语言模型微调之道6——训练过程
从商业思维到AI实施:利用Semantic Kernel构建插件之路4 —— 创造并整理可重用的工具
大语言模型微调之道3——微调在训练过程中的位置