V
主页
5.8 定义Transformer注意力机制
发布人
原书信息:清华大学出版社-图书详情-《TensorFlow+Android经典模型从理论到实战(微课视频版)》 http://www.tup.tsinghua.edu.cn/booksCenter/book_09703501.html 第5章 Transformer与人机畅聊 当你读完第5章时,你应该能够: l 理解机器是如何学习说话和学会说话的。 l 理解机器问答的技术路线。 l 理解机器问答语言模型及评价方法。 l 理解Transformer模型的原理与方法。 l 理解Transformer独特的注意力机制。 l 理解Transformer模型的定义与训练。 l 实战基于腾讯聊天数据集+Transformer的聊天机器人设计。 l 实战基于Web API的聊天服务器设计。 l 实战Android版人机畅聊客户机设计。 5.1 项目动力 机器视觉与自然语言处理是人工智能的两大热点领域。对于机器视觉学习,学生较容易入门,但对于自然语言的处理,特别是对于机器翻译、机器问答、人机聊天等应用的理解与学习,难度较高。究其原因,学生往往很难独立去完成一个上述自然语言处理项目,一旦缺少了亲力亲为的实战体验,理论不能与实践紧密结合,不能相互印证,那么对理论的掌握往往就是空中楼阁。 本章案例将带领读者从零起步,以Transformer为建模基础,在腾讯发布的中文聊天数据集上,训练出一款会聊天的机器人程序。聊天机器人除了不知疲倦、有求必应、一对多并发服务的优点外,聊天机器人的未来将兼具多种风格,例如:滔滔不绝的机器人、激情演讲的机器人,能做灵魂触碰的机器人、能心有灵犀的机器人、能聊出思想火花的机器人、能与你一起头脑风暴的机器人、能自我学习提高的机器人… 总之,具备强大语言能力的机器人,具备思想能力的机器人,正沿着人类追求的航向,奋力前行。
打开封面
下载高清视频
观看高清视频
视频下载器
5.6 数据集预处理与划分
1.11 Python IO 数据流
5.2 机器问答技术路线
6.9 定义BERT模型和RoBERTa模型
2.3 Wireshark过滤器
5.1 项目动力
6.8 F1分数
5.3 腾讯聊天数据集
5.20 Android聊天逻辑设计
窥破大模型,庖丁解牛Transformer
5.19 Android聊天界面设计
4.8 DenseNet121模型定义
5.12 模型结构与参数配置
6.7 数据集分析
5.16 聊天模型评估与测试
Transformer与人机畅聊--智联世界,生成未来
5.14 模型训练过程
5.7 定义Transformer输入层编码
5.10 定义Transformer解码器
5.5 机器人项目初始化
5.21 客户机与服务器联合测试
5.18 Android项目初始化
5.17 聊天模型部署到服务器
5.9 定义Transformer编码器
2.1 安装Wireshark
2.12 定义池化层
B站强推!2024公认最通俗易懂的【Transformer】教程,125集付费课程(附资料)神经网络_注意力机制_深度学习_BERT_大模型
4.7 划分数据集
2.6 MobileNetV3解析
2.10 定义卷积层
5.13 学习率动态调整
6.10 训练BERT微调模型
5.5 获取URL参数
6.5 Transformer模型
机器是如何学习并学会说话的?
7.12 EfficientNet模型定义
1.10 Web服务器设计
2.9 ARP解析
2.9 三维卷积
TensorFlow+Android经典模型从理论到实战(微课视频版)