V
主页
GLM 系列模型介绍及开源模型部署
发布人
本期视频主要介绍了GLM系列模型,如何在CPU上进行部署以及ChatGLM3-6B模型部署demo。一起来学习下吧!
打开封面
下载高清视频
观看高清视频
视频下载器
百川模型介绍及demo展示
Machine Check Error 故障诊断
Web AI 技术介绍及 Demo 展示
超长福利!oneAPI 综合介绍在线课程
基于至强处理器的大模型推理优化最佳实践
2024英特尔存储技术峰会欢迎致辞
模型优化技术概览
【2024英特尔存储技术峰会】英特尔® 存储软件栈
Intel® Extension for Transformers介绍及千问模型实际部署演示
使用IPEX-LLM加速大语言模型应用
英特尔® 酷睿™ Ultra处理器技术创新介绍(二)
联想天禧 AI 生态及联想开放平台合作介绍
【2024英特尔存储技术峰会】阿里云存储的高性能网络演进
关于处理器节点的 RAS 设计讨论
如何基于Glm-4-Flash构建你的专属RAG
AI 时代的Debug 初探
英特尔至强处理器的生成式AI技术
C#Winform下STNodeEditor实现视觉流程编辑+控制展示(未开源)
【2024英特尔存储技术峰会】英特尔® 数据中心产品及路线图
计算机处理器是如何运行条件和循环的?
【oneAPI & OpenVINO™ 联合开发者大会】oneAPI加速基于AI的加密流量识别
The NPU (神经处理单元)加速库
【2024英特尔存储技术峰会】存储概述和趋势
跟着官网学langchain( version0.2)
AI 服务器 RAS 介绍
基于英特尔平台的LLM分布式推理引擎xFasterTransformer深入详解
【oneAPI & OpenVINO™ 联合开发者大会】为加速器创造开放的未来
AI服务器诊断——英特尔人工智能专家讨论和互动
【oneAPI & OpenVINO™ 联合开发者大会】借助oneAPI加速晶体结构比较
【oneAPI & OpenVINO™ 联合开发者大会】oneAPI生态系统现况
【oneAPI & OpenVINO™ 联合开发者大会】改进于ADMM算法的BSPADMM
基于至强处理器的AI应用案例分享
演示:基于第四代至强可扩展处理器的Stable Diffusion 和大模型推理
出图速度加快2倍,NF4精度的Flux模型本地部署全教程
PCIe相关问题诊断
oneAPI闯关有礼:关卡2
技术解读GLM Long:如何将 LLM 的上下文扩展至百万级
Intel Neural-Chat-7B 大语言模型
VUE3组件封装_通用组件的设计原则与规范|提高复用性、扩展性、规范性(前端/vue/项目)S0191
【oneAPI黑客松大赛培训02】使用Intel优化的AI框架释放Intel XPU的动能,加速AI