V
主页
首次揭秘!如何用大模型辅助设计NVIDIA芯片!
发布人
NVIDIA 设计自动化研究总监,IEEE Fellow,任昊星 (Mark) ,分享大语言模型ChipNeMo在工业芯片设计中的应用,并详细分享Domain Adaptation技术,并通过在聊天机器人、EDA脚本生成、缺陷分析等三个场景的评估,得出目前LLM性能明显优于基础模型,并且领域适应和RAG是独立的,即使采用RAG,也比GPT-4高出20%
打开封面
下载高清视频
观看高清视频
视频下载器
利用 NVIDIA TensorRT-LLM 加速大模型推理
NVIDIA AI 加速精讲堂-TensorRT-LLM量化原理、实现与优化
NVIDIA Omniverse 基础技术 I 2023 版
NVIDIA 视频加速技术详解之一:GPU 加速视频编解码及 Video Codec SDK
大语言模型推理:低精度最佳实践
教你如何玩转大模型微调技术
基于 NVIDIA Triton 推理服务器端到端部署 LLM serving
NVIDIA 自动驾驶实验室|利用生成式 AI 增强自动驾驶仿真
NVIDIA 视频加速技术详解之二:使用 FFmpeg 以及 GMAT 在 GPU 上加速视频编解码
金融行业 AI 应用场景分享与 NVIDIA 加速计算解决方案介绍
NVIDIA 打造新工业革命的引擎:AI 工厂
NVIDIA Spectrum-X 将扩展到数百万个 GPU 互连
NVIDIA 专家面对面技术沙龙|大模型推理专场
NVIDIA NIM 推理微服务简介
NVIDIA ACE 游戏开发版
NVIDIA DOCA 软件框架
NVIDIA 自动驾驶实验室:基于剪枝的AI模型优化
NVIDIA 视频加速技术详解之三:使用 BMF 加速 GPU 视频处理流水线
【全374集】2024最新清华内部版!终于把AI大模型(LLM)讲清楚了!全程干货讲解,通俗易懂,拿走不谢!
黄仁勋和马克·扎克伯格探讨 AI 和下一代计算平台【官方中文字幕】
全球实习生帮助NVIDIA创造未来
用GPT-4.0训练小200万倍可直接本地运行的小模型
NVIDIA NIM 用于 OpenUSD 生成式 AI
基于GPU的检索增强生成(RAG)
NVIDIA AI 加速精讲堂-TensorRT-LLM 应用与部署
NVIDIA Omniverse Cloud- 云端高分辨率全球规模气候数据的交互式可视化
黄仁勋和马克·扎克伯格探讨 AI 和下一代计算平台
【Agent+RAG】10小时博士精讲AI Agent(人工智能体)系列—提示工程、文本大模型、GPT...
MONAI开源医疗影像AI项目介绍|NVIDIA高级软件工程师马鹏程演讲视频
NVIDIA 专家面对面技术沙龙|大模型训练专场
NVIDIA GTC 2024 汽车行业精彩回顾
NVIDIA 视频加速技术详解之四: CV-CUDA: 高性能图像处理库
NVIDIA RTX 重塑制造业
NVIDIA 自动驾驶实验室:AI为自动驾驶生成潜在的事故场景
NVIDIA DRIVE 芯片与平台设计将安全置于首位
NVIDIA CEO 黄仁勋与《连线》资深撰稿人 Lauren Goode 炉边谈话 | SIGGRAPH 2024
大语言模型基础架构:稳定性的挑战及集群效率优化
构建富士康机器人工厂的数字孪生
为数据中心赋能,NVIDIA DOCA 解锁 DPU 价值
基于 NVIDIA Omniverse™ 加速的艺术图形创作