V
主页
超级计算节点TPU POD介绍 #AI芯片 #TPU系列 #超算中心
发布人
【AI芯片】TPU系列:超级计算节点TPU POD介绍 TPU项目开始于2014年,简单来说两个原因: 1. 计算任务不同了, 深度神经网络开始兴起,矩阵乘加成为重要的计算loading。 2. CPU和GPU太贵了,Google需要找便宜的方法,要降低TCO。今天我们一起总体看看Google TPU POD到底是什么,提供多大的算力峰值!
打开封面
下载高清视频
观看高清视频
视频下载器
NVIDIA十代GPU架构回顾(从Turning图灵到Hopper赫柏)【AI芯片】GPU架构03
GPU硬件架构与CUDA如何对应?【AI芯片】GPU架构01
NVIDIA十代GPU架构回顾(从Fermi费米到Volta伏特)【AI芯片】GPU架构02
世界第一块AI训练芯片(Google TPUv2)的原理【AI芯片】TPU系列03
AI芯片主要计算方式:矩阵运算【AI芯片】AI计算体系05
AI芯片技术基础【AI芯片】芯片基础06
寒武纪AI芯片第一股,芯片架构解读【AI系统】国产AI芯片
从GPU架构发展看AI【AI芯片】芯片基础05
特斯拉Tesla DOJO Core(存算一体架构)核心介绍【AI芯片】NPU详解02
Google TPUV1 脉动阵列原理【AI芯片】TPU系列02
AI集群超级互联Google TPUv4 #AI芯片 #TPU系列 #AI集群
AI集群超级互联Google TPUv4 光交换机 #AI芯片 #TPU系列 #AI集群
寒武纪AI芯片第一股,芯片架构解读【AI系统】国产AI芯片
CPU的ISA指令集架构看CISC和RISC之争!【AI芯片】芯片基础02
大模型AI集群训练时间 & 训练效率如何计算? #大模型 #AI系统
为什么AI训练使用GPU而不是CPU?【AI芯片】GPU原理02
为什么AI框架都用计算图?什么是计算图?到底计算图有什么用?【计算图】系列第二篇
深入GPU原理:线程和缓存关系【AI芯片】GPU原理01
int8/fp16/bf16/tf32在AI芯片中什么作用?【AI芯片】AI计算体系06
CPU计算本质:数据如何传输【AI芯片】芯片基础03
大模型整体架构、大模型全流程介绍 #大模型 #AI系统
深入NVLink原理:内部结构与组网拓扑【AI芯片】GPU详解05
OpenAI o1大模型炸了,数学逻辑推导能力堪比博士! #大模型 #OpenAI
CUDA编程好不好用,看SIMD和SIMT?#AI芯片 #SIMT #AI编程
CUDA跟SIMT的硬件架构什么关系?#GPU #CUDA #英伟达 #SIMT
NVIDIA英伟达Tensor Core深度剖析(下)【AI芯片】GPU架构06
特斯拉DOJO存算系统是怎么工作的?【AI芯片】NPU详解03
AI 计算体系到底是什么?【AI芯片】AI计算体系07
NCCL/HCCL 的基础 MPI 通信介绍!#大模型 #集合通信 #MPI
大模型训练需要多少GPU?大模型显存怎么算? #大模型 #AI系统
大模型AI集群如何组成?AI集群需要哪些硬件? #大模型 #AI系统
轻量化和大模型的计算模式怎么理解?【AI芯片】AI计算体系03
从CPU发展和组成看并行架构!【AI芯片】芯片基础01
感知量化训练QAT原理!伪量化节点计算方式!【推理引擎】模型压缩系列第03篇
[搬运] 丝滑动画演绎历代谷歌(Google)徽标
推理系统架构和Trition架构介绍!【推理系统】系列04篇
CUDA、SIMD、SIMT、DSA什么关系?好乱呀!#GPU #CUDA #英伟达 #SIMT
推理系统和推理引擎的不同之处在哪?【推理系统】系列02篇
分布式训练和NVLink&NVSwitch关系【AI芯片】GPU详解04
CPU计算时延【AI芯片】芯片基础04