V
主页
[动手写神经网络] 05 使用预训练 resnet18 提升 cifar10 分类准确率及误分类图像可视化分析
发布人
本期 code:https://github.com/chunhuizhang/bilibili_vlogs/blob/master/dl/tutorials/05_resnet_on_cifar10.ipynb 系列视频:https://space.bilibili.com/59807853/channel/collectiondetail?sid=581905 vgg on cifar10:https://www.bilibili.com/video/BV1Z54y1F77T/?spm_id_from=333.999.0.0
打开封面
下载高清视频
观看高清视频
视频下载器
[动手写神经网络] 04 使用预训练 vgg 提升 cifar10 分类准确率
[动手写神经网络] 01 认识 pytorch 中的 dataset、dataloader(mnist、fashionmnist、cifar10)
[动手写神经网络] 02 逐行写代码 CNN pipeline 图像分类(模型结构、训练、评估)
【计算机视觉】基于 Siamese network 的图像相似性计算(keras 预训练网络及微调,多输入单输出)
[动手写神经网络] 03 自定义 CNN 模型适配新的数据集 CIFAR10(适配+简单调参)
[动手写神经网络] 08 WandB(weights & biases)深度学习调参利器
[调包侠] 使用 PyTorch Swin Transformer 完成图像分类
[动手写神经网络] 07 预训练 resnet 解决 kaggle weather dataset(validation dataset)的使用
[动手写神经网络] 如何设计卷积核(conv kernel)实现降2采样,以及初探vggnet/resnet 卷积设计思路(不断降空间尺度,升channel)
[动手写神经网络] 可微才可学,深度学习框架自动微分计算图(DAG)
Tools | 让我放弃Coze的10种理由
【喂饭教程】20分钟学会微调大模型Llama3,环境配置+模型微调+模型部署+效果展示详细教程!草履虫都能学会~
【本地微调大模型】不吃配置,本地笔记本上轻松微调Llama3,Windows中文微调教程(附弱智吧训练训练集)
[调包侠] 04 使用预训练模型进行图像特征向量提取(image feature extractor,img2vec)并进行相似性计算
[动手写神经网络] 如何对数据集(ImageNet) denormalize(inverse normalize)还原为原来的均值和标准差(mean/std)
[动手写神经网络] 06 自定义(kaggle)数据集(custom dataset)、Dataloader,及 train test valid 数据集拆分
[pytorch] [求导练习] 05 计算图(computation graph)构建细节之 inplace operation(data与detach)
[动手写神经网络] pytorch 高维张量 Tensor 维度操作与处理,einops
[动手写神经网络] 手动实现 Transformer Encoder
[动手写神经网络] 如何对数据集归一化(transforms.Normalize)以 mnist 数据集为例(mean=0.1307, std=0.3081)
鲨疯了!最适合新手入门的【LLM医疗大模型】教程:医疗大模型LLM应用现状及如何微调一个医疗大模型?我竟然一天就搞懂了!
[pytorch 强化学习] 13 基于 pytorch 神经网络实现 policy gradient(REINFORCE)求解 CartPole
[LLMs 实践] 07 fp16 与自动混合精度训练(amp)显著提升 batch size
【秒懂教程】20分钟学会微调大模型Llama3,本地部署+模型微调+模型部署+效果展示详细教程!草履虫都能学会~
NeurIPS'24预讲会|大语言模型12篇工作:多智能体协作、端到端信息检索、高效微调架构、不确定性感知规划等
【深度学习环境搭建】02 gpu 服务器端部署 jupyter notebook server
动画解释深度学习:使用 SimCLR 进行对比学习
《大模型与Agent开发实战课》焕新升级!微调、RAG、Agent全体系技术详解 | 四大自研Agent万行代码项目实战 | 0基础直达大模型技术应用底层
[LLM & AIGC] 01 openai api 的简单介绍(文本生成/指令,图像生成)
【微调实战】喂饭级教程!!15分钟学会Qwen2-7B微调及部署,帮你从零基础到大神,通俗易懂,连草履虫都能学会~
[LLM && AIGC] 05 OpenAI 长文本(long text,超出 max_tokens)处理及 summary,划分 chunk 处理
《大模型原理与训练实战》焕新升级!【全网首门】体系化大模型训练实战课 | 从0到1构建+训练+优化你的专属大模型!| 预训练+指令微调+蒸馏+推理全流程
[矩阵分析] LoRA 矩阵分析基础之 SVD low rank approximation(低秩逼近)
[pytorch 网络拓扑结构] 深入理解 nn.LayerNorm 的计算过程
[数值计算] 快速计算、妙算对数,之对数表(logarithm table)的使用,如何将任意一个数转换为10-99,或0-0.99之间的可查表形式
[pytorch 强化学习] 10 从 Q Learning 到 DQN(experience replay 与 huber loss / smooth L1)
【合集】从零训练专属大模型技术实战|Llama 3架构大模型训练实战|稳定高质量对话大模型训练|分词器训练+预训练+全量指令微调全流程技术实战
[损失函数设计] 为什么多分类问题损失函数用交叉熵损失,而不是 MSE
[personal chatgpt] trl reward model 与 RewardTrainer(奖励模型,分类模型)
[bert、t5、gpt] 05 构建 TransformerDecoderLayer(FFN 与 Masked MultiHeadAttention)