V
主页
llama3-04 使用llama.cpp进行llama3模型的量化和部署
发布人
在本课时中,我们将探索如何使用llama.cpp工具来量化llama3模型,以便在CPU上进行高效的本地模型推理。
打开封面
下载高清视频
观看高清视频
视频下载器
DeepSpeed-Chat-21-step1_源码解读_模型评估
LangChain 实战案例-01 基于上传PDF文档进行QA问答 第4节 基于Gradio实现QA交互
方案1-CIFAR10-04-模型性能验证
llama3-07 基于 TensorRT-LLM 和 Triton 进行 llama3 模型部署
【大模型量化】- Llama.cpp轻量化模型部署及量化
方案2-CIFAR10-DeepSpeed-02-模型结构定义
方案1-CIFAR10-03-模型训练和本地保存
案例实战-16-llama.cpp量化模型GPU加速推理
精讲版-11 天气预测实战-数据预处理
04-2 轻松学 PyTorch 显示数据集中的图片(2)
方案2-CIFAR10-DeepSpeed-04-模型性能验证
源码讲解-08-下集-API服务server代码讲解
Chinese- LLaMA- Alpaca 案例实战-02-指令数据生成
20-2 轻松学OpenCV 基于face_recognition进行人脸识别 ( 摄像头 )
Chat-31-step2-源码解读-deepspeed初始化
DeepSpeed-Chat-18-step1_源码解读_模型保存-第1节
Chinese LLaMA Alpaca 案例实战-01-项目概览
llama3-05 使用Docker部署llama3量化模型API服务
LoRA_02_算法原理深入解析-下集
DeepSpeed-Chat-23-step1_源码解读_模型推理-第2节
精讲版-07 定义模型类 进行前向传播计算
Chat-34-step2-源码解读-Reward模型保存
LangChain 实战案例-01 基于上传的PDF文档进行QA问答 第1节 项目简介
源码讲解-06-下集-模型预训练代码逐行剖析
精讲版-06 优化器optimizer和损失函数MSELoss
17-1 轻松学 OpenCV 基于dlib在图片上进行人脸检测
OpenAI assistant API 学习指南-简介
02_TensorRT与Triton容器部署
01 轻松学 PyTorch 简介和安装
精讲版-08 序列模型 Sequential Model
精讲版-13 天气预测实战-模型训练和验证
进阶学·ES-04-04 analyzer IK分词器-同义词-上集
20-1 轻松学OpenCV 基于dlib进行人脸识别( 图片检测 )
轻松学·Streamlit_01_专题简介
03_TensorFlow模型转换TensorRT引擎推理
案例实战-06-上集—基于LLaMA和LoRA模型进行指令精调
DeepSpeed-Chat-19-step1_源码解读_模型保存-第2节
1-01 实战 泰坦尼克号沉船人员获救案例 数据清洗
8_01 房屋价格预测【回归案例】
源码讲解-01-中文词汇表扩充