V
主页
十个问题测试Llama-3.1-8B-Instruct,Llama-3-8B-Instruct,Yi-1.5-9B-Chat,Qwen2-7B-Instruct
发布人
自己测着玩,非正式测试,看个乐。
打开封面
下载高清视频
观看高清视频
视频下载器
DPO (Direct Preference Optimization) 算法讲解
Llama3.1-8B-微调-部署
Meet Llama 3.1 本地部署及Llama 3.1在ComfyUI工作中接入使用
GraphRAG太烧钱?Qwen2-7b本地部署GraphRAG,无需Ollama,从环境搭建到报错解决全流程
在本地环境中运行大模型LLAMA3-1-70B,支持128k超长上下文
Flash Attention 为什么那么快?原理讲解
Qwen2为何“高分低能”?实测中表现还不如Qwen1.5!
【国内 Llama3.1 】Llama-3.1 405B最新使用注册教程
Meta发布最新开源大模型Llama 3.1 | 基于Ollama与Groq的使用教程
一层神经网络也可以拟合任意函数?
怎么加快大模型推理?10分钟学懂VLLM内部原理,KV Cache,PageAttention
LLAMA 3.1 Agent和RAG 能力测评
LLAMA 3.1来了 8B,70B,405B 效果如何
十分钟搞明白Adam和AdamW,SGD,Momentum,RMSProp,Adam,AdamW
Llama3.1 405B开源大模型!挑战Claude3.5和GPT-4o!微调Llama3.1 8B模型+GraphRAG搭建本地知识库!
第二十课:MoE
AI 工程师都应该知道的GPU工作原理,TensorCore
三分钟学会大模型PEFT的LORA算法 lora_rank, lora_alpha
你还不懂旋转位置编码吗?
大模型微调看这个视频就够了 SFT NEFTune
Yi-1.5-9b Ceval评测和Qwen2-7b glm-9b谁更强?
模型量化六:QLoRA 4bit 量化 NormalFloat4 量化
LLama3.1:Meta给了李彦宏一记耳光
家庭PC本地部署LLama3 70B模型测试,对比70B和8B模型的效果,看看人工智障距离人工智能还有多远
本地部署 Llama3 – 8B/70B 大模型!最简单的3种方法,支持CPU /GPU运行 !100% 保证成功!! | 零度解说
本地语言模型个人推荐
大模型修炼之道(一): Transformer Attention is all you need
零基础学习强化学习算法:ppo
大模型训练如何计算显存占用
OpenAI的gpt-4o-mini模型微调免费啦🧨
推理能力最强的llama3.1 405B,不属于中国人
你真的理解交叉熵损失函数了吗?
如何优雅的、本地化、运行Meta 最新的大模型Llama 3.1
4060Ti跑LLama3.1和Qwen2测试对比
用梯度检查点来节省显存 gradient checkpointing
动画理解Pytorch 大模型分布式训练技术 DP,DDP,DeepSpeed ZeRO技术
大模型预训练看这个视频就够了
你知道用什么指标评价一个大模型的好坏吗?PPL,MMLU,MATH,GPQA,BBH,IF-EVAL,MMLU-PRO
Mistral NeMo:目前最强大的大语言模型!全面测试击败Qwen2与DeepSeek-V2及其他
我没有攻击李厂长,所谓开闭源之争Llama3已给出答案