V
主页
微软开源DeepSpeed-MoE训练更大更复杂混合专家模型 #小工蚁 #deepspeed
发布人
微软开源DeepSpeed-MoE训练更大更复杂混合专家模型 #小工蚁 #deepspeed
打开封面
下载高清视频
观看高清视频
视频下载器
清华发布SmartMoE一种高效训练专家模型网络算法 #小工蚁 #清华 #MoE
GPT-4模型架构泄露:1.8万亿参数 混合专家模型 (MoE) 揭秘
如何消除大模型幻觉? 提高准确率 LoRA+MoE
谷歌开源时间序列大模型 直接使用不需要训练 #小工蚁
DeepSpeed-FastGen比vLLM推理性能快2倍,SplitFuse策略 #小工蚁
智源公开大模型SFT训练数据集微调后性能达到和超过GPT4
腾讯开源混元大模型 MoE架构389B参数 #小工蚁
AutoLabel:自动标注,比人快100倍,准确度和人一样!#小工蚁 #大语言模型
Unsloth微调LLM训练更快2~5倍 GPU显存省50% #小工蚁
训练写万字长文大语言模型实践 #小工蚁
LangGraph Autogen CrewAI 哪个Agent框架更好?#小工蚁
Mixtral-8*7B开源大模型合成 训练数据媲美ChatGPT #小工蚁
Qwen2.5-Coder写代码大模型技术报告解读 #小工蚁
大模型微调训练实践 准确度10%提升至90%
近期开源VLM大模型介绍 #小工蚁
多模态Embedding开源模型 Visualized BGE #小工蚁
合成指令持续预训练 LLaMA3-8B性能超过70B
哪种模型偏好微调最优?DPO、IPO、KTO算法 #小工蚁
Text2SQL Llama 7B模型微调DuckDB-NSQL-7B #小工蚁
腾讯开源LlaMA Pro增强LLM性能 新方法,打造行业模型 #小工蚁
用世界最大GPU训练性能出众btlm-3B-8k开源小模型 #小工蚁
北大开源法律大模型ChatLaw:让法律问题不再复杂 #小工蚁 #ChatLaw
训练大语言模型LLM 如何定义自己训练数据集?#小工蚁
如何提高垂直领域RAG准确率? #小工蚁
MiniCPM-2B和MoE-8x2B模型 开源最强“小模型” #小工蚁
谷歌发现RAG缩放定律 释放LLM长上下文潜力 提升RAG准确率 #小工蚁
Huggingface开源新框架Candle让大模型运行在各种设备上 #小工蚁 #huggingface
国产首个开源MoE大模型DeepSeekMoE 16B #小工蚁
如何训练企业自己的大语言模型?Yi-6B LORA微调演示 #小工蚁
多跳智能问答EfficientRAG更胜一筹 #小工蚁
TAG统一数据库智能问答新框架 #小工蚁
LLaMA-Omni开源语言对话大模型,超低延时 #小工蚁
清华智谱开源视觉大模型 CogVLM,可免费商用
介绍GPU最新内核优化GEMM原理 #小工蚁
开源AI生成声音和音乐大模型AudioLDM2 #小工蚁
OCR-2.0开源小模型实现OCR端到端应用 #小工蚁 #pdf转markdown
大模型推理性能优化策略 #小工蚁
多GPU推理加速Qwen-72B开源大模型 #小工蚁
Qwen2.5-Coder阿里开源代码生成大模型 #小工蚁
混合RAG结合向量RAG和图RAG优势在哪里?