V
主页
谷歌更新Transformer架构MoD 节省计算资源,提高模型性能 #小工蚁
发布人
谷歌更新Transformer架构MoD 节省计算资源,提高模型性能 #小工蚁
打开封面
下载高清视频
观看高清视频
视频下载器
Qwen2.5-Coder写代码大模型技术报告解读 #小工蚁
MiniCPM3-4B开源 4B参数挑战7B性能!真的吗? #小工蚁
谷歌商店怎么安装【谷歌商店安装教程】
AWQ大模型量化INT4比FP16 推理快2倍,GPU内存1/3
让Mixtral-8*7B模型运行在16GB显存GPU上 #小工蚁
DeepSpeed-FastGen比vLLM推理性能快2倍,SplitFuse策略 #小工蚁
国产首个开源MoE大模型DeepSeekMoE 16B #小工蚁
开源数字人SadTalker项目源代码解读 #小工蚁 #sadtalker
谷歌公布无需提示工程CoT推理解码算法 #小工蚁
大语言模型快速JSON解码算法 Jump Forward Decoding #小工蚁
哪种模型偏好微调最优?DPO、IPO、KTO算法 #小工蚁
Flash-Decoding长上下文LLM推理速度提8倍 #小工蚁
构建多模态RAG应用实践 #小工蚁
TGI让Huggingface Transformer推理速度提升10倍,本地演示 #小工蚁 #huggingface
腾讯开源LlaMA Pro增强LLM性能 新方法,打造行业模型 #小工蚁
免费注册谷歌账号和邮箱
Text2SQL Llama 7B模型微调DuckDB-NSQL-7B #小工蚁
商汤开源Piccolo2大模型有啥亮点?#小工蚁
使用Triton内核加速Llama3-70B FP8推理 #小工蚁
多模态模型应用:设计图生成网页,哪个模型最强? #小工蚁
解决内容冲突RAG算法 FILCO #小工蚁
智源公开大模型SFT训练数据集微调后性能达到和超过GPT4
PDF文档文字、表格混排自动识别,增强RAG应用准确度 #小工蚁
LLM大模型应用场景2:Text2SQL #小工蚁
通义千问2投机解码实践演示 #小工蚁
RAPTOR一种树结构检索的RAG算法 #小工蚁
A16z风投对企业软件最新预测 替代劳动力,前景巨大 #小工蚁
训练LLM通过强化学习进行自我纠正 #小工蚁
Embedding模型8bit量化推理 成本下降4倍,准确度下降0.7%
比较3种开源大模型Roberta Llama2,Mistrial微调性能
如何测试大模型推理加速?通义千问和百川2模型测试对比 #小工蚁
近期开源VLM大模型介绍 #小工蚁
如何消除大模型幻觉? 提高准确率 LoRA+MoE
LangGraph Autogen CrewAI 哪个Agent框架更好?#小工蚁
GPT-4模型架构泄露:1.8万亿参数 混合专家模型 (MoE) 揭秘
TableBench全面基于表格问答复杂任务评测框架 #小工蚁
Mixtral-8*7B开源模型生产环境部署优化 2块RTX4090 #小工蚁
多GPU推理加速Qwen-72B开源大模型 #小工蚁
开源CodeQwen1.5结对编程实践和演示 #小工蚁
阿里发布Text2SQL最新实践开源模型准确度超GPT4