V
主页
【个人完全从0】训练仅有26M的小参数大语言模型!最低仅需2G显卡即可训练和推理!
发布人
MiniMind:个人完全从0训练一个仅有26M的极小参数大语言模型!最低仅需2G显卡即可训练和推理! GitHub地址:https://github.com/jingyaogong/minimind 欢迎各位一键三连~ 如果觉得有帮助的话,GitHub给个小小的Star吧!
打开封面
下载高清视频
观看高清视频
视频下载器
3小时从0训练一个仅有27M的多模态GPT,个人显卡即可推理/训练!
【大模型技术】使用Ollama+Dify搭建一个属于自己的知识库!支持多种文件类型,实现本地部署大模型,真的太好用了!
vlog | 搞了个新玩具,顺便推荐一个开源、免费的「闪念」笔记软件
核能挑战:8GB显存本地跑Llama 405B
手搓GPT!用刘慈欣43部小说训练一个语言模型
如何从零搭建一个属于自己的大语言模型?训练自己的LLM最佳指南来了!保姆级教程,小白一看就会!
AI书籍推荐✅外网爆火的大模型黑书!从入门到精通人工智能,一书即可通关LLM大模型!(附PDF)
【B站首推】零成本,教你如何训练自己的大模型
【AI大模型】使用Ollama+RAGFlow搭建一个非常好用的知识库!支持多种文件类型,本地部署大模型,效果好到尖叫!新人小白必看教程!
从0训练一个GPT小模型 Retriever-0.1B
【喂饭教程】20分钟学会微调大模型Qwen2,环境配置+模型微调+模型部署+效果展示详细教程!草履虫都能学会~
使用您自己的数据训练ChatGPT(简便方法)
一键部署本地私人专属知识库,开源免费!可接入GPT-4、Llama 3、Gemma、Kimi等几十种大模型.。
如何训练一个写小说的大模型?
阿里巴巴最强开源大模型Qwen2.5-72B-Instruct,击败Llama3.1-405B!Qwen2.5+LlamaIndex实现Text to SQL
如何知道一个大模型在推理和训练时需要多少显存?
微软发布2.7B小模型,碾压谷歌Gemini!性能直接打平比自己大25倍的大模型?
超越GPT-4o视觉能力?本地部署Qwen2-VL多模态视觉大模型!超越人类的视觉理解能力,精准识别X光片判断骨折、CT扫描检测癌症,还能识别手写体汉字与英文!
将ChatGPT训练成某个领域的专家【保姆级教程】
不要浪费钱买课了,喂饭式教你训练大模型llama3
我在 ESP32 上运行了本地大语言模型 - 这是发生的事情
想拥有自己的AI?五分钟带你搞定!
如何给大模型喂数据?让AI更懂你~【小白科普】
从零开始手搓一个LLM(一)把参数缩减到足够单卡训练的NanoGPT
我用400块的洋垃圾跑AI大语言模型
我们训练了一个没有道德限制的大模型
【Ai教程】手机可以直接跑最新的Qwen2.5大模型?最简单的三种使用方法一个APP搞定
0.5B小模型将原始HTML完美转换为干净的Markdown,或许专用场景的小模型才是未来主流
bitnet.cpp 推理,速度超越 llama.cpp,内存最高降低 16 倍 | 附 BitNet b1.58 模型安装演示
【喂饭教程】ollama+Dify快速搭建本地知识库,免费、零成本、无限制、保护隐私、无需网络~小白入门必看的保姆级教程!
炸裂!💥最强开源模型新王通义千问2.5 72B被我用4GB老显卡本地跑通了!
只用核显轻薄本就能跑的AI大语言模型+AI绘画,一键启动包发布!
半块RTX4090 玩转70B大语言模型
开源模型挑战OpenAI o1!g1+llama3.1零成本完美复刻o1推理过程!动态思维链prompt,让AI推理能力倍增!支持ollama!#o1
原来大模型还可以这么训练?干得漂亮!
小模型的时代终于来了,1.5B参数量模型也能轻松构建GraphRAG
Ollama+AnythingLLM搭建私有知识库
部署本地大模型和知识库,最简单的方法
从0训练一个中英双语的GPT小模型 Retriever2-0.1B
从零开始训练大模型