V
主页
训练大模型LLM对话语料获取:从知识文本中提炼对话的工具
发布人
仓库地址https://github.com/REXWindW/LLM_MakeDialogue
打开封面
下载高清视频
观看高清视频
视频下载器
从零开始手搓一个LLM(一)把参数缩减到足够单卡训练的NanoGPT
使用您自己的数据训练ChatGPT(简便方法)
【语言学科】科研训练M2:Python语料处理
【干货】用GPT生成GPT高质量数据集,为大模型注入高质量知识进行训练,微调GPT 3.5 turbo
基于大模型的语料库问答演示视频
从零训练一个中文gpt【1】:数据处理
ChatOllama又更新啦!| 基于Ollama的100%本地化知识库现在支持多种文件类型
全栈大模型微调框架LLaMA Factory:从预训练到RLHF的高效实现
如何从零搭建一个属于自己的大语言模型?训练自己的LLM最佳指南来了!保姆级教程,小白一看就会!
Streaming-llm:多轮对话的救星来了,无需微调即可帮助大模型能够流畅地处理无限轮对话、无限上下文文本,有效的缓解多轮对话优先的遗忘问题
训练自己的AI模型(可能)没有你想象的那么难
【珍藏】从头开始用代码构建GPT - 大神Andrej Karpathy 的“神经网络从Zero到Hero 系列”之七
【B站首发】大模型最新技术,基于百万语料的医疗RAG项目讲解 1.LLM的应用神器RAG 2.RAG如何解决LLM现有的问题-北京大学卢菁博士授课
LlamaFactory:微调QWe (千问)模型 简单微调多数模型的便捷方法
实现任意大模型本地web、api部署,语音对话
玩转数据之利用LLM构建知识图谱
从0训练一个GPT小模型 Retriever-0.1B
如何组装一台4卡4090GPU服务器?一口气看完市面上常见的10种方案
LangChain + OpenAI利用大语言模型从文本抽取数据
大模型+知识库落地应用核心技术分享,高质量自动化生成专业测试用例,轻松掌握LLM最接地气的应用实战
南大-风语团队:面向垂类应用大模型的检索增强方案简介
提示词、RAG、微调哪个会让大模型表现更好?1、实践中如何选择微调、rag、提示词工程 2、提示词工程使用方式 3、RAG VS 微调 4、rag评估框架
如何利用chatgpt embedding技术打造知识库
用自己指定的语料库训练AI,当智能api文档挺不错
如何知道一个大模型在推理和训练时需要多少显存?
从零开始手搓一个LLM(二)注意力和MLP部分,附开源代码
从0开始训练1.4b中文大模型的经验分享
如何训练一个写小说的大模型?
膜拜!这应该是整个B站讲解最通俗易懂的ChatGLM+Langchain实战教程,预训练&微调技术,官方大佬倾力打造!
ChatGLM 微调数据集生成工具 已开源
如何将本地知识库接入大模型?
5分钟学会微调大模型Qwen2
大模型微调数据构造(补充课程)
文件读取、网页抓取都能行?告诉你更多使用 open webui 和 ollama 的小技巧
语料库建设第一步:收集语料
【保姆级教程】使用ChatGLM3-6B+oneAPI+Fastgpt+LLaMA-Factory实现本地大模型微调+知识库+接口管理
AI大模型(含Kimi)发展的内容基石,中文语料IP,盘点6核心上市公司
llama3自主构建中文训练集(dataset),中文写作模型数据集,fine-tuning,llama3微调训练
【实战】通义千问1.8B大模型微调,实现天气预报功能
大模型+知识库:如何实现一个基础的LLM+RAG检索增强生成,附notebook