V
主页
训练大模型LLM对话语料获取:从知识文本中提炼对话的工具
发布人
仓库地址https://github.com/REXWindW/LLM_MakeDialogue
打开封面
下载高清视频
观看高清视频
视频下载器
【语言学科】科研训练M2:Python语料处理
从零开始手搓一个LLM(一)把参数缩减到足够单卡训练的NanoGPT
【B站首发】大模型最新技术,基于百万语料的医疗RAG项目讲解 1.LLM的应用神器RAG 2.RAG如何解决LLM现有的问题-北京大学卢菁博士授课
语料库建设第一步:收集语料
Qwen2-7B-微调-训练-评估
如何从零搭建一个属于自己的大语言模型?训练自己的LLM最佳指南来了!保姆级教程,小白一看就会!
语料库技术:语料的搜集下载和清洗
从零开始手搓一个LLM(二)注意力和MLP部分,附开源代码
【干货】用GPT生成GPT高质量数据集,为大模型注入高质量知识进行训练,微调GPT 3.5 turbo
大模型微调新范式:当LoRA遇见MoE(2024.3.2, @Sam多吃青菜)
从零开始学习大语言模型(一)
部署本地大模型和知识库,最简单的方法
ChatGLM 微调数据集生成工具 已开源
大模型数据筹备教程-如何准备数据集
打造自己的语言资产(1)语料清洗
训练自己的AI模型(可能)没有你想象的那么难
LangChain + OpenAI利用大语言模型从文本抽取数据
qwen大模型地部署和微调法律大模型(只需5G内存)
使用您自己的数据训练ChatGPT(简便方法)
从零开始训练大模型
吴恩达大模型【Langchain-ChatGLM】已开源!手把手带你实现:大模型预训练和模型微调,我1小时就学会了!
如何组装一台4卡4090GPU服务器?一口气看完市面上常见的10种方案
AI大模型(含Kimi)发展的内容基石,中文语料IP,盘点6核心上市公司
基于知识图谱、大模型、RAG检索增强的传统文化研究项目
大数据平台建设效果之一为大模型提供语料
全栈大模型微调框架LLaMA Factory:从预训练到RLHF的高效实现
Streaming-llm:多轮对话的救星来了,无需微调即可帮助大模型能够流畅地处理无限轮对话、无限上下文文本,有效的缓解多轮对话优先的遗忘问题
本地微调Llama3开源大模型!用自己的知识库打造自己的专属大模型!老旧显卡也能跑得动大模型微调!
大模型+知识库落地应用核心技术分享,高质量自动化生成专业测试用例,轻松掌握LLM最接地气的应用实战
5分钟做一个Ai智能问答系统,直接省下200万。老板乐开花 | feat. MaxKB 项目演示与体验
【保姆级教程】6小时掌握开源大模型本地部署到微调,从硬件指南到ChatGLM3-6B模型部署微调实战|逐帧详解|直达技术底层
零代码微调Llama3.1 8b大模型!中文文本分块+数据集制作!Axolotl+qLoRA十分钟光速微调打造法律大模型!#llama3 #finetuning
吹爆!2024最详细的大模型学习路线整理出来啦!迪哥手把手教你最高效的大模型学习方法,轻松搞定AIGC大模型!(大模型训练/大模型微调)
傻瓜式大语言模型微调训练教程
[第二集] 手把手教你写transformer bert 保姆级教学
LlamaFactory:微调QWe (千问)模型 简单微调多数模型的便捷方法
南大-风语团队:面向垂类应用大模型的检索增强方案简介
【NLP实战】智能对话机器人项目实战
【实战】通义千问1.8B大模型微调,实现天气预报功能
微调LLM中的魔鬼细节|大型语言模型lora调教指南