V
主页
京东 11.11 红包
transformers二次开发——(定义自己的数据加载器 模型 训练器)bge模型微调流程
发布人
介绍一个优秀的文本转向量模型的代码库,看看他的微调代码是如何实现的。 是基于transformers做的二次开发,代码写的非常优雅,对transformers的二次开发感兴趣(定义自己的数据、模型、训练器)的同学,建议研读。
打开封面
下载高清视频
观看高清视频
视频下载器
transfomers源码阅读——Trainer解读系列1_了解训练流程
大模型面经--微调篇
强推!B站最全的【大模型微调】实战教程, Transformers 模型微调全面解读!草履虫都能学会!!!
transformers源码阅读——投机采样原理和实现方法
transformers二次开发——为什么要实现自己的sentence-embedding训练代码
vLLM源码阅读s2——是如何进行离线推理的
transformers源码阅读——neftune的工程实现
使用vscode愉快的阅读transformers源码
transformers源码阅读——入门(提高nlp工程师的工程能力)
longlora是怎么实现的——如何在transformers的模型上修改的
transformers源码阅读——gradient_checkpointing详解
transformers二次开发——bge-reranker模型微调流程
【大模型高效微调】从原理到实战讲明白大模型微调方法LoRA
千问Qwen2.5 实测,对战 Llama 和 Claude,谁更胜一筹呢?
花了我6800,大模型算法工程师稳了!构建专属大模型的大模型入门到就业教程,人工智能、神经网络、transformer、视觉模型、NLP、提示工程
多模态大模型LLaVA模型讲解——transformers源码解读
为什么我的模型就没有办法使用ddp——基于bert做embedding任务 使用ddp进行训练
chatglm3源码阅读——吐槽角度
我的vscode主题配色
transformers源码阅读——llama模型调试
transformers源码阅读——transformers包的文件框架介绍
如何丝滑的下载大模型——下载hf的大模型真的会谢(太慢了)
【Python学习】张雪峰:给所有python人一个忠告!其实普通人学python玩的就是信息差!!
文本转向量教程s2——认识文本转向量方法(sbert本质和推理加速)
transformers包新功能——一行代码将模型效率提高40%
轻松本地部署LLAMA3!十分钟带你微调-量化-部署-应用一条龙解读!保姆级教程打造自己的专属大模型!人工智能/机器学习/深度模型/大模型
transformers更新了啥S1——InternLM模型和llama模型竟然是差不多的
训练LLaVA模型(数据集构建、基于Trainer的训练框架搭建)——LLaVA系列
手机本地运行AI大模型 最全面横评 效果实测(二)6B-8B参数模型
如何将Python脚本轻松转换为Windows可执行文件(exe)——让朋友们无需Python环境也能运行你的程序!
【Huggingface、BERT实战】假如你从10月7号开始学大模型!2024年大模型最强学习路线来啦!跟着这套流程走助你快速拿offer,持续更新中!
Qt+Ollama开源大模型随意部署,免安装解压即用
自定义多模态大模型LLaVA——LLaVA系列
miniCPM系列S1——技术报告解读(吊打llama2-70b-chat模型?)
自学LangChain?一般人我还是劝你算了吧!!!(附最新LangChain零基础教程)LLM_大模型_微调_提示词
transformers更新了啥S2——在国庆的时候 更新了啥(闲聊)
【精心打磨】2024最详细的大模型学习路线整理出来啦!计算机博士手把手教你最高效的大模型学习方法,轻松搞定AIGC大模型!(大模型训练_大模型微调)
vscode写R代码
transformers二次开发——为什么要实现自己的sft代码
在摩尔线程原生驱动上进行Llama.cpp的推理(没有使用vulkan)