V
主页
【大模型研究】(1):从零开始部署书生·浦语2-20B大模型,使用fastchat和webui部署测试,autodl申请2张显卡,占用显存40G可以运行
发布人
【大模型研究】(1):从零开始部署书生·浦语2-20B大模型,使用fastchat和webui部署测试,autodl申请2张显卡,占用显存40G可以运行 测试网站地址: https://www.autodl.com/ 项目部署脚本地址: https://gitee.com/fly-llm/fastchat-run-llm 详细文章地址: https://blog.csdn.net/freewebsys/article/details/135735769
打开封面
下载高清视频
观看高清视频
视频下载器
【大模型技术】使用Ollama+Dify搭建一个属于自己的知识库!支持多种文件类型,实现本地部署大模型,真的太好用了!
地表最强大模型OpenAI o1正式发布,评价只有八个字:智商爆表,赶超人类
【2024最新】54个大模型实战项目,练完即可就业,从入门到进阶,基础到框架,你想要的全都有,建议码住!超级适合小白入门学习,大模型教程
使用autodl服务器,两个3090显卡上运行, Yi-34B-Chat-int4模型,用vllm优化,增加 --num-gpu 2,速度23 words/s
新一代o1大模型,性能接近理科博士水平,简直炸裂!
【全374集】2024最新清华内部版!终于把AI大模型(LLM)讲清楚了!全程干货讲解,通俗易懂,拿走不谢!
OpenAI o1大模型炸了,数学逻辑推导能力堪比博士! #大模型 #OpenAI
【大模型研究】(5):在AutoDL上部署,一键部署DeepSeek-MOE-16B大模型,可以使用FastChat成功部署,显存占用38G,运行效果不错。
终于弄明白FastChat服务了,本地部署ChatGLM3,BEG模型,可部署聊天接口,web展示和Embedding服务!
【AI大模型】使用Ollama+RAGFlow搭建一个非常好用的知识库!支持多种文件类型,本地部署大模型,效果好到尖叫!新人小白必看教程!
在AutoDL上,使用4090显卡,部署ChatGLM3API服务,并微调AdvertiseGen数据集,完成微调并测试成功!
OpenAI推出新的大模型o1,达到博士水平!
【大模型研究】(4):在AutoDL上部署,一键部署DeepSeekCoder大模型,可以快速生成各种代码,程序员代码生成利器!效率非常高!
【Dify知识库】(12):在autodl上,使用xinference部署chatglm3,embedding,rerank大模型,并在Dify上配置成功
【xinference】(7):在autodl上,使用xinference一次部署embedding,rerank,qwen多个大模型,兼容openai的接口协
我的抓药机械臂做了一个违背祖宗的决定
【LocalAI】(5):在autodl上使用4090Ti部署LocalAIGPU版本,成功运行qwen-1.5-14b大模型,占用显存8G
吹爆!这绝对是南京大学最出名的LLAMA3教程了没有之一,llama3原理代码精讲与微调量化部署实战,通俗易懂太适合小白了!人工智能|机器学习|深度学习
【Dify知识库】(2):开源大模型+知识库方案,Dify+fastchat的BGE模型,可以使用embedding接口对知识库进行向量化,绑定聊天应用
【chatglm】(9):使用fastchat和vllm部署chatlgm3-6b模型,并简单的进行速度测试对比。vllm确实速度更快些。
【xinference】(8):在autodl上,使用xinference部署qwen1.5大模型,速度特别快,同时还支持函数调用,测试成功!
【deepseek】(2):使用3080Ti显卡,fastchat运行deepseek-coder-6.7b-instruct模型,出现死循环EOT的BUG
只卖三千的人形机器人,竟能部署AI大模型?!
吴恩达大佬又出新课了!《Hugging Face中的开源模型》双语字幕,16集全,建议收藏!-huggingface、开源模型、吴恩达
【Dify知识库】(1):本地环境运行dity+fastchat的ChatGLM3模型,可以使用chat/completions接口调用chatglm3模型
【大模型研究】(6):在AutoDL上部署,成功部署Mixtral-8x7B大模型,8bit量化,需要77G显存,355G硬盘
【LocalAI】(6):在autodl上使用4090部署LocalAIGPU版本,成功运行qwen-1.5-32b大模型,占用显存18G,速度 84t/s
【Open Ai 最新O1模型】让AI大模型真正具备思考能力的时代来了!!!大模型_AI_人工智能
【大模型研究】(3):在AutoDL上部署,使用脚本一键部署fastchat服务和界面,部署生成姜子牙-代码生成大模型-15B,可以本地运行,提高效率
【xinference】(9):本地使用docker构建环境,一次部署embedding,rerank,qwen多个大模型,成功运行,非常推荐
【论文速递】清华EconAgent获ACL 2024杰出论文:大模型智能体革新计算经济学研究范式
【大模型研究】(9):通义金融-14B-Chat-Int4金融大模型部署研究,在autodl上一键部署,解决启动问题,占用显存10G,有非常多的股票专业信息
【创新思考】(1):使用x86架构+Nvidia消费显卡12G显存,搭建智能终端,将大模型本地化部署,语音交互机器人设计,初步设计
OpenAI 最新 o1 模型震撼发布!国内也能使用!具有更强的推理和编程能力,完整解读模型特点,,看看它比GPT-4o强多少!
【chatglm3】(8):模型执行速度优化,在4090上使用fastllm框架,运行ChatGLM3-6B模型,速度1.1w tokens/s,真的超级快。
【ollama】(1):本地运行大型语言模型(LLM)的新利器,本地运行qwen2-1.5B大模型
Open AI发布o1模型最新使用教程,国内无限制版!o1模型免费使用,免登录,直接使用!完整解读模型特点,推理能力已超博士!
【AI大模型】使用Ollama+FastGPT搭建一个自己的知识库!支持多种文件类型,本地部署大模型,开源免费使用,效果出奇的好!
【ollama】(4):在autodl中安装ollama工具,配置环境变量,修改端口,使用RTX 3080 Ti显卡,测试coder代码生成大模型
【大模型研究】(8):在AutoDL上部署,一键部署Qwen-1_8B-Chat-Int4量化版,需要2.5G显存,非常适合在智能机器人/边缘计算上部署