V
主页
Qwen2.5+Gemma2双剑合璧让手机变得更智能
发布人
https://pan.quark.cn/s/bdbd3aecacbc
打开封面
下载高清视频
观看高清视频
视频下载器
最强开源编程大模型Qwen2.5-coder-32B-instruct!部署安装Bolt.new和Cline+Qwen2.5-coder多维度测试
基于Qwen2.5-3B,本地部署LightRAG!原理解析+模型部署+源码解读,过程可视化呈现,详细的实操演示,带你一步步了解LightRAG的原理和流程。
阿里通义发布 Qwen2.5-Turbo,一口气读完十本小说,上下文长度突破至惊人的100万Token,推理速度提升4.3倍
十分钟让大模型在个人电脑帮你写代码! Qwen2.5-Coder接入Cursor, 本地运行集成代码开发器LLM丨一站式搞定低代码开发全流程!
效率爆表!Flux生成速度狂飙42倍,优化软硬件秒出图的秘籍 ,Comfyui Flux模型提速方法,在线体验Qwen2.5-72B大语言模型
安卓手机本地运行谷歌最新开源的Gemma2大模型
M4芯片 Ollama推理Qwen2.5 7B Q4KM 仅供参考
Qwen2.5最新开源coder模型,性能达到GPT-4o的编程专用模型
详细的QAnything v2.0整合Qwen2.5大模型打造智能客服教程【包含安装配置中的坑点和配置优化】
【最强开源大模型】Qwen2.5-72B-Instruct完胜Llama3.1-405B!Qwen2.5+LlamaIndex实现Text to SQL
LightRAG优于GraphRAG?速度更快,效果更好,落地部署更方便!从原理、本地Qwen2.5-3B模型部署到源码解读,带你全流程解析
沉浸体验4060Ti 16G显卡运行Qwen2.5大模型的效果
骁龙870处理器的老手机安装运行Qwen1.5大语言模型(可断网使用)
手机安装MiniCPM-V-2.5多模态大模型(无需联网)
将Qwen1.5大模型编译成手机可以运行的大模型
全面解析!LightRAG 和 GraphRAG,哪个速度更快,效果更好,部署更方便!从本地模型部署到源码解读
端脑云开放API+AutoGen开源智能体框架,打造专属AI智能体
4060Ti 16G显卡安装Ollama+ChatTTS打造智能语音秘书(突破30秒限制)
实测RTX4090 vs A100运行AI(人工智能)性能对比
小米14安装运行Qwen1.5-7B开源大语言模型(无需联网)
安装Whisper、GLM-4、ChatTTS打造你的智能语音助手
安装Ollama+CosyVoice打造流式智能语音秘书,流式生成语音大大缩短了等待时间,提升用户体验
无需联网!手机玩转AI聊天-谷歌Gemma2大模型手机离线安装教程(支持关联上下文)
4060Ti16G显卡图形化微调训练通义千问Qwen模型(适合新手朋友)
4060Ti 16G显卡安装Reor+Qwen1.5-14B打造AI智能秘书
手机安装运行最新开源的Qwen2-7B-Instruct大语言模型(可断网使用)
一键运行开源Qwen2-Audio大模型体验声音识别与语音输入
超简单的检测Intel13/14代CPU是否存在不稳定的方法(官方推荐) 赶快检测一下自己的CPU避免造成不可逆的伤害
组装一台4090显卡的电脑用于AI(人工智能)模型训练
安装开源的CosyVoice三秒完美复刻声音(TTS)
【强烈推荐】开源的AI驱动的OCR文字识别神器开启OCR2.0时代(GOT-OCR2.0)
手机安装Meta最新开源的Llama3大语言模型(无需联网)
mlc-llm替换ollama部署最新开源的Llama-3.1大模型(可在树莓派上部署)
实测RTX4060Ti 16G显存 vs 4070TI运行AI(人工智能)性能对比
安装京东开源的数字人项目及使用注意事项-JoyHallo
4060Ti 16G显卡运行chatglm3-6b-32k模型效果
4060Ti16G显卡体验F5-TTS声音克隆、多人对话、语音聊天-一款不错的语音创作工具
微调训练大语言模型并将训练好的模型装入手机运行
4060Ti 16G显卡安装通义千问Qwen1.5-14B大模型
4060Ti 16G显卡运行百川2-13B大模型效果