V
主页
爱鼓捣AI排行榜 1:谁是Ollama,Huggingface上大模型人气王?
发布人
每周为您分享AI技术动态,通过客观数据来了解AI相关技术。
打开封面
下载高清视频
观看高清视频
视频下载器
本地语言模型个人推荐
那些挑战GPT-4的大模型们,谁曾短暂登顶?
HuggingFace 10分钟快速入门(一),利用Transformers,Pipeline探索AI。
2024年:显卡Stable Diffusion性能AI排行榜!
Ollama + Hugging Face:使用Ollama在自己电脑上运行任何大模型
【13B大模型无用】大家不需要用自己的8G显存跑大模型了,没意义,70B也许成,我试试
万字测评!18个主流大模型深度评测,读懂AI现状【深度模评03】
Qwen2很好,但我选GLM4
4060Ti 16G显卡安装Ollama+ChatTTS打造智能语音秘书(突破30秒限制)
爱鼓捣AI排行榜2:Qwen2, GLM-4谁更能打?
千问Qwen2 7B模型8g显存运行效果,23Token/s
Qwen2为何“高分低能”?实测中表现还不如Qwen1.5!
stable diffusion 3.0正式开源,三种模型本地实测显存占用,硬件普适?
一次搞懂RAG评估,三个角度LangChain,LlamaIndex,RAGAS
22GB不够64GB怎么样?
晒账单:1400亿参数大模型运行一次要多少钱?
如何将ollama升级来试用Gemma2?
实测2360亿参数的最大开源大模型DeepSeek V2,学生党一样可以玩儿
cpu + gpu 一起运行大模型到底行不行?- 基准测试跑跑看
华为炼蛊终成KIMI
【Github爆火】92.1k star!太强了!GitHub登顶项目之中文排行榜!开源资料!天花板级别!
双4090部署qwen72b大模型 每秒150tokens
99%的人都没有意识到的OpenAI代差
从0.5B到340B的LLM都需要多少显存?
MoA智能体击败gpt4o!ollama本地配置开源大模型实现混合智能体,打造超越autogen和langchain的最强AI Agents!#moa #gpt
Ollama 支持的 flash attention 能提升推理速度吗?我们一起测测看吧
如何知道一个大模型在推理和训练时需要多少显存?
最新Qwen2大模型环境配置+LoRA模型微调+模型部署详细教程!真实案例对比GLM4效果展示!
ChatGPT高仿版WebUI:Ollama + Open WebUI本地环境搭建
ollama vs vllm - 开启并发之后的 ollama 和 vllm 相比怎么样?
爱鼓捣AI排行榜3:OpenAI限制国内访问会带火Qwen2-72B吗?
小米14安装运行Qwen1.5-14B开源大语言模型(无需联网)
两分钟快速入门 ollama windows安装,小白也能在本地运行开源大模型
Qwen2-72B:阿里发布名至实归的开源模型全球第一,各项测评全面超过llama3-70B和mistral8*22b,支持128k的上下文
通义千问-一起写个agent吧!
Qwen2大模型保姆级部署教程,快速上手最强国产大模型
强推!Ollama+FastGPT搭建知识库真的太好用了
如何选择RAG的Embedding模型?
GLM-4开源版本终于来了!!超越Llama3,多模态比肩GPT4V,MaaS平台也大升级
Yi-1.5-9b Ceval评测和Qwen2-7b glm-9b谁更强?