V
主页
也不是非得英伟达不可 | 3分钟速通苹果电脑大模型训练
发布人
不方便下载模型的朋友可以私信发 【mlx】 自动获取模型和代码下载链接 https://ml-explore.github.io/mlx/build/html/index.html #MLX的文档 https://huggingface.co/mlx-community #MLX社区,支持的模型可以在这里找到 https://github.com/ml-explore/mlx #苹果的MLX框架项目 https://github.com/ml-explore/mlx-examples #MLX的示例代码,LoRA在此 https://pypi.org/project/mlx-lm/ #调用mlx模型的python API https://www.anaconda.com/ #python虚拟环境工具 https://github.com/mewamew/mlx_demo#运行mlx模型示例代码
打开封面
下载高清视频
观看高清视频
视频下载器
开源AI社区有多爱苹果电脑?
从0.5B到340B的LLM都需要多少显存?
动手学RAG:Part1 什么是RAG?
Mac跑大模型,首选LM Studio
RTX4080对比苹果M1pro模型训练速度(pytorch)。
部署本地大模型和知识库,最简单的方法
WWDC24: 在Apple GPU上训练您的机器学习和AI模型 | Apple
Windows用户眼中的Mac
35瓦GPU挑战700亿参数大模型!苹果M4 Max/M4性能深度分析
M3MAX 128G 运行llama2-70B
如何知道一个大模型在推理和训练时需要多少显存?
深度学习方向研究生电脑选择|MacBook Pro 16 M1开箱+使用体验|对比RTX3090训练模型|Pytorch|Tensorflow
【实战】通义千问1.8B大模型微调,实现天气预报功能
Apple M2 Ultra 192G 简单比较各模型推理能力:Llama3.1-70B, Mistral-Large, DeekSeek-v2-256B 等
【保姆级教程】6小时掌握开源大模型本地部署到微调,从硬件指南到ChatGLM3-6B模型部署微调实战|逐帧详解|直达技术底层
从M3芯片 预测苹果本地化运行大语言模型
苹果M2 Ultra:AI大模型的新希望
大模型为什么需要微调?有哪些微调方式?#大模型 #微调
苹果apple MLX专用,简洁版Stable Diffusion WebUI
作者亲自讲解:LoRA 是什么?
🧑💻 MacOS流畅运行Gemma | Ollama本地大模型部署教程
Qwen2-7B-微调-训练-评估
3分钟搞清楚大模型的Token是什么
5分钟学会微调大模型Qwen2
半块RTX4090 玩转70B大语言模型
苹果Apple Silicon原生MLX框架Qwen-14B整合包!
一次讲透!工科生用Mac,体验如何?
教你仅用两台Mac,在家跑Llama3.1 405,老黄看了落泪!
Ollama 完爆 垃圾MLX,m3 max mlx测试
本地跑大模型,需要什么配置
原来大模型还可以这么训练?干得漂亮!
最简单的Llama3大模型本地部署教程,Mac电脑2分钟完成!
Apple MLX:使用MLX在mac或iphone本地运行llama3、苹果openELM大模型,推理效率比pytorch高将近3倍,比a100更具性价比
如何给大模型喂数据?让AI更懂你~【小白科普】
主流大模型哪个更适合日常使用,llama 3.1/Qwen2/GLM4大对比
大语言模型在苹果M3处理上推理效果怎么样?
大模型微调实践:动手微调一个好玩/好用的大模型
M3 max 48g 跑Llama3 70b 4bit
一文讲清楚CUDA
iPad Pro M4: AI性能深度分析!苹果大模型要来了