V
主页
苹果MLX发布!教你在自己的Mac上运行Lama 70模型,开启AI新时代!
发布人
苹果公司最新推出的MLX框架为使用Mac的用户带来了令人振奋的消息。 MLX框架是专为Apple Silicon设计,可以让你的Mac以高效的方式运行AI模型。 这个视频将带你了解MLX框架的特点、优势以及如何在你的Mac上应用,让你轻松探索文本、图像和语音生成的新领域。
打开封面
下载高清视频
观看高清视频
视频下载器
苹果Apple Silicon原生MLX框架Qwen-14B整合包!
在个人电脑上,M3 Max、M1 Pro和RTX 4090三种芯片跑开源大模型效果对比
Apple MLX:使用MLX在mac或iphone本地运行llama3、苹果openELM大模型,推理效率比pytorch高将近3倍,比a100更具性价比
Mac专属大模型应用Chat-with-MLX,支持RAG,附千问2整合包!
Mac 本地运行大语言模型方法与常见问题指南(Yi 34B 模型+32 GB 内存测试)
苹果发布专为 Apple 芯片设计的高效机器学习框架:MLX
MLX:微调艰难以及Apple框架试用
MLX:苹果最新AI开发框架简介
MLX:苹果推出新AI开发框架加入AI大模型战局?
苹果apple MLX专用,简洁版Stable Diffusion WebUI
基于mlx的分布式推理把你的苹果设备连成AI算力集群,轻松运行本地大模型
Mac Studio 运行llama2, 分别跑7b,13b,70b模型
我在本地用一台 mac m1 电脑运行了 llama3 大模型
Mac版ChatGLM3本地运行整合包,8G内存可跑!
llama3使用m3max和4090的推理速度对比及企业应用
苹果发布开源机器学习框架MLX
MLX发布
MAC也能本地 AI 换脸,别浪费强大的Apple芯片
在4090上完美运行70B的llama2模型
Ollama 完爆 垃圾MLX,m3 max mlx测试
🧑💻 MacOS流畅运行Gemma | Ollama本地大模型部署教程
从M3芯片 预测苹果本地化运行大语言模型
M3 max 48g 跑Llama3 70b 4bit
在 M1 芯片的 Mac 上部署 Stable Diffusion AI 绘图|小骏不抬杠
【中配】苹果M4 Ultra芯片来袭,Mac Studio 2024泄露信息暗示行业巨变!【Max Tech】
MAC电脑本地私有化部署大模型Llama3
M3MAX 128G 运行llama2-70B
2080 Ti就能跑70B大模型,上交大新框架让LLM推理增速11倍
35瓦GPU挑战700亿参数大模型!苹果M4 Max/M4性能深度分析
使用Mac Studio跑Mistral AI新出Mixtral-8x7B-MoE大模型速度测试(M2 Ultra 76-core GPU 192GB RAM)
双4090部署qwen72b大模型 每秒150tokens
看MacBook更流畅-你不知道你错过了什么 See MacBook smoother - you don't know what you're missing
家庭PC本地部署LLama3 70B模型测试,对比70B和8B模型的效果,看看人工智障距离人工智能还有多远
苹果 M3 Max MLX 超越 RTX4090m Apple M3 Max MLX beats RTX4090m
MAC OS M2芯片也能玩转Stable Diffusion!效果惊艳!
在1万3的MacBook Air上跑清华大学ChatGLM6B
llama无需网络,苹果电脑本地运行像chatGPT一样聊天
Mac Studio M3 ULTRA 发布日期和价格 - 新空间黑色!
【AI大模型体验测评系列01】Mixtral-8x7B-Instruct在M1 Pro 32G上的推理速度测试
也不是非得英伟达不可 | 3分钟速通苹果电脑MLX大模型训练