在 2026 年的今天,如果你还在对着 ChatGPT 或者 Claude 的聊天框发呆,那你可能错过了一个新的交互形式。
不管是 GPT-4o 还是最新的 Gemini,无论它们在服务器端被调教得多么聪明,终究只是被困在浏览器里的 " 缸中之脑 "。它们可以为你写出一段完美的代码,但却无法帮你把这段代码保存到桌面,无法帮你点击运行,更无法帮你整理硬盘里乱七八糟的文件。

这就是为什么 OpenClaw 在 GitHub 上会如此火爆的原因。它不是一个单纯的聊天机器人,而是一个 Agent(行动智能体)。简单来说,OpenClaw 就是给大模型装上了 " 手 " 和 " 脚 ",让 AI 第一次拥有了直接操作操作系统的权限。

前段时间,社交媒体上关于本地部署 OpenClaw 的教程纷纷刷屏。在本地运行一个足够聪明、能写代码的大模型需要巨大的显存,而在传统 PC 阵营,即便是台式机中的 RTX 5090 用户,也常常被 32GB 的 " 显存墙 " 卡得死死的。难道 Windows 用户就不能拥有自己的本地 Jarvis 吗?带着这个 " 不信邪 " 的疑问,我把目光投向了 AMD。

可能有人对 AMD 的印象还停留在 " 玩游戏选 AMD" 这种纯性能维度上,但其实 AMD 在移动端还有一个大招,就是锐龙 AI Max 系列处理器。这一代处理器最革命性的革新,就是要把苹果引以为傲的 " 统一内存架构 " 带入 x86 世界。

为了验证这块 CPU 的本地部署能力,我搞到了这台搭载 AMD 锐龙 AI Max+ 395 的 abee AI Station 395 Max。今天,我就要用这台机器,从零开始,给大家分享如何在地表最强的移动端 SoC 上,暴力驯服 OpenClaw。

在上手折腾软件之前,咱们得先聊聊这台机器的底气。这颗 AMD 锐龙 AI Max+ 395 采用 chiplet 小芯片设计,在塞进 16 个全血 Zen 5 CPU 核心的同时,还集成了规模接近中高端独显级别的 GPU 单元。对喜欢玩 AI 的用户来说,最让人兴奋的不仅是核心数,而是 128GB LPDDR5x-8000 的统一内存。

与 PC 阵营相比,以前统一内存是苹果 Mac 独有的优势,在本地 AI 部署上相应的占优。

而 AMD 这次也在 X86 阵营带来了统一内存架构技术,CPU、GPU 和 NPU 共享同一个巨大的内存池,还可以在系统中通过使用 VGM 可变显存技术,灵活调整内存与显存的分配比例,最高可以预留高达 96GB 的内存空间供 GPU 专属使用。现在市面上有些锐龙 AI Max 系列工作站甚至还支持 2U+ 甚至更多台的并联跳线设计,内存空间更是能直接翻倍增长至 192GB 乃至更高。这种架构上的质变,让 Windows 阵营也能真正跑起超大参数模型,相比于 Mac 机型而言,用锐龙 AI Max 系列机型进行本地部署,AI 性能更加强大,同时单体购置成本也更低。就拿最近大火的 Claudecode 来说,输入百万 token 需要 5 美元,输出百万 token 又得 25 美元。长期使用本地部署显得势在必行,长期使用总成本更经济。

顶级芯片得配个好机身,今天介绍的就是这台abee AI Station 395 Max。

abee 这个牌子 DIY 的用户是非常熟悉的,铝材工艺可以说是天花板级别了,所以在机身上,我们依旧能感受到 abee 独有的工业设计风格。

这台机器他们没定位成普通的 Mini PC,而是桌面级 Mini AI 工作站。它的个头比Mac Studio稍微大一圈,但这多出来的体积换来的是实打实的散热效率。

它内部这套多岛式全覆盖液冷散热系统,能保证在 AI 这种高强度的满载推理下,机器不因为过热而掉速,它本身也是一个巨大的散热片,全铝机身不仅是好看,对可靠性、防护性和耐用性都有所增强。对于既看重性能稳定性,又对桌面审美有要求的极客来说,这台机器算是把硬件性能给封装得恰到好处。

硬件到位了,接下来就是软件实战。直接打开 OpenClaw 官网,点击 Quick Start,复制那行 PowerShell 命令到终端。

在 PowerShell 中输入:curl -fsSL https://openclaw.ai/install.sh | bash(需在 WSL 或 Git Bash 环境下执行)

一切都很顺利,脚本可以拉取环境、配置依赖。

模型选择上,我测试的是 Qwen3-Coder,在 96GB 统一内存预留空间下可以完整加载并保持流畅推理。通过 Verbose 指令我们能看到实际推理速度还是非常快的,在本地环境下已经进入流畅使用的区间,统一内存架构的优势就直接体现出来了,充足的显存空间允许上下文完整驻留,减少频繁换入换出。

在部署完成后,我们可以直接在 PowerShell 中输入:OpenClaw Dash 进入它的网页端界面。

部署成功只是第一步,它到底能不能干活才是关键。为了测试这台机器的极限,我直接给它下达了一个复杂的编程指令:" 使用 Python 的 Pygame 库,帮我写一个赛博朋克风格的贪吃蛇游戏,写完后直接在桌面上运行它。" 此时观察性能,GPU 占用率会直接飙升,本地的 Qwen3-Coder 迅速给出了响应。


由于省去了云端传输的环节,代码的生成过程非常利落,没有那种断断续续的迟滞感,而且无需任何 Tokens 费用成本。不到一分钟,程序生成完毕,终端自动调用 Python,游戏窗口弹出并稳定运行。
当然,Agent 的能力远不止于此,它还可以用来做很多工作,变成你的个人员工。我让 OpenClaw 帮我生成一个每日自动执行的计划任务:读取桌面文件夹中的任务文本,筛选带有 "# 紧急 " 标签的事项;并读取支出的账单,计算总金额并找出最大开销;最后生成一份日报文件。

OpenClaw 生成了脚本,写入本地目录,并协助配置计划任务。任务被成功写入调度系统,能够在指定时间自动执行。在这个过程中,模型不再只是工具,而更像一个自动化协作者。它理解任务目标,生成执行逻辑,并参与系统层面的配置。

围绕这种能力,应用场景自然展开。有人用它定期抓取日志并生成分析报告,有人让它整理下载目录,有人将其接入本地开发环境,自动构建项目并运行测试流程。它的价值并不在于 " 多聪明 ",而在于 " 能否稳定执行 "。
这种稳定性,与统一内存架构之间有直接关系。当模型完整驻留在充足的显存空间中,长时间运行不会因为内存不足而频繁抖动,上下文也不容易丢失。对于 Agent 这种需要持续执行多步骤任务的系统来说,这种结构层面的优势尤为重要。
经过这一番折腾,我们终于可以回答文章开头的问题了:如果不用 Mac Studio,我们能拥有完美的本地 AI 体验吗?答案是肯定的,而且购置成本更具优势,这就是 AMD 给出的这个答案,甚至比苹果更加 " 极客 "。

OpenClaw 只是无数 AI 应用中的一个缩影,它代表了未来人机交互的方向,AI 将深度介入我们的系统底层。在超大模型场景下,传统 CPU+ 独显架构的显存瓶颈愈发明显。

AMD 锐龙 AI Max+ 395 的出现,实际上是开辟了一条新赛道。它用 128GB 统一内存简单粗暴地解决了本地大模型最大的痛点,同时用创新的 Zen 5 架构保证了通用计算的性能,再辅以 XDNA 2 NPU 为未来的低功耗场景兜底。

对于程序员与创作者来说,本地 AI 的意义不仅在性能,更在于可控性与数据主权。当模型运行在自己的机器上,隐私、响应延迟、调用权限都掌握在自己手中。在当前 Windows 阵营中,拥有 128GB 统一内存架构的锐龙 AI Max+ 平台,提供了一种不同于传统独显路线的解法。它证明了一件事:在大模型时代,内存规模开始成为新的核心竞争力。


登录后才可以发布评论哦
打开小程序可以发布评论哦