Binance Square

macmini

24,192 показвания
12 обсъждат
大漠哥
·
--
小龙虾进阶篇:让 Gemini 成为你的 AI 情报员,自动抓取 HN 资讯并生成桌面日报在开始之前我先说下背景,之前写过的第一篇(OpenClaw)小龙虾是在告诉大家它到底是什么?怎么玩?可不可以用Mac Mini部署,属于扫盲贴。 [关于最近大火的“龙虾”(OpenClaw):到底是什么?怎么玩?Mac Mini M4 实测避坑指南](https://app.generallink.top/uni-qr/cart/292116941087858?l=zh-CN&r=QGEXGA07&uc=web_square_share_link&uco=TamOcI_YYK38yDTLV_Xg_Q&us=copylink) 随着研究的继续深入,我写了第二篇:如何在Mac Mini M4上部署基础的服务。 [我是如何在 Mac Mini M4 上部署 OpenClaw 的?(附环境与后台配置流程)](https://app.generallink.top/uni-qr/cart/294808229538930?l=zh-CN&r=QGEXGA07&uc=web_square_share_link&uco=TamOcI_YYK38yDTLV_Xg_Q&us=copylink) 今天咱们以一个真实的需求来切入,就用谷歌的Gemini 3 Flash模型来帮我们实现一个简单的任务。具体需求如下: 在本地 Mac Mini M4 环境下部署 OpenClaw(开源 AI Agent 框架),对接 Gemini 3 Flash 模型。实现通过自然语言下达指令,让 Agent 自动调用本地 curl 工具抓取 Hacker News RSS 资讯,并自动在 Mac 桌面 生成一份中文版的 今日AI情报.md 文档 这里我来解释下为什么要用RSS 订阅这种思路,这段时间大家可能也听说了,说谷歌在封杀小龙虾,这里边有个误区,他封杀的是模拟脚本在网页登录并且模拟真人使用的,这个对token的消耗极大,一般的模型厂商都扛不住,所以肯定要封杀的,咱们现在用的是申请正规的API key,是开发者体系,我们绕过了繁杂的网页直接通过RSS订阅获取对应的信息,走的是平台的订阅接口,一切都是合规的,而且在使用方法上,这种方式也会极大的节省token。 再来说说被各大模型厂商封杀的那种,很多人用它来抓取预测市场的内容来给自己盈利,预测市场是肯定不会提供API给模型调用的,那这就是非法爬取,大家听过网络爬虫吧,其实跟这个类似,我觉得在方向上就错了,大模型做这种服务需要消耗的token太多了,而且会出现各种各样的问题,不是一般人能搞得了的,我建议大家慎重。 大家可以跟随我一起,后续还会继续分享各种AI智能体的应用,请大家关注我得账号。 1) 启动龙虾底层配置向导 shell:openclaw onboard 如下图中显示的是 OpenClaw 的标准安全免责声明。它主要是提醒开发者:作为测试版工具,它的系统权限比较大(比如能读写本地文件),如果配置不当或者把端口直接暴露在公网上,会存在安全风险。 这就是我昨天说的,为什么要做信息隔离,具体可以看这篇推文 [小龙虾注意事项:防止封号、信息隔离](https://app.generallink.top/uni-qr/cpos/294962012534641?l=zh-CN&r=QGEXGA07&uc=web_square_share_link&uco=TamOcI_YYK38yDTLV_Xg_Q&us=copylink) 咱们现在只是在本地的 Mac 上跑新闻抓取的测试,处于绝对的安全环境里,所以不用担心。 具体操作: 按一下键盘上的 左方向键 (←) 或者输入 y,把高亮的选项从绿色的 No 切换到 Yes。敲击 回车键 继续。 2) 手动配置模型 系统默认停在了 QuickStart (快速启动) 上。我之前用 setup 命令的时候,底层就是默认走了这条线,它为了图快,直接跳过了模型选择环节,强行塞了官方默认的 Claude。 现在的关键操作: 按一下键盘上的 向下方向键 (↓),把绿色的小圆点移动到 Manual (手动配置) 上。敲击 回车 3) 配置本地网关还是远程网关 系统现在问要配置哪里的网关,并且默认停留在 Local gateway (this machine) (本地网关)上。因为之前的龙虾就是直接跑在这台 Mac Mini 上的,所以这个选项毫无问题。 括号里提示 (No gateway detected...) 也是完全正常的,因为刚才为了重新配置,已经把那个充当“心脏”的网关窗口给停掉了。 接下来的操作: 直接保持选中绿色的 Local gateway (this machine),敲击 回车键 4) 配置本地网关还是远程网关 系统默认给出的这个路径 /Users/damo/.openclaw/workspace 是非常完美的选择。 背后的逻辑:这相当于在 Mac 里给龙虾划定了一个专属的“沙盒”或者叫“工位”。以后它在后台抓取的数据、生成的临时缓存、或者执行一些文件操作时,都会在这个文件夹里。 现在的操作:什么都不用改,直接敲击 回车键 (Enter) 确认。 5) 为龙虾选择(配置)模型 直接选 Google (Gemini API key + OAuth)。 按下 回车键 确认选择 6) 设置Gemini模型API key 现在停在这个界面,系统在问要用哪种方式验证身份: Google Gemini API key (使用申请好的纯文本密钥) —— 这是咱们要选的。Google Gemini CLI OAuth (这个需要跳去浏览器做复杂的网页授权交互)。 接下来的具体操作: 保持小绿点在 Google Gemini API key 上,直接敲击 回车键。敲完回车后,系统立刻会弹出一行新提示,等待你输入具体的 Key 字符串。把你准备好的那串 AIza... 开头的 Google API Key 复制,然后在终端里按下 Command + V 粘贴。 7) 从谷歌全家桶中选择适合的模型 API的”钥匙“插进去后!现在列表里刷出来的,全是谷歌家族的各个版本大脑。 既然给龙虾定位的是“全网监控新闻、高频抓取、提炼纯文本事实”,这就属于标准的“脏活累活”。针对这种场景,强烈建议往下按方向键,选择 google/gemini-3-flash-preview。 原因很硬核: Flash 系列的定位: 它是专门为高频、低延迟、大规模文本处理设计的。速度极快,而且极其节省 Token。用来做 Hacker News 这种纯文本 RSS 的清洗和摘要,简直是量身定制,这就是咱们之前说的“免费又扛造”。关于当前的 Pro 版: 系统现在默认停在最上面的 google/gemini-3-pro-preview。这是目前最聪明、逻辑推理能力最强的版本。它很好,但拿来做新闻摘要属于高射炮打蚊子,后续跑长线监控时,API 额度的消耗会比 Flash 大得多。 现在的最终操作: 按下方向键 (↓),找到并选中 google/gemini-3-flash-preview。果断敲击 回车键。 8) 设置端口 18789 是 OpenClaw 官方默认的本地通信端口。这台 Mac Mini 上没有别的复杂服务器跟它抢通道,所以完全不需要改。保留默认端口,以后如果需要看日志或者跟其他工具联动,都会省去很多麻烦。 现在的操作:什么都不用输入,直接敲击 回车键 确认。 9) 是否开启网关认证 这是系统在问是否要给网关设置访问密码。既然咱们上一步已经选了 Loopback (127.0.0.1),即只允许你这台电脑自己访问自己,那再设个密码就纯属脱裤子放屁——多此一举了。 现在的操作: 保持小绿点在 No 上,直接敲击 回车键。 10) 是否需要开启一个web控制台 这是系统在问你:“是否需要自动开启一个 Web 控制台(Web Console)?”。 我当时的操作: 保持小绿点在 Off 上,直接敲击了回车键。 11) 自闭安全模式的再次确认 这一行 Needed for multi-machine or non-loopback access 其实是在问:“你的网关公网 IP 或域名是什么?” 因为它检测到你刚才选了 Loopback (127.0.0.1) 这种“自闭安全模式”,所以这里它其实是在给一个留白的机会。如果以后想从别的电脑连这台 Mac Mini,才需要填。 💡 现在的操作: 什么都不要输入,直接敲击 回车键 (Enter)。 12) 是否需要配置聊天频道? 我当时的操作: 保持小绿点在 No 上,直接敲击 回车键。 13) 现在要配置“技能(skills)”吗? 我当时的操作: 按一下键盘上的 右方向键 (→) 或者输入 n,把高亮的选项从绿色的 Yes 切换到 No。敲击 回车键 继续。 14) 是否为特定的”技能“(Skills)配置API key? 程序正在询问你是否要为特定的“技能”(Skills)配置 API Key(密钥) 我当时的操作:全部选择了否 15) 是否安装代码补全功能? 是否安装Shell Completion(自动补全) 代码自动补全功能,因为我本地的mac上已经有了,所以这个我选择了No 我当时的操作:选择了No 16) 构建前端页面 通过执行命令行来构建前端页面 shell:pnpm ui:build 出现以上内容即完成了安装。 17) 启动龙虾网关服务、完成Hacker News的RSS源的数据抓取 通过执行命令行来启动龙虾网关服务,但是这个终端控制台不能关掉,关掉之后龙虾也就掉线了。 shell:openclaw gateway --port 18789 --verbose 启动成功,去网页中提问:请使用系统原生 curl 命令获取 Hacker News 的 RSS 源:https://news.ycombinator.com/rss 。阅读其中的内容,筛选出与 AI、开源大模型相关的最新 3 条资讯。要求:1. 极简事实风格。2. 每条附带原始链接。3. 在我的 Mac 桌面上创建一个名为 '今日AI情报.md' 的文件并写入。 以上内容便是从启动配置到配置完成并请求了一次大模型,完成了数据抓取的实例,后续会精进这个动作。 上图为谷歌的AI模型通过API key调用统计数据。 哎呀妈呀终于写完了,我昨天晚上写这个草稿就写到半夜1点半,最后我吐槽下,这个龙虾配置起来真的是太xxx了,让我很无语,一行一行的输出指令,让人要吐了,试想一下有几个人有这个耐心一步一步的配置完。 #大漠茶馆 #OPENCLAW #AI #MACMINI #Gemini

小龙虾进阶篇:让 Gemini 成为你的 AI 情报员,自动抓取 HN 资讯并生成桌面日报

在开始之前我先说下背景,之前写过的第一篇(OpenClaw)小龙虾是在告诉大家它到底是什么?怎么玩?可不可以用Mac Mini部署,属于扫盲贴。
关于最近大火的“龙虾”(OpenClaw):到底是什么?怎么玩?Mac Mini M4 实测避坑指南
随着研究的继续深入,我写了第二篇:如何在Mac Mini M4上部署基础的服务。
我是如何在 Mac Mini M4 上部署 OpenClaw 的?(附环境与后台配置流程)
今天咱们以一个真实的需求来切入,就用谷歌的Gemini 3 Flash模型来帮我们实现一个简单的任务。具体需求如下:
在本地 Mac Mini M4 环境下部署 OpenClaw(开源 AI Agent 框架),对接 Gemini 3 Flash 模型。实现通过自然语言下达指令,让 Agent 自动调用本地 curl 工具抓取 Hacker News RSS 资讯,并自动在 Mac 桌面 生成一份中文版的 今日AI情报.md 文档
这里我来解释下为什么要用RSS 订阅这种思路,这段时间大家可能也听说了,说谷歌在封杀小龙虾,这里边有个误区,他封杀的是模拟脚本在网页登录并且模拟真人使用的,这个对token的消耗极大,一般的模型厂商都扛不住,所以肯定要封杀的,咱们现在用的是申请正规的API key,是开发者体系,我们绕过了繁杂的网页直接通过RSS订阅获取对应的信息,走的是平台的订阅接口,一切都是合规的,而且在使用方法上,这种方式也会极大的节省token。
再来说说被各大模型厂商封杀的那种,很多人用它来抓取预测市场的内容来给自己盈利,预测市场是肯定不会提供API给模型调用的,那这就是非法爬取,大家听过网络爬虫吧,其实跟这个类似,我觉得在方向上就错了,大模型做这种服务需要消耗的token太多了,而且会出现各种各样的问题,不是一般人能搞得了的,我建议大家慎重。
大家可以跟随我一起,后续还会继续分享各种AI智能体的应用,请大家关注我得账号。
1) 启动龙虾底层配置向导
shell:openclaw onboard
如下图中显示的是 OpenClaw 的标准安全免责声明。它主要是提醒开发者:作为测试版工具,它的系统权限比较大(比如能读写本地文件),如果配置不当或者把端口直接暴露在公网上,会存在安全风险。
这就是我昨天说的,为什么要做信息隔离,具体可以看这篇推文
小龙虾注意事项:防止封号、信息隔离
咱们现在只是在本地的 Mac 上跑新闻抓取的测试,处于绝对的安全环境里,所以不用担心。

具体操作:
按一下键盘上的 左方向键 (←) 或者输入 y,把高亮的选项从绿色的 No 切换到 Yes。敲击 回车键 继续。
2) 手动配置模型
系统默认停在了 QuickStart (快速启动) 上。我之前用 setup 命令的时候,底层就是默认走了这条线,它为了图快,直接跳过了模型选择环节,强行塞了官方默认的 Claude。

现在的关键操作:
按一下键盘上的 向下方向键 (↓),把绿色的小圆点移动到 Manual (手动配置) 上。敲击 回车
3) 配置本地网关还是远程网关
系统现在问要配置哪里的网关,并且默认停留在 Local gateway (this machine) (本地网关)上。因为之前的龙虾就是直接跑在这台 Mac Mini 上的,所以这个选项毫无问题。
括号里提示 (No gateway detected...) 也是完全正常的,因为刚才为了重新配置,已经把那个充当“心脏”的网关窗口给停掉了。

接下来的操作:
直接保持选中绿色的 Local gateway (this machine),敲击 回车键
4) 配置本地网关还是远程网关
系统默认给出的这个路径 /Users/damo/.openclaw/workspace 是非常完美的选择。
背后的逻辑:这相当于在 Mac 里给龙虾划定了一个专属的“沙盒”或者叫“工位”。以后它在后台抓取的数据、生成的临时缓存、或者执行一些文件操作时,都会在这个文件夹里。

现在的操作:什么都不用改,直接敲击 回车键 (Enter) 确认。
5) 为龙虾选择(配置)模型
直接选 Google (Gemini API key + OAuth)。

按下 回车键 确认选择
6) 设置Gemini模型API key
现在停在这个界面,系统在问要用哪种方式验证身份:
Google Gemini API key (使用申请好的纯文本密钥) —— 这是咱们要选的。Google Gemini CLI OAuth (这个需要跳去浏览器做复杂的网页授权交互)。

接下来的具体操作:
保持小绿点在 Google Gemini API key 上,直接敲击 回车键。敲完回车后,系统立刻会弹出一行新提示,等待你输入具体的 Key 字符串。把你准备好的那串 AIza... 开头的 Google API Key 复制,然后在终端里按下 Command + V 粘贴。
7) 从谷歌全家桶中选择适合的模型
API的”钥匙“插进去后!现在列表里刷出来的,全是谷歌家族的各个版本大脑。
既然给龙虾定位的是“全网监控新闻、高频抓取、提炼纯文本事实”,这就属于标准的“脏活累活”。针对这种场景,强烈建议往下按方向键,选择 google/gemini-3-flash-preview。
原因很硬核:
Flash 系列的定位: 它是专门为高频、低延迟、大规模文本处理设计的。速度极快,而且极其节省 Token。用来做 Hacker News 这种纯文本 RSS 的清洗和摘要,简直是量身定制,这就是咱们之前说的“免费又扛造”。关于当前的 Pro 版: 系统现在默认停在最上面的 google/gemini-3-pro-preview。这是目前最聪明、逻辑推理能力最强的版本。它很好,但拿来做新闻摘要属于高射炮打蚊子,后续跑长线监控时,API 额度的消耗会比 Flash 大得多。
现在的最终操作:
按下方向键 (↓),找到并选中 google/gemini-3-flash-preview。果断敲击 回车键。
8) 设置端口
18789 是 OpenClaw 官方默认的本地通信端口。这台 Mac Mini 上没有别的复杂服务器跟它抢通道,所以完全不需要改。保留默认端口,以后如果需要看日志或者跟其他工具联动,都会省去很多麻烦。

现在的操作:什么都不用输入,直接敲击 回车键 确认。
9) 是否开启网关认证
这是系统在问是否要给网关设置访问密码。既然咱们上一步已经选了 Loopback (127.0.0.1),即只允许你这台电脑自己访问自己,那再设个密码就纯属脱裤子放屁——多此一举了。

现在的操作:
保持小绿点在 No 上,直接敲击 回车键。
10) 是否需要开启一个web控制台
这是系统在问你:“是否需要自动开启一个 Web 控制台(Web Console)?”。

我当时的操作:
保持小绿点在 Off 上,直接敲击了回车键。
11) 自闭安全模式的再次确认
这一行 Needed for multi-machine or non-loopback access 其实是在问:“你的网关公网 IP 或域名是什么?” 因为它检测到你刚才选了 Loopback (127.0.0.1) 这种“自闭安全模式”,所以这里它其实是在给一个留白的机会。如果以后想从别的电脑连这台 Mac Mini,才需要填。

💡 现在的操作:
什么都不要输入,直接敲击 回车键 (Enter)。
12) 是否需要配置聊天频道?

我当时的操作:
保持小绿点在 No 上,直接敲击 回车键。
13) 现在要配置“技能(skills)”吗?

我当时的操作:
按一下键盘上的 右方向键 (→) 或者输入 n,把高亮的选项从绿色的 Yes 切换到 No。敲击 回车键 继续。
14) 是否为特定的”技能“(Skills)配置API key?
程序正在询问你是否要为特定的“技能”(Skills)配置 API Key(密钥)

我当时的操作:全部选择了否
15) 是否安装代码补全功能?
是否安装Shell Completion(自动补全) 代码自动补全功能,因为我本地的mac上已经有了,所以这个我选择了No

我当时的操作:选择了No
16) 构建前端页面
通过执行命令行来构建前端页面
shell:pnpm ui:build

出现以上内容即完成了安装。
17) 启动龙虾网关服务、完成Hacker News的RSS源的数据抓取
通过执行命令行来启动龙虾网关服务,但是这个终端控制台不能关掉,关掉之后龙虾也就掉线了。
shell:openclaw gateway --port 18789 --verbose

启动成功,去网页中提问:请使用系统原生 curl 命令获取 Hacker News 的 RSS 源:https://news.ycombinator.com/rss 。阅读其中的内容,筛选出与 AI、开源大模型相关的最新 3 条资讯。要求:1. 极简事实风格。2. 每条附带原始链接。3. 在我的 Mac 桌面上创建一个名为 '今日AI情报.md' 的文件并写入。

以上内容便是从启动配置到配置完成并请求了一次大模型,完成了数据抓取的实例,后续会精进这个动作。

上图为谷歌的AI模型通过API key调用统计数据。
哎呀妈呀终于写完了,我昨天晚上写这个草稿就写到半夜1点半,最后我吐槽下,这个龙虾配置起来真的是太xxx了,让我很无语,一行一行的输出指令,让人要吐了,试想一下有几个人有这个耐心一步一步的配置完。
#大漠茶馆 #OPENCLAW #AI #MACMINI #Gemini
查理的芒格:
别急着拔苗助长,让价值自然生长。
Web3锦鲤日记
·
--
#MACMINI 60万,买了一点(仅个人记录,勿跟)

2QKrBtNECja4cJygxA7igwqxahs93GNmuQ2We2stpump

买的理由

1.叙事不错,以Apple Mac Mini电脑梗为主题,重点是有人搞了Mac min平台,弄了抽奖,只要点赞并转发帖子并标记一位你认为可以用人工智能替代的人,就有机会中一台16GB的Mac mini M4,引起全网疯狂转发

2.市值不高,次新盘,2月20日上线最高到62万,21接着猛拉最高到143万,后来回落下来最低到36万,再次缓慢拉升起来,图形好看强势,拉到60万直接上了一点,应该有二次机会

3.社区强大,持有1300多人,社区快600人,不停的在转发,做各种梗图,宣传还行。

@币安Binance华语 #跟着锦鲤学打百倍金狗

关注Web3锦鲤日记,买的币翻十倍
{web3_wallet_create}(CT_5012QKrBtNECja4cJygxA7igwqxahs93GNmuQ2We2stpump)
超级无敌小宇宙 观察员:
机会很多 ,看能不能把握了💫💫💫
#MACMINI 2月22日发 60万到266万,涨幅443%,恭喜核心一起发财 很多你以为挂了有意思的项目,反而人家突然爆发还给力 2QKrBtNECja4cJygxA7igwqxahs93GNmuQ2We2stpump 关注Web3锦鲤日记,买的币翻十倍 {web3_wallet_create}(CT_5012QKrBtNECja4cJygxA7igwqxahs93GNmuQ2We2stpump)
#MACMINI 2月22日发 60万到266万,涨幅443%,恭喜核心一起发财

很多你以为挂了有意思的项目,反而人家突然爆发还给力

2QKrBtNECja4cJygxA7igwqxahs93GNmuQ2We2stpump

关注Web3锦鲤日记,买的币翻十倍
Web3锦鲤日记
·
--
#MACMINI 60万,买了一点(仅个人记录,勿跟)

2QKrBtNECja4cJygxA7igwqxahs93GNmuQ2We2stpump

买的理由

1.叙事不错,以Apple Mac Mini电脑梗为主题,重点是有人搞了Mac min平台,弄了抽奖,只要点赞并转发帖子并标记一位你认为可以用人工智能替代的人,就有机会中一台16GB的Mac mini M4,引起全网疯狂转发

2.市值不高,次新盘,2月20日上线最高到62万,21接着猛拉最高到143万,后来回落下来最低到36万,再次缓慢拉升起来,图形好看强势,拉到60万直接上了一点,应该有二次机会

3.社区强大,持有1300多人,社区快600人,不停的在转发,做各种梗图,宣传还行。

@币安Binance华语 #跟着锦鲤学打百倍金狗

关注Web3锦鲤日记,买的币翻十倍
{web3_wallet_create}(CT_5012QKrBtNECja4cJygxA7igwqxahs93GNmuQ2We2stpump)
认证韭菜:
恭喜发财,这波操作太给力了!
我是如何在 Mac Mini M4 上部署 OpenClaw 的?(附环境与后台配置流程)今天在 Mac Mini M4 上把“龙虾”(OpenClaw AI Agent)跑通了。实测下来,不建议用 M4 硬抗本地小模型(逻辑推理容易出错),例如一些7B、8B的模型;最实用的架构是:本地 Mac 运行 Agent 框架(充当手脚) + 调用云端 Gemini 3 Flash API(充当大脑)。 记录一下具体的部署流程和排雷点,供参考: 1. 补齐基础环境 Mac 自带 Git,但缺少 Node.js 环境。直接去官网下载了 v24.13.1 (LTS) 的 .pkg 安装包,一路默认安装,自动搞定 Node 和 npm 环境。 基础环境下载地址 (Mac Mini M4 适用) 推荐直接下载 Node.js 的 .pkg 傻瓜式安装包(会自动配置好 npm): https://nodejs.org/dist/v24.13.1/node-v24.13.1.pkg 2. 拉取源码与依赖 克隆代码库并进入目录: 安装好了之后如图所示: 2. 拉取源码与依赖 拉取源码与依赖 克隆代码库并进入目录:git clone https://github.com/OpenClaw/openclaw.git 进入龙虾目录:cd openclaw 安装依赖包:npm install 终端执行 git clone 拉取官方库后,进入目录运行 npm install。 踩坑点:启动时报错 Error: spawn pnpm ENOENT。原因是底层编译需要 pnpm。 启动报错,提示缺少了pnpm包 解决:运行 npm install -g pnpm 补齐该组件即可。 3. 配置谷歌 API API Key 申请与配置 Google AI Studio (在此处免费申请 Gemini 开发者 API Key): https://aistudio.google.com/app/apikey 我本来以为可以直接用我买过的1年谷歌 Pro 服务(Gemini Advanced)来跑龙虾,实操后发现这里有个逻辑误区:消费者端的包年会员和开发者端的 API 是两套独立的体系。 Pro会员是给人用的,如果用模拟脚本在后台强行高频调用,极易触发网页端的防刷机制被限制,还可能会封号。龙虾作为自动化程序,必须走开发者 API 体系。正确的做法是:直接去 Google AI Studio 申请一个正规的 API Key。目前谷歌提供了非常慷慨的免费层级(Free Tier),比如跑 Gemini-3-flash 模型,其免费 Token 额度对于个人跑自动化监控来说完全够用,不需要额外掏钱。 执行命令:cp .env.example .env (这个配置文件是隐藏文件,正常我们看不到的) 拿到 Key 后,复制一份 .env 配置文件填入。注意:配置文件里的 # 是注释符,填写 GOOGLE_API_KEY= 时必须把前面的 # 删掉,否则程序无法读取。 4. PM2 后台守护进程 Agent 需要 24 小时待命。如果直接用原生的 npm start,关闭终端窗口程序就会终止。 解决:全局安装 pm2 (sudo npm install -g pm2),使用它将龙虾挂载到后台运行。查看状态显示为 online 即可放心关闭窗口。注意 watching 状态必须保持 disabled,否则程序写入日志时会触发无限重启的死循环。 启动命令:pm2 start npm --name "longxia" -- start 保存后台进程(开机重启后防丢失):pm2 save 目前基础框架已在后台平稳运行,下一步准备对接 Telegram 接口,配置硬核新闻聚合和右侧交易结构的自动化监控。 附上之前龙虾扫盲贴,有兴趣的朋友自取。 [关于最近大火的“龙虾”(OpenClaw):到底是什么?怎么玩?Mac Mini M4 实测避坑指南](https://app.generallink.top/uni-qr/cart/292116941087858?l=zh-CN&r=QGEXGA07&uc=web_square_share_link&uco=TamOcI_YYK38yDTLV_Xg_Q&us=copylink) #大漠茶馆 #OPENCLAW #MACMINI #DeepSeek #Gemini

我是如何在 Mac Mini M4 上部署 OpenClaw 的?(附环境与后台配置流程)

今天在 Mac Mini M4 上把“龙虾”(OpenClaw AI Agent)跑通了。实测下来,不建议用 M4 硬抗本地小模型(逻辑推理容易出错),例如一些7B、8B的模型;最实用的架构是:本地 Mac 运行 Agent 框架(充当手脚) + 调用云端 Gemini 3 Flash API(充当大脑)。
记录一下具体的部署流程和排雷点,供参考:
1. 补齐基础环境

Mac 自带 Git,但缺少 Node.js 环境。直接去官网下载了 v24.13.1 (LTS) 的 .pkg 安装包,一路默认安装,自动搞定 Node 和 npm 环境。
基础环境下载地址 (Mac Mini M4 适用)
推荐直接下载 Node.js 的 .pkg 傻瓜式安装包(会自动配置好 npm):
https://nodejs.org/dist/v24.13.1/node-v24.13.1.pkg
2. 拉取源码与依赖
克隆代码库并进入目录:
安装好了之后如图所示:

2. 拉取源码与依赖
拉取源码与依赖
克隆代码库并进入目录:git clone https://github.com/OpenClaw/openclaw.git
进入龙虾目录:cd openclaw
安装依赖包:npm install
终端执行 git clone 拉取官方库后,进入目录运行 npm install。

踩坑点:启动时报错 Error: spawn pnpm ENOENT。原因是底层编译需要 pnpm。
启动报错,提示缺少了pnpm包

解决:运行 npm install -g pnpm 补齐该组件即可。
3. 配置谷歌 API
API Key 申请与配置
Google AI Studio (在此处免费申请 Gemini 开发者 API Key):
https://aistudio.google.com/app/apikey
我本来以为可以直接用我买过的1年谷歌 Pro 服务(Gemini Advanced)来跑龙虾,实操后发现这里有个逻辑误区:消费者端的包年会员和开发者端的 API 是两套独立的体系。
Pro会员是给人用的,如果用模拟脚本在后台强行高频调用,极易触发网页端的防刷机制被限制,还可能会封号。龙虾作为自动化程序,必须走开发者 API 体系。正确的做法是:直接去 Google AI Studio 申请一个正规的 API Key。目前谷歌提供了非常慷慨的免费层级(Free Tier),比如跑 Gemini-3-flash 模型,其免费 Token 额度对于个人跑自动化监控来说完全够用,不需要额外掏钱。
执行命令:cp .env.example .env (这个配置文件是隐藏文件,正常我们看不到的)
拿到 Key 后,复制一份 .env 配置文件填入。注意:配置文件里的 # 是注释符,填写 GOOGLE_API_KEY= 时必须把前面的 # 删掉,否则程序无法读取。

4. PM2 后台守护进程
Agent 需要 24 小时待命。如果直接用原生的 npm start,关闭终端窗口程序就会终止。
解决:全局安装 pm2 (sudo npm install -g pm2),使用它将龙虾挂载到后台运行。查看状态显示为 online 即可放心关闭窗口。注意 watching 状态必须保持 disabled,否则程序写入日志时会触发无限重启的死循环。
启动命令:pm2 start npm --name "longxia" -- start

保存后台进程(开机重启后防丢失):pm2 save
目前基础框架已在后台平稳运行,下一步准备对接 Telegram 接口,配置硬核新闻聚合和右侧交易结构的自动化监控。
附上之前龙虾扫盲贴,有兴趣的朋友自取。
关于最近大火的“龙虾”(OpenClaw):到底是什么?怎么玩?Mac Mini M4 实测避坑指南
#大漠茶馆 #OPENCLAW #MACMINI #DeepSeek #Gemini
Powerpei:
很详细的教程
#MACMINI 60万,买了一点(仅个人记录,勿跟) 2QKrBtNECja4cJygxA7igwqxahs93GNmuQ2We2stpump 买的理由 1.叙事不错,以Apple Mac Mini电脑梗为主题,重点是有人搞了Mac min平台,弄了抽奖,只要点赞并转发帖子并标记一位你认为可以用人工智能替代的人,就有机会中一台16GB的Mac mini M4,引起全网疯狂转发 2.市值不高,次新盘,2月20日上线最高到62万,21接着猛拉最高到143万,后来回落下来最低到36万,再次缓慢拉升起来,图形好看强势,拉到60万直接上了一点,应该有二次机会 3.社区强大,持有1300多人,社区快600人,不停的在转发,做各种梗图,宣传还行。 @binancezh #跟着锦鲤学打百倍金狗 关注Web3锦鲤日记,买的币翻十倍 {web3_wallet_create}(CT_5012QKrBtNECja4cJygxA7igwqxahs93GNmuQ2We2stpump)
#MACMINI 60万,买了一点(仅个人记录,勿跟)

2QKrBtNECja4cJygxA7igwqxahs93GNmuQ2We2stpump

买的理由

1.叙事不错,以Apple Mac Mini电脑梗为主题,重点是有人搞了Mac min平台,弄了抽奖,只要点赞并转发帖子并标记一位你认为可以用人工智能替代的人,就有机会中一台16GB的Mac mini M4,引起全网疯狂转发

2.市值不高,次新盘,2月20日上线最高到62万,21接着猛拉最高到143万,后来回落下来最低到36万,再次缓慢拉升起来,图形好看强势,拉到60万直接上了一点,应该有二次机会

3.社区强大,持有1300多人,社区快600人,不停的在转发,做各种梗图,宣传还行。

@币安Binance华语 #跟着锦鲤学打百倍金狗

关注Web3锦鲤日记,买的币翻十倍
DeepSeekОстаннім часом у технічному середовищі всі говорять про OpenClaw (громадське прізвисько “Равлик”), багато друзів запитують, яка різниця між ним, ChatGPT, Google AI, DeepSeek або Doubao. Підсумовуючи мій недавній досвід на Mac Mini M4, детально розповім про його позиціювання, пороги впровадження та переваги і недоліки двох основних ігрових механік.Коли я пройду рівень з равликом, напишу дуже детальну інструкцію, щоб поділитися з усіма, а ця стаття просто для того, щоб познайомити всіх з концепцією. Знайомі мені друзі знають, що Мо Го досліджує великі моделі, і в компанії веб2 також займається цим. Цього разу я вирішив використати свій Mac Mini M4, який просто стояв без діла.Перше: що таке "омар"? Яка різниця з ChatGPT/Google/DeepSeek?Простими словами, якщо порівняти AI з людиною:ChatGPT / Google Gemini / DeepSeek / Doubao: вони є мозком (великими моделями LLM). Їх основна функція — думати, генерувати текст або код. Вони живуть у вікні чату, ви питаєте, вони відповідають.Я нещодавно поділився, що можна отримати рік Google Gemini Pro за 10 гривень, це є пасивним способом.OpenClaw ("омар"): це руки та ноги (рамка AI агента). Сам по собі він не має інтелекту, це програма, що працює у фоновому режимі вашого комп'ютера.Основна різниця:ChatGPT може лише сказати, як зробити, а омар може допомогти вам зробити.Омар розуміє ваші команди, викликаючи API мозку, а потім керує браузером, клацає на веб-сторінках, читає локальні файли, контролює Твіттер, автоматично надсилає та отримує повідомлення в Telegram/Wechat. Він є цифровим працівником, який працює 24 години на добу.Друге: пристрої для розгортання: чому вибрати Mac Mini M4?Для розгортання омара потрібен комп'ютер, який може працювати довгий час.Mac Mini M4 є в даний час дуже ідеальним пристроєм, є три причини:Низьке споживання енергії (завжди в режимі роботи): омар потребує 24 години на добу працювати у фоновому режимі (наприклад, контролювати динаміку криптовалют або обробляти автоматичні відповіді), споживана потужність Mac Mini дуже низька, майже не витрачає електроенергію, тому дуже підходить для домашнього сервера.Екологічність: це Unix-система, підтримка Docker, Node.js та інших розробницьких середовищ є кращою, ніж у Windows, помилок менше.Тихий: працює без будь-якого шуму в кутку.Третє: детальний опис двох режимів розгортання: локальний vs API (основна увага: витрати та баланс інтелекту)Це місце, де новачки найчастіше потрапляють в пастку. Мозок омарів має два основні джерела:1. Режим локальної моделі (Local LLM)Принцип: використання обчислювальної потужності NPU/GPU Mac Mini для запуску відкритих моделей (таких як Llama 3, DeepSeek-Distill тощо) як мозку омара.Витрати: абсолютно безкоштовно. Крім електроенергії, не потрібно платити жодних API витрат.Тестовий досвід (Mac Mini M4): не рекомендується як основний. Хоча чіп M4 дуже потужний, він обмежений пам'яттю (уніфікована пам'ять), зазвичай може плавно працювати лише з маленькими моделями з параметрами 7B або 8B.Я раніше використовував Mac Mini для розгортання великих моделей, через проблеми з конфігурацією я міг розгорнути лише моделі з відносно низькими параметрами, такими як 7B/8B, через що модель виглядала дуже дурно, 32B взагалі не запускалася, пам'ять заповнювалась і комп'ютер зависав.Недоліки: ці маленькі моделі часто неправильно розуміють, пропускають інформацію або створюють ілюзії при обробці складної логіки (наприклад, "проаналізуйте цю довгу статтю та підсумуйте три ключові вигоди").Висновок: використання локальної маленької моделі для омара схоже на наймання дуже старанного, але не дуже розумного стажиста, дуже старанного, але неефективного.2. Режим API (Cloud LLM) — настійно рекомендуюПринцип: Mac Mini відповідає за виконання програми омара (руки та ноги), а під час мислення викликає найсильнішу модель в хмарі (таку як Google Gemini 3 Pro, GPT-4o, Claude 3.5) через мережу.Витрати: потрібно платити (але є хитрощі).Зазвичай оплата здійснюється за токенами (кількість слів), чим більше використовуєш, тим дорожче.Трюк для економії: на даний момент API Google Gemini має безкоштовний рівень (Free Tier), для особистих користувачів, які запускають омара, це майже безкоштовно і дуже швидко.Тестовий досвід: злітаємо. Логічні можливості великих моделей в хмарі значно перевищують локальні маленькі моделі. Омар став дуже розумним, може точно виконувати складні команди, писати код, аналізувати довгі документи.Чотири, підсумок і рекомендаціїЯкщо у вас також є Mac Mini M4, не намагайтеся використовувати його для жорсткого навчання або інферування великих моделей, не вийде. (Цей я також купив раніше, щоб займатися майнінгом😄)Найрозумніший спосіб гри:Використовуйте Mac Mini M4 як стартовий майданчик. Використовуйте його низькоспоживчу характеристику, щоб працювати 24 години на добу з програмною платформою OpenClaw, а потім підключайте Google Gemini (висока вартість) або GPT-4/Claude (висока продуктивність) API.Таким чином, ви отримуєте контроль над приватністю даних (програма на локальному комп'ютері) та найвищий рівень інтелекту AI (мозок в хмарі), це найпрактичніша форма AI агентів сьогодні.Не знаю, чи зрозуміли ви це, це стаття-передмова, не є технічною, цього року я планую закінчити з омаром, чекайте на мій покроковий посібник.#OPENCLAW #MACMINI #DeepSeek #Gemini #大漠茶馆

DeepSeek

Останнім часом у технічному середовищі всі говорять про OpenClaw (громадське прізвисько “Равлик”), багато друзів запитують, яка різниця між ним, ChatGPT, Google AI, DeepSeek або Doubao. Підсумовуючи мій недавній досвід на Mac Mini M4, детально розповім про його позиціювання, пороги впровадження та переваги і недоліки двох основних ігрових механік.Коли я пройду рівень з равликом, напишу дуже детальну інструкцію, щоб поділитися з усіма, а ця стаття просто для того, щоб познайомити всіх з концепцією. Знайомі мені друзі знають, що Мо Го досліджує великі моделі, і в компанії веб2 також займається цим. Цього разу я вирішив використати свій Mac Mini M4, який просто стояв без діла.Перше: що таке "омар"? Яка різниця з ChatGPT/Google/DeepSeek?Простими словами, якщо порівняти AI з людиною:ChatGPT / Google Gemini / DeepSeek / Doubao: вони є мозком (великими моделями LLM). Їх основна функція — думати, генерувати текст або код. Вони живуть у вікні чату, ви питаєте, вони відповідають.Я нещодавно поділився, що можна отримати рік Google Gemini Pro за 10 гривень, це є пасивним способом.OpenClaw ("омар"): це руки та ноги (рамка AI агента). Сам по собі він не має інтелекту, це програма, що працює у фоновому режимі вашого комп'ютера.Основна різниця:ChatGPT може лише сказати, як зробити, а омар може допомогти вам зробити.Омар розуміє ваші команди, викликаючи API мозку, а потім керує браузером, клацає на веб-сторінках, читає локальні файли, контролює Твіттер, автоматично надсилає та отримує повідомлення в Telegram/Wechat. Він є цифровим працівником, який працює 24 години на добу.Друге: пристрої для розгортання: чому вибрати Mac Mini M4?Для розгортання омара потрібен комп'ютер, який може працювати довгий час.Mac Mini M4 є в даний час дуже ідеальним пристроєм, є три причини:Низьке споживання енергії (завжди в режимі роботи): омар потребує 24 години на добу працювати у фоновому режимі (наприклад, контролювати динаміку криптовалют або обробляти автоматичні відповіді), споживана потужність Mac Mini дуже низька, майже не витрачає електроенергію, тому дуже підходить для домашнього сервера.Екологічність: це Unix-система, підтримка Docker, Node.js та інших розробницьких середовищ є кращою, ніж у Windows, помилок менше.Тихий: працює без будь-якого шуму в кутку.Третє: детальний опис двох режимів розгортання: локальний vs API (основна увага: витрати та баланс інтелекту)Це місце, де новачки найчастіше потрапляють в пастку. Мозок омарів має два основні джерела:1. Режим локальної моделі (Local LLM)Принцип: використання обчислювальної потужності NPU/GPU Mac Mini для запуску відкритих моделей (таких як Llama 3, DeepSeek-Distill тощо) як мозку омара.Витрати: абсолютно безкоштовно. Крім електроенергії, не потрібно платити жодних API витрат.Тестовий досвід (Mac Mini M4): не рекомендується як основний. Хоча чіп M4 дуже потужний, він обмежений пам'яттю (уніфікована пам'ять), зазвичай може плавно працювати лише з маленькими моделями з параметрами 7B або 8B.Я раніше використовував Mac Mini для розгортання великих моделей, через проблеми з конфігурацією я міг розгорнути лише моделі з відносно низькими параметрами, такими як 7B/8B, через що модель виглядала дуже дурно, 32B взагалі не запускалася, пам'ять заповнювалась і комп'ютер зависав.Недоліки: ці маленькі моделі часто неправильно розуміють, пропускають інформацію або створюють ілюзії при обробці складної логіки (наприклад, "проаналізуйте цю довгу статтю та підсумуйте три ключові вигоди").Висновок: використання локальної маленької моделі для омара схоже на наймання дуже старанного, але не дуже розумного стажиста, дуже старанного, але неефективного.2. Режим API (Cloud LLM) — настійно рекомендуюПринцип: Mac Mini відповідає за виконання програми омара (руки та ноги), а під час мислення викликає найсильнішу модель в хмарі (таку як Google Gemini 3 Pro, GPT-4o, Claude 3.5) через мережу.Витрати: потрібно платити (але є хитрощі).Зазвичай оплата здійснюється за токенами (кількість слів), чим більше використовуєш, тим дорожче.Трюк для економії: на даний момент API Google Gemini має безкоштовний рівень (Free Tier), для особистих користувачів, які запускають омара, це майже безкоштовно і дуже швидко.Тестовий досвід: злітаємо. Логічні можливості великих моделей в хмарі значно перевищують локальні маленькі моделі. Омар став дуже розумним, може точно виконувати складні команди, писати код, аналізувати довгі документи.Чотири, підсумок і рекомендаціїЯкщо у вас також є Mac Mini M4, не намагайтеся використовувати його для жорсткого навчання або інферування великих моделей, не вийде. (Цей я також купив раніше, щоб займатися майнінгом😄)Найрозумніший спосіб гри:Використовуйте Mac Mini M4 як стартовий майданчик. Використовуйте його низькоспоживчу характеристику, щоб працювати 24 години на добу з програмною платформою OpenClaw, а потім підключайте Google Gemini (висока вартість) або GPT-4/Claude (висока продуктивність) API.Таким чином, ви отримуєте контроль над приватністю даних (програма на локальному комп'ютері) та найвищий рівень інтелекту AI (мозок в хмарі), це найпрактичніша форма AI агентів сьогодні.Не знаю, чи зрозуміли ви це, це стаття-передмова, не є технічною, цього року я планую закінчити з омаром, чекайте на мій покроковий посібник.#OPENCLAW #MACMINI #DeepSeek #Gemini #大漠茶馆
关于最近大火的“龙虾”(OpenClaw):到底是什么?怎么玩?Mac Mini M4 实测避坑指南最近技术圈都在聊 OpenClaw(社区昵称“龙虾”),很多朋友问它和 ChatGPT、谷歌 AI、DeepSeek 或者豆包有什么区别。结合我最近在 Mac Mini M4 上的折腾经历,详细说一下它的定位、部署门槛以及两种核心玩法的利弊。 等我龙虾通关了,会写一篇非常详细的教程分享给大家,这篇大家就当做是普及一下概念吧,熟悉我得朋友们都知道漠哥是研究大模型的,在web2公司也是做这块的,这次我打算把我家里闲置的Mac Mini M4 用起来。 一、 “龙虾”到底是什么?和 ChatGPT/谷歌/DeepSeek 的区别 简单来说,如果把 AI 比作一个人: ChatGPT / 谷歌 Gemini / DeepSeek / 豆包:它们是大脑(LLM 大模型)。它们的主要功能是思考、生成文字或代码。它们活在对话框里,你问一句,它回一句。 我前一段时间分享的10块钱搞定一年谷歌 Gemini Pro就属于被动型的。 OpenClaw (“龙虾”):它是手脚(AI Agent 框架)。它本身不具备智能,是一个运行在你电脑后台的程序。 核心区别: ChatGPT 只能告诉你怎么做,而龙虾能帮你做。 龙虾通过调用大脑的 API 来理解你的指令,然后去操控浏览器点击网页、读取本地文件、监控推特、在 Telegram/微信里自动收发消息。它是一个 24 小时在线的数字员工。 二、 部署设备:为什么选 Mac Mini M4? 部署龙虾需要一台能长期开机的电脑。 Mac Mini M4 是目前非常理想的设备,原因有三点: 低功耗 (Always-on):龙虾需要 24 小时挂在后台(比如监控币圈动态或处理自动回复),Mac Mini 的待机功耗极低,几乎不费电,非常适合作为家庭服务器。 环境友好:它是 Unix 系统,对 Docker、Node.js 等开发环境的支持比 Windows 原生要好,报错少。 安静:放在角落里运行没有任何噪音。 三、 两种部署模式详解:本地 vs API(重点:成本与智商的权衡) 这是很多新手最容易踩坑的地方。龙虾的脑子主要有两种来源: 1. 本地模型模式 (Local LLM) 原理:利用 Mac Mini 自身的 NPU/GPU 算力,通过 Ollama 运行开源模型(如 Llama 3、DeepSeek-Distill 等)作为龙虾的大脑。 成本:完全免费。除了电费,不需要付任何 API 费用。 实测体验(Mac Mini M4):不推荐作为主力。虽然 M4 芯片很强,但受限于内存(统一内存),通常只能流畅运行 7B 或 8B 参数的小模型。 我之前用Mac Mini 部署过大模型,因为配置等问题,只能部署参数相对低一些的例如7B/8B,这样模型就会显得很傻,32B的根本就跑不起来,内存打满直接卡死。 缺陷:这些小模型在处理复杂逻辑(比如“分析这篇长文章并总结出三个关键利好”)时,经常理解错误、遗漏信息或者产生幻觉。 结论:用本地小模型跑龙虾,就像雇了一个很勤快但不太聪明的实习生,很勤快但是效率低下。 2. API 模式 (Cloud LLM) —— 强烈推荐 原理:Mac Mini 只负责运行龙虾的程序(手脚),思考时通过网络调用云端的最强模型(如 Google Gemini 3 Pro、GPT-4o、Claude 3.5)。 成本:需要付费(但有技巧)。 通常是按 Token(字数)计费,用得越多越贵。 省钱技巧:目前 Google 的 Gemini API 有免费层级(Free Tier),对于个人用户跑龙虾的用量来说,几乎等同于免费白嫖且速度极快。 实测体验:起飞。云端大模型的逻辑能力远超本地小模型。龙虾变得非常聪明,能准确执行复杂指令,写代码、分析长文档都非常稳。 四、 总结与建议 如果你手里也有一台 Mac Mini M4,不要试图用它去硬抗本地大模型训练或推理,跑不起来的。(我得这台也是之前买来用来挖矿的😄) 最明智的玩法是: 把 Mac Mini M4 当作发射台。利用它的低功耗特性,让它 24 小时运行 OpenClaw 的程序框架,然后在配置里对接 Google Gemini (高性价比) 或 GPT-4/Claude (高性能) 的 API。 这样你既拥有了数据的隐私掌控权(程序在本地),又拥有了最顶级的 AI 智商(大脑在云端),这才是目前 AI Agent 最实用的落地形态。 看到这里不知道大家是否理解了,这篇是开胃菜算是普及,也不是技术贴,这个春节我打算把龙虾搞定,大家等我的保姆级教程吧。 #OPENCLAW #MACMINI #DeepSeek #Gemini #大漠茶馆

关于最近大火的“龙虾”(OpenClaw):到底是什么?怎么玩?Mac Mini M4 实测避坑指南

最近技术圈都在聊 OpenClaw(社区昵称“龙虾”),很多朋友问它和 ChatGPT、谷歌 AI、DeepSeek 或者豆包有什么区别。结合我最近在 Mac Mini M4 上的折腾经历,详细说一下它的定位、部署门槛以及两种核心玩法的利弊。
等我龙虾通关了,会写一篇非常详细的教程分享给大家,这篇大家就当做是普及一下概念吧,熟悉我得朋友们都知道漠哥是研究大模型的,在web2公司也是做这块的,这次我打算把我家里闲置的Mac Mini M4 用起来。
一、 “龙虾”到底是什么?和 ChatGPT/谷歌/DeepSeek 的区别
简单来说,如果把 AI 比作一个人:
ChatGPT / 谷歌 Gemini / DeepSeek / 豆包:它们是大脑(LLM 大模型)。它们的主要功能是思考、生成文字或代码。它们活在对话框里,你问一句,它回一句。
我前一段时间分享的10块钱搞定一年谷歌 Gemini Pro就属于被动型的。
OpenClaw (“龙虾”):它是手脚(AI Agent 框架)。它本身不具备智能,是一个运行在你电脑后台的程序。
核心区别:
ChatGPT 只能告诉你怎么做,而龙虾能帮你做。
龙虾通过调用大脑的 API 来理解你的指令,然后去操控浏览器点击网页、读取本地文件、监控推特、在 Telegram/微信里自动收发消息。它是一个 24 小时在线的数字员工。
二、 部署设备:为什么选 Mac Mini M4?
部署龙虾需要一台能长期开机的电脑。
Mac Mini M4 是目前非常理想的设备,原因有三点:
低功耗 (Always-on):龙虾需要 24 小时挂在后台(比如监控币圈动态或处理自动回复),Mac Mini 的待机功耗极低,几乎不费电,非常适合作为家庭服务器。
环境友好:它是 Unix 系统,对 Docker、Node.js 等开发环境的支持比 Windows 原生要好,报错少。
安静:放在角落里运行没有任何噪音。
三、 两种部署模式详解:本地 vs API(重点:成本与智商的权衡)
这是很多新手最容易踩坑的地方。龙虾的脑子主要有两种来源:
1. 本地模型模式 (Local LLM)
原理:利用 Mac Mini 自身的 NPU/GPU 算力,通过 Ollama 运行开源模型(如 Llama 3、DeepSeek-Distill 等)作为龙虾的大脑。
成本:完全免费。除了电费,不需要付任何 API 费用。
实测体验(Mac Mini M4):不推荐作为主力。虽然 M4 芯片很强,但受限于内存(统一内存),通常只能流畅运行 7B 或 8B 参数的小模型。
我之前用Mac Mini 部署过大模型,因为配置等问题,只能部署参数相对低一些的例如7B/8B,这样模型就会显得很傻,32B的根本就跑不起来,内存打满直接卡死。
缺陷:这些小模型在处理复杂逻辑(比如“分析这篇长文章并总结出三个关键利好”)时,经常理解错误、遗漏信息或者产生幻觉。
结论:用本地小模型跑龙虾,就像雇了一个很勤快但不太聪明的实习生,很勤快但是效率低下。
2. API 模式 (Cloud LLM) —— 强烈推荐
原理:Mac Mini 只负责运行龙虾的程序(手脚),思考时通过网络调用云端的最强模型(如 Google Gemini 3 Pro、GPT-4o、Claude 3.5)。
成本:需要付费(但有技巧)。
通常是按 Token(字数)计费,用得越多越贵。
省钱技巧:目前 Google 的 Gemini API 有免费层级(Free Tier),对于个人用户跑龙虾的用量来说,几乎等同于免费白嫖且速度极快。
实测体验:起飞。云端大模型的逻辑能力远超本地小模型。龙虾变得非常聪明,能准确执行复杂指令,写代码、分析长文档都非常稳。
四、 总结与建议
如果你手里也有一台 Mac Mini M4,不要试图用它去硬抗本地大模型训练或推理,跑不起来的。(我得这台也是之前买来用来挖矿的😄)
最明智的玩法是:
把 Mac Mini M4 当作发射台。利用它的低功耗特性,让它 24 小时运行 OpenClaw 的程序框架,然后在配置里对接 Google Gemini (高性价比) 或 GPT-4/Claude (高性能) 的 API。
这样你既拥有了数据的隐私掌控权(程序在本地),又拥有了最顶级的 AI 智商(大脑在云端),这才是目前 AI Agent 最实用的落地形态。
看到这里不知道大家是否理解了,这篇是开胃菜算是普及,也不是技术贴,这个春节我打算把龙虾搞定,大家等我的保姆级教程吧。
#OPENCLAW #MACMINI #DeepSeek #Gemini #大漠茶馆
·
--
Бичи
Mac Mini M4 is out of stock everywhere 😩 So I grabbed a used M1 Mac Mini in the meantime… and turned it into my FARM AI BRAIN with Clawbot! Now my hands are free for long/short $BTC trading on #Binance all day. Farm runs itself while I catch pumps & dumps lol 🚀📈 #Clawbot #MACMINI
Mac Mini M4 is out of stock everywhere 😩

So I grabbed a used M1 Mac Mini in the meantime… and turned it into my FARM AI BRAIN with Clawbot!

Now my hands are free for long/short $BTC trading on #Binance all day. Farm runs itself while I catch pumps & dumps lol 🚀📈

#Clawbot #MACMINI
🔥 Clawdbot Takes Silicon Valley Viral AI assistant: Clawdbot is an open‑source AI that runs 24/7, performing tasks on your computer via apps like WhatsApp, Telegram, and Discord. It’s gaining massive popularity among Silicon Valley developers. Hardware surge: Mac Mini sales are spiking as users deploy Clawdbot locally for continuous operation. Creator spotlight: Built by Peter Steinberger, a billionaire engineer who returned to coding after selling his software company. Community reactions: Developers love its autonomous task execution and multi-model support, but security experts warn about privacy risks and the need for isolated environments. Crypto tie-in: The hype influenced the CLAWD meme coin, causing short-term volatility in market cap. Bottom line: Clawdbot shows the rise of AI agents that do real work, not just chat, impacting hardware demand, dev communities, and crypto trends. #Clawdbot #AIassistant #SiliconValley #OpenSourceAI #MacMini #AutomationAI#AItrends #AIhype $BTC {spot}(BTCUSDT) $ETH {spot}(ETHUSDT) $XRP {spot}(XRPUSDT)
🔥 Clawdbot Takes Silicon Valley
Viral AI assistant: Clawdbot is an open‑source AI that runs 24/7, performing tasks on your computer via apps like WhatsApp, Telegram, and Discord. It’s gaining massive popularity among Silicon Valley developers.
Hardware surge: Mac Mini sales are spiking as users deploy Clawdbot locally for continuous operation.
Creator spotlight: Built by Peter Steinberger, a billionaire engineer who returned to coding after selling his software company.
Community reactions: Developers love its autonomous task execution and multi-model support, but security experts warn about privacy risks and the need for isolated environments.
Crypto tie-in: The hype influenced the CLAWD meme coin, causing short-term volatility in market cap.
Bottom line: Clawdbot shows the rise of AI agents that do real work, not just chat, impacting hardware demand, dev communities, and crypto trends.
#Clawdbot #AIassistant #SiliconValley #OpenSourceAI #MacMini #AutomationAI#AItrends #AIhype
$BTC
$ETH
$XRP
#MACMINI 32万,买了一点,已爽吃一倍多(仅做个人记录,勿跟) xGQ48SWHrnEv9dqVZ2UYrcxEPi6eNX8mSXT4gPPuJZZ 买的理由 1.叙事来源于 Apple Mac Mini电脑,成为类似于PS5一样的抢购热潮,重点有很多明星在拍照 2.市值偏低,32万并不高,从图形上来看,一直往上,就还有进一步的可能,上方空间很大 3.社区团结,我看到很多老外在推 才拉一倍多,感觉这个还没完!恭喜所有核心 @binancezh 关注Web3锦鲤日记,买的币翻十倍
#MACMINI 32万,买了一点,已爽吃一倍多(仅做个人记录,勿跟)

xGQ48SWHrnEv9dqVZ2UYrcxEPi6eNX8mSXT4gPPuJZZ

买的理由

1.叙事来源于 Apple Mac Mini电脑,成为类似于PS5一样的抢购热潮,重点有很多明星在拍照

2.市值偏低,32万并不高,从图形上来看,一直往上,就还有进一步的可能,上方空间很大

3.社区团结,我看到很多老外在推

才拉一倍多,感觉这个还没完!恭喜所有核心

@币安Binance华语

关注Web3锦鲤日记,买的币翻十倍
Влезте, за да разгледате още съдържание
Разгледайте най-новите крипто новини
⚡️ Бъдете част от най-новите дискусии в криптовалутното пространство
💬 Взаимодействайте с любимите си създатели
👍 Насладете се на съдържание, което ви интересува
Имейл/телефонен номер