Recentemente, no ambiente técnico, todos falam sobre OpenClaw (apelido público “Caranguejo”), muitos amigos perguntam qual é a diferença entre ele, ChatGPT, Google AI, DeepSeek ou Doubao. Resumindo minha experiência recente no Mac Mini M4, falarei detalhadamente sobre seu posicionamento, limiares de implementação e vantagens e desvantagens de duas mecânicas de jogo principais. Quando eu passar o nível com o caranguejo, escreverei um guia muito detalhado para compartilhar com todos, e este artigo é apenas para apresentar a todos o conceito. Amigos que me conhecem sabem que Mo Go está explorando grandes modelos, e a empresa web2 também está envolvida nisso. Desta vez, decidi usar meu Mac Mini M4, que estava apenas parado. Primeiro: o que é "lagosta"? Qual é a diferença entre ChatGPT/Google/DeepSeek? Em termos simples, se compararmos AI com um humano: ChatGPT / Google Gemini / DeepSeek / Doubao: eles são o cérebro (grandes modelos LLM). Sua função principal é pensar, gerar texto ou código. Eles vivem em uma janela de chat, você pergunta, eles respondem. Recentemente, compartilhei que você pode obter um ano do Google Gemini Pro por 10 grivnas, isso é uma maneira passiva. OpenClaw ("lagosta"): são as mãos e os pés (estrutura do agente AI). Sozinho, não tem inteligência, é um programa que roda em segundo plano no seu computador. A principal diferença: ChatGPT pode apenas dizer como fazer, enquanto a lagosta pode ajudar você a fazer. A lagosta entende seus comandos, chamando a API do cérebro, e então controla o navegador, clica em páginas da web, lê arquivos locais, monitora o Twitter, envia e recebe mensagens no Telegram/Wechat automaticamente. É um trabalhador digital que opera 24 horas por dia. Segundo: dispositivos para implantação: por que escolher o Mac Mini M4? Para implantar a lagosta, é necessário um computador que possa funcionar por longos períodos. O Mac Mini M4 é atualmente um dispositivo muito ideal, há três razões: Baixo consumo de energia (sempre em modo de operação): a lagosta precisa funcionar em segundo plano 24 horas por dia (por exemplo, monitorar a dinâmica das criptomoedas ou processar respostas automáticas), o consumo de energia do Mac Mini é muito baixo, quase não consome eletricidade, portanto é muito adequado para um servidor doméstico. Ecológico: é um sistema Unix, o suporte ao Docker, Node.js e outros ambientes de desenvolvimento é melhor do que no Windows, com menos erros. Silencioso: opera sem qualquer ruído em um canto. Terceiro: descrição detalhada de dois modos de implantação: local vs API (foco principal: custos e equilíbrio de inteligência) Este é o lugar onde os novatos costumam cair em armadilhas. O cérebro das lagostas tem duas fontes principais: 1. Modo de modelo local (Local LLM) Princípio: usar o poder computacional NPU/GPU do Mac Mini para executar modelos abertos (como Llama 3, DeepSeek-Distill, etc.) como o cérebro da lagosta. Custos: absolutamente gratuito. Além da eletricidade, não é necessário pagar quaisquer custos de API. Experiência de teste (Mac Mini M4): não recomendado como principal. Embora o chip M4 seja muito poderoso, ele é limitado em memória (memória unificada), geralmente só consegue rodar suavemente modelos pequenos com parâmetros de 7B ou 8B. Eu costumava usar o Mac Mini para implantar grandes modelos, devido a problemas de configuração, só consegui implantar modelos com parâmetros relativamente baixos, como 7B/8B, o que fez com que o modelo parecesse muito burro, 32B não rodava de jeito nenhum, a memória enchia e o computador travava. Desvantagens: esses pequenos modelos muitas vezes entendem mal, perdem informações ou criam ilusões ao processar lógica complexa (por exemplo, "analise este longo artigo e resuma três principais benefícios"). Conclusão: usar um modelo local pequeno para a lagosta é como contratar um estagiário muito trabalhador, mas não muito inteligente, muito esforçado, mas ineficaz. 2. Modo API (Cloud LLM) - altamente recomendado Princípio: o Mac Mini é responsável por executar o programa da lagosta (mãos e pés), e durante o pensamento chama o modelo mais forte na nuvem (como Google Gemini 3 Pro, GPT-4o, Claude 3.5) através da rede. Custos: precisa pagar (mas há truques). Normalmente, o pagamento é feito por tokens (número de palavras), quanto mais você usa, mais caro fica. Truque para economizar: no momento, a API do Google Gemini tem um nível gratuito (Free Tier), para usuários pessoais que executam a lagosta, isso é quase gratuito e muito rápido. Experiência de teste: decolar. As capacidades lógicas dos grandes modelos na nuvem superam significativamente os pequenos modelos locais. A lagosta se tornou muito inteligente, pode executar comandos complexos com precisão, escrever código, analisar longos documentos. Quatro, resumo e recomendações Se você também tem um Mac Mini M4, não tente usá-lo para treinamento intenso ou inferência de grandes modelos, não vai funcionar. (Esse eu também comprei anteriormente para minerar😄) A maneira mais inteligente de jogar: Use o Mac Mini M4 como plataforma de lançamento. Use sua característica de baixo consumo para operar 24 horas por dia com a plataforma de software OpenClaw, e depois conecte-se ao Google Gemini (alto custo) ou GPT-4/Claude (alto desempenho) API. Assim, você obtém controle sobre a privacidade dos dados (programa no computador local) e o mais alto nível de inteligência AI (cérebro na nuvem), essa é a forma mais prática de agentes AI hoje. Não sei se você entendeu, este é um artigo introdutório, não é técnico, este ano planejo finalizar com a lagosta, aguarde meu guia passo a passo.
#OPENCLAW #MACMINI #DeepSeek #Gemini #大漠茶馆