Récemment, dans l'environnement technique, tout le monde parle d'OpenClaw (surnommé "L'escargot"), de nombreux amis demandent quelle est la différence entre lui, ChatGPT, Google AI, DeepSeek ou Doubao. En résumant mon expérience récente sur Mac Mini M4, je vais décrire en détail son positionnement, les seuils d'implémentation et les avantages et inconvénients de deux mécaniques de jeu principales. Lorsque je passerai un niveau avec l'escargot, j'écrirai un guide très détaillé à partager avec tout le monde, et cet article est juste pour familiariser tout le monde avec le concept. Mes amis familiers savent que Mo Go explore de grands modèles, et dans l'entreprise web2, il s'y engage également. Cette fois, j'ai décidé d'utiliser mon Mac Mini M4, qui était simplement inactif. Premièrement : qu'est-ce qu'un "homard" ? Quelle est la différence avec ChatGPT/Google/DeepSeek ? En termes simples, si l'on compare l'IA à un humain : ChatGPT / Google Gemini / DeepSeek / Doubao : ils sont le cerveau (grands modèles LLM). Leur fonction principale est de penser, de générer du texte ou du code. Ils vivent dans une fenêtre de chat, vous posez des questions, ils répondent. J'ai récemment partagé qu'on peut obtenir une année de Google Gemini Pro pour 10 hryvnias, c'est un moyen passif. OpenClaw ("homard") : ce sont les bras et les jambes (cadre de l'agent AI). Par lui-même, il n'a pas d'intelligence, c'est un programme qui fonctionne en arrière-plan sur votre ordinateur. La principale différence : ChatGPT ne peut que dire comment faire, tandis que le homard peut vous aider à le faire. Le homard comprend vos commandes en appelant l'API du cerveau, puis contrôle le navigateur, clique sur des pages web, lit des fichiers locaux, contrôle Twitter, envoie et reçoit automatiquement des messages sur Telegram/Wechat. Il est un travailleur numérique qui fonctionne 24 heures sur 24. Deuxièmement : les dispositifs de déploiement : pourquoi choisir Mac Mini M4 ? Pour déployer le homard, il faut un ordinateur capable de fonctionner longtemps. Le Mac Mini M4 est actuellement un dispositif très idéal, il y a trois raisons : Faible consommation d'énergie (toujours en mode actif) : le homard doit fonctionner 24 heures sur 24 en arrière-plan (par exemple, contrôler la dynamique des cryptomonnaies ou traiter des réponses automatiques), la puissance consommée par le Mac Mini est très faible, il ne dépense presque pas d'électricité, donc il est très adapté pour un serveur domestique. Écologique : c'est un système Unix, le support de Docker, Node.js et d'autres environnements de développement est meilleur qu'avec Windows, il y a moins d'erreurs. Silencieux : fonctionne sans aucun bruit dans le coin. Troisièmement : description détaillée de deux modes de déploiement : local vs API (attention principale : coûts et équilibre de l'intelligence) C'est l'endroit où les débutants tombent souvent dans le piège. Le cerveau des homards a deux sources principales : 1. Mode de modèle local (Local LLM) Principe : utiliser la puissance de calcul NPU/GPU du Mac Mini pour exécuter des modèles ouverts (comme Llama 3, DeepSeek-Distill, etc.) comme cerveau du homard. Coûts : totalement gratuit. À part l'électricité, il n'y a pas de frais d'API à payer. Expérience de test (Mac Mini M4) : déconseillé en tant que principal. Bien que la puce M4 soit très puissante, elle est limitée par la mémoire (mémoire unifiée), elle peut généralement fonctionner sans problème seulement avec des petits modèles de 7B ou 8B. J'ai utilisé auparavant le Mac Mini pour déployer de grands modèles, en raison de problèmes de configuration, je n'ai pu déployer que des modèles avec des paramètres relativement bas, tels que 7B/8B, ce qui a fait que le modèle semblait très stupide, 32B ne se lançait pas du tout, la mémoire était pleine et l'ordinateur se bloquait. Inconvénients : ces petits modèles comprennent souvent mal, passent à côté d'informations ou créent des illusions lors du traitement de logiques complexes (par exemple, "analysez cet article long et résumez trois principaux avantages"). Conclusion : utiliser un petit modèle local pour le homard ressemble à embaucher un stagiaire très diligent, mais pas très intelligent, très diligent, mais inefficace. 2. Mode API (Cloud LLM) — fortement recommandé Principe : le Mac Mini est responsable de l'exécution du programme du homard (bras et jambes), et lors de la réflexion, il appelle le modèle le plus puissant dans le cloud (comme Google Gemini 3 Pro, GPT-4o, Claude 3.5) via le réseau. Coûts : il faut payer (mais il y a des astuces). En général, le paiement se fait par tokens (nombre de mots), plus vous en utilisez, plus c'est cher. Astuce pour économiser : en ce moment, l'API Google Gemini a un niveau gratuit (Free Tier), pour les utilisateurs personnels qui lancent le homard, c'est presque gratuit et très rapide. Expérience de test : décollage. Les capacités logiques des grands modèles dans le cloud dépassent de loin celles des petits modèles locaux. Le homard est devenu très intelligent, capable d'exécuter avec précision des commandes complexes, d'écrire du code, d'analyser de longs documents. Quatre, résumé et recommandations Si vous avez également un Mac Mini M4, ne tentez pas de l'utiliser pour un apprentissage intensif ou une inférence de grands modèles, cela ne fonctionnera pas. (Celui-ci, je l'ai aussi acheté auparavant pour faire du minage 😄) La manière la plus intelligente de jouer : Utilisez le Mac Mini M4 comme plateforme de lancement. Utilisez ses caractéristiques de faible consommation pour fonctionner 24 heures sur 24 avec la plateforme logicielle OpenClaw, puis connectez-vous à Google Gemini (coût élevé) ou GPT-4/Claude (haute performance) API. Ainsi, vous obtenez un contrôle sur la confidentialité des données (programme sur l'ordinateur local) et le plus haut niveau d'intelligence AI (cerveau dans le cloud), c'est la forme la plus pratique des agents AI aujourd'hui. Je ne sais pas si vous avez compris cela, cet article est une introduction, ce n'est pas technique, cette année je prévois de terminer avec le homard, attendez-vous à mon guide étape par étape.\u003ct-7/\u003e\u003ct-8/\u003e#DeepSeek #Gemini #大漠茶馆