In letzter Zeit sprechen alle in der technischen Umgebung über OpenClaw (der öffentliche Spitzname „Schnecke“), viele Freunde fragen, was der Unterschied zwischen ihm, ChatGPT, Google AI, DeepSeek oder Doubao ist. Zusammenfassend werde ich meine jüngsten Erfahrungen mit dem Mac Mini M4 detailliert über seine Positionierung, Implementierungsschwellen sowie Vor- und Nachteile der beiden Hauptspielmechaniken berichten. Wenn ich ein Level mit der Schnecke abschließe, werde ich eine sehr detaillierte Anleitung schreiben, um sie mit allen zu teilen, und dieser Artikel dient einfach dazu, allen das Konzept vorzustellen. Mir bekannte Freunde wissen, dass Mo Go große Modelle erforscht und sich auch in einem Web2-Unternehmen damit beschäftigt. Diesmal habe ich mich entschieden, meinen Mac Mini M4 zu verwenden, der einfach untätig herumstand. Erster Punkt: Was ist ein "Lobster"? Was ist der Unterschied zu ChatGPT/Google/DeepSeek? Einfach ausgedrückt, wenn man KI mit einem Menschen vergleicht: ChatGPT / Google Gemini / DeepSeek / Doubao: Sie sind das Gehirn (große LLM-Modelle). Ihre Hauptfunktion besteht darin, zu denken, Text oder Code zu generieren. Sie leben im Chatfenster, du fragst, sie antworten. Ich habe kürzlich geteilt, dass man ein Jahr Google Gemini Pro für 10 Hrywnja erhalten kann, das ist eine passive Methode. OpenClaw ("Lobster"): Das sind Hände und Füße (der Rahmen des KI-Agenten). An sich hat es keine Intelligenz, es ist ein Programm, das im Hintergrund deines Computers läuft. Der Hauptunterschied: ChatGPT kann nur sagen, wie man es macht, während der Lobster dir helfen kann, es zu tun. Der Lobster versteht deine Befehle, indem er die API des Gehirns aufruft, und steuert dann den Browser, klickt auf Webseiten, liest lokale Dateien, überwacht Twitter, sendet und empfängt automatisch Nachrichten in Telegram/Wechat. Er ist ein digitaler Arbeiter, der 24 Stunden am Tag arbeitet. Zweiter Punkt: Geräte für die Bereitstellung: Warum einen Mac Mini M4 wählen? Für die Bereitstellung des Lobsters wird ein Computer benötigt, der lange Zeit arbeiten kann. Der Mac Mini M4 ist derzeit ein sehr ideales Gerät, es gibt drei Gründe: Niedriger Energieverbrauch (immer im Betriebsmodus): Der Lobster muss 24 Stunden am Tag im Hintergrund arbeiten (zum Beispiel die Dynamik von Kryptowährungen überwachen oder automatische Antworten verarbeiten), der Stromverbrauch des Mac Mini ist sehr niedrig, er verbraucht kaum Strom, weshalb er sich sehr gut als Heimserver eignet. Umweltfreundlichkeit: Es handelt sich um ein Unix-System, die Unterstützung von Docker, Node.js und anderen Entwicklungsumgebungen ist besser als bei Windows, und es gibt weniger Fehler. Leise: arbeitet ohne jeglichen Lärm in der Ecke. Dritter Punkt: Detaillierte Beschreibung der beiden Bereitstellungsmodi: lokal vs API (Hauptaugenmerk: Kosten und Intelligenz-Balance) Hier ist der Ort, an dem Neulinge oft in die Falle tappen. Das Gehirn der Lobster hat zwei Hauptquellen: 1. Lokaler Modellmodus (Local LLM) Prinzip: Nutzung der Rechenleistung von NPU/GPU des Mac Mini zur Ausführung offener Modelle (wie Llama 3, DeepSeek-Distill usw.) als Gehirn des Lobsters. Kosten: absolut kostenlos. Abgesehen von den Stromkosten fallen keine API-Kosten an. Testerfahrung (Mac Mini M4): nicht als Hauptgerät empfohlen. Obwohl der M4-Chip sehr leistungsfähig ist, ist er speicherlimitiert (vereinheitlichter Speicher) und kann normalerweise nur reibungslos mit kleinen Modellen mit 7B oder 8B Parametern arbeiten. Ich habe früher den Mac Mini verwendet, um große Modelle bereitzustellen, aber aufgrund von Konfigurationsproblemen konnte ich nur Modelle mit relativ niedrigen Parametern wie 7B/8B bereitstellen, was dazu führte, dass das Modell sehr dumm erschien, 32B lief überhaupt nicht, der Speicher war voll und der Computer hing. Nachteile: Diese kleinen Modelle verstehen oft falsch, lassen Informationen aus oder erzeugen Illusionen, wenn sie komplexe Logik verarbeiten (zum Beispiel: "Analysiere diesen langen Artikel und fasse drei Hauptvorteile zusammen"). Fazit: Die Verwendung eines lokalen kleinen Modells für den Lobster ähnelt der Einstellung eines sehr fleißigen, aber nicht sehr intelligenten Praktikanten, sehr fleißig, aber ineffektiv. 2. API-Modus (Cloud LLM) – dringend empfohlen Prinzip: Der Mac Mini ist für die Ausführung des Lobster-Programms verantwortlich (Hände und Füße), und während des Denkens ruft er das stärkste Modell in der Cloud (wie Google Gemini 3 Pro, GPT-4o, Claude 3.5) über das Netzwerk auf. Kosten: Es fallen Kosten an (aber es gibt Tricks). Normalerweise erfolgt die Zahlung pro Token (Wortanzahl), je mehr du verwendest, desto teurer. Trick zum Sparen: Im Moment hat die API von Google Gemini ein kostenloses Niveau (Free Tier), für persönliche Benutzer, die den Lobster betreiben, ist das fast kostenlos und sehr schnell. Testerfahrung: überragend. Die logischen Möglichkeiten großer Modelle in der Cloud übertreffen bei weitem die lokalen kleinen Modelle. Der Lobster ist sehr intelligent geworden, kann komplexe Befehle genau ausführen, Code schreiben und lange Dokumente analysieren. Viertens, Zusammenfassung und Empfehlungen Wenn du auch einen Mac Mini M4 hast, versuche nicht, ihn für intensives Training oder Inferenzen großer Modelle zu verwenden, das wird nicht funktionieren. (Den habe ich auch früher gekauft, um Mining zu betreiben😄) Die intelligenteste Spielweise: Verwende den Mac Mini M4 als Startpunkt. Nutze seine energieeffiziente Eigenschaft, um 24 Stunden am Tag mit der Softwareplattform OpenClaw zu arbeiten, und verbinde dann Google Gemini (hohe Kosten) oder GPT-4/Claude (hohe Leistung) API. Auf diese Weise erhältst du Kontrolle über die Privatsphäre der Daten (Programm auf dem lokalen Computer) und das höchste Niveau der KI-Intelligenz (Gehirn in der Cloud), das ist die praktischste Form von KI-Agenten heute. Ich weiß nicht, ob du das verstanden hast, das ist ein einführender Artikel, nicht technisch, dieses Jahr plane ich, mit dem Lobster abzuschließen, warte auf meinen schrittweisen Leitfaden.\u003ct-7/\u003e\u003ct-8/\u003e#DeepSeek #Gemini #大漠茶馆