Ostatnio w środowisku technologicznym wszyscy mówią o OpenClaw (publiczny pseudonim “Ślimak”), wielu przyjaciół pyta, jaka jest różnica między nim, ChatGPT, Google AI, DeepSeek lub Doubao. Podsumowując moje niedawne doświadczenie na Mac Mini M4, szczegółowo opowiem o jego pozycjonowaniu, progach wdrożenia oraz zaletach i wadach dwóch głównych mechanik gry. Kiedy przejdę poziom ze ślimakiem, napiszę bardzo szczegółową instrukcję, aby podzielić się z wszystkimi, a ten artykuł jest tylko po to, aby zapoznać wszystkich z koncepcją. Znajomi mi przyjaciele wiedzą, że Mo Go bada duże modele, a w firmie web2 również się tym zajmują. Tym razem postanowiłem wykorzystać mój Mac Mini M4, który po prostu stał bezczynnie. Pierwsze: co to jest "homar"? Jaka różnica z ChatGPT/Google/DeepSeek? Prosto mówiąc, jeśli porównać AI z człowiekiem: ChatGPT / Google Gemini / DeepSeek / Doubao: są mózgiem (wielkimi modelami LLM). Ich główną funkcją jest myślenie, generowanie tekstu lub kodu. Żyją w oknie czatu, pytasz, one odpowiadają. Niedawno podzieliłem się, że można uzyskać rok Google Gemini Pro za 10 гривень, to jest pasywny sposób. OpenClaw ("homar"): to ręce i nogi (ramka agenta AI). Sam w sobie nie ma inteligencji, to program działający w tle twojego komputera. Główna różnica: ChatGPT może tylko powiedzieć, jak to zrobić, a homar może pomóc ci to zrobić. Homar rozumie twoje polecenia, wywołując API mózgu, a następnie steruje przeglądarką, klika na stronach internetowych, czyta lokalne pliki, kontroluje Twitter, automatycznie wysyła i odbiera wiadomości w Telegram/Wechat. Jest cyfrowym pracownikiem, który pracuje 24 godziny na dobę. Drugie: urządzenia do wdrożenia: dlaczego wybrać Mac Mini M4? Aby wdrożyć homara, potrzebny jest komputer, który może pracować przez długi czas. Mac Mini M4 jest obecnie bardzo idealnym urządzeniem, są trzy powody: Niskie zużycie energii (zawsze w trybie pracy): homar musi działać 24 godziny na dobę w tle (na przykład kontrolować dynamikę kryptowalut lub przetwarzać automatyczne odpowiedzi), pobór mocy Mac Mini jest bardzo niski, prawie nie wydaje energii elektrycznej, więc jest bardzo odpowiedni jako serwer domowy. Ekologiczność: to system Unix, wsparcie dla Dockera, Node.js i innych środowisk deweloperskich jest lepsze niż w Windows, błędów jest mniej. Cichy: działa bez żadnego hałasu w kącie. Trzecie: szczegółowy opis dwóch trybów wdrożenia: lokalny vs API (główna uwaga: koszty i równowaga inteligencji) To miejsce, w którym nowicjusze najczęściej wpadają w pułapkę. Mózg homarów ma dwa główne źródła: 1. Tryb lokalnego modelu (Local LLM) Zasada: wykorzystanie mocy obliczeniowej NPU/GPU Mac Mini do uruchomienia otwartych modeli (takich jak Llama 3, DeepSeek-Distill itp.) jako mózgu homara. Koszty: całkowicie za darmo. Poza energią elektryczną, nie trzeba płacić żadnych kosztów API. Doświadczenie testowe (Mac Mini M4): nie jest zalecane jako główne. Chociaż chip M4 jest bardzo potężny, ma ograniczoną pamięć (pamięć unifikowana), zazwyczaj może płynnie działać tylko z małymi modelami o parametrach 7B lub 8B. Wcześniej używałem Mac Mini do wdrożenia dużych modeli, z powodu problemów z konfiguracją mogłem wdrożyć tylko modele o stosunkowo niskich parametrach, takich jak 7B/8B, przez co model wyglądał bardzo głupio, 32B w ogóle się nie uruchamiał, pamięć się zapełniała i komputer się zawieszał. Wady: te małe modele często źle rozumieją, pomijają informacje lub tworzą iluzje przy przetwarzaniu skomplikowanej logiki (na przykład „przeanalizuj ten długi artykuł i podsumuj trzy kluczowe korzyści”). Wniosek: użycie lokalnego małego modelu dla homara jest podobne do zatrudnienia bardzo pracowitego, ale niezbyt inteligentnego stażysty, bardzo pracowitego, ale nieefektywnego. 2. Tryb API (Cloud LLM) — zdecydowanie polecam Zasada: Mac Mini odpowiada za wykonanie programu homara (ręce i nogi), a podczas myślenia wywołuje najsilniejszy model w chmurze (taki jak Google Gemini 3 Pro, GPT-4o, Claude 3.5) przez sieć. Koszty: trzeba płacić (ale są triki). Zazwyczaj opłata jest dokonywana za tokeny (liczba słów), im więcej używasz, tym drożej. Sztuczka na oszczędność: w tej chwili API Google Gemini ma poziom darmowy (Free Tier), dla użytkowników indywidualnych, którzy uruchamiają homara, jest to prawie za darmo i bardzo szybkie. Doświadczenie testowe: wzbija się. Możliwości logiczne dużych modeli w chmurze znacznie przewyższają lokalne małe modele. Homar stał się bardzo mądry, potrafi dokładnie wykonywać skomplikowane polecenia, pisać kod, analizować długie dokumenty. Cztery, podsumowanie i rekomendacje Jeśli masz również Mac Mini M4, nie próbuj używać go do intensywnego uczenia się lub inferencji dużych modeli, nie wyjdzie. (Ten również kupiłem wcześniej, aby zajmować się miningiem 😄) Najmądrzejszy sposób gry: Użyj Mac Mini M4 jako platformy startowej. Wykorzystaj jego niskie zużycie energii, aby pracować 24 godziny na dobę z platformą programową OpenClaw, a następnie podłącz API Google Gemini (wysoki koszt) lub GPT-4/Claude (wysoka wydajność). W ten sposób uzyskujesz kontrolę nad prywatnością danych (program na lokalnym komputerze) oraz najwyższy poziom inteligencji AI (mózg w chmurze), to najpraktyczniejsza forma agentów AI dzisiaj. Nie wiem, czy to zrozumiałeś, to artykuł wprowadzający, nie jest techniczny, w tym roku planuję zakończyć z homarem, czekaj na mój krok po kroku przewodnik.
#OPENCLAW #MACMINI #DeepSeek #Gemini #大漠茶馆