Gần đây, trong môi trường kỹ thuật, mọi người đều nói về OpenClaw (biệt danh công cộng “Con Sò”), nhiều bạn bè hỏi sự khác biệt giữa nó, ChatGPT, Google AI, DeepSeek hoặc Doubao. Tóm tắt kinh nghiệm gần đây của tôi với Mac Mini M4, tôi sẽ kể chi tiết về cách định vị của nó, ngưỡng triển khai và ưu nhược điểm của hai cơ chế trò chơi chính. Khi tôi hoàn thành một cấp độ với con sò, tôi sẽ viết một hướng dẫn rất chi tiết để chia sẻ với mọi người, và bài viết này chỉ để làm quen với mọi người về khái niệm. Những người bạn quen biết của tôi biết rằng Mo Go đang nghiên cứu các mô hình lớn, và cũng đang làm việc này tại công ty web2. Lần này, tôi quyết định sử dụng Mac Mini M4 của mình, cái mà chỉ đứng không làm gì cả. Đầu tiên: con "sò" là gì? Sự khác biệt với ChatGPT/Google/DeepSeek là gì? Nói đơn giản, nếu so sánh AI với con người: ChatGPT / Google Gemini / DeepSeek / Doubao: chúng là bộ não (các mô hình lớn LLM). Chức năng chính của chúng - suy nghĩ, tạo ra văn bản hoặc mã. Chúng sống trong cửa sổ trò chuyện, bạn hỏi, chúng trả lời. Gần đây tôi đã chia sẻ rằng có thể nhận được một năm Google Gemini Pro với 10 гривень, đây là cách thụ động. OpenClaw ("con sò"): đây là tay và chân (khung AI agent). Tự nó không có trí tuệ, đây là một chương trình chạy trong nền máy tính của bạn. Sự khác biệt chính: ChatGPT chỉ có thể nói cách làm, trong khi con sò có thể giúp bạn làm. Con sò hiểu các lệnh của bạn, gọi API của bộ não, và sau đó điều khiển trình duyệt, nhấp chuột trên các trang web, đọc các tệp cục bộ, kiểm soát Twitter, tự động gửi và nhận tin nhắn trên Telegram/Wechat. Nó là một công nhân kỹ thuật số, làm việc 24 giờ một ngày. Thứ hai: thiết bị để triển khai: tại sao chọn Mac Mini M4? Để triển khai con sò, cần một máy tính có thể hoạt động lâu dài. Mac Mini M4 hiện tại là một thiết bị rất lý tưởng, có ba lý do: Tiêu thụ năng lượng thấp (luôn trong chế độ hoạt động): con sò cần hoạt động 24 giờ một ngày trong nền (ví dụ, theo dõi động thái tiền điện tử hoặc xử lý phản hồi tự động), công suất tiêu thụ của Mac Mini rất thấp, gần như không tiêu tốn điện năng, vì vậy rất phù hợp cho máy chủ gia đình. Tính thân thiện với môi trường: đây là hệ thống Unix, hỗ trợ Docker, Node.js và các môi trường phát triển khác tốt hơn so với Windows, ít lỗi hơn. Im lặng: hoạt động mà không có bất kỳ tiếng ồn nào trong góc. Thứ ba: mô tả chi tiết hai chế độ triển khai: cục bộ vs API (chú ý chính: chi phí và sự cân bằng trí tuệ) Đây là nơi mà người mới thường mắc kẹt. Bộ não của con sò có hai nguồn chính: 1. Chế độ mô hình cục bộ (Local LLM) Nguyên tắc: sử dụng sức mạnh tính toán NPU/GPU của Mac Mini để chạy các mô hình mở (như Llama 3, DeepSeek-Distill, v.v.) như bộ não của con sò. Chi phí: hoàn toàn miễn phí. Ngoài điện năng, không cần phải trả thêm bất kỳ chi phí API nào. Trải nghiệm thử nghiệm (Mac Mini M4): không được khuyến nghị làm chính. Mặc dù chip M4 rất mạnh, nó bị giới hạn bởi bộ nhớ (bộ nhớ thống nhất), thường chỉ có thể hoạt động mượt mà với các mô hình nhỏ với các tham số 7B hoặc 8B. Tôi đã từng sử dụng Mac Mini để triển khai các mô hình lớn, do vấn đề cấu hình, tôi chỉ có thể triển khai các mô hình với các tham số tương đối thấp như 7B/8B, khiến mô hình trông rất ngớ ngẩn, 32B không khởi động được, bộ nhớ đầy và máy tính bị treo. Nhược điểm: các mô hình nhỏ này thường hiểu sai, bỏ qua thông tin hoặc tạo ra ảo tưởng khi xử lý logic phức tạp (ví dụ, "phân tích bài viết dài này và tóm tắt ba lợi ích chính"). Kết luận: sử dụng mô hình nhỏ cục bộ cho con sò giống như thuê một thực tập sinh rất chăm chỉ nhưng không thông minh, rất chăm chỉ nhưng không hiệu quả. 2. Chế độ API (Cloud LLM) - khuyến khích sử dụng Nguyên tắc: Mac Mini chịu trách nhiệm thực hiện chương trình con sò (tay và chân), trong khi suy nghĩ gọi mô hình mạnh nhất trên đám mây (như Google Gemini 3 Pro, GPT-4o, Claude 3.5) qua mạng. Chi phí: cần phải trả (nhưng có mẹo). Thông thường, thanh toán được thực hiện qua token (số lượng từ), càng sử dụng nhiều, càng đắt. Mẹo tiết kiệm: hiện tại, API Google Gemini có mức miễn phí (Free Tier), cho người dùng cá nhân chạy con sò, điều này gần như miễn phí và rất nhanh. Trải nghiệm thử nghiệm: bay lên. Khả năng logic của các mô hình lớn trên đám mây vượt xa các mô hình nhỏ cục bộ. Con sò trở nên rất thông minh, có thể thực hiện chính xác các lệnh phức tạp, viết mã, phân tích các tài liệu dài. Bốn, tóm tắt và khuyến nghị Nếu bạn cũng có Mac Mini M4, đừng cố gắng sử dụng nó cho việc học hoặc suy diễn các mô hình lớn, sẽ không thành công. (Cái này tôi cũng đã mua trước đây để tham gia khai thác😄) Cách chơi thông minh nhất: Sử dụng Mac Mini M4 như một nền tảng khởi đầu. Sử dụng đặc điểm tiêu thụ năng lượng thấp của nó để hoạt động 24 giờ một ngày với nền tảng phần mềm OpenClaw, và sau đó kết nối với Google Gemini (chi phí cao) hoặc GPT-4/Claude (hiệu suất cao) API. Như vậy, bạn có quyền kiểm soát quyền riêng tư dữ liệu (chương trình trên máy tính cục bộ) và mức độ trí tuệ AI cao nhất (bộ não trên đám mây), đây là hình thức AI agent thực tiễn nhất hiện nay. Không biết bạn có hiểu điều này không, đây là một bài viết giới thiệu, không phải kỹ thuật, năm nay tôi dự định hoàn thành với con sò, chờ đợi hướng dẫn từng bước của tôi.\u003ct-7/\u003e\u003ct-8/\u003e#DeepSeek #Gemini #大漠茶馆