Cytron Technologies
Giờ làm việc: 8:00 - 17:00
Thứ 2 - Thứ 6 (trừ ngày lễ)
Hotline 0362917357

OpenClaw là một nền tảng AI Agent mã nguồn mở, cho phép bạn:
Khác với chatbot thông thường, OpenClaw không chỉ “trả lời” mà còn hành động thực tế.
Ví dụ:
Tạo thư mục project trong /home/user→ OpenClaw sẽ tự động thực thi lệnh tạo thư mục trên hệ thống.
Khi kết hợp với Jetson, OpenClaw trở thành:
Khác với Raspberry Pi 5, Jetson Orin Nano Super / Jetson Orin NX đã được tích GPU hỗ trợ LLM và chạy tốt Ollama (DeepSeek, Gemma, v.v) nên hoàn toàn có thể hoạt động độc lập mà không phụ thuộc vào Internet.
| Tiêu chí | ChatGPT | OpenClaw |
|---|---|---|
| Chức năng | Trả lời | Thực thi |
| Khả năng hệ thống | Không | Có |
| Automation | Không | Có |
| Offline | Không | Có |
Ollama: Chạy local, không tốn tiền cho API. Hạn chế duy nhất là chỉ chạy được các model dưới 3B (3 tỉ tham số) đối với Orin Nano Super.
Gemini/OpenAI API: Nhanh, nhưng tốn phí API
sudo apt update && sudo apt upgrade -y
sudo nvpmodel -m 0Jetson dùng RAM chung cho hệ thống và GPU, vì vậy rất dễ thiếu RAM khi chạy AI.
sudo fallocate -l 8G /swapfile
sudo chmod 600 /swapfile
sudo mkswap /swapfile
sudo swapon /swapfile
echo '/swapfile none swap sw 0 0' | sudo tee -a /etc/fstabcurl -fsSL https://ollama.com/install.sh | shTải model AI
Với Orin Nano, bạn nên dùng model 1.5B để có thời gian phản hồi nhanh.
ollama pull qwen2.5:1.5bVới Orin NX
ollama pull qwen2.5:3bModel càng lớn càng tốn RAM và thời gian suy luận sẽ kéo dài (trên cùng một phần cứng). Vì vậy, bạn nên thử nghiệm nhiều model AI khác nhau để tìm ra cái nào phù hợp cho nhu cầu sử dụng.
curl -fsSL https://openclaw.ai/install.sh | bashSau khi quá trình cài đặt thành công, OpenClaw sẽ chuyển sang phần onboard (cấu hình ban đầu). Bạn có thể chọn Manual để cấu hình chi tiết, hoặc Quick Start để cấu hình những mục thiết yếu. Trong bài viết này, Cytron Việt Nam sẽ chọn thiết lập nhanh.












Bạn có thể dùng phím Ctrl + C để thoát.
openclaw onboard --install-daemonopenclaw tui
Cách sử dụng:
/ để nhập lệnh/reset nếu lỗiMặc định, OpenClaw sử dụng context window lớn, điều này không phù hợp với các thiết bị edge như Jetson Orin Nano do giới hạn về RAM. Nếu bỏ qua bước này hệ thống có thể ngốn RAM quá mức, dẫn đến treo máy hoặc phản hồi chậm.
Trên Jetson, RAM được chia sẻ giữa CPU và GPU. Do đó, việc giảm context là bắt buộc để hệ thống hoạt động ổn định.
Để cải thiện hiệu năng, bạn cần chỉnh sửa thủ công file cấu hình của OpenClaw.
~/.openclaw/openclaw.jsonSửa file cấu hình như bên dưới
"contextWindow": 32768,
"maxTokens": 8192,
"model": "ollama/qwen2.5:1.5b"Sau đó lưu file & khởi động lại OpenClaw.
openclaw gateway stop
rm -rf ~/.openclaw/workspace
openclaw gateway startollama list : Kiểm tra model
ollama rm <model> : Xóa model không dùngopenclaw gateway logsOpenClaw không chỉ là một AI chatbot, mà là: AI có khả năng hành động thực tế trên hệ thống, sử dụng sức mạnh từ các model AI kết hợp với I/O và phần cứng phù hợp. Với Jetson Orin chạy OpenClaw, đây là nền tảng lý tưởng cho:
Chúc bạn thành công!