วิธีรัน Gemma 4 AI ตัวท็อปจาก Google บน Mac ของคุณเองฟรี 100%

วิธีรัน Gemma 4 (AI ตัวท็อปจาก Google) บน Mac ของคุณเอง ฟรี 100%
ถ้าคุณยังทนจ่ายค่า AI รายเดือนแพงๆ หรือกังวลว่าข้อมูลโค้ด/ความลับบริษัทจะหลุดขึ้น Cloud... คุณกำลังพลาดของดีที่เพิ่งเปิดตัวสดๆ ร้อนๆ เลยครับ
Google เพิ่งปล่อย Gemma 4 โมเดล AI แบบ Open-source (Apache 2.0) ที่เก่งทะลุชาร์ต โดยเฉพาะรุ่น 31B ที่คว้าอันดับ 3 ของโลกใน Arena AI ไปครอง (แซงหน้าโมเดลที่ตัวใหญ่กว่า 20 เท่า!)
ที่เจ๋งกว่านั้นคือ เราสามารถเอามาติดตั้งรันบน Mac ของตัวเองได้ฟรีๆ ผ่าน Ollama ที่เพิ่งอัปเดตมารองรับ MLX ของ Apple ทำให้ดึงพลังของ Unified Memory บนชิป M-Series ออกมาได้เต็มที่ เร็วปรี๊ดแถมไม่กินสเปค
ขั้นตอนที่ 1 — ติดตั้ง Ollama
ไปที่เว็บ ollama.com แล้วกดโหลดมาลงเครื่อง หรือเปิด Terminal แล้วพิมพ์คำสั่งลัด:
brew install --cask ollama-app
brew install --cask ollama-app
ตัวนี้จะรองรับ MLX ให้เราอัตโนมัติ ไม่ต้องตั้งค่าอะไรเพิ่มเลย
ขั้นตอนที่ 2 — เปิดแอป Ollama
กดเปิดแอปให้ไอคอนรูปน้องอัลปาก้าโผล่ที่ Menu Bar ด้านบน รอแป๊บนึงให้มันพร้อม
ขั้นตอนที่ 3 — ดาวน์โหลดและเริ่มใช้ Gemma 4
เปิด Terminal แล้วพิมพ์:
ollama run gemma4:12b
ollama run gemma4:12b
รุ่น 12B เหมาะกับเครื่องที่มี RAM 16-32 GB ถ้าเครื่องแรง (RAM 64 GB+) ลองรุ่น 27B ได้เลย
ขั้นตอนที่ 4 — ใช้งานร่วมกับ Coding Agent
สำหรับสาย Dev ที่อยากได้ผู้ช่วยเขียนโค้ดฟรี ให้รัน 2 คำสั่งนี้ใน Terminal:
export ANTHROPIC_BASE_URL=http://localhost:11434/v1
export ANTHROPIC_API_KEY=ollama
export ANTHROPIC_BASE_URL=http://localhost:11434/v1
export ANTHROPIC_API_KEY=ollama
จากนั้นรัน: claude --model gemma4:26b
สรุปภาพรวม
ตอนนี้การรัน Local AI บน Mac ไม่ใช่เรื่องของ Geek อีกต่อไปแล้ว ใครๆ ก็มี AI ระดับโลกมานั่งทำงานอยู่ข้างๆ ได้แบบฟรีๆ แถมรันเร็วมากด้วยพลังของ MLX
ใครใช้ Mac ชิป M-Series ลองโหลดมาเล่นกันดูนะครับ!
โพสต์ต้นฉบับ: Facebook

