กลับหน้าแรกAI

วิธีรัน Gemma 4 AI ตัวท็อปจาก Google บน Mac ของคุณเองฟรี 100%

N
Nattawut Ruangvivattanaroj (New)
9 เมษายน 2569
อ่าน 4 นาที
วิธีรัน Gemma 4 AI ตัวท็อปจาก Google บน Mac ของคุณเองฟรี 100%

วิธีรัน Gemma 4 (AI ตัวท็อปจาก Google) บน Mac ของคุณเอง ฟรี 100%

ถ้าคุณยังทนจ่ายค่า AI รายเดือนแพงๆ หรือกังวลว่าข้อมูลโค้ด/ความลับบริษัทจะหลุดขึ้น Cloud... คุณกำลังพลาดของดีที่เพิ่งเปิดตัวสดๆ ร้อนๆ เลยครับ

Google เพิ่งปล่อย Gemma 4 โมเดล AI แบบ Open-source (Apache 2.0) ที่เก่งทะลุชาร์ต โดยเฉพาะรุ่น 31B ที่คว้าอันดับ 3 ของโลกใน Arena AI ไปครอง (แซงหน้าโมเดลที่ตัวใหญ่กว่า 20 เท่า!)

ที่เจ๋งกว่านั้นคือ เราสามารถเอามาติดตั้งรันบน Mac ของตัวเองได้ฟรีๆ ผ่าน Ollama ที่เพิ่งอัปเดตมารองรับ MLX ของ Apple ทำให้ดึงพลังของ Unified Memory บนชิป M-Series ออกมาได้เต็มที่ เร็วปรี๊ดแถมไม่กินสเปค

ขั้นตอนที่ 1 — ติดตั้ง Ollama

ไปที่เว็บ ollama.com แล้วกดโหลดมาลงเครื่อง หรือเปิด Terminal แล้วพิมพ์คำสั่งลัด:

brew install --cask ollama-app

ตัวนี้จะรองรับ MLX ให้เราอัตโนมัติ ไม่ต้องตั้งค่าอะไรเพิ่มเลย

ขั้นตอนที่ 2 — เปิดแอป Ollama

กดเปิดแอปให้ไอคอนรูปน้องอัลปาก้าโผล่ที่ Menu Bar ด้านบน รอแป๊บนึงให้มันพร้อม

ขั้นตอนที่ 3 — ดาวน์โหลดและเริ่มใช้ Gemma 4

เปิด Terminal แล้วพิมพ์:

ollama run gemma4:12b

รุ่น 12B เหมาะกับเครื่องที่มี RAM 16-32 GB ถ้าเครื่องแรง (RAM 64 GB+) ลองรุ่น 27B ได้เลย

ขั้นตอนที่ 4 — ใช้งานร่วมกับ Coding Agent

สำหรับสาย Dev ที่อยากได้ผู้ช่วยเขียนโค้ดฟรี ให้รัน 2 คำสั่งนี้ใน Terminal:

export ANTHROPIC_BASE_URL=http://localhost:11434/v1
export ANTHROPIC_API_KEY=ollama

จากนั้นรัน: claude --model gemma4:26b

สรุปภาพรวม

ตอนนี้การรัน Local AI บน Mac ไม่ใช่เรื่องของ Geek อีกต่อไปแล้ว ใครๆ ก็มี AI ระดับโลกมานั่งทำงานอยู่ข้างๆ ได้แบบฟรีๆ แถมรันเร็วมากด้วยพลังของ MLX

ใครใช้ Mac ชิป M-Series ลองโหลดมาเล่นกันดูนะครับ!


โพสต์ต้นฉบับ: Facebook

#Gemma4#Google#Ollama#MLX#Apple Silicon#Local AI#Mac
N

Nattawut Ruangvivattanaroj (New)

CEO & Founder • LeafBox Technologies

CEO ของ LeafBox Technologies ผู้เชี่ยวชาญด้าน AI Agent, Vibe Coding และ AI Solutions สำหรับธุรกิจไทย