Siri ยุคใหม่มาแล้ว! Apple จับมือ Google ใช้ Gemini 1.2 ล้านล้านพารามิเตอร์ขับเคลื่อน Siri ใน iOS 26.4
ยุคทองของ Siri เริ่มต้นแล้ว: Apple ยืนยัน iOS 26.4 พร้อม Gemini AI
1 มีนาคม 2026 — Apple ยืนยันอย่างเป็นทางการว่า iOS 26.4 จะมาพร้อมกับ Siri ที่ถูกสร้างใหม่ทั้งหมด โดยใช้โมเดล Gemini ของ Google เป็นแกนกลางในการประมวลผลภาษาและเหตุผลเชิงซับซ้อน นับเป็นการเปลี่ยนแปลงครั้งใหญ่ที่สุดของ Siri นับตั้งแต่เปิดตัวครั้งแรกในปี 2011 และถือเป็นสัญญาณว่า Apple พร้อมแล้วที่จะแข่งขันกับ Google Assistant และ ChatGPT อย่างจริงจัง
ข้อตกลงความร่วมมือระหว่าง Apple และ Google ครั้งนี้มีมูลค่าสูงถึง 1.5 พันล้านดอลลาร์สหรัฐต่อปี ซึ่ง Apple จะจ่ายให้ Google เพื่อเข้าถึงโมเดล Gemini ขนาด 1.2 ล้านล้านพารามิเตอร์ โดยโมเดลเหล่านี้จะทำงานบนเซิร์ฟเวอร์ Private Cloud Compute ของ Apple เองเพื่อรักษามาตรฐานความเป็นส่วนตัวที่เข้มงวด
On-Screen Awareness: Siri ที่ "มองเห็น" หน้าจอของคุณ
ฟีเจอร์ที่โดดเด่นที่สุดใน iOS 26.4 คือ On-Screen Awareness ซึ่งให้ Siri สามารถ "เห็น" และตีความสิ่งที่แสดงอยู่บนหน้าจอของผู้ใช้แบบเรียลไทม์ โดยใช้ Neural Engine บนชิป Apple Silicon รุ่นล่าสุด
ตัวอย่างเช่น หากคุณกำลังอ่านอีเมลอยู่ คุณสามารถพูดว่า Siri สรุปอีเมลนี้ให้หน่อย หรือ เพิ่มนัดนี้ลงปฏิทิน โดยไม่ต้องคัดลอก วาง หรือสลับแอปใดๆ เลย Siri จะเข้าใจบริบทของสิ่งที่อยู่บนหน้าจอและดำเนินการต่อได้ทันที
Multi-App Actions: สั่งงานครั้งเดียว ทำได้ 10 ขั้นตอน
อีกฟีเจอร์ที่เปลี่ยนเกมคือ Multi-App Actions ซึ่งให้ Siri สามารถประสานงานข้ามแอปได้สูงสุดถึง 10 ขั้นตอนจากคำสั่งเดียว ตัวอย่างที่ Apple ยกมาคือประโยคว่า จองเที่ยวบินถัดไปไปนิวยอร์ก เพิ่มลงปฏิทิน แล้วส่งข้อความบอกเวลาถึงให้ Sarah Siri จะดำเนินการทั้งสามส่วนนี้ในครั้งเดียวโดยไม่ต้องให้ผู้ใช้ยืนยันทีละขั้น
ซึ่งแตกต่างจาก Siri แบบเดิมที่ต้องสั่งแยกกันทีละคำสั่งและมักต้องการการยืนยันจากผู้ใช้หลายรอบ ฟีเจอร์ใหม่นี้ทำให้ Siri กลายเป็น AI Agent ที่แท้จริง ไม่ใช่แค่ผู้ช่วยที่รับคำสั่งเดี่ยวๆ
Personal Context: Siri ที่รู้จักคุณอย่างลึกซึ้ง
Personal Context คือการให้สิทธิ์ Siri เข้าถึงข้อมูลจากอีเมล, iMessage, และปฏิทินของคุณเพื่อให้เข้าใจบริบทชีวิตประจำวัน ตัวอย่างเช่น Siri สามารถจำได้ว่าคุณเคยคุยเรื่องอะไรกับใครเมื่อหลายเดือนก่อน และนำบริบทนั้นมาช่วยตอบคำถามในปัจจุบัน
ทั้งนี้ Apple ยืนยันว่าข้อมูลเหล่านี้จะไม่ถูกส่งออกไปยังเซิร์ฟเวอร์ภายนอก การประมวลผลข้อมูลส่วนบุคคลจะเกิดขึ้นบนอุปกรณ์ (On-Device) หรือผ่าน Private Cloud Compute ของ Apple เท่านั้น
Apple Intelligence ยังคงเป็นหัวใจหลัก
แม้ Gemini จะเข้ามาเสริมพลัง Siri แต่ Apple ยืนยันว่า Apple Intelligence ซึ่งเป็นระบบ AI บนอุปกรณ์ของตัวเองจะยังคงเป็นแกนหลักในการประมวลผลงานพื้นฐาน ทั้งการสรุปข้อความ, การเขียนใหม่, การสร้างรูปภาพด้วย AI และฟีเจอร์อื่นๆ ที่ไม่ต้องการโมเดลขนาดใหญ่
โมเดล Gemini จะถูกใช้เฉพาะในกรณีที่คำถามหรืองานนั้นมีความซับซ้อนสูง เช่น การวิเคราะห์เหตุผลเชิงลึก, การประสานงานข้ามแอป หรือการตอบคำถามที่ต้องการความรู้ทั่วไประดับสูง โดยโมเดลเหล่านี้ถูกเรียกใช้ผ่าน Private Cloud Compute ของ Apple ซึ่ง Apple ตั้งชื่อภายในว่า Apple Foundation Models v10
แผนการเปิดตัว: Phase 1 และ Phase 2
Apple วางแผนเปิดตัวฟีเจอร์ใหม่เป็นสองระยะ:
- Phase 1 (ฤดูใบไม้ผลิ 2026 — iOS 26.4): On-Screen Awareness, Personal Context, Multi-App Actions เบื้องต้น และการรับรู้บริบทระดับปานกลาง
- Phase 2 (ฤดูใบไม้ร่วง 2026 — iOS 27): ความสามารถด้านการสนทนาเต็มรูปแบบ, Multi-App Workflow ซับซ้อน, การปรับแต่งส่วนบุคคลเชิงลึก และระดับการสนทนาใกล้เคียง ChatGPT
อย่างไรก็ตาม รายงานจาก 9to5Mac เมื่อเดือนกุมภาพันธ์ระบุว่า Apple ยังคงเผชิญกับความท้าทายด้านวิศวกรรมภายใน ทำให้บางฟีเจอร์ที่เดิมกำหนดให้อยู่ใน iOS 26.4 อาจถูกเลื่อนออกไปยังเวอร์ชันถัดไป
ผลกระทบต่อตลาดและคู่แข่ง
การที่ Apple ยินดีจ่าย 1.5 พันล้านดอลลาร์ต่อปีให้ Google เพื่อใช้ Gemini แสดงให้เห็นว่าแม้แต่ Apple ก็ยอมรับว่าโมเดล AI สร้างเองไม่สามารถแข่งขันกับโมเดลชั้นนำระดับโลกในงานเชิงซับซ้อนได้ในตอนนี้ นี่เป็นสัญญาณที่น่าสนใจอย่างมากในเชิงกลยุทธ์
สำหรับ Google ถือว่าได้ประโยชน์สองทาง คือทั้งรายได้มหาศาลและการฝังตัว Gemini ไว้ในระบบนิเวศ iPhone ที่มีผู้ใช้งานกว่า 1 พันล้านคนทั่วโลก ซึ่งอาจส่งผลต่อแผนของ Microsoft ที่กำลังเร่งพัฒนา Copilot บน Windows และ Android
ส่วน OpenAI ซึ่งเป็นพันธมิตรรายแรกของ Apple ผ่านการรวม ChatGPT ใน iOS 18 ยังคงอยู่ในระบบนิเวศ แต่บทบาทของ ChatGPT ใน Siri อาจลดลงหลังจาก Gemini เข้ามาเป็นตัวเลือกหลักในงานที่ซับซ้อน
ความเป็นส่วนตัว: ยังคงเป็นจุดแข็งของ Apple
Apple ย้ำว่าแม้จะใช้โมเดลของ Google แต่ข้อมูลของผู้ใช้จะไม่ถูกส่งไปยัง Google โดยตรง แทนที่จะรัน Gemini บนโครงสร้างพื้นฐานของ Google, Apple จะดึงน้ำหนักโมเดล (Model Weights) มาไว้บน Private Cloud Compute ของตัวเอง ซึ่ง Apple ควบคุมและตรวจสอบได้ทุกกระบวนการ
นี่คือสิ่งที่แตกต่าง Apple ออกจากผู้เล่นอื่น เพราะในขณะที่ Google Assistant และ ChatGPT ส่งข้อมูลไปประมวลผลบนคลาวด์ของตนเอง Siri ของ Apple ยังคงรักษาสัญญาด้านความเป็นส่วนตัวที่เคยให้ไว้กับผู้ใช้
อะไรจะเกิดขึ้นในอนาคต
Apple ยังส่งสัญญาณว่าในอนาคตอาจเพิ่มโมเดลจาก Anthropic และ Perplexity เข้ามาในระบบ เพื่อให้ผู้ใช้มีตัวเลือกในการเลือกใช้ AI ที่ต้องการในสถานการณ์ต่างๆ นอกจากนี้ยังมีแผนเพิ่มผู้ให้บริการค้นหา AI ทางเลือกใน Safari ซึ่งจะเป็นการท้าทาย Google Search เองอีกครั้งในทางอ้อม
ในระยะยาว การเปลี่ยนแปลงนี้อาจหมายความว่า Apple กำลังวางโครงสร้าง AI Platform ที่เป็น Marketplace ของโมเดล AI ต่างๆ แทนที่จะผูกมัดกับผู้ให้บริการรายเดียว ซึ่งจะเป็นประโยชน์กับผู้ใช้ iPhone มากที่สุด
สรุปแล้ว iOS 26.4 และ Siri ที่ขับเคลื่อนด้วย Gemini ถือเป็นก้าวที่กล้าหาญและสำคัญที่สุดของ Apple ในยุค AI ทั้งในแง่ของเทคโนโลยีและกลยุทธ์ธุรกิจ หากทุกอย่างเป็นไปตามแผน iPhone จะกลายเป็นสมาร์ทโฟนที่มี AI Assistant ทรงพลังที่สุดในตลาด พร้อมมาตรฐานความเป็นส่วนตัวที่ไม่มีใครเทียบได้ในเดือนมีนาคม-เมษายน 2026 นี้