All articles

Cerebras ร่วมมือ Amazon AWS: AI Chip ทางเลือกจาก Nvidia ในคลาวด์

17 มีนาคม 2569 17:00 2 min read

{"time":1742190000000,"blocks":[{"type":"paragraph","data":{"text":"<strong>Cerebras Systems</strong> ผู้ผลิต AI chip แบบ wafer-scale ประกาศร่วมมือกับ <strong>Amazon Web Services (AWS)</strong> ทำให้ลูกค้าคลาวด์สามารถใช้ Cerebras inference chip บน AWS เป็นทางเลือกจาก Nvidia GPU อย่างเป็นทางการครั้งแรก"}},{"type":"header","data":{"text":"Cerebras Wafer-Scale Engine","level":2}},{"type":"paragraph","data":{"text":"Cerebras มีเทคโนโลยีที่โดดเด่น — <strong>Wafer-Scale Engine (WSE)</strong> ซึ่งเป็น chip ขนาดใหญ่ที่สุดในโลก ที่ผลิต wafer ทั้งก้อนเป็น chip เดียว แทนที่จะแบ่งเป็น chip เล็กๆ หลายร้อยชิ้นเหมือน AMD และ Intel ข้อได้คือประสิทธิภาพใน AI inference ที่สูงมากสำหรับบางงาน"}},{"type":"quote","data":{"text":"Cerebras on AWS gives customers a powerful alternative to Nvidia GPUs for AI inference workloads at scale.","caption":"Cerebras/Amazon Announcement"}},{"type":"header","data":{"text":"ผลกระทบต่อ Nvidia","level":2}},{"type":"paragraph","data":{"text":"การร่วมมือนี้สำคัญเพราะเป็นครั้งแรกที่ <strong>AWS เปิดให้บริษัท AI chip ภายนอก Nvidia</strong> เข้ามาใน platform อย่างเป็นทางการ Nvidia ยังคงเป็นผู้นำในตลาด AI training GPU ด้วย H100 และ B200 แต่ในด้าน inference มีทางเลือกมากขึ้นเรื่อยๆ — Cerebras, Groq และ Google TPU ล้วนเป็นตัวเลือก"}},{"type":"paragraph","data":{"text":"ราคาของ Cerebras บน AWS คาดว่าจะ <strong>ถูกกว่า Nvidia GPU</strong> สำหรับงาน inference ที่เฉพาะทาง แต่อาจไม่เหมาะกับงาน training ทุกประเภท"}}},{"type":"delimiter","data":{}},{"type":"paragraph","data":{"text":"ข้อตกลงนี้สะท้อนการเปลี่ยนแปลงของตลาด AI cloud — จากที่เคยขึ้นอยู่กับ Nvidia ลำพัง ผู้ให้บริการคลาวด์เริ่มมีตัวเลือกในการเลือก hardware สำหรับแต่ละ workload"}}]