All articles
Anthropic ฟ้องกระทรวงกลาโหมสหรัฐฯ: เมื่อ AI Safety ชนกับ Pentagon และพันล้านดอลลาร์ต้องเดิมพัน

Anthropic ฟ้องกระทรวงกลาโหมสหรัฐฯ: เมื่อ AI Safety ชนกับ Pentagon และพันล้านดอลลาร์ต้องเดิมพัน

14 มีนาคม 2569 09:26 6 min read

จุดเริ่มต้นของการปะทะ: เมื่อ AI Safety ขัดกับความต้องการของกองทัพ

ในสัปดาห์ที่ผ่านมา หนึ่งในคดีความที่สะเทือนวงการ AI โลกมากที่สุดได้ปะทุขึ้นอย่างเต็มรูปแบบ เมื่อ Anthropic บริษัท AI ผู้สร้าง Claude ยื่นฟ้องกระทรวงกลาโหมสหรัฐฯ (Department of Defense หรือ Pentagon) ในสองศาลพร้อมกัน ได้แก่ U.S. District Court for the Northern District of California และ Federal Appeals Court ในกรุงวอชิงตัน ดี.ซี. หลังจากที่ Defense Secretary Pete Hegseth ตัดสินใจประทับตรา Anthropic ว่าเป็น supply chain risk และสั่งห้ามกระทรวงกลาโหมและผู้รับเหมาทุกรายใช้ผลิตภัณฑ์ AI ของบริษัท

การปะทะครั้งนี้ไม่ใช่เรื่องของเทคโนโลยีล้วนๆ แต่เป็นการชนกันอย่างรุนแรงระหว่างแนวคิด AI Safety ที่ Anthropic ยึดถือมาตั้งแต่ก่อตั้งบริษัท กับความต้องการปฏิบัติการทางทหารที่กระทรวงกลาโหมเห็นว่าสำคัญยิ่งกว่า คดีนี้กำลังกลายเป็นบรรทัดฐานสำคัญที่จะกำหนดว่า บริษัท AI ภาคเอกชนมีสิทธิ์กำหนดขอบเขตการใช้งาน AI ของตัวเองได้มากแค่ไหน แม้ว่าคู่สัญญาจะเป็นรัฐบาลสหรัฐฯ เองก็ตาม

สองเส้นแดงที่ Anthropic ยอมไม่ได้

หัวใจของความขัดแย้งอยู่ที่ข้อเรียกร้องสองข้อที่ Anthropic ยืนกรานในการเจรจาสัญญากับ Pentagon โดย Anthropic ต้องการให้กระทรวงกลาโหมรับประกันว่าจะไม่ใช้ Claude AI เพื่อวัตถุประสงค์ดังต่อไปนี้

  1. การเฝ้าระวังมวลชนของพลเมืองสหรัฐฯ (mass surveillance of U.S. citizens) — Anthropic มองว่าการนำ AI มาใช้เพื่อสอดส่องประชาชนในวงกว้างเป็นการละเมิดสิทธิขั้นพื้นฐาน และขัดกับหลักการ responsible AI development อย่างสิ้นเชิง
  2. อาวุธอัตโนมัติแบบสมบูรณ์ (fully autonomous weapons) — ระบบอาวุธที่ตัดสินใจโจมตีและสังหารโดยไม่มีมนุษย์ควบคุม ซึ่ง Anthropic เห็นว่าเป็นความเสี่ยงต่อมนุษยชาติในระยะยาว

แต่ Pentagon กลับยืนกรานว่าต้องการสิทธิ์ใช้งาน Claude เพื่อ 'ทุกวัตถุประสงค์ที่ชอบด้วยกฎหมาย' (all lawful purposes) โดยระบุว่าในสถานการณ์ฉุกเฉินด้านความมั่นคงแห่งชาติ พวกเขาไม่สามารถยอมให้บริษัทเอกชนมากำหนดขีดจำกัดของเครื่องมือที่ตนเองใช้ได้ การเจรจาล้มเหลว และ Pentagon จึงออก designation ดังกล่าวในเวลาต่อมา

คดีความและข้อกล่าวหาทางกฎหมาย

Anthropic ยื่นฟ้องโดยอ้างเหตุผลทางกฎหมายสองประการหลัก ประการแรก การกระทำของ Pentagon ละเมิดสิทธิตาม First Amendment ของ Anthropic เนื่องจากบริษัทถูกลงโทษเพราะแสดงจุดยืนทางนโยบายสาธารณะเกี่ยวกับ AI safety ประการที่สอง การนำกฎหมาย supply chain risk มาใช้กับ Anthropic เป็นการก้าวล้ำขอบเขต (exceeded scope) ของกฎหมายดังกล่าว เพราะโดยเจตนาแล้ว กฎหมายนี้มีไว้สำหรับความเสี่ยงจากซัพพลายเชนจริงๆ ไม่ใช่เพื่อบีบบังคับบริษัทในเรื่องนโยบายการใช้งาน

เมื่อวันพุธที่ 12 มีนาคม 2026 Anthropic ได้ยื่นคำร้องฉุกเฉิน (emergency stay) ต่อ U.S. Court of Appeals for the District of Columbia Circuit เพื่อขอให้ศาลระงับผล designation ดังกล่าวชั่วคราวระหว่างรอการพิจารณาคดี โดยระบุว่าบริษัทจะได้รับความเสียหายที่เยียวยาไม่ได้ (irreparable harm) และสูญเสียรายได้นับหลายร้อยล้านถึงหลายพันล้านดอลลาร์ในปี 2026 เพียงปีเดียว

Pentagon CTO โต้กลับ: Claude จะ 'ปนเปื้อน' ห่วงโซ่อุปทานกลาโหม

ในทางตรงข้าม CTO ของกระทรวงกลาโหม Emil Michael ออกมาให้สัมภาษณ์กับ CNBC อย่างตรงไปตรงมาว่า Claude AI จะ 'ปนเปื้อน' (pollute) ห่วงโซ่อุปทานด้านกลาโหม หาก Anthropic ยังยืนกรานจำกัดการใช้งาน เขาอ้างว่าในสถานการณ์สงครามหรือความมั่นคงแห่งชาติจริงๆ ผู้บัญชาการในสนามรบไม่มีเวลามานั่งตรวจสอบว่าการใช้งาน AI ในขณะนั้นขัดกับข้อกำหนดของบริษัทเอกชนหรือไม่

ฝั่ง Pentagon มองว่าสัญญากับ Anthropic ที่ระบุข้อห้ามเหล่านี้จะสร้างความเสี่ยงทางกฎหมายและปฏิบัติการในอนาคต เพราะทหารอาจถูกฟ้องหรือถูกลงโทษหากใช้ AI ผิดเงื่อนไข ในขณะที่ศัตรูหรือคู่แข่งของสหรัฐฯ อย่างจีนไม่ได้มีข้อจำกัดเหล่านี้ในการพัฒนา AI ด้านการทหาร


ผลกระทบต่ออุตสาหกรรม AI และคู่แข่ง

ก่อนหน้านี้ Anthropic ได้ทำสัญญากับหน่วยงานรัฐบาลสหรัฐฯ หลายแห่ง ทั้ง CIA, NSA และหน่วยงานข่าวกรองอื่นๆ รวมถึงหน่วยงานพลเรือนอีกหลายแห่ง การถูก blacklist จาก Pentagon ส่งผลโดยตรงต่อรายได้จากสัญญาภาครัฐ และมีความเสี่ยงที่ designation นี้อาจลามไปยังหน่วยงานอื่นๆ ที่มองว่าต้องทำตามมาตรฐานความมั่นคงของ Pentagon

นักวิเคราะห์หลายรายมองว่าคดีนี้ไม่ใช่แค่เรื่องของ Anthropic เท่านั้น แต่เป็นสัญญาณว่าบริษัท AI ทุกแห่งที่ต้องการทำสัญญากับภาครัฐจะต้องเผชิญกับคำถามเดียวกัน นั่นคือ จะยึดหลัก AI safety ที่ตัวเองประกาศต่อสาธารณะไว้ได้แค่ไหน เมื่อรัฐบาลเป็นผู้จ่ายเงิน

  • OpenAI เลือกเส้นทางตรงข้าม โดยเปิดตัว ChatGPT Gov และทำสัญญากับ Pentagon โดยไม่มีข้อจำกัดด้านการใช้งาน กำลังได้รับประโยชน์จากสถานการณ์นี้โดยตรง
  • Google DeepMind และ Microsoft ที่มีสัญญากับกระทรวงกลาโหมอยู่แล้วอาจถูกกดดันให้แสดงจุดยืนว่าจะอนุญาตการใช้งาน AI อย่างไร
  • สตาร์ทอัพ AI หน้าใหม่ที่กำลังมองตลาดภาครัฐ อาจต้องเลือกแนวทาง compliance-first แทน safety-first เพื่อให้ได้สัญญา

ภาพรวมทางการเงินของ Anthropic ยังน่ากังวล แม้จะเติบโตเร็วมากและมีมูลค่าประเมินสูงถึงหลายสิบพันล้านดอลลาร์ แต่บริษัทยังคงขาดทุนอยู่ สัญญากับภาครัฐจึงเป็นแหล่งรายได้ที่สำคัญมาก การสูญเสียสัญญากลาโหมในภาวะนี้อาจส่งผลต่อแผนการระดมทุนรอบถัดไปและ timeline สู่การทำกำไรได้

บริบทที่กว้างกว่า: นโยบาย AI ของ Trump และการแข่งขันกับจีน

คดีนี้เกิดขึ้นท่ามกลางบรรยากาศที่รัฐบาล Trump กำลังผลักดันให้สหรัฐฯ ใช้ AI อย่างก้าวร้าวในทุกด้าน รวมถึงด้านทหาร ภายใต้แนวคิด America First AI ที่มุ่งเอาชนะจีนในการแข่งขัน AI ระดับโลก บริษัท AI ที่แสดงความลังเลหรือตั้งข้อจำกัดในการใช้งาน AI ด้านการทหารจึงถูกมองว่าเป็นอุปสรรคมากกว่าพันธมิตร

ในขณะเดียวกัน Dario Amodei ซีอีโอของ Anthropic ได้ออกมาปกป้องจุดยืนของบริษัทในแถลงการณ์สาธารณะหลายครั้ง โดยระบุว่า Anthropic ยินดีสนับสนุนกองทัพสหรัฐฯ ในงานที่ไม่ขัดต่อหลักจริยธรรม เช่น การวิเคราะห์ข้อมูล การจัดการโลจิสติกส์ การแพทย์ทหาร แต่บริษัทจะไม่ยอมอนุญาตให้ใช้ Claude เพื่อตัดสินใจสังหารมนุษย์โดยอัตโนมัติหรือเฝ้าระวังพลเมืองในวงกว้าง

ผู้เชี่ยวชาญด้านกฎหมายหลายคนมองว่า Anthropic มีโอกาสชนะคดีในแง่เทคนิคทางกฎหมาย เพราะการใช้ supply chain risk designation ในลักษณะนี้เป็นการขยายความหมายของกฎหมายออกไปเกินขอบเขตที่ตั้งใจไว้ อย่างไรก็ดี ชัยชนะทางศาลไม่ได้หมายความว่าบริษัทจะได้สัญญา Pentagon กลับคืนมาโดยอัตโนมัติ

ก้าวต่อไป: สามสถานการณ์ที่อาจเกิดขึ้น

ขณะที่บทความนี้เขียน ศาล U.S. Court of Appeals for the DC Circuit กำลังพิจารณาคำร้อง emergency stay ของ Anthropic อยู่ หากศาลอนุมัติ designation จะถูกระงับชั่วคราว และ Anthropic จะสามารถดำเนินธุรกิจกับหน่วยงานรัฐบาลอื่นๆ ได้ตามปกติระหว่างรอผลคดีหลัก

  1. Anthropic ชนะคดี: บรรทัดฐานสำคัญที่ว่าบริษัท AI มีสิทธิ์กำหนด ethical guardrails ในสัญญากับรัฐบาลได้ถูกสร้างขึ้น อาจส่งผลให้มีการร่างกฎหมาย AI procurement ใหม่ที่ชัดเจนกว่าเดิม
  2. Pentagon ชนะคดี: แรงกดดันต่อบริษัท AI อื่นๆ ให้ยอมรับเงื่อนไขของรัฐบาลโดยไม่มีข้อจำกัดจะสูงขึ้นมาก และ AI safety อาจกลายเป็นเพียงคำพูดสวยหรูที่ไม่มีผลบังคับใช้ในทางปฏิบัติ
  3. การเจรจาประนีประนอม: ฝ่ายบริหารของ Trump อาจยอมกลับมาเจรจาหากมองว่าคดีนี้สร้างภาพลักษณ์ไม่ดีต่อความพยายามดึงดูดนักลงทุนและบริษัทเทคโนโลยีต่างประเทศมาสหรัฐฯ

สรุป: คดีที่อาจกำหนดอนาคตของ AI สำหรับชาติ

คดี Anthropic ปะทะ Pentagon ไม่ใช่แค่เรื่องสัญญาธุรกิจหรือเงินพันล้านดอลลาร์ มันคือการต่อสู้เพื่อตอบคำถามพื้นฐานว่า ใครกันแน่ที่มีสิทธิ์ตัดสินใจว่า AI ควรถูกใช้อย่างไร ในยามที่เทคโนโลยีนี้ทรงพลังพอที่จะเปลี่ยนแปลงดุลอำนาจของโลก

Anthropic ถูกก่อตั้งโดยทีมที่ออกมาจาก OpenAI ด้วยความเชื่อว่าการพัฒนา AI ที่ปลอดภัยและรับผิดชอบต้องมาก่อน บริษัทได้สร้าง Constitutional AI และ Responsible Scaling Policy เป็นเอกสารสาธารณะที่ประกาศว่าจะไม่ทำอะไร แต่วันนี้ความเชื่อเหล่านั้นถูกทดสอบจริงๆ ครั้งแรก โดยผู้ที่มีอำนาจรัฐอยู่ในมือ

ผลลัพธ์ของคดีนี้จะส่งสัญญาณให้กับบริษัท AI ทั่วโลกว่า ในยุคที่ AI กลายเป็นเครื่องมือทางยุทธศาสตร์ระดับชาติ การมีจุดยืนด้านจริยธรรมที่ชัดเจนเป็นสิ่งที่รัฐบาลยอมรับได้หรือไม่ หรือในที่สุดแล้ว ทุกบริษัทจะต้องเลือกระหว่าง 'ทำตามที่รัฐบาลต้องการ' กับ 'ยึดหลักที่ตัวเองประกาศไว้' — และสำหรับ Anthropic คำตอบของคำถามนี้อาจหมายถึงอนาคตของทั้งบริษัท