สนับสนุนโดย
News

ผู้พิพากษาศาลรัฐบาลกลางปฏิเสธคำขอผ่อนปรนของ Anthropic ในการห้ามใช้ Claude เป็นเอไอทางทหาร กำหนดวันพิจารณาโต้แย้งด้วยวาจาในเดือนพฤษภาคม

ศาลอุทธรณ์ของรัฐบาลกลางในกรุงวอชิงตันเมื่อวันที่ 8 เมษายน ปฏิเสธคำร้องของ Anthropic ที่ขอให้สั่งระงับโดยทันทีต่อการขึ้นบัญชีดำของเพนตากอน ซึ่งห้ามใช้โมเดลปัญญาประดิษฐ์ (AI) Claude ของบริษัทจากสัญญาทางทหารของสหรัฐฯ

เขียนโดย
แชร์
ผู้พิพากษาศาลรัฐบาลกลางปฏิเสธคำขอผ่อนปรนของ Anthropic ในการห้ามใช้ Claude เป็นเอไอทางทหาร กำหนดวันพิจารณาโต้แย้งด้วยวาจาในเดือนพฤษภาคม

ประเด็นสำคัญ:

  • ศาลอุทธรณ์เขตดี.ซี. ปฏิเสธคำขอ “พักการบังคับ” ฉุกเฉินของ Anthropic เมื่อวันที่ 8 เมษายน 2026 ส่งผลให้บัญชีดำของเพนตากอนต่อ Claude AI ยังคงมีผลบังคับใช้
  • การจัดประเภทความเสี่ยงห่วงโซ่อุปทานของเพนตากอนส่งผลต่อผู้รับเหมาหลักของกระทรวงกลาโหมสหรัฐฯ (DoD) รวมถึง Amazon, Microsoft และ Palantir
  • กำหนดการไต่สวนด้วยวาจาแบบเร่งด่วนในวันที่ 19 พฤษภาคม 2026 ซึ่งคำตัดสินอาจพลิกโฉมนโยบายการจัดซื้อจัดจ้าง AI ของรัฐบาลสหรัฐฯ

ศาลอุทธรณ์ชี้ DoD สามารถคงบัญชีดำ Claude AI ระหว่างการดำเนินคดีได้

ศาลอุทธรณ์สหรัฐฯ สำหรับเขตดี.ซี. ในคำสั่งความยาวสี่หน้า ปฏิเสธ คำร้องฉุกเฉินของบริษัท AI ที่มีสำนักงานใหญ่ในซานฟรานซิสโก เพื่อขอให้ระงับการจัดประเภท “ความเสี่ยงห่วงโซ่อุปทาน” ที่ออกโดยรัฐมนตรีกลาโหม Pete Hegseth คำตัดสินดังกล่าวเปิดทางให้กระทรวงกลาโหมยังคงห้ามผู้รับเหมานำ Claude ไปใช้ต่อไปในระหว่างที่คดียังดำเนินอยู่ และได้เร่งกำหนดการไต่สวนด้วยวาจาไปเป็นวันที่ 19 พฤษภาคม 2026

คณะผู้พิพากษาระบุว่า Anthropic “มีแนวโน้มจะได้รับความเสียหายที่ไม่อาจเยียวยาได้ในระดับหนึ่ง” โดยอ้างถึงทั้งความเสียหายทางการเงินและชื่อเสียง ผู้พิพากษา Gregory Katsas และ Neomi Rao ซึ่งทั้งคู่ได้รับการแต่งตั้งในยุคทรัมป์ เห็นว่าดุลยภาพแห่งความเป็นธรรมเข้าข้างรัฐบาล โดยอ้างถึงการกำกับดูแลของฝ่ายตุลาการเกี่ยวกับวิธีที่เพนตากอนจัดหาเทคโนโลยี AI “ในช่วงที่เกิดความขัดแย้งทางทหารที่ยังดำเนินอยู่”

การจัดประเภทดังกล่าวมีที่มาจากการเจรจาที่ล้มเหลวระหว่าง Anthropic กับเจ้าหน้าที่ เพนตากอน ในช่วงปลายเดือนกุมภาพันธ์ 2026 โดยประเด็นขัดแย้งอยู่ที่ข้อจำกัดสองข้อในเงื่อนไขการให้บริการของ Anthropic ได้แก่ การห้ามระบบอาวุธที่ทำงานอัตโนมัติเต็มรูปแบบ รวมถึงฝูงโดรนติดอาวุธที่ปฏิบัติการโดยไม่มีการกำกับดูแลจากมนุษย์ และการห้ามการเฝ้าระวังมวลชนต่อพลเมืองสหรัฐฯ

Emil Michael ปลัดกระทรวงฝ่ายวิจัยและวิศวกรรม และประธานเจ้าหน้าที่เทคโนโลยีของเพนตากอน เรียกข้อจำกัดดังกล่าวว่าเป็น “อุปสรรคที่ไร้เหตุผล” ต่อความสามารถในการแข่งขันทางทหาร โดยเฉพาะเมื่อเทียบกับ จีน เจ้าหน้าที่อ้างถึงโครงการต่างๆ เช่น โครงการริเริ่มป้องกันขีปนาวุธ Golden Dome และความจำเป็นด้านขีดความสามารถตอบสนองอย่างรวดเร็วต่อภัยคุกคามอาวุธความเร็วเหนือเสียง

Anthropic เสนอข้อยกเว้นแบบจำกัดเป็นรายกรณี แต่ปฏิเสธที่จะยกเลิกกลไกคุ้มกันด้านความปลอดภัยหลัก โดยอ้างถึงความกังวลเรื่องความน่าเชื่อถือของ AI ปัจจุบันในการตัดสินใจอัตโนมัติที่มีเดิมพันสูง การเจรจาจึงล้มเหลว จากนั้นประธานาธิบดี ทรัมป์ ได้สั่งให้หน่วยงานรัฐบาลกลางทั้งหมดหยุดใช้เทคโนโลยีของ Anthropic พร้อมกำหนดระยะเวลาเลิกใช้งานภายในหกเดือนสำหรับการใช้งานที่มีอยู่แล้ว

ต่อมามีการออกการจัดประเภทความเสี่ยงห่วงโซ่อุปทานของ Hegseth ซึ่งโดยปกติเป็นมาตรการที่ใช้กับหน่วยงานต่างชาติ เช่น Huawei ป้ายกำกับดังกล่าวกำหนดให้ผู้รับเหมา รวมถึง Amazon, Microsoft และ Palantir ต้องยุติการใช้ Claude ในงานใดๆ ที่เกี่ยวข้องกับ DoD Anthropic ระบุว่าการดำเนินการดังกล่าวเป็น “แคมเปญการตอบโต้ที่ผิดกฎหมาย” เนื่องจากบริษัทปฏิเสธที่จะให้รัฐบาลลบล้างนโยบายความปลอดภัย AI ของตน

Anthropic ยื่นฟ้องคดีคู่ขนานในเดือนมีนาคม 2026 คดีหนึ่งยื่นต่อศาลแขวงสหรัฐฯ สำหรับเขตตอนเหนือของรัฐแคลิฟอร์เนีย อีกคดีมุ่งท้าทายกฎหมายจัดซื้อจัดจ้างเฉพาะที่กำกับดูแลความเสี่ยงห่วงโซ่อุปทานในศาลอุทธรณ์เขตดี.ซี.

เมื่อวันที่ 26 มีนาคม ผู้พิพากษาศาลแขวงสหรัฐฯ Rita F. Lin ได้อนุมัติคำสั่งคุ้มครองชั่วคราว (preliminary injunction) ให้ Anthropic ในคดีที่แคลิฟอร์เนีย เธอวินิจฉัยว่าการดำเนินการของฝ่ายบริหารดูเหมือนจะเป็นการลงโทษมากกว่าการปกป้อง ขาดเหตุผลทางกฎหมายตามบทบัญญัติที่เพียงพอ และใช้อำนาจเกินขอบเขต คำสั่งดังกล่าวทำให้การบังคับใช้การจัดประเภทถูกระงับชั่วคราว เปิดทางให้รัฐบาลและผู้รับเหมาสามารถใช้ Claude ต่อไปได้ระหว่างรอการพิจารณาคดีเต็มรูปแบบ ฝ่ายบริหารของทรัมป์ได้ยื่นอุทธรณ์ต่อศาลอุทธรณ์รอบที่เก้า (Ninth Circuit)

คำตัดสินของศาลอุทธรณ์เขตดี.ซี. เมื่อวันที่ 8 เมษายนมีทิศทางตรงข้ามกับคำวินิจฉัยของ Lin ทำให้เกิดความตึงเครียดทางกฎหมายว่าขณะนี้การจัดประเภทดังกล่าวมีผลบังคับใช้หรือไม่ ศาลทั้งสองกำลังพิจารณากรอบกฎหมายคนละฉบับ ซึ่งอธิบายได้ถึงความแตกต่างด้านกระบวนพิจารณา

Anthropic ระบุในแถลงการณ์ว่าบริษัทยังมั่นใจในจุดยืนของตน “เราซาบซึ้งที่ศาลยอมรับว่าประเด็นเหล่านี้จำเป็นต้องได้รับการคลี่คลายอย่างรวดเร็ว และเรายังคงมั่นใจว่าศาลจะเห็นพ้องในที่สุดว่าการจัดประเภทความเสี่ยงห่วงโซ่อุปทานเหล่านี้ไม่ชอบด้วยกฎหมาย” บริษัทกล่าว

ตัวอย่างพรีวิว Claude Mythos: AI ที่ยังไม่เปิดตัวของ Anthropic เจาะช่องโหว่ใน Linux และ OpenBSD ที่มนุษย์พลาดมานานหลายทศวรรษ

ตัวอย่างพรีวิว Claude Mythos: AI ที่ยังไม่เปิดตัวของ Anthropic เจาะช่องโหว่ใน Linux และ OpenBSD ที่มนุษย์พลาดมานานหลายทศวรรษ

Claude Mythos AI ของ Anthropic พบช่องโหว่ซีโร่เดย์นับพันรายการในทุกระบบปฏิบัติการและเบราว์เซอร์หลัก โปรเจกต์ Glasswing เปิดตัวพร้อมเครดิตมูลค่า 100 ล้านดอลลาร์ read more.

อ่านตอนนี้

ผู้สังเกตการณ์ในอุตสาหกรรมชี้ว่าคดีนี้เป็นสัญญาณเตือนต่อการพัฒนา AI ของสหรัฐฯ Matt Schruers ซีอีโอของสมาคมอุตสาหกรรมคอมพิวเตอร์และการสื่อสาร (Computer and Communications Industry Association) กล่าวว่า การดำเนินการของเพนตากอนและคำตัดสินของศาลอุทธรณ์เขตดี.ซี. “สร้างความไม่แน่นอนทางธุรกิจอย่างมาก ในช่วงเวลาที่บริษัทสหรัฐฯ กำลังแข่งขันกับคู่แข่งทั่วโลกเพื่อเป็นผู้นำด้าน AI”

ขณะนี้คดีกำลังมุ่งสู่การไต่สวนด้วยวาจาแบบเร่งด่วนในวันที่ 19 พฤษภาคมในศาลอุทธรณ์เขตดี.ซี. โดยที่การอุทธรณ์ต่อ Ninth Circuit ยังอยู่ระหว่างพิจารณา ผลลัพธ์มีแนวโน้มจะกำหนดขอบเขตอำนาจของรัฐบาลกลางในการจัดประเภทบริษัท AI ภายในประเทศว่าเป็นความเสี่ยงต่อความมั่นคงแห่งชาติ และตัดสินว่ารัฐบาลสามารถกดดันบริษัทเอกชนให้เปลี่ยนนโยบายความปลอดภัย AI ของตนได้ไกลเพียงใด

แท็กในเรื่องนี้