สนับสนุนโดย
Technology

Anthropic และกระทรวงกลาโหมสหรัฐฯ ปะทะกันเรื่องการใช้งาน Claude ในทางทหารและการเฝ้าระวังมวลชน

เพนตากอนกำลังพิจารณาตัดความสัมพันธ์กับ Anthropic โดยรัฐมนตรีกลาโหม พีท เฮกเซธ ใกล้จะกำหนดให้บริษัทเป็น “ความเสี่ยงต่อห่วงโซ่อุปทาน” Anthropic คัดค้านการใช้โมเดล AI ของตนอย่าง Claude ในแคมเปญการสอดแนมมวลชนและปฏิบัติการทางทหารที่เป็นอัตโนมัติเต็มรูปแบบ

เขียนโดย
แชร์
Anthropic และกระทรวงกลาโหมสหรัฐฯ ปะทะกันเรื่องการใช้งาน Claude ในทางทหารและการเฝ้าระวังมวลชน

Anthropic ปะทะเพนตากอนเรื่องการใช้ Claude ในทางที่ “ไม่เป็นจริยธรรม”

Anthropic หนึ่งในบริษัทปัญญาประดิษฐ์ (AI) ที่ใหญ่ที่สุด รายงานว่ากำลังถูกกระทรวงสงครามเพ่งเล็งจากการใช้โมเดล AI ของบริษัทในกิจกรรมที่บริษัทมองว่าไม่เป็นจริยธรรม

Axios รายงาน ว่า รัฐมนตรีกลาโหม พีท เฮกเซธ กำลังพิจารณากำหนดให้ Anthropic เป็นความเสี่ยงต่อห่วงโซ่อุปทาน ซึ่งหมายความว่าสัญญาและความเชื่อมโยงทั้งหมดกับบริษัทจะต้องถูกยุติลง นอกจากนี้ บริษัททั้งหมดที่ทำงานกับเพนตากอนก็จะต้องเลิกใช้บริการของ Anthropic ด้วย

Anthropic and the Pentagon Clash Over Claude’s Military and Mass‑Surveillance Uses

ความขัดแย้งปะทุขึ้นหลังจากบริษัทปฏิเสธไม่อนุญาตให้ใช้ Claude ซึ่งเป็นโมเดลหลักที่เป็นเครื่องหมายการค้าของบริษัท ในแคมเปญการสอดแนมมวลชนและปฏิบัติการที่เกี่ยวข้องกับยุทโธปกรณ์ทางทหารที่เป็นอัตโนมัติเต็มรูปแบบ ขณะเดียวกัน เพนตากอนระบุว่าควรสามารถนำความสามารถของ Claude ไปใช้เพื่อ “วัตถุประสงค์ที่ชอบด้วยกฎหมายทั้งหมด” โดยที่บริษัทไม่ควรมีสิทธิ์ชี้ขาดในกระบวนการเหล่านี้

หาก Anthropic ถูกกำหนดให้เป็นความเสี่ยงต่อห่วงโซ่อุปทานในที่สุด ก็จะหมายความว่าโมเดลจะต้องถูกถอดออกจากระบบสารสนเทศของเพนตากอน เนื่องจากมีเพียง Claude เท่านั้นที่สามารถเข้าถึงระบบลับขององค์กรได้

สิ่งนี้ทำให้ Claude มี บทบาทเชิงรุก ในปฏิบัติการ Operation Absolute Resolve ซึ่งนำไปสู่การนำตัว นิโกลัส มาดูโร แห่งเวเนซุเอลาออกมาในเดือนมกราคม แม้บทบาทที่โมเดลรับผิดชอบระหว่างปฏิบัติการจะยังไม่ถูกเปิดเผยทั้งหมด แต่มันสะท้อนถึงการยกระดับการใช้ AI ในแคมเปญทางทหาร

ภาวะเผชิญหน้าอาจสร้างบรรทัดฐานว่า บริษัท AI จะรับมือกับรัฐบาลในโลกตะวันตกได้อย่างไร และวางรากฐานสำหรับระดับการควบคุมที่บริษัทเหล่านี้อาจคงไว้เหนือโมเดลของตนเมื่อถูกนำไปใช้เพื่อวัตถุประสงค์ทางทหาร

โฆษกของ Anthropic ระบุว่าบริษัทกำลังมี “การสนทนาที่สร้างสรรค์ โดยสุจริตใจ กับ DoW ว่าจะเดินหน้าทำงานดังกล่าวต่อไปอย่างไร และทำให้ประเด็นใหม่ๆ ที่ซับซ้อนเหล่านี้ถูกต้อง”

คำถามที่พบบ่อย (FAQ)

  • Anthropic กำลังเผชิญปัญหาอะไรกับกระทรวงสงคราม?
    Anthropic กำลังถูกกระทรวงสงครามตรวจสอบ เนื่องจากปฏิเสธไม่อนุญาตให้ใช้โมเดล AI ของตนอย่าง Claude ในกิจกรรมที่บริษัทมองว่าไม่เป็นจริยธรรม เช่น การสอดแนมมวลชนและปฏิบัติการทางทหารแบบอัตโนมัติ
  • Anthropic อาจเผชิญผลกระทบอะไรบ้าง หากถูกจัดเป็นความเสี่ยงต่อห่วงโซ่อุปทาน?
    หากถูกกำหนดให้เป็นความเสี่ยงต่อห่วงโซ่อุปทาน สัญญาทั้งหมดกับเพนตากอนจะถูกยุติ และจำเป็นต้องถอน Claude ออกจากระบบสารสนเทศของเพนตากอน
  • Anthropic ตอบสนองต่อข้อเรียกร้องของเพนตากอนเกี่ยวกับโมเดล AI ของตนอย่างไร?
    บริษัทยืนยันว่ายังคงมี “การสนทนาที่สร้างสรรค์” กับกระทรวงสงคราม โดยมุ่งหวังจะรับมือกับประเด็นด้านจริยธรรมที่ซับซ้อนเกี่ยวกับการใช้เทคโนโลยี AI ของตน
  • ปฏิบัติการทางทหารล่าสุดใดที่เกี่ยวข้องกับ Claude และมีความสำคัญอย่างไร?
    Claude มีส่วนร่วมในปฏิบัติการ Operation Absolute Resolve ซึ่งเอื้อให้เกิดการนำตัว นิโกลัส มาดูโร แห่งเวเนซุเอลาออกมา ถือเป็นการยกระดับที่สำคัญในการใช้เทคโนโลยี AI ของกองทัพ
แท็กในเรื่องนี้