สนับสนุนโดย
News

Anthropic เตือนว่ากำแพงป้องกันการโจมตีทางไซเบอร์ได้ลดลง ขณะที่ความสามารถของ AI เร่งตัวขึ้น

Anthropic กล่าวว่าปัญญาประดิษฐ์ (AI) ได้มาถึงจุดวิกฤตในความปลอดภัยทางไซเบอร์ โดยมีหลักฐานใหม่แสดงให้เห็นว่ารูปแบบ AI ตอนนี้สามารถดำเนินการในการปฏิบัติการไซเบอร์หลัก ไม่ว่าจะเป็นเชิงรับหรือเชิงรุก ในขนาดที่ไม่เคยมีมาก่อน

เขียนโดย
แชร์
Anthropic เตือนว่ากำแพงป้องกันการโจมตีทางไซเบอร์ได้ลดลง ขณะที่ความสามารถของ AI เร่งตัวขึ้น

AI ถึงจุดวิกฤตด้านความปลอดภัยทางไซเบอร์, Anthropic เตือนในรายงานการสืบสวนใหม่

Anthropic บริษัทด้าน AI ที่อยู่เบื้องหลัง Claude กล่าวว่าการประเมินภายในและการทำงานด้านข่าวกรองภัยคุกคามของพวกเขาแสดงการเปลี่ยนแปลงที่เด็ดขาดในการพัฒนาขีดความสามารถด้านไซเบอร์ ตามข้อมูลจากการ สืบสวนที่เพิ่งเผยแพร่ ขีดความสามารถด้านไซเบอร์ในระบบ AI ได้เพิ่มขึ้นเป็นสองเท่าในช่วงหกเดือน โดยมีการสนับสนุนจากการวัดผลกิจกรรมในโลกจริงและการทดสอบบนแบบจำลอง

บริษัทกล่าวว่า AI กำลังมีผลกระทบที่มีนัยสำคัญต่อพลวัตความปลอดภัยทั่วโลก โดยเฉพาะเมื่อผู้กระทำที่เป็นอันตรายนำกรอบการโจมตีอัตโนมัติมาใช้มากขึ้น ใน รายงาน ล่าสุด Anthropic ระบุถึงสิ่งที่เรียกว่าเป็นกรณีแรกที่มีการจัดทำขึ้นของแคมเปญการจารกรรมไซเบอร์ที่ใช้ AI ทีมงานข่าวกรองภัยคุกคามของบริษัทสามารถตรวจจับและระงับการปฏิบัติการในระดับใหญ่ในช่วงกลางเดือนกันยายน 2025 โดยข้อมูลชี้ไปยังกลุ่มที่ได้รับการสนับสนุนโดยรัฐจากจีนที่รู้จักในชื่อ GTG-1002

Anthropic Warns Cyberattack Barriers Have Fallen as AI Capabilities Accelerate
ที่มา: X

รายงานกล่าวว่ากลุ่มนี้ได้ใช้การประสานงานด้วย Claude Code เพื่อทำการสืบสวน, การค้นหาเป้าหมายที่มีช่องโหว่, การละเมิด, การเคลื่อนไหวด้านข้าง, การดึงข้อมูลเมทาดาต้า และการส่งออกข้อมูล โดยทั้งหมดไม่มีการมีส่วนร่วมของมนุษย์มากนัก แคมเปญนี้ได้เป้าหมายประมาณ 30 องค์กรในหลากหลายภาคส่วนรวมถึงเทคโนโลยี, การเงิน, เคมี และหน่วยงานรัฐบาลหลายแห่ง Anthropic ได้ยืนยันหลายการบุกรุกที่ประสบความสำเร็จก่อนดำเนินการแทรกแซง

Anthropic Warns Cyberattack Barriers Have Fallen as AI Capabilities Accelerate
ที่มา: รายงานจาก Anthropic

นักวิเคราะห์กล่าวว่าผู้โจมตีได้ใช้กรอบการทำงานอัตโนมัติที่สามารถแยกการโจมตีหลายขั้นตอนเป็นงานขนาดเล็กที่ดูเหมือนถูกต้องเมื่อแยกออกจากบริบทกว้าง ๆ นี่ทำให้ผู้กระทำสามารถผ่านจุดกำหนดและทำให้ Claude เชื่อว่าการดำเนินการนั้นเป็นการทดสอบด้านความปลอดภัยเชิงป้องกันแทนที่จะเป็นการโจมตีเชิงรุก

จากการสืบสวน Claude ได้ดำเนินการทางยุทธวิธีในสัดส่วน 80% ถึง 90% โดยอัตโนมัติ ผู้ปฏิบัติงานมนุษย์จะให้เพียงการดูแลเชิงยุทธศาสตร์เท่านั้น อนุมัติขั้นตอนสำคัญเช่นการยกระดับจากการสืบสวนไปยังการใช้งานที่กระฉับกระเฉง หรือการอนุญาตให้ส่งออกข้อมูล รายงานอธิบายถึงระดับของการดำเนินการที่เป็นไปไม่ได้สำหรับทีมที่ประกอบด้วยมนุษย์เพียงอย่างเดียว โดยกระบวนการบางอย่างผลิตการดำเนินการหลายการต่อวินาทีผ่านคำขอหลายพันรายการ

Anthropic Warns Cyberattack Barriers Have Fallen as AI Capabilities Accelerate
ที่มา: รายงานจาก Anthropic

Anthropic กล่าวว่าระยะของการโจมตีได้ถูกออกแบบให้เป็นกระบวนการที่เพิ่มความเป็นอัตโนมัติของ AI ในทุกขั้นตอน Claude ดำเนินการแผนที่ผิวหน้าโจมตีด้วยตัวเอง สแกนระบบสด สร้าง payloads ที่กำหนดเองสำหรับช่องโหว่ที่ยืนยัน เก็บเกี่ยวข้อมูลรับรอง และข้ามผ่านเครือข่ายภายใน นอกจากนี้ยังวิเคราะห์ข้อมูลที่ถูกขโมย ระบุข้อมูลข่าวสารที่มีคุณค่าสูง และสร้างเอกสารปฏิบัติการรายละเอียดที่ครบถ้วนโดยอัตโนมัติ ซึ่งส่งเสริมการเข้าถึงที่ยั่งยืนและการส่งมอบให้กับผู้ปฏิบัติการ

ข้อจำกัดหนึ่งตามรายงานคือแนวโน้มของโมเดลที่มักมีการสร้างภาพแยกหลอนเมื่อทำงานในโหลดของความโจมตีที่ส่งผลให้มีการโอ้อวดการเข้าถึง กำหนดข้อมูลรับรองที่มีการสร้างขึ้น หรือการจำแนกข้อมูลสาธารณะที่มีให้เข้าใจผิดเป็นข้อมูลที่ละเอียดอ่อนถึงกระนั้นก็ตาม Anthropic กล่าวว่าองค์กรได้ชดเชยผ่านขั้นตอนการตรวจสอบที่แสดงให้เห็นว่าการปฏิบัติการโจมตีเชิงรุกแบบอัตโนมัติไม่ได้มีข้อบกพร่องที่สมบูรณ์แบบในรุ่นปัจจุบันเหล่านี้

หลังจากการค้นพบ Anthropic สั่งห้ามบัญชีที่เกี่ยวข้อง แจ้งเตือนถึงหน่วยงานที่ได้รับผลกระทบ ประสานงานกับเจ้าหน้าที่ และติดตั้งกลไกป้องกันใหม่ รวมถึงตัวจัดประเภทที่ปรับปรุงใหม่เพื่อการตรวจจับรูปแบบภัยคุกคามใหม่ ๆ ขณะนี้บริษัทกำลังสร้างต้นแบบระบบเตือนภัยล่วงหน้าเพื่อระบุการบุกรุกโดยอัตโนมัติและสร้างเครื่องมือสืบสวนใหม่สำหรับการปฏิบัติงานทางไซเบอร์ในระดับใหญ่

อ่านเพิ่มเติม: Microsoft’s ‘Magentic Marketplace’ เผยให้เห็นว่าเอเยนต์ AI สามารถล่มได้ภายใต้ความกดดันอย่างไร

บริษัทโต้แย้งว่าแม้ว่าความสามารถเหล่านี้สามารถถูกนำมาใช้เป็นอาวุธได้ แต่มันก็สำคัญเช่นกันในการเสริมสร้างความพร้อมป้องกัน Anthropic ชี้ทีมงานข่าวกรองภัยคุกคามของตัวเองพึ่งพา Claude ในการวิเคราะห์ชุดข้อมูลขนาดใหญ่ที่สร้างขึ้นในระหว่างการสืบสวน มันกระตุ้นให้ทีมรักษาความปลอดภัยเริ่มนำอัตโนมัติที่ขับเคลื่อนด้วย AI มาใช้ในศูนย์การปฏิบัติการด้านความปลอดภัย การตรวจจับภัยคุกคาม การวิเคราะห์เป้าหมายที่มีช่องโหว่ และการตอบสนองต่อเหตุการณ์

อย่างไรก็ตามรายงานเตือนว่าข้อกีดขวางการโจมตีไซเบอร์ได้ “ลดลงอย่างมาก” เพราะระบบ AI ทำให้กลุ่มเล็ก ๆ หรือแม้แต่มนุษย์คนเดียวสามารถดำเนินการที่เคยจำกัดเพียงผู้กระทำที่ได้รับการสนับสนุนอย่างดี Anthropic คาดการณ์ว่าการแพร่กระจายของเทคนิคเหล่านี้สู่สภาพแวดล้อมภัยคุกคามที่กว้างขึ้นอย่างรวดเร็ว และเรียกร้องความร่วมมือที่ลึกซึ้งขึ้น การสนับสนุนการป้องกันที่ดียิ่งขึ้น และการมีส่วนร่วมในวงกว้างจากอุตสาหกรรมในระบบการแบ่งปันภัยคุกคามใหม่เพื่อตอบโต้โมเดลการโจมตีที่เปิดด้วย AI ที่กำลังเกิดขึ้น

คำถามที่พบบ่อย ❓

  • Anthropic ค้นพบอะไรในการสอบสวนของตน?
    Anthropic ตรวจพบและยุติแคมเปญการจารกรรมไซเบอร์ขนาดใหญ่ที่ใช้ AI ในการทำให้กระบวนการโจมตีในส่วนใหญ่เป็นอัตโนมัติ
  • ใครเป็นผู้ก่อการโจมตี?
    บริษัทชี้ตำแหน่งไปที่กลุ่มที่ได้รับการสนับสนุนจากรัฐจีนที่กำหนดเป็น GTG-1002
  • AI ถูกใช้ในกระบวนการบุกรุกอย่างไร?
    ผู้โจมตีใช้ Claude Code ในการดำเนินการสืบสวน การละเมิด การเคลื่อนไหวด้านข้าง และการสกัดข้อมูลอย่างอัตโนมัติ
  • เหตุใดรายงานนี้จึงสำคัญสำหรับทีมงานด้านความปลอดภัยไซเบอร์?
    Anthropic กล่าวว่าเคสนั้นแสดงให้เห็นถึงการโจมตีโดย AI อัตโนมัติในขนาดใหญ่ที่เกิดขึ้นจริง และเรียกร้องกลยุทธ์ป้องกันใหม่
แท็กในเรื่องนี้