Được cung cấp bởi
Technology

Anthropic và Lầu Năm Góc đối đầu về việc sử dụng Claude trong quân sự và giám sát hàng loạt

Lầu Năm Góc đang cân nhắc cắt đứt quan hệ với Anthropic, khi Bộ trưởng Quốc phòng Pete Hegseth sắp chỉ định công ty này là một “rủi ro chuỗi cung ứng.” Anthropic phản đối việc sử dụng mô hình AI Claude của mình trong các chiến dịch giám sát hàng loạt và các hoạt động quân sự hoàn toàn tự hành.

CHIA SẺ
Anthropic và Lầu Năm Góc đối đầu về việc sử dụng Claude trong quân sự và giám sát hàng loạt

Anthropic Xung Đột Với Lầu Năm Góc Về Những Cách Dùng Claude “Phi Đạo Đức”

Anthropic, một trong những công ty trí tuệ nhân tạo (AI) lớn nhất, được cho là đang bị Bộ Chiến tranh chỉ trích vì việc sử dụng các mô hình AI của họ cho những hoạt động mà công ty xem là phi đạo đức.

Axios đưa tin rằng Bộ trưởng Quốc phòng Pete Hegseth đang cân nhắc chỉ định Anthropic là một rủi ro chuỗi cung ứng, đồng nghĩa với việc mọi hợp đồng và mối liên hệ với công ty sẽ phải bị cắt bỏ. Ngoài ra, tất cả các công ty làm việc với Lầu Năm Góc cũng sẽ phải từ bỏ các dịch vụ của Anthropic.

Anthropic and the Pentagon Clash Over Claude’s Military and Mass‑Surveillance Uses

Cuộc đối đầu bùng phát khi công ty từ chối cho phép sử dụng Claude, mô hình chủ lực mang tính thương hiệu của họ, trong các chiến dịch giám sát hàng loạt và các hoạt động liên quan đến trang thiết bị quân sự hoàn toàn tự hành. Ngược lại, Lầu Năm Góc cho rằng họ phải có thể khai thác năng lực của Claude cho “mọi mục đích hợp pháp,” mà không cần công ty có tiếng nói trong các quy trình này.

Nếu Anthropic cuối cùng bị chỉ định là rủi ro chuỗi cung ứng, điều đó sẽ có nghĩa là mô hình này sẽ phải bị rút khỏi các hệ thống thông tin của Lầu Năm Góc, vì chỉ Claude mới có quyền truy cập vào các hệ thống mật của tổ chức.

Điều này đã cho phép Claude đóng vai trò tích cực trong Chiến dịch Absolute Resolve, dẫn đến việc đưa Nicolás Maduro của Venezuela ra khỏi nước này vào tháng Một. Dù vai trò mà mô hình đảm nhiệm trong chiến dịch vẫn chưa được công bố đầy đủ, điều đó cho thấy sự leo thang trong việc sử dụng AI cho các chiến dịch quân sự.

Sự giằng co này có thể tạo ra một tiền lệ về cách các công ty AI có thể làm việc với các chính phủ ở thế giới phương Tây, đặt nền tảng cho mức độ kiểm soát mà các công ty này có thể duy trì đối với các mô hình của mình khi được dùng cho mục đích quân sự.

Một người phát ngôn của Anthropic cho biết công ty đang có “những cuộc trao đổi mang tính xây dựng, một cách thiện chí, với DoW về cách tiếp tục công việc đó và xử lý đúng đắn những vấn đề mới và phức tạp này.”

Câu hỏi thường gặp

  • Anthropic đang đối mặt với những vấn đề gì với Bộ Chiến tranh?
    Anthropic đang bị Bộ Chiến tranh xem xét vì từ chối cho phép mô hình AI của mình, Claude, được sử dụng cho những hoạt động mà họ cho là phi đạo đức, chẳng hạn như giám sát hàng loạt và các hoạt động quân sự tự hành.
  • Anthropic có thể đối mặt với những hậu quả gì nếu bị phân loại là rủi ro chuỗi cung ứng?
    Nếu bị chỉ định là rủi ro chuỗi cung ứng, mọi hợp đồng với Lầu Năm Góc sẽ bị cắt, kéo theo việc phải rút Claude khỏi các hệ thống thông tin của Lầu Năm Góc.
  • Anthropic đã phản hồi như thế nào trước các yêu cầu của Lầu Năm Góc liên quan đến mô hình AI của họ?
    Công ty khẳng định rằng họ đang tham gia “những cuộc trao đổi mang tính xây dựng” với Bộ Chiến tranh, nhằm xử lý các vấn đề đạo đức phức tạp xoay quanh việc sử dụng công nghệ AI của họ.
  • Chiến dịch quân sự gần đây nào có sự tham gia của Claude, và ý nghĩa của nó là gì?
    Claude đã tham gia Chiến dịch Absolute Resolve, giúp thúc đẩy việc đưa Nicolás Maduro của Venezuela ra khỏi nước này, đánh dấu một sự leo thang đáng kể trong việc quân đội sử dụng các công nghệ AI.