Được cung cấp bởi
Crypto News

Cột mốc đào tạo của Bittensor thu hút sự chú ý từ Chamath Palihapitiya và Giám đốc điều hành Nvidia Jensen Huang

Một thử nghiệm AI phi tập trung từng chỉ giới hạn trong giới tiền điện tử vừa nhận được sự ủng hộ công khai từ Giám đốc điều hành (CEO) của Nvidia, Jensen Huang, cho thấy việc huấn luyện mô hình phân tán có thể đang dần tiến gần hơn đến xu hướng chủ đạo.

TÁC GIẢ
CHIA SẺ
Cột mốc đào tạo của Bittensor thu hút sự chú ý từ Chamath Palihapitiya và Giám đốc điều hành Nvidia Jensen Huang

Sự ủng hộ của CEO Nvidia thúc đẩy đà phát triển của AI mã nguồn mở

Chamath Palihapitiya đã nêu bật Covenant-72B của Bittensor trong một tập của All-In Podcast, coi đây là một ví dụ cụ thể về trí tuệ nhân tạo (AI) phi tập trung vượt ra ngoài lý thuyết. Bittensor hoạt động như một mạng lưới phi tập trung, dựa trên blockchain, thiết lập một thị trường ngang hàng (peer-to-peer) nơi các mô hình học máy và tính toán AI được trao đổi và khuyến khích.

Palihapitiya mô tả nỗ lực này một cách đơn giản: một mô hình ngôn ngữ quy mô lớn (LLM) được huấn luyện mà không cần cơ sở hạ tầng tập trung, thay vào đó được vận hành bởi mạng lưới các nhà đóng góp độc lập. “Họ đã huấn luyện thành công mô hình LLaMA với 4 tỷ tham số, hoàn toàn phi tập trung, nhờ sự đóng góp sức mạnh tính toán dư thừa từ nhiều người,” ông nói, gọi đó là “một thành tựu kỹ thuật khá điên rồ.”

So sánh này được đưa ra với một phép so sánh quen thuộc. “Có những người ngẫu nhiên, và mỗi người nhận được một phần nhỏ,” Palihapitiya bổ sung, đề cập đến dự án tính toán phân tán ban đầu đã khai thác phần cứng nhàn rỗi trên toàn thế giới.

Huang không bác bỏ ý tưởng này. Thay vào đó, ông tập trung vào một khung nhìn rộng hơn về thị trường AI, gợi ý rằng các tiếp cận phi tập trung và độc quyền không loại trừ lẫn nhau. “Hai điều này không phải là A hoặc B; mà là cả A và B,” Huang nói. “Không có gì phải bàn cãi về điều đó.”

Tầm nhìn hai hướng này phản ánh sự chia rẽ ngày càng lớn—và sự giao thoa—trong lĩnh vực AI. Một bên là các hệ thống đóng, được hoàn thiện cao như ChatGPT, Claude và Gemini. Bên kia là các mô hình mở và phi tập trung cho phép các nhà phát triển và tổ chức tùy chỉnh hệ thống cho các nhu cầu cụ thể.

Huang nhấn mạnh rằng ông coi cả hai hướng đi đều thiết yếu. “Các mô hình là công nghệ, không phải sản phẩm,” ông nói, đồng thời lưu ý rằng phần lớn người dùng sẽ tiếp tục dựa vào các hệ thống hoàn thiện, đa năng thay vì tự xây dựng từ đầu.

Đồng thời, ông chỉ ra các ngành công nghiệp nơi việc tùy chỉnh là không thể thiếu. “Có rất nhiều ngành công nghiệp mà chuyên môn lĩnh vực của họ… phải được tích hợp theo cách mà họ có thể kiểm soát,” Huang giải thích, đồng thời nhấn mạnh rằng “điều đó chỉ có thể đến từ các mô hình mở.”

Tuyên bố này hoàn toàn phù hợp với thế mạnh của Bittensor. Covenant-72B, được phát triển thông qua Subnet 3 (Templar), đại diện cho một trong những đợt đào tạo phi tập trung lớn nhất từ trước đến nay, phối hợp hơn 70 nhà đóng góp qua các kết nối internet tiêu chuẩn mà không cần một cơ quan trung tâm.

Về mặt kỹ thuật, mô hình này đã phá vỡ các rào cản. Được xây dựng với 72 tỷ tham số và được huấn luyện trên khoảng 1,1 nghìn tỷ token, mô hình này tận dụng các sáng kiến như giao thức truyền thông nén và song song dữ liệu phân tán để giúp việc huấn luyện trở nên khả thi bên ngoài các trung tâm dữ liệu truyền thống.

Các chỉ số hiệu suất cho thấy đây không chỉ là một dự án thử nghiệm. Kết quả đánh giá so sánh cho thấy nó có thể cạnh tranh với các mô hình tập trung đã được thiết lập, một chi tiết giúp giải thích lý do tại sao dự án này đã thu hút sự chú ý không chỉ từ những người dùng tiền điện tử.

Thị trường cũng đã chú ý đến điều này. Sau thông báo, token TAO của dự án đã tăng 24% kể từ khi video của Palihapitiya và Huang lan truyền trên mạng xã hội.

Nvidia hỗ trợ kế hoạch xây dựng nhà máy trí tuệ nhân tạo Nebius với khoản đầu tư khổng lồ trị giá 2 tỷ USD

Nvidia hỗ trợ kế hoạch xây dựng nhà máy trí tuệ nhân tạo Nebius với khoản đầu tư khổng lồ trị giá 2 tỷ USD

Khám phá cách Nvidia đang định hình lại tương lai của ngành công nghệ thông tin thông qua khoản đầu tư 2 tỷ USD vào hạ tầng đám mây trí tuệ nhân tạo. read more.

Đọc ngay

Tuy nhiên, bình luận của Huang cho thấy câu chuyện thực sự không phải là sự phá vỡ, mà là sự cùng tồn tại giữa hai bên. Các hệ thống AI độc quyền có thể sẽ vẫn chiếm ưu thế đối với người dùng thông thường, trong khi các mô hình mở và phi tập trung sẽ tìm được chỗ đứng trong các ứng dụng chuyên biệt, nhạy cảm về chi phí hoặc hướng tới chủ quyền.

Đối với các startup, CEO của Nvidia đã vạch ra một chiến lược thực tiễn: bắt đầu bằng mô hình mở, sau đó tích hợp các lợi thế độc quyền. “Mọi startup mà chúng tôi đang đầu tư hiện nay đều bắt đầu với mã nguồn mở, sau đó chuyển sang mô hình độc quyền,” ông nói.

Nói cách khác, tương lai của AI có thể không thuộc về một kiến trúc hay triết lý duy nhất. Nó có thể thuộc về những người có thể điều hướng cả hai — và biết khi nào nên sử dụng từng cái.

Câu hỏi thường gặp 🔎

  • Covenant-72B của Bittensor là gì?
    Một mô hình ngôn ngữ 72 tỷ tham số được huấn luyện thông qua một mạng lưới các cộng tác viên phi tập trung mà không cần cơ sở hạ tầng tập trung.
  • Jensen Huang đã nói gì về AI phi tập trung?
    Ông cho rằng các mô hình AI mở và độc quyền sẽ cùng tồn tại, mô tả mối quan hệ này là “A và B”, chứ không phải là sự lựa chọn giữa hai bên.
  • Tại sao sự phát triển này lại quan trọng?
    Nó cho thấy các mô hình AI quy mô lớn có thể được huấn luyện bên ngoài các trung tâm dữ liệu truyền thống, thách thức các giả định về nhu cầu cơ sở hạ tầng.
  • Điều này ảnh hưởng đến ngành công nghiệp AI như thế nào?
    Nó hỗ trợ một tương lai kết hợp, nơi các nền tảng tập trung và các mô hình phi tập trung đóng vai trò khác nhau trong các ngành công nghiệp.