สนับสนุนโดย
Crypto News

หมุดหมายสำคัญด้านการฝึกอบรมของ Bittensor ดึงดูดความสนใจจาก Chamath Palihapitiya และ Jensen Huang ซีอีโอของ Nvidia

การทดลอง AI แบบกระจายศูนย์ที่ครั้งหนึ่งเคยจำกัดอยู่ในวงการคริปโต เพิ่งได้รับการกล่าวถึงต่อสาธารณะจาก Jensen Huang ซีอีโอของ Nvidia ซึ่งเป็นสัญญาณว่าการฝึกโมเดลแบบกระจายศูนย์อาจกำลังขยับเข้าใกล้กระแสหลักมากขึ้น

เขียนโดย
แชร์
หมุดหมายสำคัญด้านการฝึกอบรมของ Bittensor ดึงดูดความสนใจจาก Chamath Palihapitiya และ Jensen Huang ซีอีโอของ Nvidia

แรงส่งของ AI โอเพนซอร์สเพิ่มขึ้นด้วยการสนับสนุนจากซีอีโอ Nvidia

Chamath Palihapitiya หยิบยก Covenant-72B ของ Bittensor ขึ้นมาพูดถึงระหว่างตอนหนึ่งของพอดแคสต์ All-In โดยวางกรอบว่าเป็นตัวอย่างที่จับต้องได้ของปัญญาประดิษฐ์แบบกระจายศูนย์ (AI) ที่ก้าวข้ามจากทฤษฎีไปสู่การใช้งานจริง Bittensor ทำงานในฐานะเครือข่ายแบบกระจายศูนย์ที่ขับเคลื่อนด้วยบล็อกเชน ซึ่งสร้างตลาดแบบเพียร์ทูเพียร์ที่มีการแลกเปลี่ยนและให้แรงจูงใจแก่โมเดลแมชชีนเลิร์นนิงและกำลังประมวลผลสำหรับ AI

Palihapitiya อธิบายความพยายามนี้ด้วยภาษาง่ายๆ: โมเดลภาษาขนาดใหญ่ (LLM) ที่ฝึกโดยไม่มีโครงสร้างพื้นฐานแบบรวมศูนย์ แต่ขับเคลื่อนด้วยเครือข่ายผู้มีส่วนร่วมอิสระ “พวกเขาสามารถฝึกโมเดล LLaMA ขนาด 4 พันล้านพารามิเตอร์ แบบกระจายศูนย์ทั้งหมด ด้วยการที่ผู้คนจำนวนมากช่วยกันนำพลังประมวลผลส่วนเกินมาร่วม” เขากล่าว พร้อมเรียกมันว่า “เป็นความสำเร็จทางเทคนิคที่บ้าคลั่งพอสมควร”

การเปรียบเทียบนี้เชื่อมโยงด้วยอุปมาอุปไมยที่คุ้นเคย “มีคนแบบสุ่มๆ แล้วแต่ละคนก็ได้ส่วนแบ่งเล็กๆ น้อยๆ” Palihapitiya กล่าวเสริม โดยอ้างถึงโครงการคอมพิวติ้งแบบกระจายศูนย์ยุคแรกที่ดึงเอาฮาร์ดแวร์ที่ว่างอยู่ทั่วโลกมาใช้

Huang ไม่ได้ปัดตกแนวคิดนี้ ตรงกันข้าม เขาขยายกรอบไปสู่ภาพใหญ่ของ ตลาด AI โดยชี้ว่ากรอบคิดแบบกระจายศูนย์และแบบปิดเป็นกรรมสิทธิ์ไม่ได้ขัดแย้งกัน “สองอย่างนี้ไม่ใช่ A หรือ B แต่มันคือ A และ B” Huang กล่าว “ไม่มีข้อกังขาเลย”

วิสัยทัศน์แบบสองรางนี้สะท้อนความแตกต่าง—และส่วนที่ทับซ้อน—ที่เพิ่มขึ้นภายในโลก AI ด้านหนึ่งคือระบบแบบปิดที่ขัดเกลาอย่างดี เช่น ChatGPT, Claude และ Gemini อีกด้านคือโมเดลแบบเปิดน้ำหนัก (open-weight) และแบบกระจายศูนย์ที่เปิดให้ผู้พัฒนาและองค์กรปรับแต่งระบบให้เหมาะกับความต้องการเฉพาะได้

Huang ย้ำชัดว่าเขามองว่าทั้งสองแนวทางมีความจำเป็น “โมเดลคือเทคโนโลยี ไม่ใช่สินค้า” เขากล่าว พร้อมสังเกตว่าผู้ใช้ส่วนใหญ่จะยังคงพึ่งพาระบบเอนกประสงค์ที่ขัดเกลาแล้ว มากกว่าการสร้างของตัวเองขึ้นมาใหม่ตั้งแต่ต้น

ขณะเดียวกัน เขาชี้ไปยังอุตสาหกรรมที่ “การปรับแต่ง” ไม่ใช่ทางเลือก “มีอุตสาหกรรมมากมายที่ความเชี่ยวชาญเฉพาะโดเมนของพวกเขา… ต้องถูกเก็บไว้ในรูปแบบที่พวกเขาสามารถควบคุมได้” Huang อธิบาย และเสริมว่า “สิ่งนั้นเกิดขึ้นได้จากโมเดลแบบเปิดเท่านั้น”

คำกล่าวนั้นเข้ากับสิ่งที่ Bittensor ถนัดโดยตรง Covenant-72B ซึ่งพัฒนาผ่าน Subnet 3 (Templar) เป็นตัวแทนของ หนึ่งในการรันฝึกแบบกระจายศูนย์ที่ใหญ่ที่สุด จนถึงปัจจุบัน โดยประสานผู้มีส่วนร่วมมากกว่า 70 รายผ่านการเชื่อมต่ออินเทอร์เน็ตมาตรฐาน โดยไม่มีหน่วยงานส่วนกลาง

ในเชิงเทคนิค โมเดลดันขอบเขตให้ไกลขึ้น สร้างด้วยพารามิเตอร์ 72 พันล้าน และฝึกด้วยโทเคนราว 1.1 ล้านล้านโทเคน โดยอาศัยนวัตกรรมอย่างโปรโตคอลการสื่อสารแบบบีบอัดและการขนานข้อมูลแบบกระจาย (distributed data parallelism) เพื่อทำให้การฝึกเป็นไปได้แม้อยู่นอกศูนย์ข้อมูลแบบดั้งเดิม

ตัวชี้วัดด้านประสิทธิภาพบ่งชี้ว่ามันไม่ได้เป็นเพียงการทดลอง ผลเบนช์มาร์กจัดให้อยู่ในระดับที่แข่งขันกับโมเดลแบบรวมศูนย์ที่เป็นที่ยอมรับ ซึ่งช่วยอธิบายว่าทำไมโครงการนี้จึงได้รับความสนใจจากผู้ชมที่อยู่นอกกลุ่มคริปโตโดยกำเนิด

ตลาดก็รับรู้เช่นกัน หลังการประกาศ โทเคนของโครงการ TAO ปรับขึ้น 24% นับตั้งแต่วิดีโอของ Palihapitiya และ Huang แพร่กระจายบนโซเชียลมีเดีย

Nvidia ขับเคลื่อนแผนโรงงาน AI ของ Nebius ด้วยการลงทุนมหาศาล 2 พันล้านดอลลาร์

Nvidia ขับเคลื่อนแผนโรงงาน AI ของ Nebius ด้วยการลงทุนมหาศาล 2 พันล้านดอลลาร์

สำรวจว่า Nvidia กำลังกำหนดอนาคตของการประมวลผลใหม่อย่างไร ด้วยการลงทุนมูลค่า 2 พันล้านดอลลาร์ในโครงสร้างพื้นฐานคลาวด์สำหรับ AI read more.

อ่านตอนนี้

อย่างไรก็ตาม ความเห็นของ Huang ชี้ว่าเรื่องจริงอาจไม่ใช่ “การเข้ามาแทนที่” แต่เป็นการอยู่ร่วมกันของทั้งสองแนวทาง ระบบ AI แบบปิดที่เป็นกรรมสิทธิ์น่าจะยังครองความเป็นใหญ่สำหรับผู้ใช้ทั่วไป ขณะที่โมเดลแบบเปิดและแบบกระจายศูนย์จะค่อยๆ สร้างบทบาทในงานเฉพาะทาง งานที่ไวต่อค่าใช้จ่าย หรือการใช้งานที่ขับเคลื่อนด้วยแนวคิดเรื่องอธิปไตย

สำหรับสตาร์ตอัป ซีอีโอ Nvidia วางแนวทางเชิงปฏิบัติไว้: เริ่มจากแบบเปิดก่อน แล้วค่อยเสริมความได้เปรียบแบบกรรมสิทธิ์ “สตาร์ตอัปทุกเจ้าที่เราลงทุนในตอนนี้ เริ่มจากโอเพนซอร์สก่อน แล้วค่อยไปสู่โมเดลแบบกรรมสิทธิ์” เขากล่าว

กล่าวอีกนัยหนึ่ง อนาคตของ AI อาจไม่ได้เป็นของสถาปัตยกรรมหรือปรัชญาเพียงแบบเดียว แต่อาจเป็นของผู้ที่สามารถเดินเกมได้ทั้งสองทาง—และรู้ว่าเมื่อไรควรใช้แบบใด

คำถามที่พบบ่อย 🔎

  • Bittensor’s Covenant-72B คืออะไร?
    โมเดลภาษาที่มีพารามิเตอร์ 72 พันล้าน ซึ่งฝึกผ่านเครือข่ายผู้มีส่วนร่วมแบบกระจายศูนย์ โดยไม่มีโครงสร้างพื้นฐานแบบรวมศูนย์
  • Jensen Huang พูดอะไรเกี่ยวกับ AI แบบกระจายศูนย์?
    เขากล่าวว่าโมเดล AI แบบเปิดและแบบกรรมสิทธิ์จะอยู่ร่วมกัน โดยอธิบายความสัมพันธ์ว่าเป็น “A และ B” ไม่ใช่การต้องเลือกอย่างใดอย่างหนึ่ง
  • ทำไมความคืบหน้านี้จึงสำคัญ?
    มันแสดงให้เห็นว่าโมเดล AI ขนาดใหญ่สามารถฝึกได้นอกศูนย์ข้อมูลแบบดั้งเดิม ซึ่งท้าทายสมมติฐานเกี่ยวกับความต้องการโครงสร้างพื้นฐาน
  • สิ่งนี้ส่งผลต่ออุตสาหกรรม AI อย่างไร?
    มันสนับสนุนอนาคตแบบไฮบริดที่แพลตฟอร์มแบบรวมศูนย์และโมเดลแบบกระจายศูนย์จะรับบทบาทต่างกันในแต่ละอุตสาหกรรม
แท็กในเรื่องนี้