การสนทนาเกี่ยวกับ AI ได้พัฒนาขึ้นจากการตั้งคำถามถึงความเกี่ยวข้องของ AI มาสู่การมุ่งเน้นการทำให้ AI มีความน่าเชื่อถือและมีประสิทธิภาพมากขึ้น เมื่อการใช้งาน AI กลายเป็นสิ่งแพร่หลาย Michael Heinrich มองเห็นอนาคตที่ AI จะส่งเสริมสังคมหลังความขาดแคลน ปลดปล่อยบุคคลจากงานที่น่าเบื่อและช่วยให้มีการสร้างสรรค์สิ่งใหม่ ๆ ได้มากขึ้น
AI แบบกระจายศูนย์อาจปลดล็อกสังคมหลังความขาดแคลนได้, กล่าวโดย CEO ของ 0G Labs

ปัญหาด้านข้อมูล: คุณภาพ, แหล่งที่มา และความไว้วางใจ
การสนทนาเกี่ยวกับปัญญาประดิษฐ์ (AI) ได้เปลี่ยนแปลงไปอย่างพื้นฐาน ตอนนี้คำถามไม่ได้อยู่ที่ความเกี่ยวข้อง แต่เน้นการทำให้มีความน่าเชื่อถือ โปร่งใส และมีประสิทธิภาพมากขึ้นเมื่อการใช้งานกลายเป็นเรื่องธรรมดาในทุกภาคส่วน
แนวทาง AI ในปัจจุบันที่ถูกครอบงำโดยโมเดล “กล่องดำ” ศูนย์กลางและศูนย์ข้อมูลขนาดใหญ่ที่เป็นกรรมสิทธิ์ต้องเผชิญกับแรงกดดันจากความกังวลเกี่ยวกับ อคติ และการควบคุมในระดับผูกขาด สำหรับคนใน Web3 หลายคน ทางแก้ไขไม่ได้อยู่ในการควบคุมที่เข้มงวดของระบบปัจจุบัน แต่เป็นการกระจายอำนาจทั้งหมดของโครงสร้างพื้นฐานพื้นฐาน
ประสิทธิภาพของโมเดล AI เหล่านี้ กำหนดไว้ตั้งแต่ต้นโดยคุณภาพและความสมบูรณ์ของข้อมูลที่พวกเขาได้รับการฝึกฝน ซึ่งต้องสามารถตรวจสอบและติดตามได้เพื่อป้องกันข้อผิดพลาดและความหลงผิดของ AI เมื่อความเสี่ยงเพิ่มขึ้นในอุตสาหกรรมอย่างการเงินและการดูแลสุขภาพ ความต้องการฐานรากที่โปร่งใสและน่าเชื่อถือสำหรับ AI กลายเป็นสิ่งสำคัญ
Michael Heinrich ผู้ประกอบการต่อเนื่องและบัณฑิตจากมหาวิทยาลัยสแตนฟอร์ด คือหนึ่งในผู้ที่นำพากการสร้างฐานรากนั้น ในฐานะ CEO ของ 0G Labs เขากำลังพัฒนา AI chain ที่เขาอธิบายว่าเป็นแห่งแรกและใหญ่ที่สุดด้วยภารกิจที่มุ่งมั่นให้ AI กลายเป็นสาธารณะดีที่ปลอดภัยและตรวจสอบได้ เขาเคยก่อตั้ง Garten ซึ่งเป็นบริษัทที่ได้รับการสนับสนุนจาก YCombinator ชั้นนำ และทำงานที่ Microsoft, Bain และ Bridgewater Associates Heinrich กำลังใช้ความชำนาญของเขาแก่ความท้าทายในการออกแบบ AI แบบกระจายศูนย์ (DeAI)
Heinrich เน้นว่าหัวใจของประสิทธิภาพ AI อยู่ที่ฐานความรู้: ข้อมูล “ประสิทธิภาพของโมเดล AI ถูกกำหนดโดยข้อมูลที่พวกเขาถูกฝึกฝน” เขาอธิบาย ชุดข้อมูลที่มีคุณภาพสูงและมีการสมดุลทำให้เกิดการตอบสนองที่ถูกต้อง แต่ข้อมูลที่ไม่ดีหรือแสดงออกไม่เพียงพอจะส่งผลให้ได้ข้อมูลออกที่มีคุณภาพต่ำและการเพิ่มขึ้นของความเสี่ยงต่อความหลงผิด
สำหรับ Heinrich การรักษาความสมบูรณ์ของชุดข้อมูลที่อัปเดตอย่างต่อเนื่องและหลากหลายเหล่านี้ต้องการกลับหน้าสถานะแบบปัจจุบัน เขาแย้งว่าผู้กระทำผิดหลักเบื้องหลังความหลงผิดของ AI คือการขาดแหล่งข้อมูลที่โปร่งใส วัคซีนของเขาคือแบบการเข้ารหัส:
ผมเชื่อว่าข้อมูลทั้งหมดควรจะถูกเชื่อมต่อบนเชนด้วยหลักฐานการเข้ารหัสและเส้นทางหลักฐานที่ตรวจสอบได้เพื่อรักษาความสมบูรณ์ของข้อมูล
ฐานรากที่กระจายอำนาจและโปร่งใสนี้รวมกับแรงจูงใจทางเศรษฐกิจและการปรับแต่งอย่างต่อเนื่องถูกมองว่าเป็นกลไกที่จำเป็นในการกำจัดข้อผิดพลาดและอคติเชิงอัลกอริธึมอย่างเป็นระบบ
เหนือกว่าการแก้ไขด้านเทคนิค Heinrich ผู้เป็นหนึ่งใน Forbes 40 Under 40 มีวิสัยทัศน์แบบแมโครต่อ AI เชื่อว่ามันควรจะนำไปสู่ยุคแห่งความอุดมสมบูรณ์
“ในโลกในอุดมคติ มันจะสร้างเงื่อนไขสำหรับสังคมหลังความขาดแคลนที่ทรัพยากรมีมากพอ และไม่มีใครต้องกังวลเกี่ยวกับการทำงานที่น่าเบื่ออีกต่อไป” เขากล่าว การเปลี่ยนแปลงนี้จะทำให้คนสามารถมุ่งเน้นงานที่สร้างสรรค์และมีความสุขได้มากขึ้น โดยพื้นฐานคือทำให้ทุกคนสนุกกับเวลาว่างและความมั่นคงทางเศรษฐกิจมากขึ้น
สิ่งสำคัญ Heinrich แย้งว่าโลกที่กระจายอำนาจเหมาะสมที่สุดในการควบคุมอนาคตนี้ ความงามของระบบเหล่านี้คือพวกมันมีการจัดสัมพันธภาพที่ตรงกัน, สร้างเศรษฐกิจที่สมดุลต่อคำขอพลังการคำนวณ ถ้าความต้องการทรัพยากรเพิ่มขึ้น แรงจูงใจในการให้บริการพวกมันจะเพิ่มขึ้นตามธรรมชาติจนกระทั่งความต้องการนั้นได้รับการตอบสนอง สอดคล้องกับความต้องการด้านทรัพยากรการคำนวณในแบบที่ไม่ต้องขออนุญาต
การปกป้อง AI: โอเพนซอร์สและการออกแบบแรงจูงใจ
เพื่อป้องกัน AI จากการใช้งานที่ผิดพลาด เช่น การหลอกลวงด้วยเสียงปลอมและ deepfakes Heinrich แนะนำการผสมผสานของโซลูชันที่มนุษย์เป็นศูนย์กลางและด้านโครงสร้าง ประการแรก ความสำคัญควรอยู่ที่การศึกษาให้ผู้คนรู้วิธีระบุตัวแหล่งที่มาของ AI และของปลอมที่ใช้สำหรับการปลอมแปลงและการบิดเบือนข้อมูล Heinrich กล่าว: เราจำเป็นต้องสอนผู้คนให้สามารถระบุหรือให้ลายพิมพ์มือของเนื้อหาที่สร้างโดย AI เพื่อให้พวกเขาสามารถปกป้องตนเองได้”
ผู้ออกกฎหมายก็สามารถมีบทบาทได้โดยการกำหนดมาตรฐานสากลสำหรับความปลอดภัยและจริยธรรมของ AI แม้ว่าสิ่งนี้อาจไม่สามารถขจัดการใช้งาน AI ที่ผิดพลาดได้ แต่ความมีอยู่ของมาตรฐานเหล่านี้ “สามารถช่วยกีดกันมัน” ข้อมาตรการที่มีประสิทธิภาพสูงสุดก็คือฝังอยู่ในดีไซน์ที่กระจายอำนาจ: “การออกแบบระบบที่มีการจัดสัมพันธภาพที่ตรงกันข้ามสามารถลดการใช้ AI ที่ผิดพลาดอย่างมีนัยสำคัญ” โดยการปรับใช้และกำกับการใช้งานโมเดล AI บนเชน การมีส่วนร่วมที่ซื่อสัตย์ได้รับรางวัล ในขณะที่พฤติกรรมที่ไม่ดีได้รับผลทางการเงินผ่านกลไกการหักโทษบนเชน
แม้ว่าผู้วิจารณ์บางคนกลัวความเสี่ยงของอัลกอริธึมแบบเปิด Heinrich บอกกับ Bitcoin.com News ว่าเขาสนับสนุนมันอย่างตื่นเต้นเพราะมันให้การมองเห็นวิธีการทำงานของโมเดล “สิ่งต่าง ๆ เช่น บันทึกการฝึกอบรมที่ตรวจสอบได้และเส้นทางข้อมูลที่ไม่สามารถเปลี่ยนแปลงได้สามารถใช้ตรวจสอบความโปร่งใสและอนุญาตให้ชุมชนควบคุมซึ่งตรงข้ามกับความเสี่ยงที่เกี่ยวข้องกับโมเดล ‘กล่องดำ’ ที่ปิดแหล่งข้อมูล”
เพื่อส่งมอบวิสัยทัศน์นี้สำหรับอนาคต AI ที่ปลอดภัยและราคาไม่แพง 0G Labs กำลังสร้าง “ระบบปฏิบัติการ AI แบบกระจายอำนาจ (DeAIOS)”
ระบบปฏิบัติการนี้ถูกออกแบบมาเพื่อให้มีการพิสูจน์แหล่งที่มาของ AI ที่ตรวจสอบได้—ชั้นข้อมูลการจัดเก็บและความสามารถที่ขนาดใหญ่ที่ทำให้สามารถจัดเก็บชุดข้อมูล AI ขนาดใหญ่มากบนเชน ทำให้ข้อมูลทั้งหมดตรวจสอบได้และสามารถติดตามได้ ระดับความปลอดภัยและการติดตามนี้เป็นสิ่งจำเป็นสำหรับตัวแทน AI ที่ทำงานในภาคที่ได้รับการพิจารณาว่าสูง
นอกจากนี้ ระบบยังมีตลาดการคำนวณที่ไม่ต้องขออนุญาตทำให้การเข้าถึงทรัพยากรการคำนวณสามารถเข้าถึงได้และมีต้นทุนแข่งขัน ซึ่งเป็นคำตอบโดยตรงสำหรับค่าใช้จ่ายสูงและการล็อกผู้ขายในระบบเมฆที่มีศูนย์กลาง
0G Labs ได้สาธิตความก้าวหน้าทางเทคนิคด้วย Dilocox ซึ่งเป็นกรอบการทำงานที่ช่วยในการฝึกอบรม LLMs ซึ่งเกินกว่า 100 พันล้านพารามิเตอร์ในคลัสเตอร์ 1 Gbps ที่กระจายอำนาจ โดยการแยกโมเดลออกเป็นส่วนที่เล็กลงและฝึกอบรมอิสระ Dilocox ได้สาธิตการปรับปรุงประสิทธิภาพ 357 เท่าที่ดีขึ้นเมื่อเทียบกับวิธีการฝึกอบรมแบบกระจายดั้งเดิม การพัฒนา AI ขนาดใหญ่เป็นไปได้ทางเศรษฐกิจภายนอกศูนย์ข้อมูลที่มีศูนย์กลาง
อนาคต AI ที่สดใสและคุ้มค่ามากขึ้น
สุดท้าย Heinrich เห็นอนาคตที่สดใสมากสำหรับ AI แบบกระจายอำนาจที่ถูกกำหนดโดยการมีส่วนร่วมและการลดอุปสรรคในการยอมรับ
“มันเป็นที่ที่คนและชุมชนสร้างแบบจำลอง AI ผู้เชี่ยวชาญร่วมกัน ทำให้อนาคตของ AI ถูกกำหนดโดยหลายฝ่ายแทนที่จะเป็นเพียงไม่กี่หน่วยงานที่มีศูนย์กลาง” เขาสรุป เมื่อบริษัท AI ที่เป็นเจ้าของกำลังเผชิญกับแรงกดดันให้ยกระดับราคา เศรษฐศาสตร์และโครงสร้างแรงจูงใจของ DeAI เสนอทางเลือกที่จัดเสน่ห์ที่น่าสนใจและคุ้มค่ามากขึ้น ที่ซึ่งโมเดล AI ทรงพลังสามารถสร้างขึ้นได้ในต้นทุนที่ต่ำ นำทางสู่อนาคตเทคโนโลยีที่เปิดกว้าง ปลอดภัย และโดยรวมแล้วมีประโยชน์มากขึ้น
คำถามที่พบบ่อย
- ปัญหาหลักของ AI ที่มีการรวมศูนย์คืออะไร? โมเดล AI ปัจจุบันมีปัญหาเรื่องความโปร่งใส อคติข้อมูล และการควบคุมในระดับผูกขาดเนื่องจากโครงสร้าง “กล่องดำ” ที่ศูนย์รวม
- Michael Heinrich’s 0G Labs กำลังสร้างทางออกอะไร? 0G Labs กำลังพัฒนาระบบปฏิบัติการ AI แบบกระจายอำนาจชุดแรก (DeAIOS) เพื่อทำให้ AI เป็นสาธารณะดีที่ปลอดภัย ตรวจสอบได้
- AI ที่กระจายอำนาจช่วยรักษาความสมบูรณ์ของข้อมูลได้อย่างไร? ความสมบูรณ์ของข้อมูลจะถูกรักษาโดยการเชื่อมต่อข้อมูลทั้งหมดบนเชนด้วยหลักฐานการเข้ารหัสและเส้นทางหลักฐานที่ตรวจสอบได้เพื่อป้องกันข้อผิดพลาดและความหลงผิด
- ข้อได้เปรียบหลักของเทคโนโลยี Dilocox ของ 0G Labs คืออะไร? Dilocox คือกรอบการทำงานที่ทำให้การพัฒนา AI ขนาดใหญ่มีประสิทธิภาพมากขึ้นแสดงถึงการปรับปรุง 357 เท่าที่ดีขึ้นเมื่อเทียบกับวิธีการฝึกอบรมแบบกระจายดั้งเดิม














