מופעל ע"י
Op-Ed

DLT ישקם את האמון ב-AI

מאמר זה פורסם לפני יותר משנה. חלק מהמידע עשוי לא להיות עדכני.

במהלך קמפיין הבחירות בארה”ב בשנת 2024, סרטון דיפפייק התפשט ברשתות החברתיות, המפיץ בטעות האשמות על הונאת בוחרים. במקום אחר, נתונים מוטים בתחום הבריאות עיוותו תוצאות AI, מסכנים את הטיפול בחולים. אלגוריתמים לא שקופים מערערים החלטות, מייצבים שווקים ומערערים את האמון במערכות פיננסיות. הסיכונים של ה-AI עולים, והפגמים שלו מכרסמים באמון הציבור.

נכתב ע"י
שתף
DLT ישקם את האמון ב-AI
הפוסט הבא הוא פוסט אורח שנכתב על ידי צ’ארלס אדקינס, מנכ”ל, קרן HBAR. הוא שימש בעבר כנשיא Hedera Hashgraph, LLC. צ’ארלס הוא מנהיג מנוסה עם שנים של ניסיון בתחום הבלוקצ’יין והקריפטו, לאחר שעבד בעבר ב-Polygon Labs ו-Aptos.

אנחנו צריכים ממשל שמבטיח שה-AI ישרת את האנושות, ולא יזיק לה. אבל המורכבות והקנה מידה של פיתוח ה-AI גדולים מדי ליכולת האנושית בלבד. כאן נכנסת לתמונה טכנולוגיית רישום מבוזר (DLT)—מערכת מבוזרת המתעדת ומאמתת נתונים על פני מספר צמתים. ה-DLT מביאה שקיפות, אחריות ויושרה ל-AI, מעודדת אמון, מונעת שליטה מונופוליסטית ומקדמת חדשנות אתית.

פתיחת התיבה השחורה של ה-AI

לעיתים קרובות AI מתפקד כתיבה שחורה, מסתמך על נתונים סודיים שמסתירים כיצד מתקבלות החלטות. חוסר שקיפות זה פוגע באמון, במיוחד בתעשיות כמו בריאות ופיננסים שבהן שקיפות היא דבר בלתי מתפשר. עם DLT, אין סודות. ה-DLT משנה את המשחק על ידי תיעוד כל הנתונים והעדכונים בלדג’ר בלתי ניתן לשינוי—רשומה דיגיטלית קבועה שמבטיחה שכל שינוי ניתן לאיתור.

קחו לדוגמה את ProveAI. היא משתמשת ב-DLT כדי לאבטח ולעקוב אחר נתוני אימון ה-AI ועדכוניו, תוך הבטחת עמידה בתקנים ושיטות אתיות, כגון חוק ה-AI של האיחוד האירופי. גישה זו מחזיקה את מודלי ה-AI אחראיים, יוצרת בסיס לאמון והגינות בתוצאות שלהם.

שיפור איכות הנתונים עם DLT

למרבה הצער, איכות נתונים ירודה נותרה אתגר מתמשך בפיתוח AI. סקר של Precisely מ-2024 חשף ש-64% מהעסקים מוצאים את ה-AI בלתי אמין בגלל נתונים לא מאומתים או מוטים. ה-DLT פותרת זאת על ידי עיגון נתונים בזמן אמת לרשתות מבוזרות, ומבטיחה שהן מדויקות, שקופות ובלתי משתנות.

למודלי AI המשתמשים ב-Retrieval Augmented Generation (RAG) לשיפור תגובות עם נתונים חיצוניים, ה-DLT מבטיחה שהמידע המאומת והבלתי ניתן לשינוי בלבד ישמש. זה מפחית סיכונים למידע מטעה או חדירת הטיה לתוצרים, ומקדם ממשל אתי של AI.

Fetch.ai ו-Ocean Protocol כבר מציגים את הפוטנציאל של חדשנות זו. Fetch.ai משתמשת ב-אורקלים כדי לגשת לנתונים חיצוניים בזמן אמת, למיטוב לוגיסטיקה וייעול אנרגיה ברחבי אקוסיסטם ה-Web3. באופן דומה, Ocean Protocol מאבטחת שיתוף נתונים מוטבע, מאפשרת למערכות AI לגשת למאגרים איכותיים תוך הגנה על פרטיות המשתמשים.

התמודדות עם מידע כוזב בעזרת DLT

יכולות אלו חיוניות להתמודדות עם אתגרים גוברים כמו מידע כוזב, במיוחד במקביל לעליית הדיפפייקים. Ofcom חשפה לאחרונה כי 43% מהאנשים בגילאי 16 ומעלה נתקל באחד מדיפפייק לפחות במחצית הראשונה של 2024. פלטפורמות בלוקצ’יין כמו Truepic כבר עוסקות בנושא זה על ידי שילוב בלוקצ’יין באימות תמונה, תיוג זמן ואימות מדיה ברגע היווצרותה. על ידי שילוב נתונים ומדיה מאומתים בזרימות העבודה של RAG, מערכות AI יכולות לבדוק את אמינות התוצר בצורה יעילה יותר, מחזקות את האמון במידע שהן מייצרות.

ממשל מבוזר ל-AI אתי

מודלי ממשל ריכוזיים לרוב מתקשים להתמודד עם המהירות, המורכבות והאתגרים האתיים של פיתוח AI, מעכבים חדשנות אחראית. סקר עולמי של Precisely חשף כי 62% מהארגונים רואים ממשל לא מספק כמעכב משמעותי לאימוץ AI.

ארגונים אוטונומיים מבוזרים (DAOs), מופעלים על ידי DLT, עשויים לספק פתרון. DAOs אוטומטים ממשל וקבלת החלטות באמצעות חוזים חכמים, מאפשרים לבעלי העניין—מפתחים, משתמשים, ורגולטורים—להצביע באופן שקוף על הצעות. כל החלטה נרשמת בבלוקצ’יין, מונעת שליטה חד צדדית, מיישרת החלטות עם אינטרסים קולקטיביים ומבטיחה אחריות והכלה.

SingularityNET מציג את הפוטנציאל הזה, ומשתמש במסגרת DAO ליישור פרויקטי AI עם עקרונות אתיים. גישה מבוזרת זו לא רק מקדמת הכלה, אלא גם מבטיחה שממשל משקף את האינטרס הציבורי, מניח את הבסיס לפיתוח אתי ובר-קיימא של AI.

סטנדרטים גלובליים והדרך קדימה

כש-AI תלוי יותר ויותר בנתונים חוצי גבולות, מערכות מאובטחות ושקופות כמו DLT יהיו חיוניות לבנות אמון בקנה מידה. ארגונים רבים כבר בוחנים את הפוטנציאל שלה. לדוגמה, רשת MediLedger משתמשת ב-DLT כדי למנוע שינויים בנתונים בשרשרות אספקה פרמצבטיות, בעוד התשתית האירופית לשירותי בלוקצ’יין (EBSI) מנצלת DLT להפצת מידע מאובטח, פוטנציאלית לספק מסגרת שתעזור לארגונים באיחוד האירופי לעמוד בחוק ה-AI החדש של האיחוד האירופי.

אבל אנחנו צריכים להמשיך הלאה.

התאמה רגולטורית עולמית חיונית למניעת פירוד ולכינון סטנדרטים אוניברסליים. ממשלות, חברות וחברה אזרחית חייבות לשתף פעולה לפיתוח מסגרות ממשל המעדיפות את האינטרס הציבורי. גם ה-DAOs חייבים להתפתח לספק פיקוח גמיש וקולקטיבי ככל שטכנולוגיית AI מתקדמת.

זה לא הזמן לרפיון ידיים. אם לא נפעל עכשיו, הסיכונים של AI יגדלו ללא שאתה, וישאירו אותנו חסרי אונים להתמודד איתם. העתיד של AI אתי תלוי בהחלטות נועזות היום. ה-DLT יכולה להיות היסוד לעתיד זה—שקוף, אחראי ומותאם לאינטרסים הטובים ביותר של האנושות.

תגיות בכתבה זו