שילוב בינה מלאכותית עם בלוקצ’יין יכול לשפר את האמינות של AI ולחולל מהפכה במגזרים שונים.
AI, שילוב בלוקצ'יין יכול להגביר את האמון, למנוע שימוש לרעה, אומר מומחה
מאמר זה פורסם לפני יותר משנה. חלק מהמידע עשוי לא להיות עדכני.

מפתחים של AI צריכים לתת עדיפות לשליטה של המשתמש
סטייסי אנגל, שותפה מייסדת ומנכ”לית של Twin Protocol, טוענת כי שילוב של אינטיליגנציה מלאכותית (AI) עם טכנולוגיית בלוקצ’יין יכולה למנוע ניצול לרעה של AI ולהפוך את פעולות ה-AI לאמינות יותר. שילוב זה, היא טוענת, יש לו פוטנציאל לחולל מהפכה במגזרים שונים, החל ממערכות בריאות וכלה במימון מבוזר, על ידי הפיכת השירותים לאמינים וידידותיים יותר למשתמש.
אנגל מדגישה את העתיד המבטיח של ה-AI על ידי אזכור של תחזית חברת הענק PwC שהבינה המלאכותית יכולה לתרום $15.7 טריליון לכלכלה הגלובלית עד 2030. “היכולת המיוחדת הזו” לשנות תעשיות וכלכלות, כפי שאנגל מתארת זאת, מחזקת את ההשפעה הפוטנציאלית של הטכנולוגיה.
עם זאת, אנגל מכירה בכך שחששות סביב פרטיות עשויים להוות מכשול לאימוץ נרחב יותר של AI. כדי לטפל בחששות אלו, היא קוראת למפתחי AI לתת עדיפות לשליטה של המשתמש, לפרטיות נתונים ולצעדי אבטחה חזקים. בנוסף, חברות AI צריכות לשאוף לחנך את הציבור על אמצעי המגן הללו.
בעניין רגולציה של AI, אנגל מדגישה את הצורך בגישה מאוזנת שמקדמת שקיפות, שליטה של המשתמש ופרטיות נתונים, תוך הימנעות מחניקת החדשנות עקב רגולציה יתרה. היא מאמינה שניתן להשיג איזון זה באמצעות שיתוף פעולה בין מפתחי AI, משתמשים ורגולטורים.
התשובות הכתובות של אנגל לחדשות Bitcoin.com התייחסו גם לאתגרים בקבלת נתונים אמינים בקנה מידה אישי ולחזון שלה לעתיד תעשיית ה-AI עד 2030. להלן תשובותיה של אנגל לכל השאלות שנשלחו.
חדשות Bitcoin.com (BCN): למרות ביקורת וחשיפה גוברת, תחום ה-AI ממשיך להתרחב, מה שמעורר שאלות על גבולות הפוטנציאל של AI. האם תוכל להסביר בקצרה את המושגים הבסיסיים מאחורי המודעות הגוברת שחווה תחום ה-AI?
סטייסי אנגל (SE): הצמיחה המסיבית במודעות ובאימוץ AI נובעת מהפוטנציאל המהפכני שלו. על פי PwC, AI יכול לתרום עד $15 טריליון לכלכלה הגלובלית עד 2030, מה שמדגיש את היכולת הבלתי רגילה שלו לשנות תעשיות וכלכלות. במקביל, הפורום הכלכלי העולמי מעריך ש-800 מיליון אנשים עשויים להזדקק להדרכה מחדש עד 2030 כשה-AI והאוטומציה מגדירים מחדש עבודה. נתונים אלה מדגישים את ההזדמנויות העצומות ואת האחריות הדחופה שמלוות את עליית ה-AI.
כמה גורמים מרכזיים מניעים את המומנטום הזה. היכולת של AI לאוטומט משימות מורכבות, לנתח מאגרי נתונים ענקיים ולהשתפר בעצמו באמצעות למידה משנים תעשיות כמו פיננסים, בריאות וחינוך. בנוסף, חידושים כמו בלוקצ’יין ו-AI twins מרחיבים את מקרי השימוש של AI, החל משיפור השקיפות ועד התאמה אישית בקנה מידה.
המודעות באמת מדגישה את המסלול החיובי של השפעת ה-AI. עם גישה מאוזנת – מתן עדיפות לחדשנות תוך התמודדות עם צרכים חברתיים ושיקולים אתיים – אנו ערוכים לצמיחה מהפכנית שיכולה להעצים אנשים, תעשיות וקהילות כאחד.
BCN: כיצד אתם רואים את AI ובלוקצ’יין כטכנולוגיות משלימות, ובאיזה דרכים ספציפיות הן יכולות להעצים זו את זו?
SE: AI ובלוקצ’יין משלימים זה את זה מכיוון ששניהם שואפים לשפר את האבטחה, השקיפות והסקלה. AI, עם היכולת שלו ללמוד ולהסתגל, יכול לייעל פעולות בלוקצ’יין, ולהפוך אותן ליעילות יותר. מצד שני, בלוקצ’יין יכול לספק פלטפורמה מאובטחת ושקופה עבור פעולות AI, מה שמבטיח את שלמות הנתונים ואת האמון. לדוגמה, במימון מבוזר (DeFi), AI יכול לשפר את תהליכי קבלת ההחלטות, בעוד הבלוקצ’יין מבטיח עסקאות מאובטחות ושקופות.
בבריאות, AI יכול לנתח נתוני מטופלים לטיפול מותאם אישית, ובלוקצ’יין יכול להבטיח שנתונים רגישים אלו יישמרו מאובטחים ולא שונו. יחד, הם יכולים לחולל מהפכה במגזרים שונים ולהפוך את השירותים לאמינים וידידותיים יותר למשתמש. AI משפר את התוצר והבלוקצ’יין מבטיח שהוא יישאר מאובטח ואמין.
BCN: בעוד ה-AI מתהדר במספר יתרונות, החששות לגבי סיכוניו הולכים וגדלים. פרטיות נתונים ובטיחות אישית עומדים בראש רשימת הדאגות, כאשר חלק מהמומחים חוששים כי הטכנולוגיה עשויה בסופו של דבר להוליד מכונות שפועלות מעבר לשליטת אדם. במקרה שלך, האם הפחדים הללו מוצדקים ואם כן, מה יכולים השחקנים במרחב הזה לעשות כדי להרגיע את הספקנים?
SE: כן, הפחדים הללו מוצדקים מכיוון שהשימוש לרעה הפוטנציאלי ב-AI יכול להוביל להשלכות חמורות. עם זאת, שילוב AI עם בלוקצ’יין יכול להפחית סיכונים אלה. הטבע המבוזר של הבלוקצ’יין משפר את האבטחה והשקיפות, מה שהופך את פעולות ה-AI לאמינות יותר. לדוגמה, Twin Protocol משתמש בטכנולוגיית בלוקצ’יין כדי לאבטח נתוני משתמשים, מה שמבטיח שכל אינטראקציה היא ניתנת לווידוא. זה גם מאפשר למשתמשים לשלוט על ה-AI Twins שלהם ועל המידע ששיתפו, מה שמגביר את הפרטיות והאבטחה. כדי להרגיע את הספקנים, על השחקנים במרחב הזה לתת עדיפות לשליטה של המשתמש, לפרטיות נתונים ולצעדי אבטחה חזקים, במקביל להשכלה הציבור לגבי אמצעי הגנה אלו.
BCN: רבים מאמינים כי אלה הפחדים שמניעים את רגולציית תעשיית ה-AI, התפתחות שרוב המומחים חושבים שהיא לא נחוצה ומזיקה. מה דעתך על הסביבה הרגולטורית העכשווית ל-AI? איך ניתן לשפר אותה? אילו רגולציות יש לשמר, ואילו יש לשלול?
SE: הסביבה הרגולטורית העכשווית ל-AI היא נחוצה אך צריך לשפר אותה. היא צריכה להתמקד בקידום שקיפות, שליטה של המשתמש ופרטיות נתונים. יש לשמר רגולציות שמעודדות עקרונות אלו. עם זאת, רגולציה יתרה יכולה לחנוק את החדשנות. ניתן להשיג שיפור על ידי יצירת סביבה שיתופית בין מפתחי AI, משתמשים ורגולטורים.
שיתוף פעולה זה יכול לעזור ביצירת רגולציות שמגנות על משתמשים ללא עיכוב ההתקדמות. יתר על כן, שילוב AI עם בלוקצ’יין יכול לשפר את האבטחה והשקיפות, לענות על חששות רבים לגבי AI. השכלה לגבי AI והשלכותיו היא גם חיונית כדי להפיג פחדים ותפיסות מוטעות. אני מאמינה שנקודת מפתח היא לכלול בעלי עניין מגוונים ולדבר על יישומים מציאותיים, ולא על היפותטיקות.
BCN: כיצד אתם מנווטים את הנוף הרגולטורי המורכב סביב AI ובלוקצ’יין, במיוחד מבחינת פרטיות נתונים ובטיחות?
SE: ניווט הנוף הרגולטורי המורכב סביב AI ובלוקצ’יין מצריך גישה רב-ממדית. ב-Twin Protocol, אנו נותנים עדיפות לשליטה של המשתמש ולפרטיות נתונים. הפלטפורמה שלנו מעוצבת לתת לאנשים ריבונות על הנתונים שלהם, עם היכולת להעניק או לשלול גישה לפי ראות עיניהם. אנו משתמשים בטכנולוגיית בלוקצ’יין כדי להבטיח אחסון ושיתוף מאובטחים של נתוני משתמשים, עם כל האינטראקציות וכניסות הנתונים מוקלטות בצורה מאובטחת על ספר אוחנה בלתי ניתן לשינוי. זה לא רק משפר את האבטחה אלא גם מקדם שקיפות ואמון. יתר על כן, אנחנו משתמשים בחוזים חכמים כדי לקבוע את תנאי השיתוף, כך שהנתונים ישותפו רק בתנאים מוגדרים.
BCN: מהם חלק מהמקרים הפוטנציאליים לשימוש ב-AI Twins, וכיצד אתם רואים אותם מנוצלים במגזרים שונים, כגון חינוך, בריאות או בידור?
SE: AI Twins יכולים לחולל מהפכה בתעשיות. בחינוך, הם יכולים להקל על למידה מותאמת אישית והדרכה מחדש. במערכת הבריאות, הם יכולים לדמות תגובות מטופלים לטיפולים. בבידור, הם יכולים ליצור פרסונות דיגיטליות מציאותיות וחוויות מעוררות באמת. עבור עסקים, הם מבטיחים העברת ידע ומפחיתים את ההשפעה של עזיבת עובדים. המקרים לשימוש הם באמת אינסופיים, ויש לנו שותפים ברחבי העולם שמשתמשים ב-AI כדי לשפר את העולם.
BCN: כיצד Twin Protocol מבטיחה את האבטחה והפרטיות של נתוני משתמשים, במיוחד בהקשר של AI Twins, ואילו אמצעים ננקטים למניעת פריצות נתונים או גישה לא מורשית?
SE: Twin Protocol מבטיחה את האבטחה והפרטיות באמצעות מערכת מבוזרת ואמינה שבה כל העסקאות מוקלטות בצורה מאובטחת. נעשה שימוש בתקני הצפנה חזקים, שמאפשרים רק למשתמשים מאומתים לגשת או לשנות את ה-AI Twins. משתמשים יכולים לשלוט על שיתוף הנתונים ואינטראקציה, עם היכולת לנהל הרשאות ולשלול גישה בכל עת. מיושמות מדיניות פרטיות קפדנית והנחיות אתיות למניעת פריצות נתונים או גישה לא מורשית.
BCN: כל מודל או פרויקט AI זקוק למגוון רחב של מערכי נתונים התנהגותיים ותובנות אנליטיות. לדעתך, מהם האתגרים הגדולים ביותר להשגת נתונים אישיים אמינים בקנה מידה?
SE: אחד האתגרים הגדולים ביותר הוא אמון. אנשים נעשים יותר ויותר זהירים לגבי איך הנתונים שלהם נאספים, נעשה בהם שימוש ומוגנים. בצדק חופשי – פריצות נתונים, ניצול מידע והעדר שקיפות יצרו חוסר אמון. כדי להתגבר על כך, ארגונים צריכים לתת עדיפות לשיטות אתיות בהליך הנתונים על ידי ביטוי ברור מדוע הם אוספים נתונים, כיצד זה מועיל למשתמש ואילו אמצעים ננקטים כדי להגן עליהם.
אתגר נוסף הוא ההטיה. הנתונים שאנו אוספים לעיתים משקפים את המערכות והמבנים החברתיים שבהם אנו פועלים. אם לא מתנהלים כראוי, דגמי AI יכולים לשמר או אף להעצים את ההפניות הללו. להתגבר על כך, חשוב לעצב אסטרטגיות איסוף נתונים כוללניות ולבחון את מערכי הנתונים בקפדנות לצורך הוגנות.
לבסוף, נגישות למערכות נתונים איכותיים ומגוונים היא מכשול גדול. חלק מהקהילות או הדמוגרפיות עשויות שלא להיות מיוצגות בתהליך איסוף המידע, מה שמוביל לפערים בהבנה ובתוצאות. זה קורא לפתרונות חדשניים, כמו נתונים סינתטיים או שותפויות עם ארגונים מגוונים, כדי למלא פערים אלה תוך שמירה על פרטיות. בסופו של דבר, השגת נתונים אמינים בקנה מידה נוגעת פחות לטכנולוגיה ויותר לבניית מערכת אקולוגית מושרשת בשקיפות, כלליות והעצמת משתמשים.
כאשר אנשים מרגישים שזוכים להערכה וביטחון, הם מוכנים יותר להשתתף – ואז חדשנות באמת פורחת. כמו כן, תמיד אנחנו מוסיפים שכבה של כיף. אנו רוצים שהאימון של Twin AI יהיה כיפי ופשוט – וכאשר זה קורה, נשמרים יותר נתונים.
BCN: מה החזון שלך לעתיד של AI ובלוקצ’יין, וכיצד הן יעצבו את העולם סביבנו?
SE: העתיד של AI ובלוקצ’יין עוסק בהרגו גי
ו – אלו טכנולוגיות שמשלימות זו את זו באופן שיכול לשנות תעשיות וחברות ביסודיות. AI מוסיף אינטיליגנציה, הסתגלות והתאמה אישית, בעוד הבלוקצ’יין מציע אבטחה, שקיפות ומרכזיות. יחד, הם יוצרים בסיס לאמון וחדשנות בעולם דיגיטלי.
בעתיד, אני רואה אותן מאפשרות גישה יותר שווה להזדמנויות. לדוגמה, AI יכול לספק השכלה מותאמת אישית המותאמת לסגנון הלמידה של כל אדם, בעוד בלוקצ’יין מבטיח שהתעודות המוענקות הן מאובטחות ומוכרות אוניברסלית. טכנולוגיות אלה גם יגדירו מחדש את הדרך שבה אנו מתקשרים כלכלית וחברתית. מימון מבוזר (DeFi), המשופר עם בלוקצ’יין ומוגבר על ידי קבלת החלטות מושתתת AI, יכול להפוך מערכות פיננסיות ליותר כוללניות ויעילות. בממשל, מערכות שקופות ומאוטומטות יכול לבנות מחדש אמון בין אנשים למוסדות, יצירת אחריות בקנה מידה.
עם זאת, הפוטנציאל האמיתי שלהן טמון בטיפול באתגרים גלובליים מערכתיים. דמיינו שימוש ב-AI ובלוקצ’יין לשיפור שרשרות אספקת מזון, להפחתת בזבוז ולהבטחת סחר הוגן, או לנצל אותן להפצה יעילה יותר של משאבים בסיוע לאסונות.
כדי להגשים חזון זה, אנו חייבים להתמקד בפיתוח אתי. המשמעות היא בניית מערכות שנותנות עדיפות לאנשים, מקדמות שיתוף פעולה ויוצרות ערך לכולם – ולא רק למעטים. אם נעשה זאת נכון, AI ובלוקצ’יין לא רק יעצבו את העתיד; הם יסייעו לנו ליצור אחד שהוא יותר כוללני, שוויוני וחסון.













