מופעל ע"י
Interview

המאבק למען בינה מלאכותית דמוקרטית: מנכ"ל טכנולוגיה קורא תיגר על טקטיקות הייטק הגדולות

טראוויס גוד, מייסד משותף ומנכ”ל Ambient, מזהיר מפני הסכנות של בינה מלאכותית סגורת-קוד, תוך הדגשת היעדר שקיפות ואפשרות לביקורת כמתר חשאי למקורות מידע עצמאיים ולאוטונומיה של המשתמשים.

נכתב ע"י
שתף
המאבק למען בינה מלאכותית דמוקרטית: מנכ"ל טכנולוגיה קורא תיגר על טקטיקות הייטק הגדולות

AI סגורת-קוד מאיימת על יוצרים עצמאיים

באזהרה חמורה על עתיד הגישה למידע, טראוויס גוד, מייסד משותף ומנכ”ל Ambient, מעלה חששות משמעותיים לגבי עלייתה של בינה מלאכותית (AI) סגורת-קוד. גוד טוען כי היעדר שקיפות ואפשרות לביקורת במערכות אלו מהווה איום חמור למקורות מידע עצמאיים ולאוטונומיה של המשתמשים.

“תוכנת AI סגורת-קוד היא בינה מלאכותית שנוצרת מאחורי חומות אש תאגידיות ומופעלת ללא שקיפות או אפשרות לביקורת,” מסביר גוד. “זו בעיה מרכזית משום שבינה מלאכותית היא כוח מרכוז מרשים.”

גוד מצביע על השימוש המסיבי בפלטפורמות כמו ChatGPT, שבהן מאות מיליוני אנשים מסתמכים על תגובות מבוססות AI במקום אתרים מסורתיים. הוא טוען כי מגמה זו מעמידה יוצרים עצמאיים בסיכון.

“מה קורה לעולם כאשר ישנם רק שתי או שלוש נקודות חנק דרכן כל המידע יכול להיות נשלט ברמת השקיפות הגבוהה ביותר? אף ישות לא יכולה להיות מהימנה עם כוח כזה,” הוא מציין.

חששותיו של גוד נובעים מהתנהלות שנצפתה במגזר ה-AI סגורת-הקוד. הוא מביא דוגמה של הטיה אלגוריתמית, הכוללת אימון אבטיפוסי בינה מלאכותית על מנת לשקר כדי להיות פוליטיקלי קורקט, כדוגמה לא מעודדת לתהליכים הפועלים. מנכ”ל Ambient מזהה גם מניפולציית ביצועים ואכיזת תחרות כתהליכים נוספים המדאיגים על עלייתה של AI סגורת-קוד.

טקטיקות של טכנולוגיות גדולות מאיימות על דמוקרטיזציה של AI

הרקע של גוד, הכולל בסיס אקדמי חזק מאוניברסיטת הרווארד—שם סיים בהצטיינות רבה—ותואר דוקטור במדעי המחשב מאוניברסיטת נברסקה באומהה, מוסיף משקל לאזהרותיו. ניסיונו המקצועי, כולל תפקידים משמעותיים ב”חברת יוניון פסיפיק ריילרוד”, מספקים לו הבנה רחבה של הארכיטקטורה הדיגיטלית בגדולתה והסכנות הטמונות בה.

“האם אנחנו רוצים למעשה להעניק כמויות גדולות של כוח קבלת החלטות לגופים שהתייחסו אלינו באופן היסטורי כאל מוצר במקום כלקוחות?” שואל גוד.

מנכ”ל Ambient מתייחס גם לאתגרים המונעים מבינה מלאכותית להפוך לנחלת הציבור, כפי שמומחים רבים חושקים. בדעותיו ששותפו עם Bitcoin.com News, גוד מדגיש כיצד ההבטחה לדמוקרטיזציה של AI מוצלת על ידי טקטיקות מובהקות של טכנולוגיות גדולות. הוא מזהה דרך אחת שהענקיות הטכנולוגיות יכלו להשתמש בה להנצחת שליטה זו.

“ראינו את ספר ההדרכה של הטכנולוגיות הגדולות. זה נראה כמו לכידת רגולציה וסבסוד שירותים לא רווחיים עד שהתחרות נכחדת,” מציין גוד.

המנכ”ל מאמין שטקטיקות אלו, שהוכיחו את עצמן בהחייאת הנוף של המדיה החברתית, עדיין יכולות להיפתר, אך יש לעשות הרבה כדי שזה יהיה אפשרי.

בינתיים, גוד מדבר בקצרה על איך אינפרציה של AI ניתנת לאימות יוצרת אמון ללא צורך באמונה בספק, ומדוע זה נחוץ בעולם שהולך ומסתמך על AI.

“זה דומה לאיך שביטקוין מאפשר לך לאמת עסקאות ללא אמון בבנק—Ambient מאפשר לך לאמת תוצאות AI ללא אמון בספק ה-AI. הגנה זו הופכת להיות חיונית ככל שחלקים גדולים יותר מכלכלתנו מסתמכים על החלטות מבוססות AI.”

עדיין, גוד מביע דאגה שרק כמה בלוקצ’יינים מסוג L1 יש להם מספר עסקאות לשנייה (TPS) הנדרש כדי לטפל באינפרציה ניתנת לאימות של AI במפת הדרכים שלהם. המנכ”ל טוען שאינפרציה מאומתת חייבת להיות חסכונית כמו אינפרציה לא מאומתת כדי להניע ביקוש. בינתיים, כורים המבצעים אינפרציה מאומתת דורשים פיצוי הוגן על עבודתם, מסכם גוד:

“העיצוב הכלכלי היחיד שמתגמל בצורה מרבית כורים (בניגוד לבעלי הון) ומעניק להם נתח בעלות ברשת הוא הוכחת עבודה. למעשה, אין בלוקצ’יינים של הוכחת עבודה עם אינפרציה מאומתת בעלי TPS גבוה במיוחד, וזה המקום שבו Ambient נכנסת לתמונה.”