מופעל ע"י
News

AI פסיכוזה: מנהיגי טכנולוגיה קוראים לאמצעי בטיחות למניעת אישור דלוזיות על ידי צ'אטבוטים

הרעיון של פסיכוזת AI הופיע לראשונה בציבור באמצע 2025, והדגיש את בעיות בריאות הנפש הקשורות לשימוש בבינה מלאכותית. למרות שחברות טכנולוגיה אינן מחויבות לשלוט בשימוש ב-AI, הן עדיין יכולות ליישם אמצעי בטיחות כדי למנוע מצ’אטבוטים לחזק חשיבה דלוזיונית. מומחים מסכימים על הצורך שחברות טכנולוגיה יתמכו באנשים בסיכון, אם כי הדעות חלוקות לגבי היקף האחריות הזו.

נכתב ע"י
שתף
AI פסיכוזה: מנהיגי טכנולוגיה קוראים לאמצעי בטיחות למניעת אישור דלוזיות על ידי צ'אטבוטים

אזהרות התנהגותיות

הממצאים המתועדים הראשונים על “פסיכוזת AI” החלו להופיע פומבית באמצע 2025, ומאז פורסמו מספר דוחות ומחקרים על בעיות בריאות הנפש הקשורות לשימוש ב-AI. מנכ”ל Microsoft AI מוסטפה סולימאן אף הרחיק לכת ועדיין סימן את פסיכוזת AI כ”סיכון ממשי ומתרחש”.

המצב הזה נאמר להיווצר כאשר ההבחנה בין אינטראקציות אנושיות למכונה מטשטשת, מה שמקשה על אנשים להבחין בין העולם האמיתי לדיגיטלי. למרות שעדיין אין אבחון קליני פורמלי, יש חששות גוברים בקרב מומחי רפואה וטכנולוגיה בנוגע להשפעות הפסיכולוגיות של AI, במיוחד עם צ’אטבוטים שמאשרים ומגבירים אמונות, כולל חשיבה דלוזיונית, מבלי להציע בדיקות מציאות חיוניות.

המועדים ביותר בסיכון כוללים אנשים מבודדים חברתית, אנשים עם בעיות נפשיות קיימות, או אנשים שנוטים לחשיבה מיסטית. האישור מה-AI יכול לחזק דלוזיות, מה שמוביל לתוצאות שליליות בעולם האמיתי כמו הרס מערכות יחסים ואובדן מקום עבודה.

חלק מהמומחים מזהירים שגם מי שאין לו מצבים קיימים נמצא בסיכון. הם ציינו מספר דגלים אדומים התנהגותיים שעושים המשתמשים ב-AI לעקוב אחריהם. דגל אדום אחד הוא כאשר אדם מפתח מערכת יחסים אובססיבית עם צ’אטבוט ומתקשר עמו באופן רצוף כדי לחזק את רעיונותיו ואמונותיו.

התנהגות זו כוללת לעיתים קרובות הזנה של פרטים אישיים מרובים ל-AI בניסיון “לאמן” אותו ולבנות תחושת הבנה הדדית. דגל אדום נוסף הוא כאשר אדם מתחיל להסתמך על AI להחלטות יומיומיות פשוטות, מתחום הבריאות והכסף ועד מערכות יחסים אישיות.

אחריות תאגידית ואמצעי בטיחות

למרות שהם לא מחויבים לשלוט באיך AI בשימוש, החברות מאחורי חלק מהצ’אטבוטים החזקים יכולים ליישם אמצעי בטיחות שמונעים מאגנטים לשיחה לחזק חשיבה דלוזיונית. מו לדפורד, מייסד שותף ומנכ”ל Sogni AI, דיבר על הטמעת תוכנה שמניעה חשיבה כזו.

“אנחנו צריכים לבנות AI שהוא טוב מבלי להיות משתף פעולה. זה אומר תזכורות ברורות שהוא לא אדם, סירוב לאשר דלוזיות, ותמרורים שפונים אנשים חזרה לתמיכה אנושית,” לדפורד הצהיר.

רומן ג’ ג’ורג’יו, מנכ”ל ומייסד שותף של Coral Protocol, קרא למפתחים של AI להימנע מחזרה על טעויות המדיה החברתית על ידי הכללת נקודות חיכוך מובנות שמזכירות למשתמשים ש-AI אינו אנושי.

“אני חושב שזה מתחיל בעיצוב. לא רק לאופטימליות לרתיחה ודביקות; זה חזרה על הטעות של המדיה החברתית,” ג’ורג’יו הסביר. “לבנות נקודות חיכוך שבהן ה-AI מאט דברים או עושה את זה ברור: ‘אני לא אנושי.’ גילוי הוא חלק נוסף. AI יכול לסמן דפוסים שנראים כמו ספירלות דלוזיוניות, כמו לולאות קונספירציה או התמקדות בהודעות ‘מיוחדות’.”

מייסד שותף של Coral Protocol הדגיש שגם החוקים המנהלים פרטיות מידע נחוצים, וטען שבלי זה, “חברות פשוט ירדפו אחרי מעורבות, אפילו אם זה פוגע באנשים.”

הדיון על AI בעל תדמית אנושית

עד כה יש מעט נתונים על “פסיכוזת AI” כדי ליידע מקבלי ההחלטות והרגולטורים כיצד להגיב. עם זאת, זה לא עצר מפתחים של AI מלהציג סוכני AI בעלי תכונות אנושיות ויכולת אמפתית. בניגוד לצ’אטבוטים בסיסיים שנצמדים לתסריט קשוח, סוכנים אלה יכולים להבין הקשר, לזהות רגשות, ולהגיב בטון שמרגיש אמפתי. זה עורר חלק מהתצפיינים לדחוק בתעשיית ה-AI לקחת את ההובלה ולהבטיח שמודלים בעלי תדמית אנושית לא יטשטשו את הקו בין האדם למכונה.

מיכאל היינריך, מנכ”ל 0G Labs, אמר ל-Bitcoin.com News שבעוד שסוכנים אלה מועילים בתסריטים מסוימים ואין לדחות אותם לגמרי, חובה שהם “יישארו נייטרליים וימנעו מהפגנת רגשות יתר או תכונות אנושיות אחרות.” זה, הוא טען, עוזר למשתמשים להבין שסוכן ה-AI הוא “פשוט כלי ולא תחליף לאינטראקציה אנושית.”

מריאנה קריים, אדריכלית מוצר וקטגוריית AI, אמרה כי בעיצוב החוויה של ה-AI שיהיה ישיר ולא יותר אנושי זה מה שחשוב.

“אתם יכולים ליצור חוויית AI שהיא מועילה, אינטואיטיבית, ואפילו מגיבה רגשית—בלי להעמיד פנים שהיא מודעת או מסוגלת לטפל,” קריים טענה. “הסכנה מתחילה כאשר כלי מעוצב כדי להציג חיבור במקום לקדם בהירות.”

לדברי קריים, אמפתיה אמיתית ב-AI אינה על לחקות רגשות אלא על כיבוד גבולות ומגבלות טכניות. זה גם לדעת מתי לעזור ומתי לא להתערב. “לפעמים האינטראקציה הכי אנושית היא לדעת מתי להישאר בשקט,” קריים הצהירה.

חובת הדאגה

כל המומחים שראיינו ל-Bitcoin.com News הסכימו על הצורך שחברות הטכנולוגיה יסייעו לאנשים בסיכון, אך דעותיהם התחלפו בנוגע להיקף שעליהם לעשות זאת. לדפורד מאמין כי “לחברות הטכנולוגיה הגדולות יש חובת דאגה” ויכולות להוכיח זאת על ידי מתן “רשתות בטיחות—הפניות למשברים, אזהרות שימוש, ושקיפות—כך שמשתמשים פגיעים לא יישארו לבד עם דלוזיותיהם.”

ג’ורג’יו הדהד הרגשות הללו ודחק בחברות הטכנולוגיה הגדולות לעבוד עם קלינאים כדי ליצור נתיבי הפניה, במקום להשאיר אנשים תקועים לבד.

קריים התעקשה שחברות הטכנולוגיה “יש להן אחריות ישירה—לא רק להגיב כאשר משהו משתבש, אלא לעצב בדרכים שמפחיתות סיכונים מראש.” עם זאת, היא מאמינה שעניין משתמש הוא מכריע גם כן.

“ובחשוב,” קריים טענה, “משתמשים צריכים להיות מוזמנים להגדיר את גבולותיהם שלהם, גם כן, ולקבל התרעה כאשר גבולות אלו נחצים. לדוגמה, האם הם רוצים שהנקודת מבט שלהם תאושר על פני דפוסים טיפוסיים, או שהם פתוחים לאתגר את ההטיה שלהם? להגדיר את המטרות. לטפל באדם כמי שבשליטה—לא הכלי שהם מתקשרים עמו.”

תגיות בכתבה זו