המנהל הקיברנטי של סין הצהיר שכל התוכן שנוצר על ידי מכונות בינה מלאכותית (AI) חייב להיות מסומן עם סימני מים או מטאדאטה כדי לזהות את מקורותיו המלאכותיים. ניתן לייצר תוכן לא מסומן, אך היוצרים חייבים להבהיר את מקור התוכן, וזה יירשם על ידי יישום המקור לצורך מעקב קל יותר.
סין תתחיל לאכוף תיוג תוכן AI החל מספטמבר
מאמר זה פורסם לפני יותר משנה. חלק מהמידע עשוי לא להיות עדכני.

סין מתחילה במסע לציין תכנים של AI
סין יצאה למאמץ כדי להבחין בקלות בתוכן שנוצר על ידי מכונות AI מהתוכן האמיתי. הנהלת המרחב הקיברנטי של סין פרסמה לאחרונה מאמר הבהרה בנוגע ל”צעדים לזיהוי תוכן סינתטי שנוצר על ידי בינה מלאכותית”, סדרת תקנות שמבקשות להילחם במידע מוטעה הנתמך על ידי AI.
ההנהלה הצהירה כי החל מספטמבר 2025, היא תאכוף תיוג לכל התוכן שנוצר על ידי AI, שצריך להיות מוצג כדי להבחין בו מתוכן אורגני אחר. דרישה זו תחול על כל הסוגים של מידע, כולל תמונות, וידאו, מוסיקה ועוד, בשימוש ברכיבים מגוונים כמו סימני מים וטכניקות חדשניות. המטאדאטה ישא גם תווית AI חסינת שינוי, והרשויות ישרו כל שינוי בתחום זה.
הצעדים משפיעים גם על חנויות יישומים מקוונים, אשר עכשיו חייבות להסתגל לכללים אלה. לפי הנהלת הסייבר, פלטפורמות הפצת יישומים באינטרנט יצטרכו “לדרוש מספק שירותי יישומים באינטרנט להסביר האם היא מספקת שירותים סינתטיים שנוצרו על ידי בינה מלאכותית ולוודא את החומרים הרלוונטיים לזיהוי התוכן הסינתטי שהיא יוצרת”.
זה משנה את הנוף עבור ספקי שירותי AI בסין, אשר חייבים להסתגל לרציונל של הפלטפורמות שלהם לכלול את הדרישות והמגבלות הללו שהונחו על ידי הרשויות הלאומיות. עם זאת, המוסד הבהיר כי הדלת ליצירת תוכן מלאכותי לא מסומן עדיין פתוחה, תוך שהאחריות נופלת על המשתמש שיוצר תוכן זה, אשר יצטרך לחשוף את טבעו.
פלטפורמות AI חייבות לשמור יומנים של תוכן לא מסומן כדי להקל על אכיפה פוטנציאלית כנגד ניצול לרעה של תוכן זה. נותר לראות האם פלטפורמות זרות יעמדו בצעדים האלה, שבעצם עלולות לסגור את שוק ה-AI הסיני בפני כלים זרים.















