مدعوم من
Op-Ed

سيعيد DLT بناء الثقة في الذكاء الاصطناعي

نُشر هذا المقال قبل أكثر من عام. قد لا تكون بعض المعلومات حديثة.

خلال حملة الانتخابات الأمريكية لعام 2024، انتشر فيديو مزيف عبر وسائل التواصل الاجتماعي، يدعي زوراً وقوع تزوير في الانتخابات. في أماكن أخرى، البيانات المتحيزة في الرعاية الصحية شوهت نتائج الذكاء الاصطناعي، مما يهدد رعاية المرضى. وتعمل الخوارزميات غير الشفافة على تقويض القرارات، وزعزعة استقرار الأسواق، وتقويض الثقة في الأنظمة المالية. تتزايد مخاطر الذكاء الاصطناعي، وعيوبه تقوض ثقة الجمهور.

بقلم
مشاركة
سيعيد DLT بناء الثقة في الذكاء الاصطناعي
التالي هو مقال ضيف كتبه تشارلز أدكنز، الرئيس التنفيذي لمؤسسة HBAR. وقد خدم سابقًا كرئيس لشركة Hedera Hashgraph, LLC. تشارلز هو قائد مخضرم يتمتع بسنوات من الخبرة في فضاء البلوكشين والعملات المشفرة، حيث عمل سابقًا في Polygon Labs وAptos.

نحن بحاجة إلى حوكمة تضمن أن الذكاء الاصطناعي يخدم الإنسانية، وليس يضر بها. ولكن حجم وتعقيد تطوير الذكاء الاصطناعي يتجاوز القدرات البشرية وحدها. وهنا يأتي دور تقنية دفتر الأستاذ الموزع (DLT) — نظام لامركزي يسجل ويتحقق من البيانات عبر عدة عقد. يجلب DLT الشفافية، والمساءلة، والنزاهة إلى الذكاء الاصطناعي، مما يعزز الثقة، ويمنع السيطرة الاحتكارية، ويشجع على الابتكار الأخلاقي.

فتح الصندوق الأسود للذكاء الاصطناعي

غالبًا ما يعمل الذكاء الاصطناعي كما لو كان صندوقًا أسود، يعتمد على بيانات سرية تخفي كيفية اتخاذ القرارات. هذه الغموض يقوض الثقة، خاصة في صناعات مثل الرعاية الصحية والمالية حيث الشفافية غير قابلة للتفاوض. مع DLT، لا توجد أسرار. يغير DLT اللعبة بتسجيل جميع البيانات والتحديثات على دفتر أستاذ غير قابل للتغيير — سجل رقمي دائم يضمن أن كل تغيير يمكن تتبعه.

خذ ProveAI، على سبيل المثال. تستخدم DLT لتأمين وتتبع بيانات التدريب الخاصة بالذكاء الاصطناعي والتحديثات، وضمان الامتثال للمعايير واللوائح الأخلاقية مثل قانون الاتحاد الأوروبي للذكاء الاصطناعي. هذا النهج يفرض المساءلة على نماذج الذكاء الاصطناعي، مما يخلق أساسًا للثقة والعدالة في نتائجها.

تحسين جودة البيانات باستخدام DLT

لسوء الحظ، تظل جودة البيانات السيئة تحدٍ دائم في تطوير الذكاء الاصطناعي. كشف استطلاع دقيق لعام 2024 عن أن 64% من الشركات تجد الذكاء الاصطناعي غير موثوق به بسبب البيانات غير المؤكدة أو المتحيزة. يعالج DLT هذا الأمر عن طريق ربط البيانات في الوقت الحقيقي بشبكات لامركزية، مما يضمن أنها دقيقة وشفافة ولا يمكن تغييرها.

بالنسبة لنماذج الذكاء الاصطناعي التي تستفيد من توليد الاسترجاع المعزز (RAG) لتعزيز الاستجابات ببيانات خارجية، يضمن DLT استخدام معلومات مؤكدة وغير قابلة للتلاعب فقط. يقلل هذا من مخاطر تسلل المعلومات المضللة أو التحيز إلى المخرجات، مما يعزز حوكمة الذكاء الاصطناعي الأخلاقية.

Fetch.ai و Ocean Protocol يعرضون بالفعل إمكانية هذا الابتكار. تستخدم Fetch.ai الأوراكل للوصول إلى البيانات الخارجية في الوقت الحقيقي، وتحسين اللوجستيات وكفاءة الطاقة عبر نظام Web3 البيئي. وبالمثل، يؤمن Ocean Protocol مشاركة البيانات المرمزة، مما يمكن أنظمة الذكاء الاصطناعي من الوصول إلى مجموعات بيانات عالية الجودة مع حماية خصوصية المستخدم.

التصدي للمعلومات المضللة باستخدام DLT

هذه القدرات أساسية لمواجهة التحديات المتصاعدة مثل المعلومات المضللة، خاصة مع ظهور التزييف العميق. كشفت Ofcom مؤخرًا أن 43% من الأشخاص الذين تزيد أعمارهم عن 16 عامًا واجهوا على الأقل تزييف عميق واحد عبر الإنترنت في النصف الأول من عام 2024. منصات البلوكشين مثل Truepic تتصدى بالفعل لهذه المشكلة من خلال الجمع بين البلوكشين والتحقق من صحة الصور وختم التاريخ والتحقق من الوسائط في لحظة إنشائها. من خلال دمج البيانات والوسائط المؤكدة في تدفقات عمل RAG، يمكن لأنظمة الذكاء الاصطناعي التحقق بشكل أكثر فعالية من موثوقية المخرجات، وتعزيز الثقة في المعلومات التي تولدها.

الحوكمة اللامركزية للذكاء الاصطناعي الأخلاقي

غالبًا ما تكافح نماذج الحوكمة المركزية في إدارة السرعة والتعقيد والتحديات الأخلاقية لتطوير الذكاء الاصطناعي، مما يعيق الابتكار المسؤول. كشف الاستطلاع العالمي لـ Precisely أن 62% من المنظمات ترى أن الحوكمة غير الكافية عائقًا كبيرًا أمام تبني الذكاء الاصطناعي.

المنظمات المستقلة اللامركزية (DAOs)، المدعومة بDLT، قد توفر حلاً. تقوم DAOs بأتمتة الحوكمة واتخاذ القرارات عبر العقود الذكية، مما يتيح لأصحاب المصلحة — المطورين، والمستخدمين، والمنظمين — التصويت بشفافية على الاقتراحات. يتم تسجيل كل قرار على البلوكشين، مما يمنع السيطرة الفردية، ويص aligning مع المصالح الجماعية، ويضمن المساءلة والشمول.

SingularityNET تعرض هذه الإمكانية، باستخدام إطار DAO لمواءمة مشاريع الذكاء الاصطناعي مع المبادئ الأخلاقية. هذا النهج اللامركزي لا يشجع فقط على الشمولية ولكن يضمن أن الحوكمة تعكس المصلحة العامة، مما يضع الأساس لتطوير الذكاء الاصطناعي الأخلاقي الذي يمكن توسيعه.

المعايير العالمية والمسار إلى الأمام

ومع اعتماد الذكاء الاصطناعي بشكل متزايد على البيانات عبر الحدود، ستكون الأنظمة الآمنة والشفافة مثل DLT ضرورية لبناء الثقة على نطاق واسع. العديد من المؤسسات تستكشف بالفعل إمكانياتها. على سبيل المثال، يستخدم شبكة MediLedger DLT لمنع العبث بالبيانات في سلاسل توريد الأدوية، بينما يستفيد البنية التحتية لخدمات البلوكشين الأوروبية (EBSI) من DLT لتوزيع المعلومات بشكل آمن، مما يوفر إطار عمل لمساعدة المنظمات الأوروبية على الامتثال لقانون الاتحاد الأوروبي الجديد للذكاء الاصطناعي.

لكننا نحتاج إلى الذهاب إلى أبعد من ذلك.

التحالف التنظيمي العالمي ضروري لمنع التجزئة ووضع معايير عالمية. يجب على الحكومات والشركات والمجتمع المدني التعاون لتطوير أطر الحوكمة التي تعطي الأولوية للمصلحة العامة. يجب أن تتطور DAOs أيضًا لتوفير الرقابة المرنة والجماعية مع تقدم تكنولوجيا الذكاء الاصطناعي.

هذا ليس وقت التراخي. إذا لم يتم اتخاذ إجراء الآن، فستزداد مخاطر الذكاء الاصطناعي بدون رقيب، مما يتركنا عاجزين عن معالجتها. يعتمد مستقبل الذكاء الاصطناعي الأخلاقي على القرارات الجريئة اليوم. يمكن أن يكون DLT الأساس لهذا المستقبل — شفاف، ومسؤول، وملائم لمصالح الإنسانية الأفضل.

وسوم في هذه القصة