مدعوم من
Interview

AI Agents في DeFi: يجب أن تكون سيطرة المستخدم "غير قابلة للتفاوض"، يحذر المدير التنفيذي

نُشر هذا المقال قبل أكثر من عام. قد لا تكون بعض المعلومات حديثة.

رينتش كورزاي، الرئيس التنفيذي لشركة جيزا، يؤكد أنه يجب أن تكون الاعتبارات الأخلاقية في تطوير وكلاء الذكاء الاصطناعي “مدعومة بالهندسة المعمارية”. يدعو إلى التحكم المدمج للمستخدم و”الأمان عن طريق التصميم” لتقليل الأعباء التنظيمية.

بقلم
مشاركة
AI Agents في DeFi: يجب أن تكون سيطرة المستخدم "غير قابلة للتفاوض"، يحذر المدير التنفيذي

الأمان المعتمد على الهندسة المعمارية للمستخدم

أدى التقدم السريع في الذكاء الاصطناعي إلى تطوير وكلاء ذكاء اصطناعي متطورين بشكل متزايد، قادرين على أداء مهام معقدة عبر مختلف القطاعات. ومع ذلك، مع زيادة قوة واستقلالية هؤلاء الوكلاء، ظهرت مخاوف بشأن الاعتبارات الأخلاقية والمخاطر المحتملة.

لمعالجة هذه المخاوف، يدعو رنتش كورزاي، الرئيس التنفيذي لشركة جيزا وذو خبرة في الصناعة، إلى إعطاء الأولوية لأمن وسيادة المستخدم، التي قال إنها يجب أن تكون “غير قابلة للتفاوض” و”مدعومة بالهندسة المعمارية”. يجادل كورزاي بأن الإرشادات الأخلاقية يجب أن تُترجم إلى متطلبات هندسية ملموسة، تشكل كل جانب من جوانب تصميم وكلاء الذكاء الاصطناعي.

في ردود كتابية على أسئلة من Bitcoin.com News، أشار كورزاي أيضًا إلى الحاجة إلى التحكم الكامل للمستخدم. وأضاف أن هذا التحكم يجب أن يكون مضمنًا في هندسة الوكيل، لضمان تمتع المستخدمين بالإشراف الكامل والسلطة. على عكس الأنظمة التي تعتمد على التحكم المفوض، يجب أن تعمل وكلاء الذكاء الاصطناعي الأخلاقية من خلال أطر إجازة يمكن إلغاؤها على الفور، كما قال كورزاي.

بالنسبة للرئيس التنفيذي لشركة جيزا، الرسالة الأساسية واضحة: يجب أن تكون الاعتبارات الأخلاقية مدمجة في الهندسة المعمارية الأساسية لأنظمة الذكاء الاصطناعي، وليس إضافتها كفكرة لاحقة.

“في التمويل اللامركزي، حيث تكون أصول المستخدمين المالية على المحك، يجب أن تكون الاعتبارات الأخلاقية مدمجة في الهندسة المعمارية الأساسية لأنظمة الذكاء الاصطناعي، وليس إضافتها كفكرة لاحقة”، قال كورزاي.

هذا العقلية “الأمن أولاً” ضرورية لبناء الثقة وضمان تطوير وكلاء الذكاء الاصطناعي بمسؤولية. متحولًا إلى أسواق التمويل اللامركزي (DeFi)، التي أصبحت أكثر تعقيدًا، كشف كورزاي أنه أصبح من الممكن الآن نشر وكلاء الذكاء الاصطناعي لتحسين مواقع المستخدمين عبر البروتوكولات الرائدة وتنفيذ استراتيجيات متطورة بينما يحافظ المستخدمون على التحكم الكامل في الأموال.

التمويل “الزائد الكفاءة العقلية”

وفي الوقت نفسه، يجادل الرئيس التنفيذي بأن الحماية الفعالة للمستخدم في التمويل اللامركزي تأتي من تصميم المنتجات القوي، وليس فقط من التنظيم الخارجي. هذا النهج “الأمان عن طريق التصميم”، كما قال، يسعى لخلق بيئة حيث يكون الأمان “جوهري”، مما يقلل الحاجة إلى التنظيم الشديد.

يؤكد كورزاي أن بناء أنظمة آمنة بطبيعتها يتماشى مع مصالح الجهات المعنية ويشارك بشكل استباقي مع المنظمين لتشكيل سياسات المستقبل. التركيز على خلق القيمة من خلال المنتجات المصممة بشكل جيد، مما يجعل الامتثال نتيجة طبيعية بدلاً من عقبة تعيق الابتكار.

متطلعًا إلى المستقبل، قال كورزاي إنه يتوقع أن يهيمن “التمويل الزائد الكفاءة العقلية” بحلول عام 2030، وأن يتطور وكلاء الذكاء الاصطناعي كواجهة السوق الرئيسية، متجاوزين الحدود الإدراكية البشرية. في ذلك الوقت، سيقوم البشر بتحديد الأهداف الاستراتيجية بينما ستقوم وكلاء الذكاء الاصطناعي بالتنفيذ.

“لن يكون منحنى الاعتماد خطيًا – بل سيكون أسيًا. عندما يُظهر هؤلاء الوكلاء قدرتهم على التفوق باستمرار في العمليات اليدوية مع الحفاظ على ضمانات الأمان، سيصبحون الطريقة الافتراضية للتفاعل مع الأسواق المالية”، أضاف الرئيس التنفيذي.