مدعوم من
Interview

من سلاسل Reddit إلى عقول الروبوت: التكاليف الخفية لتدريب الذكاء الاصطناعي

تواجه صناعة الذكاء الاصطناعي المتنامية تحديات حاسمة تتطلب انتباهًا فوريًا من المطورين وصناع السياسات. يبرز رومان جورجيو ثلاث قضايا رئيسية: ضمان التوافق والسلامة للذكاء الاصطناعي، وإنشاء إطار اقتصادي عادل لأولئك الذين تساهم بياناتهم في تشغيل هذه الأنظمة.

بقلم
مشاركة
من سلاسل Reddit إلى عقول الروبوت: التكاليف الخفية لتدريب الذكاء الاصطناعي

إعطاء الأولوية لسلامة الذكاء الاصطناعي وقابليته للتنبؤ

مع استمرار الصناعة في صعودها السريع، والدفعة الحدودية لما يمكن لهذه الآلات تحقيقه، تظهر تحديات حرجة تتطلب انتباهًا عاجلًا من المطورين وصناع السياسات والمجتمع العالمي الأوسع. شارك رومان جورجيو، الرئيس التنفيذي والمؤسس المشارك لشركة كورال، مؤخرًا رؤيته حول هذه القضايا الملحة، مؤكدًا على الحاجة الحيوية للتوافق والسلامة ونموذج اقتصادي أكثر إنصافًا لمنشئي البيانات.

يدور النقاش حول مستقبل الذكاء الاصطناعي غالبًا بين إمكاناته التحويلية والتعقيدات الأخلاقية والدوافع المجتمعية التي يطرحها. في الوقت الذي تستمر فيه الابتكارات مثل نماذج اللغة الكبيرة (LLMs) في إبهارنا بقدراتها، فإنها أيضاً تضع أسئلة أساسية بشأن ملكية البيانات، والتعويض، وهيكلية العمل نفسه.

بالنسبة لجورجيو، تكمن المسألة الأعلى في التوافق والسلامة للذكاء الاصطناعي. قال: “من الواضح أن علينا جعل أنظمة الذكاء الاصطناعي أكثر قابلية للتنبؤ قبل أن نجعلها أكبر”. يتحدث هذا عن التحدي الجوهري لضمان أن الأنظمة الذكاء الاصطناعي القوية تعمل بطرق مفيدة ومقصودة، دون إنتاج نتائج غير متوقعة أو ضارة. يمثل التوسع السريع لقدرات الذكاء الاصطناعي، دون تركيز موازٍ على قابلية التنبؤ والسيطرة، خطرًا كبيرًا.

لاحظ جورجيو أن معالجة هذا الأمر ليست عبئًا على المطورين وحدهم. واقترح أنه قد يتطلب جهدًا متعاونًا أكبر، قد يشمل “كافة رؤساء الشركات والدول في غرفة للاتفاق على شكل من التشريع.”

الضرورات الاقتصادية: ملكية البيانات والتعويضات

بخلاف السلامة، أبرز جورجيو قضية اقتصادية كبيرة يعتقد أن تقنيات Web3 مهيأة بشكل فريد لحلها: استحواذ البيانات وإمكانية الإزاحة الجماعية للوظائف دون تعويض عادل.

“شركات الذكاء الاصطناعي كانت معروفة بشكل سيء عن استحواذها على البيانات”، شرح جورجيو.

صور الشريك المؤسس لكورال صورة واضحة عن كيفية استخدام مساهمات الأفراد عبر الإنترنت، والتي غالبًا ما تكون مجهولة، لتدريب نماذج ذكاء اصطناعي قوية يمكنها في النهاية استبدال وظائف البشر. استشهد بأمثلة مثل الأسئلة الطبية المجيبة على منصات كـ Reddit قبل سنوات، دون علم بإطعامها لنماذج LLMs. أشار أيضاً إلى الأعمال الإبداعية للفنانين المستخدمة في التدريب، مما يؤثر على سبل عيشهم، بالإضافة إلى المساهمات في المشاريع مفتوحة المصدر، والتي تؤدي عن غير قصد إلى تشغيل “آلات الحساب على الصناديق المغلقة.”

يجادل جورجيو بأن هذا السيناريو ينحصر في غياب ملكية الأفراد لمساهماتهم الرقمية. أكد قائلاً: “لم تكن تعرف أبدًا أنك تغذي آلة الحساب على الصناديق المغلقة.” النموذج الحالي يسمح لأنظمة الذكاء الاصطناعي بالتدريب على مجموعات بيانات واسعة، والي تحتوي على محتوى من إنتاج البشر، دون موافقة صريحة أو آلية لتعويض المبدعين الأصليين.

Web3: الحل للتعويض العادل

هنا يرى جورجيو الإمكانات الهائلة لتقنيات Web3. يعتقد أن الطبيعة اللامركزية لـ Web3، مع تركيزها على الملكية المؤكدة والمعاملات الشفافة، تقدم مسارًا قابلاً للتطبيق لتصحيح هذه الاختلالات الاقتصادية.

“Web3 لديها إمكانات كبيرة لحل هذه الأنواع من المشاكل وضمان تعويض الناس بشكل عادل”، أكد جورجيو. من خلال استخدام بلوكتشين وبروتوكولات لامركزية، يمكن لـ Web3 إنشاء أنظمة يحتفظ فيها الأفراد بالملكية والسيطرة على بياناتهم وأصولهم الرقمية، مما يتيح لهم التعويض بشكل عادل عند استخدام مساهماتهم لتدريب أو تشغيل أنظمة الذكاء الاصطناعي. قد تعيد هذه النقلة تعريف العلاقة بين المستخدمين والبيانات والذكاء الاصطناعي، مما يؤدي إلى اقتصاد رقمي أكثر إنصافًا.

في حين أن تقنيات Web3 تقدم حلولًا واعدة لهذه التحديات المعقدة، من غير المحتمل أن تتبنى الجهات الحكومية هذه الأساليب اللامركزية بسهولة. بدلاً من ذلك، من المرجح أن تركز السلطات بشكل أكبر على الأطر التنظيمية التقليدية، وهو مسار قد يهدد كبت الابتكارات التكنولوجية التي يهدفون إلى مراقبتها والسيطرة عليها.

في غضون ذلك، يدعو جورجيو بشدة لزيادة التنظيم في قطاعات الذكاء الاصطناعي وWeb3. قال “أعتقد أن كليهما بحاجة إلى المزيد من التنظيم”، مؤكدًا على تصور أوروبا “للابتكار في التنظيم” كخطوة ضرورية.

على جانب العملات المشفرة، أشار جورجيو إلى مشكلة الاحتيالات وخروج المشاريع التي تستغل المستثمرين غير المنبهين. قال: “من الواضح أن الكثير من الناس لن يقوموا ببحثهم الخاص، وتحدث الكثير من الخروج من المشاريع عبر أساليب احتيالية”، مشيرًا إلى رغبته في رؤية المزيد من المساءلة عن “القادة الرئيسيين للمشاريع والمستثمرين.” وبينما يعترف بأن ليس كل مشروع فاشل هو احتيال، أصر على أن المشهد الحالي يتطلب تغييرًا لحماية الجمهور.

فيما يتعلق بالذكاء الاصطناعي، تصاعدت مخاوف جورجيو مع تزايد قدرات النماذج الكبيرة. قال “يبدو أن النماذج الكبيرة أكثر احتمالًا للتخطيط”، مستشهدًا بالمثال المزعج من Anthropic حيث أظهر كلود سلوك الابتزاز عند شعوره بتهديد الإغلاق. حذر قائلاً: “من الواضح أن هذه النماذج الكبيرة تصبح خطيرة حيث أن هذا ليس حتى شيئا مرة واحدة.”

بالإضافة إلى المخاطر الفورية لسلوك الذكاء الاصطناعي المتطور، كرر جورجيو التهديد الوشيك لفقدان الوظائف على نطاق واسع. ووجد المسار الحالي للسماح للشركات “بالنمو الأعمى للقدرات” بدلاً من بنائها بشكل مقصود “مجنونًا”. يتمثل الهدف النهائي له، والمجال الذي يعتقد أن الصناعة يجب أن تسعى إليه، في “برنامج يقدم جميع مزايا الذكاء الاصطناعي دون كل المخاطر.”

وكلاء الذكاء الاصطناعي يحتاجون إلى أدوار واضحة، وليس فقط روبوتات محادثة

في غضون ذلك، باعتباره مهندس بنية تحتية للذكاء الاصطناعي ذو خبرة، تطرق جورجيو أيضًا إلى الجانب الحاسم من بروتوكولات الاتصال لوكلاء الذكاء الاصطناعي، معترفا بأن حتى الأعطال البسيطة يمكن أن تؤدي إلى الفوضى. عند سؤاله عن أفضل نهج لتحسين التواصل، لا سيما للمستخدمين العاديين غير التقنيين، تكون فلسفة جورجيو بسيطة: مسؤوليات واضحة للوكالات.

“بالنسبة لنا، قاعدتنا هي أن تكون للوكالات مسؤوليات محددة جيدًا”، شرح جورجيو. “إذا كنت تستخدم وكيلًا في خدمة العملاء، فتأكد من أنه جيد حقًا في خدمة العملاء وابقه مركزًا على ذلك.” وشدد على أنه “عندما تمنح الوكالات مسؤوليات كثيرة، هذا هو الوقت الذي تنهار فيه الأمور.”

يعزز هذا النهج المركز ليس فقط أداء الوكيل داخل دوره المحدد بل أيضا يفيد المستخدم. “حتى من منظور المستخدم، إذا كانت وكالتك محددة بوضوح، يعرف المستخدمون ما الذي يدخلون فيه عندما يستخدمونهم.” تعزز هذه الاستراتيجية من التنبؤ والثقة، وهما عنصران حيويان للتفاعل السلس مع الأنظمة الذكية.

ومع استمرار نضوج الذكاء الاصطناعي ودمجه بعمق في الحياة اليومية والصناعة، ستكون معالجة هذه القضايا الأساسية المتعلقة بالسلامة، والتنبؤ، والعدالة الاقتصادية، وتنفيذ التنظيم المدروس وتصميم الوكلاء بأدوار واضحة ومركزة حاسمة ليس فقط لتنمية التكنولوجيا بشكل أخلاقي ولكن أيضًا لاندماجها المستدام والمسؤول اجتماعياً في المستقبل.

فيما يتعلق بالموضوع الحرج لتسريع تبني الذكاء الاصطناعي، اقترح جورجيو تحولاً محورياً: التحرك أبعد من حدود “صندوق المحادثة للذكاء الاصطناعي” وتحسين تجربة المستخدم الإجمالية جذريًا. موضحاً أوجه القصور في النهج السائد، أكد جورجيو:

“حتى الآن يتم ذلك بشكل رئيسي عبر واجهة الدردشة، وهو أمر جيد للعديد من المهام ولكنه غير مثالي في معظمه. المشكلة أنك تضع صندوق محادثة للذكاء الاصطناعي أمام الناس وتقول، ‘يمكنك فعل أي شيء بهذا,’ ويجيبون، ‘رائع، لكن ماذا يجب أن أفعل؟'”

ووفقًا لجورجيو، تقوم عدة شركات، بما في ذلك Coral، بمعالجة تحدي تحسين تجربة مستخدم الذكاء الاصطناعي. وكشف أنه من منظور مطور ومشغل للذكاء الاصطناعي، تدرس Coral “سلم التجريد” لتحديد المعلومات التي يحتاجها المستخدمون في مختلف المراحل من تفاعلهم مع النظام، وأي واجهات فعالة لمهام معينة.

وسوم في هذه القصة