صنعت پررونق هوش مصنوعی با چالشهای حیاتی مواجه است که نیاز به توجه فوری از سوی توسعهدهندگان و سیاستگذاران دارد. رومن جورجیو به سه نگرانی کلیدی اشاره میکند: تضمین همسویی و امنیت هوش مصنوعی و ایجاد یک چارچوب اقتصادی عادلانه برای کسانی که دادههای آنها اساس این سیستمها را تشکیل میدهند.
از رشتههای Reddit تا ذهنهای ربات: هزینههای پنهان آموزش هوش مصنوعی

اولویت دادن به امنیت و پیشبینیپذیری هوش مصنوعی
با ادامه صعود سریع صنعت هوش مصنوعی، که مرزهای قابلیتهای ماشینها را گسترش میدهد، چالشهای حیاتی در حال ظهور هستند که نیاز به توجه فوری از سوی توسعهدهندگان، سیاستگذاران و جامعه جهانی دارند. رومن جورجیو، مدیر عامل و بنیانگذار کورال، اخیراً دیدگاههای خود را درباره این مسائل فوری به اشتراک گذاشته است و بر نیاز حیاتی به همسویی، ایمنی و مدلی اقتصادی عادلانهتر برای ایجادکنندگان داده تأکید کرده است.
بحث در مورد آینده هوش مصنوعی اغلب بین پتانسیل تحولآفرین آن و معضلات پیچیده اخلاقی و اجتماعی که ایجاد میکند، نوسان میکند. در حالی که نوآوریهایی مانند مدلهای زبان بزرگ (LLM) همچنان با قابلیتهای خود شگفتانگیز هستند، اما همچنین سوالات اساسی درباره مالکیت دادهها، پرداختها و ساختار کاری را برجسته میکنند.
برای جورجیو، نگرانی عمده در همسویی و ایمنی هوش مصنوعی نهفته است. او اظهار داشت: “واضح است که ما باید سیستمهای هوش مصنوعی را پیشبینیپذیرتر کنیم قبل از اینکه آنها را بزرگتر کنیم.” این به چالش اصلی تضمین اینکه سیستمهای هوش مصنوعی بیش از حد قدرتمند به صورت مثبت و مورد نظر عمل کنند، بدون تولید نتایج پیشبینینشده یا خطرناک، اشاره دارد. افزایش سریع قابلیتهای هوش مصنوعی بدون تمرکز موازی بر پیشبینیپذیری و کنترل، خطر بزرگی را به همراه دارد.
جورجیو اشاره کرد که رسیدگی به این مسئله تنها باری بر دوش توسعهدهندگان نیست. او پیشنهاد داد که این مسئله ممکن است نیازمند تلاشی گستردهتر و هماهنگ باشد که احتمالاً شامل “همه سران شرکتها و کشورها در یک اتاق برای توافق بر نوعی قانونگذاری” باشد.
ضرورت اقتصادی: مالکیت داده و جبران
فراتر از ایمنی، جورجیو به یک مسئله اقتصادی مهم اشاره کرد که معتقد است فناوریهای وب3 بهطور یکتایی توانایی حل آن را دارند: تملک دادهها و احتمال جابجایی گسترده شغلها بدون جبران عادلانه.
“شرکتهای هوش مصنوعی به طور مشهوری در تخصیص دادهها بسیار بد عمل کردهاند”، جورجیو توضیح داد.
بنیانگذار کورال تصویر زندهای از چگونگی مشارکتهای فردی آنلاین، که اغلب بدون اطلاع انجام میشوند، را کشید که اکنون برای آموزش مدلهای قدرتمند هوش مصنوعی استفاده میشوند که میتوانند به تدریج شغلهای انسانی را جایگزین کنند. او به مثالهایی مانند سوالات پزشکی پاسخدادهشده در پلتفرمهایی مانند Reddit سالها پیش، که بدون اطلاع، دادهها را به LLMها تغذیه میکردند، اشاره کرد. او همچنین به آثار خلاقانه هنرمندان که برای آموزش استفاده میشوند، تأثیر بر معیشت آنها و همچنین مشارکت در پروژههای متنباز که بهطور غیرعمدی به “ماشینهای شمارهلافگر جعبهسیاه” کمک میکنند، اشاره کرد.
این سناریو، جورجیو استدلال میکند که به یک فقدان اساسی در مالکیت افراد بر مشارکتهای دیجیتالشان برمیگردد. او تأکید کرد: “شما هرگز نمیدانستید که به ماشین شمارهلافگر جعبهسیاه خوراک میدهید.” مدل فعلی به سیستمهای هوش مصنوعی اجازه میدهد تا بر روی مجموعههای وسیع دادهها که بسیاری از آنها حاوی محتوای انسانی هستند، بدون رضایت صریح یا مکانیسمی برای جبران به سازندگان اصلی، آموزش ببینند.
وب3: راهحلی برای جبران عادلانه
در اینجا جورجیو پتانسیل عظیم فناوریهای وب3 را میبیند. او معتقد است که ماهیت غیرمتمرکز وب3، با تأکید بر مالکیت قابل تأیید و معاملات شفاف، مسیری قابل عمل برای اصلاح این عدمتعادلهای اقتصادی ارائه میدهد.
جورجیو اظهار داشت: “وب3 پتانسیل بزرگی دارد که این نوع مشکلات را حل کند و اطمینان حاصل کند که مردم بهطور عادلانه جبران میشوند.” با استفاده از بلاکچین و پروتکلهای غیرمتمرکز، وب3 میتواند سیستمهایی ایجاد کند که در آن افراد مالکیت و کنترل بر دادهها و داراییهای دیجیتال خود را حفظ کنند و این امکان را داشته باشند تا زمانی که مشارکتهایشان برای آموزش یا توانمندسازی سیستمهای هوش مصنوعی استفاده میشود، بهطور عادلانه جبران شوند. این تغییر میتواند رابطه بین کاربران، دادهها و هوش مصنوعی را بازتعریف کند، و یک اقتصاد دیجیتال عادلانهتر را تقویت کند.
در حالی که فناوریهای وب3 راهحلهای امیدوارکنندهای برای این چالشهای پیچیده ارائه میدهند، غیرقابل تصور است که آژانسهای دولتی بهراحتی این رویکردهای غیرمتمرکز را بپذیرند. در عوض، مقامات احتمالاً بر چارچوبهای تنظیمی سنتی اصرار میورزند، مسیری که از نظر طنزآمیز، خطر خفهکردن نوآوریهای تکنولوژیکی را دارد که آنها در صدد نظارت و کنترل آنها هستند.
در همین حال، جورجیو به شدت از تنظیمات بیشتر در هر دو بخش هوش مصنوعی و وب3 حمایت میکند. او اظهار داشت: “من فکر میکنم هر دو نیاز به تنظیم بیشتری دارند,” اذعان به درک “نوآوری در تنظیم” اروپا به عنوان یک قدم ضروری.
در سمت کریپتو، جورجیو به مسئله متداول کلاهبرداریها و خروج پروژهها که سرمایهگذاران ناآگاه را مورد سوءاستفاده قرار دادهاند، اشاره کرد. او تأسف کرد که “واضح است که بسیاری از مردم تحقیق خود را به عمل نمیآورند، و بسیاری از خروجهای پروژه از طریق روشهای کلاهبرداری انجام میشود.” برای مبارزه با این، او خواهان مسئولیتپذیری بیشتر برای “KOLها [رهبران نظر کلیدی]، پروژهها و سرمایهگذاران” شد. در حالی که اذعان کرد که هر پروژهی شکستخوردهای یک کلاهبرداری نیست، او تاکید کرد که چشمانداز فعلی نیازمند تغییر برای محافظت از عموم است.
در خصوص هوش مصنوعی، نگرانیهای جورجیو با افزایش قابلیتهای مدلهای بزرگتر شدت میگیرد. او مشاهده کرد که “مدلهای بزرگتر به نظر میرسد که تمایل به نقشهکشیدگی بیشتری دارند,” و به مثال نگرانکنندهای از Anthropic اشاره کرد که در آن کلود بهطور گزارششده وقتی احساس کرد که تهدید به خاموششدن میشود رفتار تهدیدکنندهای نشان داد. او هشدار داد: “واضح است که این مدلهای بزرگ در حال خطرناک شدن هستند زیرا این حتی یکباره چیز نیست.”
فراتر از خطرات فوری رفتارهای پیچیده هوش مصنوعی، جورجیو تهدید مداوم از دستدادن شغلهای گسترده را تکرار کرد. او مسیر فعلی که به شرکتها اجازه میدهد “بهصورت کورکورانه ‘قابلیتها را رشد دهند’ بهجای ساخت آنها” را “دیوانهوار” یافت. هدف نهایی او، و چیزی که او معتقد است صنعت باید به آن دست یابد، “نرمافزاری است که همه مزایای هوش مصنوعی را بدون همه خطرات ارائه دهد.”
عوامل هوش مصنوعی به نقشهای واضحی نیاز دارند، نه فقط چتباتها
در همین حال، جورجیو به عنوان یک معمار زیرساخت هوش مصنوعی با تجربه، همچنین به جنبه مهم پروتکلهای ارتباطی عاملهای هوش مصنوعی اشاره کرد و تصدیق کرد که حتی اختلالات جزئی میتواند به هرج و مرج منجر شود. وقتی از او در مورد بهترین رویکرد برای بهبود ارتباط، به خصوص برای کاربران غیرفنی روزمره، پرسیده شد، فلسفه جورجیو ساده است: مسئولیتهای بهخوبی تعریفشده برای عوامل.
جورجیو توضیح داد: “حداقل برای ما، قانون ما این است که عوامل باید مسئولیتهای بسیار خوبی تعریفشدهای داشته باشند.” او توضیح داد: “اگر شما از یک عامل برای خدمات مشتری استفاده میکنید، اطمینان حاصل کنید که در خدمات مشتری واقعاً خوب است و آن را بر روی آن تمرکز نگه دارید.” او تأکید کرد که “وقتی به عوامل مسئولیت زیادی میدهید، آنجاست که همهچیز خراب میشود.”
این رویکرد متمرکز نه تنها عملکرد عامل را در نقش تعیینشده خود بهبود میبخشد بلکه به کاربران نیز سود میرساند. “حتی از دیدگاه کاربر، اگر عوامل شما بهوضوح تعریف شده باشند، کاربران دقیقاً میدانند که با چه چیزی مواجه میشوند وقتی که از آنها استفاده میکنند.” این استراتژی پیشبینیپذیری و اعتماد را ترویج میکند، که برای تعامل یکپارچه با سیستمهای هوشمند حیاتی است.
در حالی که هوش مصنوعی به بلوغ ادامه میدهد و در زندگی روزمره و صنعت عمیقتر ادغام میشود، رسیدگی به این موضوعات پایهای از امنیت، پیشبینیپذیری، عدالت اقتصادی، اجرای تنظیمات مدبرانه و طراحی عوامل با مسئولیتهای واضح و متمرکز نه تنها برای توسعه اخلاقی این فناوری بلکه برای یکپارچگی پایدار و اجتماعی مسئولانه آن به آینده حیاتی خواهد بود.
در رابطه با اهمیت افزایش پذیرش هوش مصنوعی، جورجیو به یک تغییر محوری اشاره کرد: حرکت فراتر از محدودیت
های “جعبه چت هوش مصنوعی” و بهطور اساسی بهبود تجربه کاربری کلی. توضیح در مورد نواقص رویکرد فعلی، جورجیو اظهار داشت:
“در حال حاضر، عمدتاً از طریق یک رابط چت انجام میشود، که برای بسیاری از وظایف خوب است اما بهطور عمده ایدهآل نیست. مشکل این است که شما یک جعبه چت هوش مصنوعی را جلوی مردم میگذارید و میگویید: ‘میتوانید هر کاری با این انجام دهید’ و آنها پاسخ میدهند: ‘عالی، اما چه کاری باید انجام دهم؟'”
بر اساس گفته جورجیو، چندین شرکت از جمله کورال، در حال رسیدگی به چالش بهبود تجربه کاربر هوش مصنوعی هستند. او افشا کرد که از دیدگاه یک توسعهدهنده/نگهدارنده هوش مصنوعی، کورال در حال بررسی “نردبان انتزاع” است تا تعیین کند که چه اطلاعاتی در مراحل مختلف تعامل با سیستم هوش مصنوعی برای کاربران مورد نیاز است و کدام رابطها برای وظایف خاص مؤثرترین هستند.














