ارائه توسط
News

آخر هفتهٔ پرهیاهوی هوش مصنوعی: تکانِ بزرگِ OpenAI، تقابل با پنتاگون، و ربات‌هایی که از کار افتادن را نمی‌پذیرند

هوش مصنوعی (AI) آخر هفته موجی از تحولات را رقم زد؛ از استعفاهای مدیریتی و اختلافات با پنتاگون گرفته تا جهش‌های رباتیک، عرضه مدل‌های سازمانی و ابزارهای امنیتی جدید—مجموعه‌ای که نشان می‌دهد این صنعت تقریباً در همه جبهه‌ها با شتاب در حال پیشروی است.

نویسنده
اشتراک
آخر هفتهٔ پرهیاهوی هوش مصنوعی: تکانِ بزرگِ OpenAI، تقابل با پنتاگون، و ربات‌هایی که از کار افتادن را نمی‌پذیرند

قراردادهای دفاعی، استعفاها و اصطکاک با پنتاگون

یکی از چشمگیرترین تحولات در ۷ مارس رخ داد؛ زمانی که کِیتلین کالینوفسکی، رئیس رباتیک و سخت‌افزار مصرفی OpenAI، از شرکت استعفا داد. کالینوفسکی بنا بر گزارش‌ها گفته نگرانی‌هایی درباره تلاش OpenAI برای یک قرارداد پنتاگون مطرح کرده بود؛ قراردادی که شامل به‌کارگیری AI روی سامانه‌های محرمانه دولتی می‌شد. گفته می‌شود او هشدار داده بود که این پیشنهاد، حفاظ‌های کافی درباره کاربردهای نظارت داخلی و امکان سلاح‌های خودمختارِ مرگبار را ندارد.

OpenAI در پاسخ با تکرار این نکته اعلام کرد که شرکت درباره برخی کاربردهای نظامی «خطوط قرمز» سخت‌گیرانه‌ای دارد. با این حال، این خروج نشان‌دهنده افزایش تنش میان جاه‌طلبی‌های AI در سیلیکون‌ولی و اولویت‌های امنیت ملی واشینگتن است؛ به‌ویژه در شرایطی که نهادهای دفاعی بیش از پیش در حال بررسی استفاده از سامانه‌های پیشرفته AI در عملیات حساس هستند.

این تنش‌ها زمانی شدیدتر شد که پنتاگون در ۵ مارس به‌طور رسمی Anthropic را «ریسک زنجیره تأمین» نام‌گذاری کرد. این نام‌گذاری استفاده پیمانکاران دفاعی از برخی نسخه‌های مدل AI کلود (Claude) این شرکت را در پروژه‌های دولتی محدود می‌کند. این برچسب کم‌سابقه که به یک شرکت فناوری داخلی داده شده، نشان می‌دهد اختلاف‌نظرها درباره ایمنی AI و کاربرد نظامی آن چگونه با برنامه‌ریزی دفاع ملی به برخوردی تندتر نزدیک می‌شود.

حکمرانی و اخلاق در کانون توجه AI

در میانه این مناقشات، ائتلافی از فناوران و سیاست‌گذاران یک پیشنهاد حکمرانی جدید را برای هدایت مرحله بعدی توسعه هوش مصنوعی رونمایی کردند. در ۷ مارس، فیزیک‌دان MIT، مکس تگمارک، به همراه گروهی دوحزبی از پژوهشگران و کنشگران سیاست‌گذاری «بیانیه طرفدار انسان» را معرفی کردند؛ چارچوبی که هدفش این است توسعه AI همسو با نظارت انسانی و آزادی‌های مدنی باقی بماند.

این بیانیه پنج اصل کلیدی را مطرح می‌کند؛ از جمله حفظ کنترل نهایی انسان بر سامانه‌های پیشرفته AI، جلوگیری از تمرکز بیش از حد قدرت در دست چند شرکت، اجرای آزمون‌های ایمنی سخت‌گیرانه، حفاظت از حقوق مدنی، و اعمال محدودیت‌های سخت بر ابرهوشِ خودبهبوددهنده. نویسندگان آن، این پیشنهاد را به‌عنوان نقشه راهی برای قانون‌گذاران معرفی کردند که با مناظرات سیاستی هرچه پیچیده‌تر درباره AI دست‌وپنجه نرم می‌کنند.

ربات‌هایی که دست از کار نمی‌کشند

در حالی که سیاست‌گذاران درباره چارچوب‌های حکمرانی بحث می‌کردند، پژوهشگران نشان دادند رباتیکِ مبتنی بر AI با چه سرعتی در حال تکامل است. دانشمندان دانشگاه نورث‌وسترن از کلاس جدیدی از «فرا‌ماشین‌های پادار» طراحی‌شده با AI رونمایی کردند؛ ربات‌های ماژولاری که می‌توانند شکل خود را تطبیق دهند و حتی پس از آسیب فیزیکی شدید نیز به کار ادامه دهند.

AI’s Wild Weekend: OpenAI Shakeup, Pentagon Clash, and Robots That Refuse to Die
منبع تصویر: اخبار دانشگاه نورث‌وسترن.

این پژوهش که در مجله Proceedings of the National Academy of Sciences منتشر شده، ربات‌هایی را نشان می‌دهد که می‌توانند در پیکربندی‌های مختلف به هم متصل شوند و روی زمین‌های ناهموار حرکت کنند. در آزمایش‌ها، برخی ربات‌ها از هم بریده شدند و با این حال توانستند با بازچینی اجزای باقی‌مانده، تحرک خود را بازیابی کنند—رفتاری که پژوهشگران می‌گویند می‌تواند در مناطق حادثه‌دیده، مأموریت‌های اکتشافی یا دیگر محیط‌های غیرقابل پیش‌بینی مفید باشد.

مدل‌های مرزی، توانمندی‌های AI سازمانی را گسترش می‌دهند

در جبهه نرم‌افزار، OpenAI در ۵ مارس خانواده مدل‌های GPT-5.4 خود را عرضه کرد و سامانه‌هایی را معرفی نمود که مشخصاً برای بارهای کاری حرفه‌ای و سازمانی طراحی شده‌اند. این انتشار شامل گونه‌های تخصصی Pro و Thinking است که توان استدلال بهتر، انجام کارهای پیچیده کدنویسی و کنترل مستقیم رایانه را فراهم می‌کنند.

برخی نسخه‌های GPT-5.4 از پنجره‌های زمینه‌ای نزدیک به یک میلیون توکن پشتیبانی می‌کنند و به کاربران اجازه می‌دهند اسناد یا مجموعه‌داده‌های عظیم را در یک پرامپت واحد تحلیل کنند. OpenAI گفت مدل‌های جدید با هدف کاهش «توهم» و افزایش قابلیت اتکا برای کاربردهای کسب‌وکاری مانند تحلیل داده، مهندسی و گردش‌کارهای خودکار ارائه شده‌اند.

AI به شکارچی باگ امنیت سایبری تبدیل می‌شود و انتشار جدید Openclaw

هوش مصنوعی همچنین برای کارهای دفاعی امنیت سایبری مفید بودن خود را نشان می‌دهد. Anthropic در ۶ مارس اعلام کرد که مدل AI کلود (Claude) این شرکت طی یک همکاری آزمایشی دو هفته‌ای با موزیلا، ۲۲ آسیب‌پذیری را در مرورگر Mozilla Firefox کشف کرده است.

چهارده مورد از این مشکلات، با شدت بالا ارزیابی شدند. این یافته‌ها نشان می‌دهد سامانه‌های پیشرفته AI به‌طور فزاینده‌ای برای کمک به کشف آسیب‌پذیری‌ها به کار گرفته می‌شوند و به تیم‌های امنیتی کمک می‌کنند نقص‌ها را بسیار سریع‌تر از حسابرسی صرفاً دستیِ سنتی شناسایی و رفع کنند.

آخرین انتشار Openclaw، یعنی نسخه 2026.3.7، یکشنبه منتشر شد و یک ارتقای قابل‌توجه در قابلیت توسعه‌پذیری و قابلیت اتکا برای چارچوب ویروسیِ متن‌بازِ عامل خودمختار AI به همراه آورد؛ چارچوبی که به‌صورت محلی تقریباً روی هر پلتفرمی اجرا می‌شود.

ویژگی اصلی، سامانه افزونه‌ای جدید ContextEngine با هوک‌های کامل چرخه عمر (bootstrap، ingest، compact، مدیریت زیرعامل‌ها و غیره) است که به توسعه‌دهندگان و جامعه گسترده‌تر آزادی می‌دهد افزونه‌های سفارشی مدیریت زمینه بسازند—مانند lossless-claw—که رفتار هسته را گسترش دهند یا بازنویسی کنند، در حالی که کاملاً با نسخه‌های قبلی سازگار می‌مانند.

عامل‌های AI وارد مراقبت سلامت و کارهای اداری می‌شوند

شرکت‌های بزرگ فناوری نیز برای جای‌دادن عامل‌های AI در صنایع واقعی با یکدیگر رقابت می‌کنند. خدمات وب آمازون (AWS) در ۵ مارس Amazon Connect Health را معرفی کرد؛ پلتفرمی واجد شرایط HIPAA که برای استقرار عامل‌های AI در سراسر عملیات مراقبت سلامت طراحی شده است.

این پلتفرم می‌تواند زمان‌بندی بیماران را خودکار کند، در مستندسازی کمک کند، جزئیات بیمه را راستی‌آزمایی کند و کارهای اداری را انجام دهد، در حالی که با سامانه‌های پرونده الکترونیک سلامت یکپارچه می‌شود. AWS می‌گوید این سامانه با هدف کاهش بار اداری ارائه‌دهندگان خدمات درمانی و بهبود هماهنگی مراقبت از بیمار طراحی شده است.

OpenAI با انتشار Codex Security، ابزار سازمانی دیگری را رونمایی کرد؛ یک عامل AI که قادر است مخازن کد نرم‌افزار را اسکن کند، آسیب‌پذیری‌ها را شناسایی کند، یافته‌ها را اعتبارسنجی کند و اصلاحیه پیشنهاد دهد. این ابزار که در ابتدا به‌عنوان پیش‌نمایش پژوهشی منتشر شده، نشان می‌دهد AI چگونه بیش از پیش وارد حسابرسی نرم‌افزار و امنیت توسعه می‌شود.

این شرکت همچنین افزونه بتای ChatGPT برای Microsoft Excel را معرفی کرد که به کاربران امکان می‌دهد مستقیماً داخل صفحه‌گسترده‌ها با GPT-5.4 تعامل کنند. این یکپارچه‌سازی به تحلیلگران و تیم‌های کسب‌وکار اجازه می‌دهد مدل‌های سناریو اجرا کنند، مجموعه‌داده‌ها را تحلیل کنند و پیش‌بینی‌های مالی تولید کنند، بدون آنکه از Excel خارج شوند؛ و بدین‌ترتیب AI را بیش از پیش در گردش‌کارهای روزمره کسب‌وکار جا می‌اندازد.

گروک، کلاد، کوئن، چت‌جی‌پی‌تی و موارد دیگر: ۹ مدل هوش مصنوعی مسیر بعدی قیمت بیت‌کوین را پیش‌بینی می‌کنند

گروک، کلاد، کوئن، چت‌جی‌پی‌تی و موارد دیگر: ۹ مدل هوش مصنوعی مسیر بعدی قیمت بیت‌کوین را پیش‌بینی می‌کنند

کاوش در بینش‌های مدل‌های پیشروی هوش مصنوعی دربارهٔ نوسانات قیمت بیت‌کوین و پیش‌بینی‌های آینده در بازار ارزهای دیجیتال. read more.

اکنون بخوانید

تازه‌ترین تحولات AI در ۴۸ ساعت گذشته تصویری از صنعتی ارائه می‌دهد که هم‌زمان در چندین جبهه پیش می‌رود—از رباتیک و امنیت سایبری تا خودکارسازی مراقبت سلامت و مناظرات ژئوپولیتیک درباره نقش AI در دفاع ملی. این رویدادها همچنین کشمکشی رو به رشد میان نوآوری و نظارت را آشکار می‌کند؛ زیرا دولت‌ها، پژوهشگران و غول‌های فناوری می‌کوشند در حالی که فناوری سریع‌تر از آنچه سیاست‌گذاری بتواند با آسودگی همگام شود پیش می‌رود، چارچوب‌های حفاظتی را تعریف کنند.

پرسش‌های متداول 🔎

  • بزرگ‌ترین خبرهای AI در ۴۸ ساعت گذشته چه بودند؟
    تحولات مهم شامل عرضه GPT-5.4 توسط OpenAI، یک جهش رباتیکی از دانشگاه نورث‌وسترن، کشف آسیب‌پذیری‌های فایرفاکس توسط Anthropic، و عرضه عامل‌های AI حوزه سلامت توسط AWS بود.
  • چرا رهبر رباتیک OpenAI استعفا داد؟
    کِیتلین کالینوفسکی با اشاره به نگرانی‌ها درباره یک قرارداد پیشنهادی AI با پنتاگون و ناکافی بودن حفاظ‌ها پیرامون نظارت و سلاح‌های خودمختار کناره‌گیری کرد.
  • «فرا‌ماشین‌های پادار» AI چیستند؟
    آن‌ها ربات‌های ماژولاری هستند که توسط AI طراحی شده‌اند و می‌توانند ساختار خود را تطبیق دهند و حتی پس از آسیب فیزیکی شدید نیز به حرکت ادامه دهند.
  • AI چگونه امنیت سایبری را بهبود می‌دهد؟
    سامانه‌های پیشرفته AI مانند کلود Anthropic می‌توانند مخازن کد نرم‌افزار را تحلیل کنند و به‌سرعت آسیب‌پذیری‌هایی را شناسایی کنند که ممکن است از چشم تیم‌های انسانی دور بماند.
برچسب‌ها در این داستان