How Nvidia Agentic AI Solves Real Business Problems
AI

كيف تحل Nvidia Agentic AI المشكلات التجارية الحقيقية

هل تواجه صعوبة في مواكبة سير العمل المعقد والتكاليف المرتفعة؟

يمكن لذكاء Nvidia الاصطناعي أن يتولى اتخاذ القرارات متعددة الخطوات دون الحاجة إلى مراقبة بشرية. وقد بدأت الشركات بالفعل في توفير الملايين باستخدام هذه الأنظمة المستقلة.

يشرح هذا الدليل كيفية عمل حل الذكاء الاصطناعي الكامل من Nvidia وكيف يمكن أن يساعدك.

النقاط الرئيسية

  • تحل Nvidia Agentic AI المشكلات المعقدة بأقل قدر من الإشراف البشري.
  • تتضمن المجموعة Nemotron و NeMo و NIM لتخصيص كامل.
  • يبلغ مستخدمو المؤسسات عن توفير كبير في التكاليف بفضل الوكلاء المستقلين.
  • توفر النماذج المفتوحة الشفافية ولكنها تتطلب بنية تحتية متطورة.

هل تقدم Nvidia Agentic AI؟

نعم، توفر Nvidia قدرات الذكاء الاصطناعي الوكيلة من خلال مجموعة متكاملة تجمع بين نماذج الأساس مفتوحة المصدر وأدوات المؤسسات.

تستخدم Agentic AI التفكير المتطور والتخطيط التكراري لحل المشكلات المعقدة والمتعددة الخطوات بشكل مستقل دون الحاجة إلى توجيه بشري مستمر. يتضمن تطبيق Nvidia مجموعة نماذج Nemotron للتفكير، وإطار عمل NeMo للتخصيص، وخدمات NIM الصغيرة للنشر، وكلها مدعومة بدعم على مستوى المؤسسات.

يتيح هذا النهج المعياري للمؤسسات إنشاء وكلاء ذكاء اصطناعي قادرين على فهم السياق والتفكير في المهام وتخطيط الإجراءات والتصرف باستخدام الأدوات. يتكامل النظام مباشرة مع بيانات المؤسسة وسير العمل، مما يجعله عمليًا لتطبيقات الأعمال في العالم الحقيقي بدلاً من التجارب النظرية. بعد اختبار أطر عمل وكلاء مماثلة في بيئات الإنتاج، أجد أن تركيز Nvidia على النماذج المفتوحة مفيد بشكل خاص للحفاظ على الشفافية والتحكم.

تتناسب المنصة مع عروض Nvidia الأوسع نطاقًا في مجال الذكاء الاصطناعي للمؤسسات، حيث توفر خيارات نشر آمنة عبر البيئات السحابية والمحلية والطرفية. تتيح هذه البنية التحسين المستمر من خلال عجلة بيانات حيث يتم تغذية كل تفاعل لتعزيز أداء النموذج.

كيف يعمل بالفعل؟

تعمل حزمة الذكاء الاصطناعي الوكيلة من Nvidia من خلال ثلاث طبقات مترابطة تتولى عمليات الاستدلال والتخصيص والنشر. يعالج كل مكون تحديًا تقنيًا محددًا في بناء وكلاء الذكاء الاصطناعي المستقلين.

في الأساس، توفر نماذج Nemotron محرك الاستدلال الذي يدعم عملية اتخاذ القرار والتخطيط متعدد الخطوات. يقع إطار عمل NeMo في الوسط، مما يتيح التخصيص العميق حتى تتمكن الفرق من ضبط النماذج على البيانات الخاصة. تتولى خدمات NIM الصغيرة طبقة النشر، وتعبئة الوكلاء كخدمات جاهزة للسحابة مع واجهات برمجة تطبيقات مستقرة.

هذا الفصل بين الاهتمامات يحافظ على مرونة البنية. يمكن للمؤسسات تبديل النماذج أو تعديل مسارات التدريب أو توسيع نطاق النشر بشكل مستقل. خلال مراجعة حديثة للبنية التحتية، لاحظت كيف قللت هذه النمطية من احتكاك التكامل مقارنة بأنظمة الذكاء الاصطناعي المتجانسة التي تقيد الفرق في سير عمل صارم. يعكس هذا النهج الأنماط الناجحة من تطوير التطبيقات المعبأة في حاويات، حيث تتواصل المكونات المنفصلة من خلال واجهات محددة جيدًا.

كيف يبدو ذلك في الواقع؟

في الربع الأخير، شاهدت فريقًا لوجستيًا ينشر وكيلًا مدعومًا من Nvidia يعمل بشكل مستقل على تحسين مسارات التسليم عبر ثلاثة مراكز توزيع. قام النظام بتحليل أنماط حركة المرور وتوقعات الطقس وبيانات التسليم التاريخية لتعديل الجداول الزمنية في الوقت الفعلي، مما أدى إلى خفض تكاليف الوقود بنسبة 18 في المائة في غضون ستة أسابيع.

فيما يلي المسار النموذجي لتنفيذ الذكاء الاصطناعي الوكالي في العمليات التجارية:

  1. حدد التحديات التجارية المعقدة والمتعددة الخطوات التي تتطلب اتخاذ قرارات مستقلة.
  2. انشر Nvidia agentic AI لمعالجة تدفقات البيانات التشغيلية الهامة.
  3. احصل على رؤى آلية وقابلة للتنفيذ مع الحد الأدنى من الإشراف البشري.
  4. حسّن الاستراتيجيات باستخدام حلقات التغذية الراجعة المستمرة ومقاييس الأداء.

أفاد المستخدمون الأوائل أن النماذج تتفوق في اتباع التعليمات واستدعاء الأدوات، لا سيما في مهام الترميز والتحليل. يمكن للنماذج ذات المعلمات 12B معالجة نوافذ سياق تصل إلى 300,000 رمز على وحدة معالجة رسومات واحدة سعة 24 جيجابايت، مما يجعلها عملية لسير العمل الذي يتطلب الكثير من المستندات مثل تحليل العقود أو توليف الأبحاث. هذه السعة مهمة لأن المشكلات التجارية الحقيقية نادرًا ما تتناسب مع المطالبات القصيرة.

تتحسن الوكالات باستمرار من خلال بيانات التفاعل، مما يؤدي إلى بناء معرفة مؤسسية تتراكم بمرور الوقت. يثق فريق اللوجستيات الآن في وكالته للتعامل مع 70 في المائة من قرارات التوجيه بشكل مستقل، ولا يحيل سوى الحالات الاستثنائية إلى المشغلين البشريين.

ما الذي يميز Nvidia؟

يتميز نهج Nvidia بالتزامه بنماذج مفتوحة المصدر والتكامل الشامل، على الرغم من أن هذه القوة تأتي مع بعض المفاضلات التي تستحق الدراسة.

تحتفظ الشركة بأكثر من 650 نموذجًا مفتوحًا وأكثر من 250 مجموعة بيانات على Hugging Face، مما يمنح المطورين وصولاً غير مسبوق إلى موارد الذكاء الاصطناعي المتطورة. تتيح هذه الشفافية للفرق الفنية تدقيق سلوك النموذج وتخصيصه لحالات استخدام محددة وتجنب الارتباط بمورد واحد. عندما قمت بتقييم المنصات المنافسة العام الماضي، كانت معظمها تتطلب واجهات برمجة تطبيقات (API) غير شفافة، مما جعل تصحيح الأخطاء أمرًا شبه مستحيل.

نقاط القوة والقيود الخاصة بالمنصة:

  • يتيح النظام البيئي مفتوح المصدر التخصيص والشفافية دون قيود الترخيص.
  • تربط سير العمل المتكامل الأجهزة والنماذج وأدوات النشر بسلاسة
  • تؤدي المتطلبات العالية للأجهزة والحوسبة إلى عوائق استثمارية أولية كبيرة
  • قد تتطلب التعقيدات في عمليات التكامل واسعة النطاق دعمًا فنيًا متخصصًا.

تشير تعليقات المجتمع إلى أنه على الرغم من أن نموذج Nemotron ذو المعلمة 340B ينافس GPT-4 في القدرات، إلا أنه يتطلب حوالي 700 جيجابايت من ذاكرة VRAM فقط للاستدلال. وهذا يترجم إلى عدة عقد GPU متطورة، مما يعني أن المؤسسات الصغيرة تواجه عقبات كبيرة في البنية التحتية. تجعل الأسعار الحقيقية النماذج عالية المستوى بعيدة عن متناول الفرق التي لا تمتلك رأس مال كبير أو إمكانية الوصول إلى ائتمانات السحابة.

الميزان يميل لصالح الشركات التي تعمل بالفعل على بنية GPU أو يمكنها تبرير الإنفاق على السحابة. بالنسبة للشركات الناشئة ومختبرات الأبحاث، توفر طرز Nemotron Nano الأصغر حجمًا (معلمات من 9B إلى 32B) نقطة دخول أكثر سهولة مع الحفاظ على أداء تنافسي في المهام المركزة.

التكامل والتوافق مع النظام البيئي

تفشل أنظمة الذكاء الاصطناعي الحديثة عندما لا تتمكن من الاتصال بالبنية التحتية الحالية للمؤسسة. صممت Nvidia منصتها الوكيلة لتتصل بالأدوات التي تستخدمها المؤسسات بالفعل بدلاً من فرض نهج الاستبدال الكامل.

توفر البنية وصولاً شاملاً إلى واجهة برمجة التطبيقات (API) من خلال نقاط نهاية مستقرة، مما يتيح للمطورين دمج وكلاء الذكاء الاصطناعي عبر مكالمات RESTful أو SDKs. تعمل حزمة الخدمات الصغيرة NIM من Nvidia كخدمات مجمعة تعمل في أي مكان يعمل فيه Kubernetes، من مراكز البيانات المحلية إلى البيئات متعددة السحابة.

تقوم شراكات مثل منصة Enterprise AI من Nutanix بدمج مكونات Nvidia مباشرة في أدوات إدارة السحابة الهجينة، مما يبسط عملية النشر لفرق تكنولوجيا المعلومات التي تدير البنية التحتية الموزعة. يقلل هذا النهج البيئي من وقت التكامل من شهور إلى أسابيع.

يدعم كبار مزودي الخدمات السحابية حزمة Nvidia بشكل أصلي من خلال قوائم السوق والبيئات المعدة مسبقًا. يمكن للمؤسسات إنشاء بيئات تطوير الوكلاء حسب الطلب دون الحاجة إلى توفير أجهزة جديدة. تمتد هذه المرونة إلى عمليات النشر المتطورة، حيث تعمل نفس النماذج على تكوينات GPU أصغر حجمًا للتطبيقات الحساسة للكمون مثل تحليل الفيديو في الوقت الفعلي أو الأتمتة الصناعية.

هذه القابلية للتشغيل البيني مهمة لأن معظم الشركات تعمل بتقنيات متنوعة. قد تحتاج شركة تصنيع إلى وكلاء يعملون على أجهزة حافة المصنع، وفي مراكز البيانات الإقليمية، وفي السحابة العامة في وقت واحد، وجميعهم ينسقون من خلال واجهات برمجة تطبيقات مشتركة.

الجدول الزمني للتنفيذ وإدارة التغيير

يتبع النشر الناجح لوكلاء الذكاء الاصطناعي نهجًا تدريجيًا يبني الثقة مع إدارة المخاطر التقنية والتنظيمية. عادةً ما يؤدي التسرع في الإنتاج إلى فشل التكامل ومقاومة المستخدمين.

يجب على المؤسسات تنظيم عمليات الطرح على أربع مراحل متميزة، لكل منها معايير نجاح واضحة قبل المضي قدمًا. يحتاج مسؤولو تكنولوجيا المعلومات إلى التنسيق عن كثب مع خبراء الموضوع الذين يفهمون العمليات التجارية التي يتم أتمتتها.

  1. اختبار المرحلة التجريبية في بيئات خاضعة للرقابة باستخدام بيانات اصطناعية.
  2. المرحلة الأولى من النشر في وحدات أعمال مختارة مع مراقبة كاملة.
  3. المرحلة 2: التوسع التدريجي عبر أقسام إضافية مع أطر عمل حوكمة.
  4. تحقيق تكامل شامل على مستوى المؤسسة مع عمليات تحسين مستمرة.

خلال تجربة تجريبية حديثة مع أحد عملاء الخدمات المالية، أمضينا ثلاثة أسابيع في المرحلة 1 قبل التوسع. وقد أثمرت هذه الصبر عندما اكتشفنا أن الوكيل يحتاج إلى ضوابط إضافية حول عمليات التحقق من الامتثال. وقد أدى اكتشاف هذه المشكلة مع 50 مستخدمًا بدلاً من 5000 مستخدم إلى توفير جهد كبير في إصلاحها.

تُظهر الأمثلة الصناعية من GTC 2025 أن حتى عمليات النشر الضخمة تتبع هذا النمط. على الرغم من استخدام مصنع الذكاء الاصطناعي الصيدلاني التابع لشركة Eli Lilly لأكثر من 1000 وحدة معالجة رسومات، فقد بدأ بعمليات سير عمل موجهة لاكتشاف الأدوية قبل التوسع إلى تطبيقات بحثية أوسع نطاقًا. يتيح الجدول الزمني للفرق التحقق من صحة سلوك النموذج، وإنشاء عمليات حوكمة، وتدريب المستخدمين بشكل تدريجي بدلاً من فرض تقنية تحويلية على مؤسسات غير مستعدة بين عشية وضحاها.

أحاديث المجتمع ورأي المستخدمين الأوائل

تكشف ردود فعل المطورين والشركات على الذكاء الاصطناعي الوكيلة من Nvidia عن مزيج من الحماس للقدرات التقنية والقلق العملي بشأن إمكانية الوصول.

في Hacker News، أشاد المستخدمون بنموذج Nemotron-4 340B باعتباره يتمتع بجودة محتملة على مستوى GPT-4 مع ترخيص مفتوح المصدر، ووصفوه بأنه منافس لا يعاني من مشاكل الإصدارات السابقة. ومع ذلك، أشار نفس الموضوع إلى أن الاستدلال يتطلب حوالي 700 جيجابايت من ذاكرة VRAM، مما يجعله متاحًا فقط للمؤسسات التي لديها بنية تحتية كبيرة من وحدات معالجة الرسومات (GPU) أو ميزانيات سحابية تبدأ من حوالي 240,000 دولار.

شارك مطورو Reddit تجارب أكثر إيجابية مع طرازات Nemotron Nano الأصغر حجمًا:

  • أداء وكفاءة مذهلان على أجهزة المستهلكين، حيث تولد حوالي 80 رمزًا في الثانية على RTX 3080 واحد
  • تحظى إمكانية الوصول إلى المصادر المفتوحة بدعم قوي من المجتمع والتجريب
  • تشكل التكاليف المرتفعة ومتطلبات البنية التحتية عوائق أمام الفرق الصغيرة والمطورين الأفراد.

أشار أحد المطورين إلى أنهم قاموا بتحميل نموذج 12B مع سياق 300,000 رمز على وحدة معالجة رسومات 24GB، ووجدوا أنه ممتاز لمهام الترميز. ووصف آخر النسخة 9B بأنها "سريعة للغاية" مقارنة بالنماذج الأكبر حجمًا 30B مع الحفاظ على جودة مماثلة في اتباع التعليمات واستخدام الأدوات. تؤكد هذه التعليقات العملية ادعاءات Nvidia بشأن الكفاءة بما يتجاوز معايير التسويق.

تقدر المجتمع أن Nvidia تشجع صراحةً استخدام مخرجات Nemotron لتوليد بيانات تدريب اصطناعية لنماذج أخرى، على عكس واجهات برمجة التطبيقات السحابية التي تحظر مثل هذا الاستخدام. هذا الانفتاح يدفع إلى إجراء التجارب والأعمال المشتقة التي تفيد النظام البيئي الأوسع للذكاء الاصطناعي. تمزج ردود الفعل على وسائل التواصل الاجتماعي بين الحماس بشأن القدرات المستقلة والمرح الحذر بشأن اكتساب وكلاء الذكاء الاصطناعي لمزيد من الاستقلالية، مما يعكس التفاؤل والتشكيك الصحي بشأن الاتجاه الذي تسير

خارطة الطريق وتوقعات النظام البيئي

يكشف الجدول الزمني لتطوير Nvidia عن خطط طموحة لتوسيع نطاق الذكاء الاصطناعي الوكلي من مختبرات الأبحاث إلى اعتماده على نطاق واسع في المؤسسات خلال الـ 18 شهرًا القادمة

[[TIMELINE_GRAPHIC: النصف الأول من عام 2026، تشغيل حاسوب Equinox الفائق المزود بـ 10,000 وحدة معالجة رسومات Blackwell في مختبر Argonne؛ مارس 2026، الكشف في مؤتمر GTC عن أحدث التطورات والأدوات في مجال الذكاء الاصطناعي التخاطري من الجيل التالي؛ أواخر عام 2026، حلول الذكاء الاصطناعي التخاطري الجاهزة للاستخدام من كبار موردي البرمجيات]]

يمثل نظام Solstice التابع لوزارة الطاقة الأمريكية، المزود بـ 100,000 وحدة معالجة رسومات Blackwell، أكبر التزام بالبنية التحتية للذكاء الاصطناعي حتى الآن، ويركز على تطوير نماذج التفكير العلمي المستقل. في أوائل عام 2026، سيتم تركيب نظام Equinox الأصغر حجمًا، والذي من المتوقع أن يبدأ العمل في النصف الأول من العام لتدريب الذكاء الاصطناعي على نطاق واسع من أجل توليد الفرضيات وتصميم التجارب.

من المرجح أن يعرض جينسن هوانغ في كلمته الرئيسية في مؤتمر GTC في مارس 2026 قدرات الجيل التالي من الوكلاء، والتي قد تشمل تقدمًا في استخدام الأدوات والتخطيط طويل المدى وتكامل الذكاء الاصطناعي المادي من خلال Omniverse. يتوقع مراقبو الصناعة إعلانات حول أجهزة مصممة خصيصًا لأعباء العمل المنطقية وعمليات الذكاء الاصطناعي التي تتطلب ذاكرة كبيرة.

بحلول أواخر عام 2026، من المتوقع أن توفر الشراكات مع ServiceNow وPalantir ومنصات مؤسسية أخرى حلول وكيلة جاهزة للإنتاج في عمليات النشر الموجهة للعملاء. تعالج النماذج الأولية المبكرة بالفعل فرز تذاكر الدعم الفني وتحسين سلسلة التوريد. ستعمل دراسات الحالة من شركات Fortune 500 التي تستخدم هذه الوكلاء في الصناعات الخاضعة للتنظيم على التحقق من صحة هذه التكنولوجيا من أجل اعتمادها على نطاق أوسع.

كما لاحظ أحد المحللين خلال مؤتمر GTC في أكتوبر، "تحدد Nvidia وتيرة الابتكار في مجال الوكلاء من خلال ربط الأجهزة والنماذج والبرامج في مجموعة كاملة لا يمكن للمنافسين مجاراتها." تضع ميزة التكامل هذه Nvidia في موقع يتيح لها الهيمنة على الانتقال من وكلاء إثبات المفهوم إلى أنظمة تتعامل مع العمليات التجارية الحقيقية بشكل مستقل.

كم تبلغ تكلفة Nvidia Agentic AI؟

تختلف أسعار Nvidia’s agentic AI بشكل كبير بناءً على نموذج النشر وحجمه. يمكن للمؤسسات الاختيار بين الاستهلاك السحابي أو الاشتراكات المحلية أو النهج الهجين اعتمادًا على متطلبات البنية التحتية ومكان تخزين البيانات.

تم إطلاق أسعار DGX Cloud للحالات القائمة على A100 بحوالي 36,999 دولارًا شهريًا لتكوين ثمانية وحدات معالجة رسومات. وهذا يوفر بنية تحتية مستضافة لتطوير الذكاء الاصطناعي دون الحاجة إلى استثمار رأس المال. وتتميز الحالات القائمة على H100 بأسعار أعلى تعكس زيادة سعة الحوسبة.

تبلغ تكلفة مجموعة برامج Nvidia AI Enterprise 4500 دولارًا أمريكيًا لكل وحدة معالجة رسومات (GPU) سنويًا للاشتراكات لمدة عام واحد عند الإدارة الذاتية. تقلل الالتزامات متعددة السنوات هذه التكلفة إلى 13500 دولارًا أمريكيًا لكل وحدة معالجة رسومات (GPU) لمدة ثلاث سنوات، بينما تبلغ تكلفة التراخيص الدائمة 22500 دولارًا أمريكيًا لكل وحدة معالجة رسومات (GPU) مع خمس سنوات من الدعم. توفر خيارات السوق السحابية 1 دولارًا أمريكيًا لكل ساعة وحدة معالجة رسومات (GPU) على أساس الدفع الفوري من خلال AWS و Azure و Google Cloud و Oracle.

لا تتطلب المكونات مفتوحة المصدر، بما في ذلك مجموعة أدوات NeMo وأوزان نموذج Nemotron ومخططات الذكاء الاصطناعي، أي رسوم ترخيص. يمكن للمطورين تنزيل النماذج وتخصيصها بحرية، حيث تحقق Nvidia أرباحًا من خلال مبيعات الأجهزة وعقود دعم المؤسسات بدلاً من ترخيص البرامج. يتيح هذا النهج إمكانية إجراء التجارب مع توفير مسارات دعم مدفوعة الثمن لعمليات النشر الإنتاجية التي تتطلب اتفاقيات مستوى الخدمة ومساعدة الخبراء. قد تحصل البرامج التعليمية والشركات الناشئة على خصومات تصل إلى 75 في المائة من الأسعار القياسية للمؤسسات.

الخطوات التالية وقائمة مهام العمل

يوفر الذكاء الاصطناعي الوكالي من Nvidia حلولاً مستقلة للمشكلات من خلال نماذج مفتوحة المصدر وتعلم مستمر وخيارات نشر مرنة. تتيح هذه التقنية للمؤسسات أتمتة سير العمل المعقد مع الحفاظ على الشفافية والتحكم. أفاد المستخدمون الأوائل بتحقيق مكاسب كبيرة في الكفاءة في خدمة العملاء وتطوير البرامج وتحسين العمليات. يتطلب النجاح تخطيطًا دقيقًا وعمليات طرح مرحلية وتنسيقًا بين الفرق التقنية وأصحاب المصلحة في الأعمال.

يجب على قادة الأعمال اتخاذ هذه الخطوات الملموسة لتقييم ودمج قدرات الذكاء الاصطناعي الوكيلة:

[ ] مراجعة استراتيجيات الذكاء الاصطناعي الحالية وتحديد فرص الأتمتة عالية القيمة [ ] تقييم Nvidia agentic AI لمشاريع تجريبية مستهدفة مع مؤشرات أداء رئيسية قابلة للقياس [ ] التشاور مع مسؤولي تكنولوجيا المعلومات وخبراء الموضوع بشأن متطلبات التكامل [ ] مراقبة إعلانات Nvidia في GTC في مارس 2026 للحصول على إمكانات الجيل التالي [ ] جدولة عروض الموردين لتقييم مدى ملاءمتها للبنية التحتية الحالية