ما المقصود بـ AWS Neuron؟
AWS Neuron هي مجموعة تطوير البرامج (SDK) المستخدمة لتشغيل التعلم العميق وأعباء عمل الذكاء الاصطناعي المولّد على مثيلات Amazon Elastic Compute Cloud (Amazon EC2) التي تعمل بنظام AWS Inferentia وAWS Trainium. يتضمن المترجم ووقت التشغيل ومكتبات التدريب والاستدلال وأدوات المطور للمراقبة والتنميط وتصحيح الأخطاء. تدعم Neuron دورة حياة تطوير تعلم الآلة (ML) بما في ذلك بناء ونشر نماذج التعلم العميق والذكاء الاصطناعي، والتحسين لتحقيق أعلى أداء وأقل تكلفة، والحصول على رؤى أعمق لسلوك النموذج.

التكامل الأصلي مع أطر تعلم الآلة والمكتبات الشائعة
تتكامل Neuron أصلاً مع PyTorch وJAX ومكتبات تعلم الآلة (ML) الأساسية مثل Hugging Face Optimum Neuron وPyTorch Lightning وAXLearn. تدعم نيورون أيضًا OpenXLA، بما في ذلك StableHLO وGSPMD، مما يمكّن مطوري PyTorch وXLA وJAX من استخدام تحسينات مترجم Neuron لـ Inferentia وTrainium. تُمكّنك Neuron من استخدام المثيلات المستندة إلى Trainium وInferentia مع خدمات مثل Amazon SageMaker وAmazon EKS وAmazon ECS وAWS ParallelCluster وAWS Batch، بالإضافة إلى خدمات الجهات الخارجية مثل Ray (Anyscale)، وDomino Data Lab، وDatadog.

مكتبات التدريب والاستدلال الموزعة
تتضمن Neuron تحسينات جاهزة للتدريب والاستدلال الموزع مع مكتبات PyTorch مفتوحة المصدر NxD Training وNxD Inference. تعمل NxD Training على تبسيط وتحسين التدريب الموزع على نطاق واسع ويدعم العديد من هياكل النماذج واستراتيجيات التوازي وسير العمل التدريبي. توفر NxD Inference حلاً شاملاً للاستدلال الأمثل للنموذج مع الميزات الرئيسية مثل أخذ العينات على الجهاز، ودمج وزن QKV، والتجميع المستمر، وفك التشفير التأملي، والتجميع الديناميكي للبيانات (dynamic bucketing)، والاستدلال الموزع. يتكامل NxD Inference أيضًا مع حلول الخدمة مثل نماذج اللغة الكبيرة الافتراضية (vLLM) وHugging Face TGI. يشتمل كلاهما على محور نموذجي لهياكل النماذج المختلفة.

قدرات العلوم التطبيقية المتقدمة
تمتلك Neuron العديد من القدرات العلمية التطبيقية لتمكين العلماء والباحثين من دفع حدود أبحاث وابتكارات الذكاء الاصطناعي (AI) مفتوحة المصدر على Trainium وInferentia. توفر واجهة Kernel عصبية (NKI) وصولاً مباشرًا إلى أساسيات الأجهزة والتعليمات المتوفرة على Trainium وInferentia، مما يمكّن الباحثين من بناء وضبط نواة الحوسبة لتحقيق الأداء الأمثل. إنها بيئة برمجة قائمة على Python تتبنى صيغة تشبه Triton شائعة الاستخدام ودلالات على مستوى tile. يمكن للباحثين استخدام واجهة Kernel عصبية (NKI) لتعزيز نماذج التعلم العميق بوظائف وتحسينات وابتكارات علمية جديدة. تعمل مشغلات C++ المخصصة من Neuron على تمكين المطورين من توسيع وظائف SDK من خلال إنشاء مشغليها الخاصين المحسنين لـ Inferentia وTrainium.

أدوات المطور القوية
تقدم AWS Neuron SDK مجموعة أدوات شاملة لتوفير رؤى عميقة حول مراقبة وإدارة وتحسين نماذج التعلم العميق على مثيلات EC2 التي تعمل بنظام AWS Inferentia وTrainيوم. يوفر أدوات مساعدة مثل neuron-top وneuron-monitor وNeuron Sysfs لمراقبة موارد الأجهزة وتنفيذ النماذج وتفاصيل النظام. بالنسبة للتطبيقات الحاوية على Kubernetes وEKS، تعمل Neuron على تبسيط المراقبة من خلال تكامل Amazon CloudWatch وأدوات المراقبة الشائعة الأخرى مثل Data Dog. بالإضافة إلى ذلك، تساعد أداة ملف تعريف الخلايا العصبية في تحديد ومعالجة اختناقات الأداء في كل من التطبيقات أحادية العقدة والموزعة، وتوفر إمكانات التنميط الأصلية لأطر تعلم الآلة الشائعة.
