زیرساخت های یادگیری ماشینی با کارایی بالا و کم هزینه، نوآوری در فضای ابری را تسریع می کند


نوآوری و یادگیری ماشین (AI و ML) فناوری‌های اصلی هستند که به سازمان‌ها کمک می‌کنند تا راه‌های نوآورانه‌ای برای افزایش فروش، کاهش هزینه‌ها، بهبود فرآیندهای کسب‌وکار و درک بهتر مشتریان خود ایجاد کنند. AWS مشتریان را قادر می‌سازد تا با ارائه محاسبات با کارایی بالا، شبکه‌های پرسرعت و گزینه‌های ذخیره‌سازی مقیاس‌پذیر که می‌توانند با نیازهای برنامه‌های یادگیری ماشین مقیاس شوند، پذیرش هوش مصنوعی / ML خود را تسریع بخشند. این مانعی برای ورود سازمان‌هایی ایجاد می‌کند که به دنبال پذیرش ابر برای مقیاس‌بندی برنامه‌های ML خود هستند.

توسعه‌دهندگان و دانشمندان اطلاعات مرزهای فناوری را در پیش می‌گیرند و به طور فزاینده‌ای از یادگیری عمیق، که نوعی یادگیری ماشینی مبتنی بر شبکه‌های عصبی است، استفاده می‌کنند. این مدل‌های یادگیری عمیق، که بزرگ‌تر و پیچیده‌تر هستند، هزینه توسعه زیرساخت‌های آموزش و پیاده‌سازی این مدل‌ها را افزایش می‌دهند.

برای اینکه مشتریان بتوانند تحول AI/ML خود را تسریع بخشند، AWS در حال ساخت تراشه های یادگیری ماشینی با کارایی بالا و کم هزینه است. AWS Inferentia اولین تراشه یادگیری ماشینی است که از پایه توسط AWS برای کمترین هزینه یادگیری ماشین در فضای ابری ساخته شده است. در واقع، نمونه‌های آمازون EC2 Inf1 که توسط Inferentia ارائه می‌شوند، 2.3 برابر عملکرد بالاتر و تا 70 درصد هزینه کمتری را برای استنتاج یادگیری ماشین نسبت به نمونه‌های EC2 مبتنی بر GPU نسل فعلی ارائه می‌کنند. AWS Trainium دومین تراشه یادگیری ماشینی است که توسط AWS ساخته شده است که هدف آن آموزش مدل‌های یادگیری عمیق است که تا پایان سال 2021 در دسترس خواهند بود.

مشتریان در سراسر صنعت برنامه های کاربردی ML خود را در تولید Inferentia به کار گرفته اند و شاهد بهبودهای قابل توجهی در کارایی و صرفه جویی در هزینه بوده اند. برای مثال، پلتفرم پشتیبانی مشتری AirBnB یک تجربه خدماتی هوشمند، مقیاس‌پذیر و استثنایی را به میلیون‌ها جامعه میزبان و مهمان در سراسر جهان ارائه می‌کند. از نمونه EC2 Inf1 مبتنی بر Inferentia برای پیاده‌سازی مدل پردازش زبان طبیعی (NLP) استفاده می‌کند که از چت‌بات‌های آن پشتیبانی می‌کند. این منجر به بهبود دو برابر بیشتر در عملکرد خارج از جعبه نسبت به نمونه GPU می شود.

با این نوآوری‌ها در سیلیکون، AWS مشتریان را قادر می‌سازد تا به راحتی مدل‌های یادگیری عمیق خود را در تولید با راندمان بالا و هزینه‌های بسیار پایین‌تر آموزش داده و پیاده‌سازی کنند.

چالش های یادگیری ماشینی سرعت را به زیرساخت های مبتنی بر ابر تغییر می دهد

یادگیری ماشینی فرآیندی تکراری است که تیم‌ها را ملزم می‌کند تا برنامه‌ها را به سرعت بسازند، آموزش دهند، و برنامه‌ها را به‌سرعت اجرا کنند، همچنین تمرین کنند، تمرین کنند، و آزمایش کنند تا دقت پیش‌بینی‌های مدل را افزایش دهند. زمانی که سازمان‌ها مدل‌های آموزش‌دیده را در برنامه‌های تجاری خود قرار می‌دهند، باید برنامه‌های کاربردی خود را برای خدمت به کاربران جهانی گسترش دهند. آنها باید بتوانند چندین درخواست ورودی را همزمان با تأخیر تقریباً واقعی ارائه دهند تا از تجربه کاربری بهتر اطمینان حاصل کنند.

موارد کاربردی رخ داده مانند تشخیص اشیا، پردازش زبان طبیعی (NLP)، طبقه‌بندی تصویر، مکالمه هوش مصنوعی و داده‌های سری زمانی مبتنی بر فناوری‌های یادگیری عمیق هستند. مدل یادگیری عمیق، که اندازه و پیچیدگی آن بسیار افزایش یافته است، از میلیون ها تا میلیاردها در چند سال متغیر است.

آموزش و کاربرد این مدل‌های پیچیده و پیچیده منجر به هزینه‌های زیرساختی قابل توجهی می‌شود. هزینه‌ها می‌تواند باعث شود که گلوله‌های برفی بسیار بزرگ شوند زیرا سازمان‌ها برنامه‌های کاربردی خود را گسترش می‌دهند تا تجربه‌ای در زمان واقعی را به کاربران و مشتریان خود ارائه دهند.

اینجاست که خدمات زیرساخت یادگیری ماشین مبتنی بر ابر می‌توانند کمک کنند. Cloud دسترسی به رایانه، شبکه‌ای با کارایی بالا و ذخیره‌سازی کلان داده را فراهم می‌کند که به طور یکپارچه با عملیات ML و خدمات پیشرفته هوش مصنوعی ادغام شده است تا سازمان‌ها را قادر می‌سازد تا فوراً شروع کنند و ابتکارات AI / ML خود را گسترش دهند.

چگونه AWS به مشتریان کمک می کند تا تحول AI / ML خود را تسریع کنند

هدف AWS Inferentia و AWS Trainium دموکراتیک کردن یادگیری ماشین و در دسترس ساختن آن برای توسعه دهندگان بدون توجه به تجربه و دامنه سازمان است. طراحی Inferentia برای راندمان بالا، انتقال و تأخیر کم بهینه شده است و آن را برای کاربردهای استنتاج ML در مقیاس ایده آل می کند.

هر تراشه AWS Inferentia شامل چهار هسته‌های عصبی است که ماشین‌های مالتی پلکس ماتریس آرایه سیستولیک با کارایی بالا را پیاده‌سازی می‌کنند که یادگیری یادگیری عمیق، مانند کانولوشن و ترانسفورماتورها را تا حد زیادی تسریع می‌کنند. NeuronCores همچنین با یک کش بزرگ روی تراشه یکپارچه شده است که دسترسی به حافظه خارجی را کاهش می دهد، تأخیر را کاهش می دهد و توان عملیاتی را افزایش می دهد.

AWS Neuron، یک مجموعه توسعه نرم‌افزار برای Inferentia، اساساً از چارچوب‌های پیشرو ML مانند TensorFlow و PyTorch پشتیبانی می‌کند. توسعه‌دهندگان می‌توانند همچنان از همان چارچوب و ابزارهای توسعه چرخه زندگی که می‌شناسند و دوست دارند استفاده کنند. برای بسیاری از مدل های آموزش دیده آنها، می توان آنها را با تغییر تنها یک خط کد، بدون تغییر کد برنامه اضافی، کامپایل و در Inferentia مستقر کرد.

نتیجه استفاده از استنتاج بسیار کارآمد است که به راحتی می توان آن را مقیاس کرد و در عین حال هزینه ها را تحت کنترل داشت.

Sprinklr، یک شرکت خدمات نرم افزاری، دارای یک پلت فرم مدیریت یکپارچه تجربه مشتری مبتنی بر هوش مصنوعی است که شرکت ها را قادر می سازد تا بازخوردهای مشتری را در زمان واقعی از کانال های متعدد به بینش های عملی تبدیل کنند. این منجر به راه حل های فعال، توسعه محصول بهتر، بازاریابی محتوا بهبود یافته و خدمات بهتر به مشتریان می شود. Sprinklr از Inferentia برای پیاده‌سازی NLP و برخی از مدل‌های بینایی محاسباتی آن استفاده می‌کند و پیشرفت‌های قابل توجهی در عملکرد داشته است.

برخی از سرویس های آمازون نیز از مدل یادگیری ماشینی خود در Inferentia استفاده می کنند.

Amazon Prime Video از رایانه مدل ML Vision برای تجزیه و تحلیل کیفیت ویدیوی زنده رویدادها استفاده می کند تا از بهترین تجربه مشاهده ممکن برای اعضای Prime Video اطمینان حاصل کند. از فرمت طبقه‌بندی تصویر ML در نمونه EC2 Inf1 استفاده کرد و شاهد بهبودهای چهار برابری در عملکرد و صرفه‌جویی در هزینه تا 40 درصد در مقایسه با نمونه مبتنی بر GPU بود.

مثال دیگر، هوش مصنوعی و هوش مبتنی بر ML آمازون الکسا است که توسط خدمات وب آمازون پشتیبانی می شود، که امروزه در بیش از 100 میلیون دستگاه در دسترس است. تعهد الکسا به مشتریان این است که همیشه هوشمندتر، گفتگوی تر، فعال تر و حتی لذت بخش تر می شود. قرارداد نیاز به بهبود مستمر در زمان پاسخگویی و هزینه زیرساخت ماشین دارد. با استفاده از مدل پیام‌رسانی متنی الکسا ML در نمونه‌های Inf1، می‌تواند تأخیر استنتاج را تا 25 درصد و هزینه هر استنتاج را تا 30 درصد کاهش دهد تا تجربه خدمات ده‌ها میلیون مشتری را که هر ماه از الکسا استفاده می‌کنند، افزایش دهد.

قابلیت‌های جدید یادگیری ماشینی را در فضای ابری آزاد کنید

از آنجایی که شرکت‌ها برای اثبات تجارت آینده خود با راه‌اندازی بهترین محصولات و خدمات دیجیتال رقابت می‌کنند، هیچ سازمانی نمی‌تواند از مدل‌های پیشرفته یادگیری ماشین برای کمک به نوآوری در تجربه مشتری خود عقب بماند. در سال‌های اخیر، افزایش چشمگیری در شیوه‌های یادگیری ماشین برای انواع موارد استفاده، از شخصی‌سازی و پیش‌بینی تقلب گرفته تا تقلب و پیش‌بینی زنجیره تامین، وجود داشته است.

خوشبختانه، زیرساخت یادگیری ماشین در فضای ابری قابلیت‌های بی‌سابقه‌ای را به وجود می‌آورد و آن را برای افراد غیرمتخصص قابل دسترس‌تر می‌کند. به همین دلیل است که مشتریان AWS از نمونه‌های آمازون EC2 Inf1 inf1 مبتنی بر Inferentia استفاده می‌کنند تا اطلاعاتی را در پشت موتورهای ارجاع و چت‌بات‌های خود ارائه دهند و بینش‌های عملی را از بازخورد مشتریان به دست آورند.

با گزینه‌های زیرساخت یادگیری ماشین مبتنی بر ابر AWS که برای سطوح مختلف مهارت طراحی شده‌اند، واضح است که هر سازمانی می‌تواند نوآوری را تسریع کند و تمام چرخه‌های یادگیری ماشین را در سراسر جهان بپذیرد. با گسترش یادگیری ماشینی، سازمان‌ها اکنون می‌توانند تجربه مشتری – و روش انجام تجارت – را با زیرساخت‌های یادگیری ماشینی مقرون‌به‌صرفه و با کارایی بالا در فضای ابری تغییر دهند.

در اینجا درباره اینکه چگونه یادگیری ماشینی AWS می تواند به شرکت شما در نوآوری کمک کند بیشتر بیاموزید.

این محتوا توسط AWS تولید شده است. این توسط تحریریه MIT Technology Review نوشته نشده است.


تمامی اخبار به صورت تصادفی و رندومایز شده پس از بازنویسی رباتیک در این سایت منتشر شده و هیچ مسئولتی در قبال صحت آنها نداریم