[ad_1]
نوآوری و یادگیری ماشین (AI و ML) فناوریهای اصلی هستند که به سازمانها کمک میکنند تا راههای نوآورانهای برای افزایش فروش، کاهش هزینهها، بهبود فرآیندهای کسبوکار و درک بهتر مشتریان خود ایجاد کنند. AWS مشتریان را قادر میسازد تا با ارائه محاسبات با کارایی بالا، شبکههای پرسرعت و گزینههای ذخیرهسازی مقیاسپذیر که میتوانند با نیازهای برنامههای یادگیری ماشین مقیاس شوند، پذیرش هوش مصنوعی / ML خود را تسریع بخشند. این مانعی برای ورود سازمانهایی ایجاد میکند که به دنبال پذیرش ابر برای مقیاسبندی برنامههای ML خود هستند.
توسعهدهندگان و دانشمندان اطلاعات مرزهای فناوری را در پیش میگیرند و به طور فزایندهای از یادگیری عمیق، که نوعی یادگیری ماشینی مبتنی بر شبکههای عصبی است، استفاده میکنند. این مدلهای یادگیری عمیق، که بزرگتر و پیچیدهتر هستند، هزینه توسعه زیرساختهای آموزش و پیادهسازی این مدلها را افزایش میدهند.
برای اینکه مشتریان بتوانند تحول AI/ML خود را تسریع بخشند، AWS در حال ساخت تراشه های یادگیری ماشینی با کارایی بالا و کم هزینه است. AWS Inferentia اولین تراشه یادگیری ماشینی است که از پایه توسط AWS برای کمترین هزینه یادگیری ماشین در فضای ابری ساخته شده است. در واقع، نمونههای آمازون EC2 Inf1 که توسط Inferentia ارائه میشوند، 2.3 برابر عملکرد بالاتر و تا 70 درصد هزینه کمتری را برای استنتاج یادگیری ماشین نسبت به نمونههای EC2 مبتنی بر GPU نسل فعلی ارائه میکنند. AWS Trainium دومین تراشه یادگیری ماشینی است که توسط AWS ساخته شده است که هدف آن آموزش مدلهای یادگیری عمیق است که تا پایان سال 2021 در دسترس خواهند بود.
مشتریان در سراسر صنعت برنامه های کاربردی ML خود را در تولید Inferentia به کار گرفته اند و شاهد بهبودهای قابل توجهی در کارایی و صرفه جویی در هزینه بوده اند. برای مثال، پلتفرم پشتیبانی مشتری AirBnB یک تجربه خدماتی هوشمند، مقیاسپذیر و استثنایی را به میلیونها جامعه میزبان و مهمان در سراسر جهان ارائه میکند. از نمونه EC2 Inf1 مبتنی بر Inferentia برای پیادهسازی مدل پردازش زبان طبیعی (NLP) استفاده میکند که از چتباتهای آن پشتیبانی میکند. این منجر به بهبود دو برابر بیشتر در عملکرد خارج از جعبه نسبت به نمونه GPU می شود.
با این نوآوریها در سیلیکون، AWS مشتریان را قادر میسازد تا به راحتی مدلهای یادگیری عمیق خود را در تولید با راندمان بالا و هزینههای بسیار پایینتر آموزش داده و پیادهسازی کنند.
چالش های یادگیری ماشینی سرعت را به زیرساخت های مبتنی بر ابر تغییر می دهد
یادگیری ماشینی فرآیندی تکراری است که تیمها را ملزم میکند تا برنامهها را به سرعت بسازند، آموزش دهند، و برنامهها را بهسرعت اجرا کنند، همچنین تمرین کنند، تمرین کنند، و آزمایش کنند تا دقت پیشبینیهای مدل را افزایش دهند. زمانی که سازمانها مدلهای آموزشدیده را در برنامههای تجاری خود قرار میدهند، باید برنامههای کاربردی خود را برای خدمت به کاربران جهانی گسترش دهند. آنها باید بتوانند چندین درخواست ورودی را همزمان با تأخیر تقریباً واقعی ارائه دهند تا از تجربه کاربری بهتر اطمینان حاصل کنند.
موارد کاربردی رخ داده مانند تشخیص اشیا، پردازش زبان طبیعی (NLP)، طبقهبندی تصویر، مکالمه هوش مصنوعی و دادههای سری زمانی مبتنی بر فناوریهای یادگیری عمیق هستند. مدل یادگیری عمیق، که اندازه و پیچیدگی آن بسیار افزایش یافته است، از میلیون ها تا میلیاردها در چند سال متغیر است.
آموزش و کاربرد این مدلهای پیچیده و پیچیده منجر به هزینههای زیرساختی قابل توجهی میشود. هزینهها میتواند باعث شود که گلولههای برفی بسیار بزرگ شوند زیرا سازمانها برنامههای کاربردی خود را گسترش میدهند تا تجربهای در زمان واقعی را به کاربران و مشتریان خود ارائه دهند.
اینجاست که خدمات زیرساخت یادگیری ماشین مبتنی بر ابر میتوانند کمک کنند. Cloud دسترسی به رایانه، شبکهای با کارایی بالا و ذخیرهسازی کلان داده را فراهم میکند که به طور یکپارچه با عملیات ML و خدمات پیشرفته هوش مصنوعی ادغام شده است تا سازمانها را قادر میسازد تا فوراً شروع کنند و ابتکارات AI / ML خود را گسترش دهند.
چگونه AWS به مشتریان کمک می کند تا تحول AI / ML خود را تسریع کنند
هدف AWS Inferentia و AWS Trainium دموکراتیک کردن یادگیری ماشین و در دسترس ساختن آن برای توسعه دهندگان بدون توجه به تجربه و دامنه سازمان است. طراحی Inferentia برای راندمان بالا، انتقال و تأخیر کم بهینه شده است و آن را برای کاربردهای استنتاج ML در مقیاس ایده آل می کند.
هر تراشه AWS Inferentia شامل چهار هستههای عصبی است که ماشینهای مالتی پلکس ماتریس آرایه سیستولیک با کارایی بالا را پیادهسازی میکنند که یادگیری یادگیری عمیق، مانند کانولوشن و ترانسفورماتورها را تا حد زیادی تسریع میکنند. NeuronCores همچنین با یک کش بزرگ روی تراشه یکپارچه شده است که دسترسی به حافظه خارجی را کاهش می دهد، تأخیر را کاهش می دهد و توان عملیاتی را افزایش می دهد.
AWS Neuron، یک مجموعه توسعه نرمافزار برای Inferentia، اساساً از چارچوبهای پیشرو ML مانند TensorFlow و PyTorch پشتیبانی میکند. توسعهدهندگان میتوانند همچنان از همان چارچوب و ابزارهای توسعه چرخه زندگی که میشناسند و دوست دارند استفاده کنند. برای بسیاری از مدل های آموزش دیده آنها، می توان آنها را با تغییر تنها یک خط کد، بدون تغییر کد برنامه اضافی، کامپایل و در Inferentia مستقر کرد.
نتیجه استفاده از استنتاج بسیار کارآمد است که به راحتی می توان آن را مقیاس کرد و در عین حال هزینه ها را تحت کنترل داشت.
Sprinklr، یک شرکت خدمات نرم افزاری، دارای یک پلت فرم مدیریت یکپارچه تجربه مشتری مبتنی بر هوش مصنوعی است که شرکت ها را قادر می سازد تا بازخوردهای مشتری را در زمان واقعی از کانال های متعدد به بینش های عملی تبدیل کنند. این منجر به راه حل های فعال، توسعه محصول بهتر، بازاریابی محتوا بهبود یافته و خدمات بهتر به مشتریان می شود. Sprinklr از Inferentia برای پیادهسازی NLP و برخی از مدلهای بینایی محاسباتی آن استفاده میکند و پیشرفتهای قابل توجهی در عملکرد داشته است.
برخی از سرویس های آمازون نیز از مدل یادگیری ماشینی خود در Inferentia استفاده می کنند.
Amazon Prime Video از رایانه مدل ML Vision برای تجزیه و تحلیل کیفیت ویدیوی زنده رویدادها استفاده می کند تا از بهترین تجربه مشاهده ممکن برای اعضای Prime Video اطمینان حاصل کند. از فرمت طبقهبندی تصویر ML در نمونه EC2 Inf1 استفاده کرد و شاهد بهبودهای چهار برابری در عملکرد و صرفهجویی در هزینه تا 40 درصد در مقایسه با نمونه مبتنی بر GPU بود.
مثال دیگر، هوش مصنوعی و هوش مبتنی بر ML آمازون الکسا است که توسط خدمات وب آمازون پشتیبانی می شود، که امروزه در بیش از 100 میلیون دستگاه در دسترس است. تعهد الکسا به مشتریان این است که همیشه هوشمندتر، گفتگوی تر، فعال تر و حتی لذت بخش تر می شود. قرارداد نیاز به بهبود مستمر در زمان پاسخگویی و هزینه زیرساخت ماشین دارد. با استفاده از مدل پیامرسانی متنی الکسا ML در نمونههای Inf1، میتواند تأخیر استنتاج را تا 25 درصد و هزینه هر استنتاج را تا 30 درصد کاهش دهد تا تجربه خدمات دهها میلیون مشتری را که هر ماه از الکسا استفاده میکنند، افزایش دهد.
قابلیتهای جدید یادگیری ماشینی را در فضای ابری آزاد کنید
از آنجایی که شرکتها برای اثبات تجارت آینده خود با راهاندازی بهترین محصولات و خدمات دیجیتال رقابت میکنند، هیچ سازمانی نمیتواند از مدلهای پیشرفته یادگیری ماشین برای کمک به نوآوری در تجربه مشتری خود عقب بماند. در سالهای اخیر، افزایش چشمگیری در شیوههای یادگیری ماشین برای انواع موارد استفاده، از شخصیسازی و پیشبینی تقلب گرفته تا تقلب و پیشبینی زنجیره تامین، وجود داشته است.
خوشبختانه، زیرساخت یادگیری ماشین در فضای ابری قابلیتهای بیسابقهای را به وجود میآورد و آن را برای افراد غیرمتخصص قابل دسترستر میکند. به همین دلیل است که مشتریان AWS از نمونههای آمازون EC2 Inf1 inf1 مبتنی بر Inferentia استفاده میکنند تا اطلاعاتی را در پشت موتورهای ارجاع و چتباتهای خود ارائه دهند و بینشهای عملی را از بازخورد مشتریان به دست آورند.
با گزینههای زیرساخت یادگیری ماشین مبتنی بر ابر AWS که برای سطوح مختلف مهارت طراحی شدهاند، واضح است که هر سازمانی میتواند نوآوری را تسریع کند و تمام چرخههای یادگیری ماشین را در سراسر جهان بپذیرد. با گسترش یادگیری ماشینی، سازمانها اکنون میتوانند تجربه مشتری – و روش انجام تجارت – را با زیرساختهای یادگیری ماشینی مقرونبهصرفه و با کارایی بالا در فضای ابری تغییر دهند.
در اینجا درباره اینکه چگونه یادگیری ماشینی AWS می تواند به شرکت شما در نوآوری کمک کند بیشتر بیاموزید.
این محتوا توسط AWS تولید شده است. این توسط تحریریه MIT Technology Review نوشته نشده است.
[ad_2]