[ad_1]
هوش مصنوعی و یادگیری ماشین (AI و ML) فناوریهای کلیدی هستند که به سازمانها کمک میکنند تا راههای جدیدی برای افزایش فروش، کاهش هزینهها، سرعت بخشیدن به فرآیندهای تجاری و درک بهتر مشتریان ایجاد کنند. AWS به مشتریان کمک میکند تا با ارائه محاسبات قدرتمند، شبکههای پرسرعت و گزینههای ذخیرهسازی با کارایی بالا مقیاسپذیر، در صورت تمایل برای هر پروژه یادگیری ماشین، پذیرش AI/ML را تسریع کنند. این کار باعث کاهش دردسر ثبت نام برای سازمان هایی می شود که می خواهند از ابر برای اندازه برنامه های ML استفاده کنند.
توسعه دهندگان و دانشمندان داده مرزهای فناوری و یادگیری عمیق را به طور فزاینده ای در پیش می گیرند، که نوعی یادگیری ماشینی مبتنی بر الگوریتم های شبکه عصبی است. این مدل یادگیری عمیق بزرگتر و پیچیدهتر است که منجر به افزایش هزینهها برای اجرای زیرساختهای اساسی برای آموزش و استقرار مدل میشود.
برای اینکه مشتریان بتوانند تحول AI/ML خود را تسریع بخشند، AWS در حال ایجاد تراشه های یادگیری ماشینی با کارایی بالا و کم هزینه است. AWS Inferentia اولین تراشه یادگیری ماشینی است که از ابتدا توسط AWS برای ارزانترین استنتاج یادگیری ماشین در فضای ابری ساخته شده است. در واقع، نمونه آمازون EC2 Inf1 که توسط Inferentia طراحی شده است، 2.3 برابر کارایی بالاتر و هزینه استنتاج یادگیری ماشینی را تا 70 درصد کمتر از نمونه EC2 مبتنی بر GPU نسل فعلی ارائه می دهد. AWS Trainium تراشه شماره دو یادگیری ماشینی AWS است که به طور خاص برای آموزش مدل های یادگیری عمیق طراحی شده است و تا پایان سال 2021 در دسترس خواهد بود.
مشتریان در سراسر صنعت برنامههای ML را در تولید Inferentia پیادهسازی کردهاند و شاهد بهبود عملکرد و کاهش هزینههای قابل توجهی هستند. برای مثال، پلتفرم پشتیبانی مشتری AirBnB یک تجربه خدماتی هوشمند، قابل اندازهگیری و استثنایی را برای جامعهای متشکل از میلیونها میزبان و مهمان در سراسر جهان ممکن میسازد. از مثال EC2 Inf1 مبتنی بر Inferentia برای استقرار یک مدل پردازش زبان طبیعی (NLP) استفاده میکند که از رباتهای گفتگو پشتیبانی میکند. این منجر به افزایش 2 برابری عملکرد خارج از جعبه نسبت به نمونه های مبتنی بر GPU می شود.
با این نوآوریها در سیلیکون، AWS به مشتریان اجازه میدهد تا مدلهای یادگیری عمیق را در تولید به راحتی با کارایی و توان عملیاتی بالا با هزینه کمتر آموزش و اجرا کنند.
یادگیری ماشینی سرعت تغییر به زیرساخت های مبتنی بر ابر را به چالش می کشد
یادگیری ماشینی یک فرآیند تکراری است که به تیمها نیاز دارد تا برنامهها را به سرعت بسازند، آموزش دهند، و برنامهها را بهسرعت اجرا کنند، همچنین آموزش دهند، بازآموزی کنند و مرتباً برای بهبود دقت پیشبینی مدل تلاش کنند. هنگام استفاده از مدل آموزش دیده برای برنامه های کاربردی تجاری، سازمان ها همچنین باید برنامه های کاربردی خود را برای خدمت به کاربران جدید در سراسر جهان گسترش دهند. آنها باید بتوانند چندین درخواست را ارائه دهند که با تأخیر بیدرنگ همراه میشوند تا از تجربه کاربری برتر اطمینان حاصل کنند.
موارد استفاده نوظهور مانند تشخیص اشیا، پردازش زبان طبیعی (NLP)، طبقهبندی تصویر، هوش مصنوعی محاورهای و دادههای سری زمانی به فناوریهای یادگیری عمیق متکی هستند. مدل یادگیری عمیق من به طور تصاعدی از نظر اندازه و پیچیدگی رشد کرده است که از میلیون ها پارامتر تا میلیاردها پارامتر در طول سال ها متغیر است.
آموزش و استفاده از این مدل پیچیده و پیچیده هزینه های زیرساختی قابل توجهی را به همراه دارد. این هزینه میتواند به سرعت تبدیل به یک گلوله برفی شود زیرا سازمانها برنامههای کاربردی را برای ارائه یک تجربه واقعی برای کاربران و مشتریان گسترش میدهند.
اینجاست که خدمات زیرساخت یادگیری ماشین مبتنی بر ابر میتوانند کمک کنند. ابر دسترسی بر اساس تقاضا به محاسبات، شبکههای با کارایی بالا و ذخیرهسازی دادههای بزرگ را فراهم میکند، که بهطور یکپارچه با عملیات ML و خدمات هوش مصنوعی سطح بالاتر یکپارچه شده است، بنابراین سازمانها میتوانند فوراً طرحهای AI/ML را راهاندازی و گسترش دهند.
چگونه AWS به مشتریان کمک می کند تا تحول AI/ML را تسریع کنند
هدف AWS Inferentia و AWS Trainium دموکراتیک کردن یادگیری ماشین و در دسترس ساختن آن برای توسعه دهندگان صرف نظر از تجربه و اندازه سازمانی است. طراحی Inferentia برای کارایی بالا، توان عملیاتی و تأخیر کم بهینه شده است و برای استفاده از استنتاج ML در مقیاس مناسب است.
هر تراشه AWS Inferentia شامل چهار هسته عصبی است که یک موتور ضربکننده ماتریس آرایه سیستولیک با کارایی بالا را پیادهسازی میکند که عملیات یادگیری عمیق معمولی مانند کانولوشن و ترانسفورماتور را سرعت میبخشد. NeuronCores همچنین دارای یک کش بزرگ روی تراشه است که به کاهش دسترسی به حافظه خارجی، کاهش تاخیر و افزایش توان کمک می کند.
AWS Neuron، کیت توسعه نرمافزار Inferentia، از چارچوبهای برتر ML مانند TensorFlow و PyTorch پشتیبانی میکند. توسعه دهندگان می توانند به استفاده از چارچوب های توسعه چرخه زندگی و ابزارهایی که می شناسند و دوست دارند ادامه دهند. برای بسیاری از مدل های آموزش دیده، آنها می توانند با تغییر تنها یک خط کد، بدون تغییر کد برنامه اضافی، کامپایل و در Inferentia مستقر شوند.
نتیجه یک اسپرد استنتاجی با کارایی بالا است که میتواند به راحتی با حفظ هزینهها مقیاسبندی شود.
Sprinklr، یک شرکت نرمافزار بهعنوان یک سرویس، دارای یک پلتفرم مدیریت تجربه مشتری مبتنی بر هوش مصنوعی است که به شرکتها اجازه میدهد تا بازخوردهای بیدرنگ مشتری را از کانالهای متعدد به بینشهای عملی جمعآوری و ترجمه کنند. این منجر به حل مشکلات پیشگیرانه، توسعه محصول بهتر، بازاریابی محتوای بهتر و خدمات بهتر به مشتریان می شود. Sprinklr از Inferentia برای استقرار NLP و برخی از مدلهای بینایی کامپیوتری استفاده میکند و شاهد بهبود عملکرد قابل توجهی است.
برخی از خدمات آمازون نیز مدل های یادگیری ماشینی را در Inferentia مستقر می کنند.
Amazon Prime Video از یک مدل ML بینایی کامپیوتری برای تجزیه و تحلیل کیفیت ویدیوی رویداد زنده استفاده می کند تا از تجربه مخاطب بهینه برای اعضای Prime Video اطمینان حاصل کند. این مدل طبقهبندی تصویر ML را در مورد EC2 Inf1 گسترش میدهد و شاهد افزایش 4 برابری عملکرد و تا 40 درصد کاهش هزینه در مقایسه با نمونههای مبتنی بر GPU است.
مثال دیگر هوش مبتنی بر هوش مصنوعی و ML آمازون الکسا است که توسط خدمات وب آمازون پشتیبانی میشود، که امروزه در بیش از ۱۰۰ میلیون دستگاه در دسترس است. قول الکسا به مشتریانش این است که همیشه باهوش تر، پرحرف تر، فعال تر و سرگرم کننده تر باشند. ارائه چنین وعده هایی مستلزم بهبود مستمر در زمان پاسخگویی و هزینه های زیرساخت یادگیری ماشین است. با استفاده از مدل ML متن به گفتار الکسا در Inf1، میتواند تأخیر استنتاج را تا 25 درصد و هزینه هر استنتاج را تا 30 درصد کاهش دهد تا تجربه خدمات دهها میلیون مشتری را که هر ماه از الکسا استفاده میکنند، بهبود بخشد.
قابلیتهای جدید یادگیری ماشین را در فضای ابری باز کنید
از آنجایی که شرکتها برای اثبات کسبوکار خود در آینده با فعال کردن بهترین محصولات و خدمات دیجیتال رقابت میکنند، هیچ سازمانی نمیتواند در استفاده از مدلهای یادگیری ماشینی پیچیده برای کمک به ایجاد تجربیات مشتری عقب بماند. در چند سال گذشته، افزایش قابل توجهی در برنامههای یادگیری ماشین برای موارد استفاده مختلف، از شخصیسازی و پیشبینی انحراف گرفته تا تشخیص تقلب و پیشبینی زنجیره تامین وجود داشته است.
خوشبختانه، زیرساختهای یادگیری ماشین در فضای ابری قابلیتهای جدیدی را منتشر میکنند که قبلاً در دسترس نبودند، و این امر باعث میشود افراد غیرمتخصص به راحتی به آنها دسترسی داشته باشند. به همین دلیل است که مشتریان AWS از نمونههای آمازون EC2 Inf1 مبتنی بر Inferentia استفاده میکنند تا اطلاعات موجود در پشت موتورهای توصیهکننده و چتباتها را ارائه دهند و بینشهای عملی را از بازخورد مشتریان دریافت کنند.
با گزینههای زیرساخت یادگیری ماشین مبتنی بر ابر AWS مناسب برای سطوح مختلف مهارت، واضح است که هر سازمانی میتواند به نوآوری سرعت بخشد و کل چرخه زندگی یادگیری ماشین را در مقیاس کامل کند. با گسترش گستردهتر یادگیری ماشینی، سازمانها اکنون میتوانند پایه تجربه مشتری – و روش انجام کسب و کارشان – را با یک زیرساخت یادگیری ماشینی مبتنی بر ابری مقرونبهصرفه و با کارایی بالا تغییر دهند.
در اینجا درباره اینکه چگونه پلت فرم یادگیری ماشینی AWS می تواند به شرکت شما در نوآوری کمک کند بیشتر بیاموزید.
این محتوا توسط AWS تولید شده است. این توسط تحریریه MIT Technology Review نوشته نشده است.
[ad_2]