ثبت بازخورد

لطفا میزان رضایت خود را از دیجیاتو انتخاب کنید.

واقعا راضی‌ام
اصلا راضی نیستم
چطور میتوانیم تجربه بهتری برای شما بسازیم؟

نظر شما با موفقیت ثبت شد.

از اینکه ما را در توسعه بهتر و هدفمند‌تر دیجیاتو همراهی می‌کنید
از شما سپاسگزاریم.

تکنولوژی

آمازون با کنار گذاشتن GPU انویدیا به استفاده از تراشه‌های اختصاصی روی می‌آورد

آمازون از مهاجرت پردازش‌های هوش مصنوعی به چیپ‌های اختصاصی «Inferentia» خبر داده که به معنای عدم استفاده از GPU انویدیا خواهد بود. با این اقدام، بزرگترین سرویس‌های آمازون مانند دستیار مجازی الکسا بجای GPU شرکت‌های ...

محمد قریشی
نوشته شده توسط محمد قریشی | ۲۶ آبان ۱۳۹۹ | ۱۵:۰۰

آمازون از مهاجرت پردازش‌های هوش مصنوعی به چیپ‌های اختصاصی «Inferentia» خبر داده که به معنای عدم استفاده از GPU انویدیا خواهد بود.

با این اقدام، بزرگترین سرویس‌های آمازون مانند دستیار مجازی الکسا بجای GPU شرکت‌های دیگر، روی سیلیکون اختصاصی و سریع پردازش می‌شوند. تا به امروز این کمپانی نزدیک به ۸۰ درصد از پردازش‌های الکسا را به نمونه‌های «EC2 Inf1» منتقل کرده که از چیپ‌های Inferentia سرویس‌های وب آمازون (AWS)‌ استفاده می‌کند.

EC2 Inf1 در مقایسه با نمونه‌های G4 که از GPU‌ سنتی استفاده می‌کند، تا ۳۰ درصد عملکرد بالاتری دارد و همچنین هزینه‌ها را تا ۴۵ درصد کاهش می‌دهد. آمازون اعلام کرده که دارای بهترین نمونه‌ها در بازار برای پردازش زبان طبیعی و صدا است.

در واقعیت الکسا روی اسپیکرهای هوشمند هیچ کاری انجام نمی‌دهد و پردازنده‌های AWS در فضای ابری تمام کارها را برعهده می‌گیرد. از نظر فنی، سیستم زمانی شروع به کار می‌کند که چیپ آن کلمه خاصی را تشخیص دهد. پس از این کار صدا به صورت همزمان به فضای ابری منتقل می‌شود و در دیتاسنتر این صدا به متن تبدیل خواهد شد.

آمازون

در مرحله بعد منظور کاربر توسط متن فهمیده می‌شود و اقدامات لازم انجام خواهند شد و برای مثال کاربر به اطلاعاتی مانند شرایط آب و هوا دست پیدا می‌کند. الکسا برای اینکه چنین دیتایی را در اختیار شما قرار دهد، باید ارتباط برقرار کند.

این دستیار مجازی برای چنین کاری از اسکریپت ماژولار استفاده می‌کند و سپس این اسکریپت به فایل صوتی تبدیل شده و به اسپیکر هوشمند آمازون ارسال می‌شود. اسپیکر اکو این فایل صوتی را اجرا می‌کند و شما برای مثال از وضعیت هوا اطلاع پیدا می‌کنید.

در این فرایند، استنباط بخش بزرگی را تشکیل می‌دهد و  به همین دلیل آمازون میلیون‌ها دلار روی توسعه چنین چیپ‌هایی سرمایه‌گذاری کرده است. چیپ‌های Inferentia از چهار «NeuronCores» تشکیل شده که هرکدام از آن‌ها دارای تعداد بالایی واحد پردازش دیتای کوچک (DPU) هستند که اطلاعات را به صورت خطی و مستقل پردازش می‌کنند. هر چیپ Inferentia از حافظه کش بالایی بهره می‌برد که تاخیرها را بهبود می‌دهد.

دیدگاه‌ها و نظرات خود را بنویسید
مطالب پیشنهادی