هشدار محققان MIT: به محدودیتهای محاسباتی یادگیری عمیق نزدیک میشویم
محققان در دانشگاه MIT، آزمایشگاه هوش مصنوعی «MIT-IBM Watson»، کالج بینالمللی «Underwood» و دانشگاه «Brasilia» به این موضوع پی بردهاند که در حال نزدیک شدن به محدودیتهای محاسباتی برای یادگیری عمیق هستیم. در این تحقیق ...
محققان در دانشگاه MIT، آزمایشگاه هوش مصنوعی «MIT-IBM Watson»، کالج بینالمللی «Underwood» و دانشگاه «Brasilia» به این موضوع پی بردهاند که در حال نزدیک شدن به محدودیتهای محاسباتی برای یادگیری عمیق هستیم.
در این تحقیق جدید اعلام شده که پیشرفت در یادگیری عمیق با اشتهای بیپایان ما برای قدرت محاسباتی همراه است و توسعه بیشتر نیاز به روشهای محاسباتی بسیار کارآمدتر دارد. یکی از نویسندگان این مقاله نوشته:
«یادگیری عمیق به طور تصادفی گران نیست، بلکه طراحی باعث چنین موضوعی میشود. انعطافپذیری یادگیری عمیق، مدلسازی پدیدههای مختلف و کنار زدن مدلهای دیگر را در پی دارد که بطور چشمگیری محاسبات را گرانتر میکند.»
محققان ۱۰۵۸ تحقیق و سایر منابع را برای مقاله خود مورد بررسی قرار دادند. هدف از این کار، اطلاع از میزان وابستگی عملکرد یادگیری ماشینی به قدرت محاسباتی در زمینههای مختلف شامل طبقهبندی تصاویر، شناسایی اشیاء، پاسخ به سوالات، تشخیص نام و ترجمه ماشینی بوده. محققان برای پی بردن به این موضوع که چرا یادگیری عمیق از نظر محاسباتی گران است، مقیاسپذیری آماری و محاسباتی آنها را به صورت تئوری تحلیل کردند.
آنها چنین کاری را با دو تحلیل جداگانه از الزامات محاسباتی انجام دادند:
- تعداد عملیاتهای نقطه شناور موردنیاز برای یک گذر در شبکه
- توانایی محاسباتی سخت افزار مورد استفاده در آموزش مدل
محققان پس از تحلیل خود به این موضوع پی بردند که تنها سه سال بهبود الگوریتمی معادل افزایش ۱۰ برابری قدرت محاسباتی است. اگر پیشرفت در این زمینه با چنین سرعتی دنبال شود، الزامات محاسباتی یادگیری عمیق از نظر فنی، اقتصادی و محیط زیستی به سرعت تبدیل به مانع میشوند. با این وجود شاید سخت افزارها نیز بهبود پیدا کنند:
«ما متوجه شدیم که بار محاسباتی واقعی مدلهای یادگیری عمیق مقیاسپذیری سریعتری نسبت به مرزهای پایینی در تئوری دارند که نشاندهنده امکان پیشرفتهای اساسی در این بخش است.»
به گفته محققان، پیشرفتهای یادگیری عمیق در سطح الگوریتمی همیشه در حال رخ دادن است که برخی از آنها شامل شتابدهنده سخت افزاری میشود. با گذر زمان متوجه میشویم که هزینههای یادگیری عمیق کاهش پیدا میکند یا فناوری جدیدی جایگزین آن میشود.
دیدگاهها و نظرات خود را بنویسید
برای گفتگو با کاربران ثبت نام کنید یا وارد حساب کاربری خود شوید.
دقیقا هفته پیش میخواستم با LSTM یه سهام رو پیش بینی کنم بد جور خور تو ذوقم
نهایت کاری که میکرد بالا رفتن یا پایین رفتن فرداش رو پیش بینی میکرد، البته اگر اتفاقی نیفته
خیلی گنگ بود مقاله
این یعنی چی؟تنها سه سال بهبود الگوریتمی معادل افزایش ۱۰ برابری قدرت محاسباتی است.
یعنی الگوریتمی که الان روی سخت افزارت مثلا ۱۰ ساعت طول میکشه آموزش دادنش بعد از ۳ سال بهینه سازی ۱ ساعت بیشتر طول نمیکشه
متوجه شدم، خیلی ممنون از توضیح