این تکنیک جدید اجازه میدهد هوش مصنوعی بدون تقریبا هیچ دادهای آموزش ببیند
یادگیری ماشینی معمولا نیازمند انبوهی از اطلاعات نمونه است. برای اینکه یک مدل هوش مصنوعی قادر به تشخیص یک اسب باشد، باید هزاران تصویر از اسب را به آن نشان داده باشید. همین باعث میشود ...
یادگیری ماشینی معمولا نیازمند انبوهی از اطلاعات نمونه است. برای اینکه یک مدل هوش مصنوعی قادر به تشخیص یک اسب باشد، باید هزاران تصویر از اسب را به آن نشان داده باشید. همین باعث میشود که تکنولوژی کامپیوتری مورد نظرمان بسیار پر هزینه و بسیار متفاوت از یادگیری انسانی باشد. یک کودک معمولا به تنها چند مثال از یک شی، یا حتی یک مثال نیاز دارد و سپس برای همیشه قادر به شناسایی آن خواهد بود.
در واقع کودکان گاهی به هیچ مثالی برای شناسایی چیزی خاص نیاز ندارند. کافیست یک تصویر از یک اسب و یک کرگدن را به او نشان دهید و صرفا بگویید که اسب تکشاخ ترکیبی از این دو است. دفعه بعدی که او تصویر این موجود خیالی را در یک کتاب بببند، به درستی آن را شناسایی خواهد کرد.
حالا یک مقاله از سوی دانشگاه واترلو منتشر شده که نشان میدهد میتوان همین روش یادگیری را با هوش مصنوعی نیز در پیش گرفت. محققان برای این متد یادگیری، نام «کمتر از یک مثال» را انتخاب کردهاند. به عبارت دیگر، هوش مصنوعی باید قادر به شناسایی اشیای بیشتری نسبت به مثالهایی که بر مبنای آنها آموزش دیده باشد. چنین چیزی یک اتفاق انقلابی در دنیای هوش مصنوعی تلقی خواهد شد و از هزینهها و زمان مورد نیاز برای تربیت کردن هوش مصنوعی خواهد کاست.
محققان دانشگاه واترلو برای نخستین بار زمانی به این ایده دست پیدا کردند که مشغول آزمون و خطا با دیتابیس مشهور MNIST برای بینایی کامپیوتری بودند. MNIST شامل ۶۰ هزار تصویر از ارقام ۰ تا ۹ نوشته شده با دست میشود و معمولا از آن برای آزمودن ایدههای جدید در حوزه هوش مصنوعی استفاده میشود.
در مقالات قبلی، محققان MIT از تکنیکی برای «چکیده کردن» دیتاهای انبوه پرده برداشته بودند و توانستند تمام دیتابیس MNIST را به تنها ۱۰ تصویر تقلیل دهند. تصاویر نهایی، از میان تصاویر موجود در دیتابیس انتخاب نشده بودند، بلکه به گونهای مهندسی و بهینهسازی شده بودند که شامل همان مقدار از اطلاعات باشند. در نتیجه، بعد از آموزش دیدن با تنها ۱۰ تصویر، هوش مصنوعی MIT توانست میزان دقتی کاملا مشابه با هوش مصنوعی دیگری که بر مبنای تمام تصاویر MNIST آموزش دیده بود را به نمایش بگذارد.
محققین واترلو میخواستند این تکنیک را بیش از پیش به جلو برانند. اگر میتوان ۶۰ هزار تصویر را به تبدیل به تنها ۱۰ تصویر کرد، چرا به ۵ تصویر تبدیلشان نکنیم؟ آنها متوجه شدند که ترفند صحیح، ساخت تصاویری است که اعداد مختلف در آن با یکدیگر ادغام شدهاند. (دوباره به مثال اسب و کرگدن فکر کنید که هرکدام بخشی از ویژگیهای فیزیکی اسب تکشاخ را دارند).
لیا سوشولوتسکی، دانشجوی دکترای دانشگاه واترلو و نویسنده ارشد مقاله میگوید: «اگر به عدد 3 فکر کنید، یکجورهایی شبیه عدد 8 است اما هیچ شباهتی به عدد 7 ندارد. در این روش، با لیبلهای نرم سعی میکنیم ویژگیهای مشابه را توصیف کنیم. بنابراین به جای اینکه به ماشین بگوییم این تصویر متعلق به عدد 3 است، به آن میگوییم که این تصویر ۶۰ درصد از عدد 3 و ۳۰ درصد از عدد 8 و ۱۰ درصد از عدد 0 تشکیل شده».
بعد از استفاده موفقیتآمیز از لیبلهای نرم برای دستیابی به یادگیری کمتر از یک مثال با دیتابیس MNIST، محققان به این فکر افتادند که کار را چقدر میتوانند پیش ببرند. آیا میتوان تعداد تصاویر را باز هم کاهش داد؟ مشخص شد که بله. با لیبلهای نرمی که به ظرافت مهندسی شد باشند، دو مثال میتوانند در تئوری شامل هر میزان دستهبندی باشند. کار محققان واترلو، اکتشافات تازه در دنیای ریاضیات محض بوده است. آنها در حال آزمون و خطا با یکی از سادهترین الگوریتمهای یادگیری ماشین به نام k-Nearest Neighbors (یا به اختصار kNN) بودهاند که اشیا را با رویکرد گرافیکی دستهبندی میکند.
برای درک کارکرد kNN، میتوانیم دستهبندی میوهها را مثال بزنیم. اگر بخواهید kNN فرق میان سیب و پرتقال را تشخیص دهد، ابتدا باید خصیصههای کلی هر میوه را انتخاب کنید. شاید بخواهید به سراغ رنگ و وزن بروید. بنابراین برای سیب و پرتقال، دو نقطه داده مختلف در اختیار kNN قرار میدهید که هرکدام شامل مقدار x به عنوان رنگ و مقدار y به عنوان وزن میشوند. الگوریتم kNN سپس تمام نقاط داده را وارد یک چارت دوبعدی میکند و خطوطی مستقیم در میانه آن میکشد تا میان سیب و پرتقال تفاوت قائل شده باشد. از این لحظه به بعد، دو دستهبندی مختلف دارید و هوش مصنوعی تصمیم میگیرد اطلاعات جدید باید در کدام سمت خط میانی قرار بگیرند.
سوشولوتسکی تاکید کرده که تحقیقات هنوز در مراحل ابتدایی به سر میبرند، اما در عین حال از نتایج اولیه هیجانزده است. او هر بار که مقاله را به محققان همرده خود نشان میداده، به او میگفتهاند که چنین کاری غیرممکن است. اما تمام آن محققان به ناگاه متوجه پتانسیل کار سوشولوتسکی شدند و به این ترتیب، درهای تازهای به روی او و پروژهاش باز شد.
دیدگاهها و نظرات خود را بنویسید
برای گفتگو با کاربران ثبت نام کنید یا وارد حساب کاربری خود شوید.
https://uwaterloo.ca/news/news/theres-new-faster-way-train-ai
متدش متد جدید و جذابیه. ولی عنوان مقاله لااقل با این کاری که انجام شده مطابقت نداره.
خوب اینا اومدن mnist رو توی ده تا عکس خلاصه کردن. روش کار رو نگفتن ولی مثلا فرض کنیم اومدن میانگین تمام صفرها رو به عنوان عکس نهایی استفاده کردن. خوب الان کی میگه اینا از هیچ دیتایی استفاده نکردن؟! اینا از کلش استفاده کردن.
بله قبول دارم که به جای اینکه کل دیتاست به شبکه عصبی داده بشه، چکیدهای از اون داده شده. ولی یادمون نره در مرحله پیش پردازش برای به دست آوردن اون چکیده، از کل دیتاست استفاده شده.
خلاصه اینکه مشکل نیاز به دیتاست بزرگ برطرف نشده، بلکه مشکل نیاز به منابع پردازشی زیاد برای آموزش شبکه عصبی برطرف شده. که البته این خیلی خوبه ولی عنوان مقاله نیستش.
اشتباه متوجه شدی دوست عزیز
اونی که شما داری میگی روش |چکیده بود" که MIT معرفیش کرد و درست میفرمایید روش چکیده در آخر به کل اطلاعات برای چکیده گیری نیاز داره ولی :
1.میکروکنترلر ها نیاز نیست همه اون اطلاعات رو داشته باشند، یعنی اگر برای پیاده سازی هوش مصنوعی به یه میکرو با ظرفیت 100 مگابایت نیاز بوده بعد از روش "چکیده" یه میکروی 1 مگابایتی هم قابلیت پیاده سازی هوش مصنوغی رو داره.
2. روشی که الان معرفی شده توسط واترلو "چکیده " نیست "کمتر از یک مثال" هستش ، یعنی در واقع مثالی به هوش مصنوعی معرفی نمیکنه، فقط روش کار رو برای هوش مصنوعی تعریف میکنه.
ممنون از پاسخت
«کمتر از یک مثال» هم رویکردش فرقی نمیکنه. حالا به جای ده تا عکس نهایی مثلا شده ۵ تا، ولی برای تولید این ۵ عکس از تمام ۶۰۰۰۰ عکس استفاده شده.
این که میگی شبکه عصبی دیتای کمی به عنوان ورودی میگیره رو قبول دارم و خودم هم اشاره کردم که بار پردازشی شبکه عصبی خیلی کم میشه. ولی اینکه نیاز به دیتای زیاد نداره، یجور گمراه کردن مخاطب هستش. چون تو مجبوری قبلش این ۶۰۰۰۰ تا رو با یه رویکردی (که اتفاقا اون هم شبکه عصبی هستش، مقالهشو پیدا کردم) به ۱۰ (یا کمتر) عکس تبدیل کنی.
https://arxiv . org/abs/1811.10959
منظورمو با مثال میگم. نمیشه گفت برای اینکه هوش مصنوعی قاطر رو از اسب تشخیص بده فقط کافیه از یه قاطر و یه اسب عکس بگیری و مدل رو ترین کنی.
ولی میشه گفت میتونی از ۱۰۰۰ تا قاطر و ۱۰۰۰ تا اسب عکس بگیری، بعد به یه نحوی خلاصه کنی و دو تا عکس (یا حتی یدونه عکس) حاصل رو بدی به مدل که ترین بشه.
در نتیجه زحمت جمع کردن دیتا (که عملا سختترین بخش پروژههای هوش مصنوعیه) همچنان باقیه.
چه به درد میخوره، نمونه ها دستکاری شده هستند، از روی دنیای واقعی، این نمونه ها رو برای مثال های دیگه از کجا میشه پیدا کرد
نه از روی دنیای واقعی