ثبت بازخورد

لطفا میزان رضایت خود را از دیجیاتو انتخاب کنید.

واقعا راضی‌ام
اصلا راضی نیستم
چطور میتوانیم تجربه بهتری برای شما بسازیم؟

نظر شما با موفقیت ثبت شد.

از اینکه ما را در توسعه بهتر و هدفمند‌تر دیجیاتو همراهی می‌کنید
از شما سپاسگزاریم.

تکنولوژی

این تکنیک جدید اجازه می‌دهد هوش مصنوعی بدون تقریبا هیچ داده‌ای آموزش ببیند

یادگیری ماشینی معمولا نیازمند انبوهی از اطلاعات نمونه است. برای اینکه یک مدل هوش مصنوعی قادر به تشخیص یک اسب باشد، باید هزاران تصویر از اسب را به آن نشان داده باشید. همین باعث می‌شود ...

شایان ضیایی
نوشته شده توسط شایان ضیایی | ۲۶ مهر ۱۳۹۹ | ۰۸:۳۰

یادگیری ماشینی معمولا نیازمند انبوهی از اطلاعات نمونه است. برای اینکه یک مدل هوش مصنوعی قادر به تشخیص یک اسب باشد، باید هزاران تصویر از اسب را به آن نشان داده باشید. همین باعث می‌شود که تکنولوژی کامپیوتری مورد نظرمان بسیار پر هزینه و بسیار متفاوت از یادگیری انسانی باشد. یک کودک معمولا به تنها چند مثال از یک شی، یا حتی یک مثال نیاز دارد و سپس برای همیشه قادر به شناسایی آن خواهد بود.

در واقع کودکان گاهی به هیچ مثالی برای شناسایی چیزی خاص نیاز ندارند. کافیست یک تصویر از یک اسب و یک کرگدن را به او نشان دهید و صرفا بگویید که اسب تک‌شاخ ترکیبی از این دو است. دفعه بعدی که او تصویر این موجود خیالی را در یک کتاب بببند، به درستی آن را شناسایی خواهد کرد.

حالا یک مقاله از سوی دانشگاه واترلو منتشر شده که نشان می‌دهد می‌توان همین روش یادگیری را با هوش مصنوعی نیز در پیش گرفت. محققان برای این متد یادگیری، نام «کمتر از یک مثال» را انتخاب کرده‌اند. به عبارت دیگر، هوش مصنوعی باید قادر به شناسایی اشیای بیشتری نسبت به مثال‌هایی که بر مبنای آن‌ها آموزش دیده باشد. چنین چیزی یک اتفاق انقلابی در دنیای هوش مصنوعی تلقی خواهد شد و از هزینه‌ها و زمان مورد نیاز برای تربیت کردن هوش مصنوعی خواهد کاست.

نمونه تصویر از دیتابیس MNIST

محققان دانشگاه واترلو برای نخستین بار زمانی به این ایده دست پیدا کردند که مشغول آزمون و خطا با دیتابیس مشهور MNIST برای بینایی کامپیوتری بودند. MNIST شامل ۶۰ هزار تصویر از ارقام ۰ تا ۹ نوشته شده با دست می‌شود و معمولا از آن برای آزمودن ایده‌های جدید در حوزه هوش مصنوعی استفاده می‌شود.

در مقالات قبلی، محققان MIT از تکنیکی برای «چکیده کردن» دیتاهای انبوه پرده برداشته بودند و توانستند تمام دیتابیس MNIST را به تنها ۱۰ تصویر تقلیل دهند. تصاویر نهایی، از میان تصاویر موجود در دیتابیس انتخاب نشده بودند، بلکه به گونه‌ای مهندسی و بهینه‌سازی شده‌ بودند که شامل همان مقدار از اطلاعات باشند. در نتیجه، بعد از آموزش دیدن با تنها ۱۰ تصویر، هوش مصنوعی MIT توانست میزان دقتی کاملا مشابه با هوش مصنوعی دیگری که بر مبنای تمام تصاویر MNIST آموزش دیده بود را به نمایش بگذارد.

محققین واترلو می‌خواستند این تکنیک را بیش از پیش به جلو برانند. اگر می‌توان ۶۰ هزار تصویر را به تبدیل به تنها ۱۰ تصویر کرد، چرا به ۵ تصویر تبدیل‌شان نکنیم؟ آن‌ها متوجه شدند که ترفند صحیح، ساخت تصاویری است که اعداد مختلف در آن با یکدیگر ادغام شده‌اند. (دوباره به مثال اسب و کرگدن فکر کنید که هرکدام بخشی از ویژگی‌های فیزیکی اسب تک‌شاخ را دارند).

ن
نمونه تصویر از دیتابیس MNIST که توسط MIT در ۱۰ تصویر فشرده شده

لیا سوشولوتسکی، دانشجوی دکترای دانشگاه واترلو و نویسنده ارشد مقاله می‌گوید: «اگر به عدد 3 فکر کنید، یک‌جورهایی شبیه عدد 8 است اما هیچ شباهتی به عدد 7 ندارد. در این روش، با لیبل‌های نرم سعی می‌کنیم ویژگی‌های مشابه را توصیف کنیم. بنابراین به جای اینکه به ماشین بگوییم این تصویر متعلق به عدد 3 است، به آن می‌گوییم که این تصویر ۶۰ درصد از عدد 3 و ۳۰ درصد از عدد 8 و ۱۰ درصد از عدد 0 تشکیل شده».

بعد از استفاده موفقیت‌آمیز از لیبل‌های نرم برای دستیابی به یادگیری کمتر از یک مثال با دیتابیس MNIST، محققان به این فکر افتادند که کار را چقدر می‌توانند پیش ببرند. آیا می‌توان تعداد تصاویر را باز هم کاهش داد؟ مشخص شد که بله. با لیبل‌های نرمی که به ظرافت مهندسی شد باشند، دو مثال می‌توانند در تئوری شامل هر میزان دسته‌بندی باشند. کار محققان واترلو، اکتشافات تازه در دنیای ریاضیات محض بوده است. آن‌ها در حال آزمون و خطا با یکی از ساده‌ترین الگوریتم‌های یادگیری ماشین به نام k-Nearest Neighbors (یا به اختصار kNN) بوده‌اند که اشیا را با رویکرد گرافیکی دسته‌بندی می‌کند.

برای درک کارکرد kNN، می‌توانیم دسته‌بندی میوه‌ها را مثال بزنیم. اگر بخواهید kNN فرق میان سیب و پرتقال را تشخیص دهد، ابتدا باید خصیصه‌های کلی هر میوه را انتخاب کنید. شاید بخواهید به سراغ رنگ و وزن بروید. بنابراین برای سیب و پرتقال، دو نقطه داده مختلف در اختیار kNN قرار می‌دهید که هرکدام شامل مقدار x به عنوان رنگ و مقدار y به عنوان وزن می‌شوند. الگوریتم kNN سپس تمام نقاط داده را وارد یک چارت دوبعدی می‌کند و خطوطی مستقیم در میانه آن می‌کشد تا میان سیب و پرتقال تفاوت قائل شده باشد. از این لحظه به بعد، دو دسته‌بندی مختلف دارید و هوش مصنوعی تصمیم می‌گیرد اطلاعات جدید باید در کدام سمت خط میانی قرار بگیرند.

سوشولوتسکی تاکید کرده که تحقیقات هنوز در مراحل ابتدایی به سر می‌برند،‌ اما در عین حال از نتایج اولیه هیجان‌زده است. او هر بار که مقاله را به محققان هم‌رده خود نشان می‌داده، به او می‌گفته‌اند که چنین کاری غیرممکن است. اما تمام آن محققان به ناگاه متوجه پتانسیل کار سوشولوتسکی شدند و به این ترتیب، درهای تازه‌ای به روی او و پروژه‌اش باز شد.

دیدگاه‌ها و نظرات خود را بنویسید
مجموع نظرات ثبت شده (6 مورد)
  • parsasky
    parsasky | ۲۹ فروردین ۱۴۰۲

    https://uwaterloo.ca/news/news/theres-new-faster-way-train-ai

  • Sav
    Sav | ۲۶ مهر ۱۳۹۹

    متدش متد جدید و جذابیه. ولی عنوان مقاله لااقل با این کاری که انجام شده مطابقت نداره.
    خوب اینا اومدن mnist رو توی ده تا عکس خلاصه کردن. روش کار رو نگفتن ولی مثلا فرض کنیم اومدن میانگین تمام صفرها رو به عنوان عکس نهایی استفاده کردن. خوب الان کی میگه اینا از هیچ دیتایی استفاده نکردن؟! اینا از کلش استفاده کردن.
    بله قبول دارم که به جای اینکه کل دیتاست به شبکه عصبی داده بشه، چکیده‌ای از اون داده شده. ولی یادمون نره در مرحله پیش پردازش برای به دست آوردن اون چکیده، از کل دیتاست استفاده شده.
    خلاصه اینکه مشکل نیاز به دیتاست بزرگ برطرف نشده، بلکه مشکل نیاز به منابع پردازشی زیاد برای آموزش شبکه عصبی برطرف شده. که البته این خیلی خوبه ولی عنوان مقاله نیستش.

    • jacob
      jacob | ۲۶ مهر ۱۳۹۹

      اشتباه متوجه شدی دوست عزیز
      اونی که شما داری میگی روش |چکیده بود" که MIT معرفیش کرد و درست میفرمایید روش چکیده در آخر به کل اطلاعات برای چکیده گیری نیاز داره ولی :
      1.میکروکنترلر ها نیاز نیست همه اون اطلاعات رو داشته باشند، یعنی اگر برای پیاده سازی هوش مصنوعی به یه میکرو با ظرفیت 100 مگابایت نیاز بوده بعد از روش "چکیده" یه میکروی 1 مگابایتی هم قابلیت پیاده سازی هوش مصنوغی رو داره.
      2. روشی که الان معرفی شده توسط واترلو "چکیده " نیست "کمتر از یک مثال" هستش ، یعنی در واقع مثالی به هوش مصنوعی معرفی نمیکنه، فقط روش کار رو برای هوش مصنوعی تعریف میکنه.

      • Sav
        Sav | ۲۶ مهر ۱۳۹۹

        ممنون از پاسخت
        «کمتر از یک مثال» هم رویکردش فرقی نمی‌کنه. حالا به جای ده تا عکس نهایی مثلا شده ۵ تا، ولی برای تولید این ۵ عکس از تمام ۶۰۰۰۰ عکس استفاده شده.
        این که میگی شبکه عصبی دیتای کمی به عنوان ورودی میگیره رو قبول دارم و خودم هم اشاره کردم که بار پردازشی شبکه عصبی خیلی کم میشه. ولی اینکه نیاز به دیتای زیاد نداره، یجور گمراه کردن مخاطب هستش. چون تو مجبوری قبلش این ۶۰۰۰۰ تا رو با یه رویکردی (که اتفاقا اون هم شبکه عصبی هستش، مقاله‌شو پیدا کردم) به ۱۰ (یا کمتر) عکس تبدیل کنی.
        https://arxiv . org/abs/1811.10959
        منظورمو با مثال می‌گم. نمیشه گفت برای اینکه هوش مصنوعی قاطر رو از اسب تشخیص بده فقط کافیه از یه قاطر و یه اسب عکس بگیری و مدل رو ترین کنی.
        ولی میشه گفت می‌تونی از ۱۰۰۰ تا قاطر و ۱۰۰۰ تا اسب عکس بگیری، بعد به یه نحوی خلاصه کنی و دو تا عکس (یا حتی یدونه عکس) حاصل رو بدی به مدل که ترین بشه.
        در نتیجه زحمت جمع کردن دیتا (که عملا سخت‌ترین بخش پروژه‌های هوش مصنوعیه) همچنان باقیه.

  • molavy
    molavy | ۲۶ مهر ۱۳۹۹

    چه به درد میخوره، نمونه ها دستکاری شده هستند، از روی دنیای واقعی، این نمونه ها رو برای مثال های دیگه از کجا میشه پیدا کرد

    • molavy
      molavy | ۲۶ مهر ۱۳۹۹

      نه از روی دنیای واقعی

مطالب پیشنهادی