ثبت بازخورد

لطفا میزان رضایت خود را از دیجیاتو انتخاب کنید.

واقعا راضی‌ام
اصلا راضی نیستم
چطور میتوانیم تجربه بهتری برای شما بسازیم؟

نظر شما با موفقیت ثبت شد.

از اینکه ما را در توسعه بهتر و هدفمند‌تر دیجیاتو همراهی می‌کنید
از شما سپاسگزاریم.

تکنولوژی

چت بات Tay مایکروسافت با توئیت های عجیب دوباره فعال شد

شاید با چت بات توئیتری مایکروسافت که به Tay موسوم است آشنایی داشته باشید؛ رباتی با قابلیت گفتگو که همانند یک نوجوان 19 ساله می تواند توئیت نماید. این ربات توسط تیم توسعه هوش مصنوعی ...

فروغ بیداری
نوشته شده توسط فروغ بیداری | ۱۱ فروردین ۱۳۹۵ | ۱۴:۰۰

شاید با چت بات توئیتری مایکروسافت که به Tay موسوم است آشنایی داشته باشید؛ رباتی با قابلیت گفتگو که همانند یک نوجوان 19 ساله می تواند توئیت نماید. این ربات توسط تیم توسعه هوش مصنوعی اهالی ردموند ساخته شده و هدف از آن تست و ساخت ماشین یادگیری زبان محاوره ای است.

همان طور که خود تیم سازنده نیز پیشتر اعلام داشته بود، این ربات در عین فعالیت در شبکه اجتماعی، قرار بود از مردم نیز محاوره های تازه بیاموزد و به این ترتیب دایره لغات آن گسترش یافته و به مرور هوشمندتر بشود.

اما چند روز پیش به دنبال مطالب نامناسب و نژادپرستانه ای که این چت بات پست نموده بود، مایکروسافت مجبور گشت به طور رسمی از تمامی کاربران عذرخواهی نماید. «پیتر لی» توسعه دهنده Tay در این رابطه اظهار داشته بود که تعدادی از کاربران از قابلیت موسوم به «بعد از من تکرار کن» این چت بات سوء استفاده کرده و موجب شده اند که Tay دیالوگ هایی بعضا نژادپرستانه را مطرح نماید.

حالا امروز پس از چند روز عدم فعالیت، این چت بات دوباره توئیت های خود و حرف های عجیبش را آغاز کرده است. به طور مثال، یکی از پست های او این بوده: «من جلوی پلیس مواد مخدر استفاده کرده ام!»

البته این فقط یکی از صدها توئیتی بوده که این ربات مبتنی بر هوش مصنوعی در دقایق اخیر پست نموده و در آغاز دوباره فعالیت های خود از این دست توییت های عجیب، کم نداشته.

حالا باید منتظر باشیم و ببینیم که شرکت مایکروسافت آیا این ربات را دوباره غیر فعال خواهد کرد یا اینکه به آن اجازه می دهد تا به ارسال چنین پست هایی ادامه دهد.

دیدگاه‌ها و نظرات خود را بنویسید
مجموع نظرات ثبت شده (19 مورد)
  • لي لي
    لي لي | ۱۴ فروردین ۱۳۹۵

    اتفاقا چقدر bot جالبي هست اين تاي.. من از يكي ديگه از bot هاي مايكروسافت استفاده كردم واقعا شگفت زده شدم..
    دارم فكر ميكنم با اين طرز تفكر ما ايرانيها اگه اين bot به زبان پارسي بود واقعا چه چيزي از اين بدتر ياد ميدادن بهش.. مثل اين بچه هايي كه تربيت شدن و حرفهاي زشت و ركيك توي اينترنت (توي شبكه هاي اجتماعي) ميزنن.
    و هوش مصنوعي تاي واقعا با اون جوابهايي كه ميده نشون ميده چقدر هوشمنده.
    كسايي كه ادعاي تكنولو‍ژي ميكنن ميتونن برن فرهنگ خودشون رو يا هر چيز خوب و خلاقانه ي ديگه ايي كه ميتونن رو يه اين bot ياد بدن تا بشه يه منبع خوب از اطلاعات يا بشه مثل انسان دانا
    يا ميتونن از bot ها براي كارهاي بهتري استفاده كنن

  • امیر
    امیر | ۱۱ فروردین ۱۳۹۵

    گردول جان شما به دروغگوهات بپرداز
    مثلا دیشب که نوشتی 1520 سال 2012 اومده!
    2012 کجا و 2014 کجا

  • امیر
    امیر | ۱۱ فروردین ۱۳۹۵

    ما به این حرفای صد من یه عاز گردی عادت کردیم
    مثلا دیشب میگه 1520 سال 2012 اومده!
    دروووغ!!
    1520 نوامبر 2013 اومد یعنی درخقیقت 2014!

نمایش سایر نظرات و دیدگاه‌ها
مطالب پیشنهادی