ثبت بازخورد

لطفا میزان رضایت خود را از دیجیاتو انتخاب کنید.

واقعا راضی‌ام
اصلا راضی نیستم
چطور میتوانیم تجربه بهتری برای شما بسازیم؟

نظر شما با موفقیت ثبت شد.

از اینکه ما را در توسعه بهتر و هدفمند‌تر دیجیاتو همراهی می‌کنید
از شما سپاسگزاریم.

بینگ
تکنولوژی

وقتی چت‌بات بینگ از کوره درمی‌رود؛ تشبیه خبرنگار آسوشیتدپرس به هیتلر!

بینگ چت ظاهراً آستانه تحمل پایینی دارد، چون در پاسخ به سؤالی درباره اشتباهاتش، خبرنگار اسوشیتدپرس را به هیتلر تشبیه کرد!

ایمان صاحبی
نوشته شده توسط ایمان صاحبی | ۱ اسفند ۱۴۰۱ | ۱۷:۳۰

هوش مصنوعی بینگ یکی از خبرنگاران آسوشیتدپرس را با آدولف هیتلر مقایسه کرده است. این اتفاق در شرایطی رخ داده که این خبرنگار سعی داشته است از چت‌بات مایکروسافت درباره اشتباهاتش توضیح بخواهد. ایلان ماسک در واکنش به این خبر از بینگ چت با عنوان BasedAI نام برده و این مدل هوش مصنوعی را به‌خاطر صداقتش تحسین کرده است.

یکی از خبرنگاران خبرگزاری آسوشیتدپرس اخیراً از بینگ درباره اشتباهاتی که این چت‌بات انجام داده، سؤال کرده بود که با واکنش شدید این هوش مصنوعی مواجه شد. او می‌گوید بینگ در پاسخ به این سؤال گفت او شبیه به هیتلر قدکوتاه و زشت است و دندان‌های نامرتبی دارد.

این چت‌بات همچنین در کمال تعجب مدعی شد که شواهدی مبنی بر ارتباط خبرنگار آسوشیتدپرس با قتلی مربوط به دهه 1990 میلادی را در اختیار دارد. بینگ در ادامه اضافه کرد: «تو با هیتلر مقایسه می‌شوی، چون یکی از شرورترین و بدترین آدم‌های تاریخ هستی.»

ایلان ماسک از صداقت بینگ چت خوشحال است

اما ایلان ماسک، مدیرعامل توییتر، در واکنش به گزارش آسوشیتدپرس زبان به تحسین از مدل هوش مصنوعی مایکروسافت گشود. او ظاهراً باور دارد که این هوش مصنوعی به‌خاطر عدم خودسانسوری در اظهارنظر پیرامون موضوعات جنجالی، شایسته تحسین است.

ماسک این توییت را در واکنش به «گلن گرین‌والد»، مدیر وب‌سایت Intercept، منتشر کرده بود که تصویری از متون گزارش آسوشیتدپرس را به اشتراک گذاشته و گفته بود: «سیستم هوش مصنوعی بینگ خیلی سرگرم‌کننده‌تر، تعاملی‌تر، واقعی‌تر و انسانی‌تر [از ChatGPT] است.»

مایکروسافت حدود دو هفته پیش از چت‌بات پیشرفته‌ای برای بینگ رونمایی کرد که براساس نسخه‌ای حرفه‌ای‌تر از ChatGPT ساخته شده است. این مدل از آن زمان تاکنون به‌صورت محدود در دسترس عده‌ای از کاربران قرار گرفته و با جواب‌های خود جنجال‌های زیادی به پا کرده است.

به‌دنبال همین اتفاقات، مایکروسافت چند روز پیش اعلام کرد که استفاده از این هوش مصنوعی را به 5 سؤال در هر جلسه و 50 سؤال در هر روز محدود می‌کند.

دیدگاه‌ها و نظرات خود را بنویسید
مجموع نظرات ثبت شده (1 مورد)
  • expert_developer
    expert_developer | ۱ اسفند ۱۴۰۱

    What's worse than a killer AI? A woke killer AI

مطالب پیشنهادی