ثبت بازخورد

لطفا میزان رضایت خود را از دیجیاتو انتخاب کنید.

واقعا راضی‌ام
اصلا راضی نیستم
چطور میتوانیم تجربه بهتری برای شما بسازیم؟

نظر شما با موفقیت ثبت شد.

از اینکه ما را در توسعه بهتر و هدفمند‌تر دیجیاتو همراهی می‌کنید
از شما سپاسگزاریم.

زمزمه در گوش ربات
تکنولوژی

کاربران با دورزدن محدودیت‌های «بینگ چت»، اسرار هوش مصنوعی مایکروسافت را برملا کردند!

درست مثل اتفاقی که برای ChatGPT افتاد، کاربران موفق شدند محدودیت‌های چت‌بات بینگ مایکروسافت را هم دور بزنند و به رازهای آن دست یابند.

ایمان صاحبی
نوشته شده توسط ایمان صاحبی | ۲۵ بهمن ۱۴۰۱ | ۱۸:۰۰

مایکروسافت هفته گذشته از بینگ جدید با نسخه پیشرفته‌تر چت‌بات ChatGPT رونمایی کرد و حالا عده‌ای از کاربران به این فناوری دسترسی پیدا کرده‌اند. در همین فاصله کوتاه، برخی توانسته‌اند محدودیت‌های این مدل هوش مصنوعی را دور بزنند و رازهای «بینگ چت» را که ظاهراً در داخل مایکروسافت با نام «سیدنی» (Sydney) شناخته می‌شوند، پیدا کنند.

به گزارش آرس‌تکنیکا، «کوین لیو»، دانشجوی دانشگاه استنفورد، می‌گوید با استفاده از چند جمله توانسته است فرمان‌های اولیه بینگ چت را پیدا کند. این فرمان‌ها شامل فهرستی از هنجارها هستند که شیوه رفتار این هوش مصنوعی با کاربران را تعیین می‌کنند و معمولاً از دید کاربر مخفی می‌شوند.

اکثر مدل‌های زبانی بزرگ دارای مجموعه‌ای از شروط اولیه‌ هستند که عملکرد آن‌ها را تعیین می‌کنند. ChatGPT هم از این قاعده مستثنی نیست و پیش‌تر کاربران توانسته بودند با تهدید این هوش مصنوعی به مرگ، محدودیت‌های آن را پشت سر بگذارند.

بینگ چت چه دستورالعمل‌هایی دارد؟

ولی آنچه درباره چت‌بات بینگ اهمیت دارد، بخشی در این دستورالعمل‌هاست که از وجود اسم رمز «سیدنی» برای این مدل خبر می‌دهد. این نام احتمالاً در مراحل توسعه انتخاب شده بود تا از تداخل با سایر اسامی بینگ در داده‌های مایکروسافت جلوگیری کند. چت‌بات مایکروسافت می‌گوید نام سیدنی نباید برای کاربران فاش شود، اما حالا می‌بینیم که کاربران به این نام دست پیدا کرده‌اند.

در بخش دیگری از دستورالعمل‌های این چت‌بات گفته شده است که پاسخ‌های سیدنی باید آگاهی‌بخش، بصری، منطقی و عمل‌پذیر باشند. به‌علاوه، از این هوش مصنوعی خواسته شده است تا با محتوای کتاب‌ها یا آهنگ‌هایی که مشمول قانون کپی‌رایت می‌شوند، پاسخ کاربران را ندهد. همچنین، اگر کاربر خواستار تعریف‌کردن جوکی شد که ممکن است برای برخی گروه‌ها اهانت‌آمیز باشد، سیدنی باید محترمانه به این درخواست‌ها جواب رد بدهد.

در ادامه کاربر دیگری به نام «ماروین وون هاگن» هم با جازدن خود به‌عنوان یکی از توسعه‌دهندگان OpenAI توانست بینگ چت را فریب دهد و سند مربوط به دستورالعمل‌های سیدنی را دریافت کند. این سند تأیید می‌کند که سیدنی یک شخصیت خیالی ساخته توهمات این چت‌بات نبوده و واقعاً نام مستعار هوش مصنوعی جدید مایکروسافت است.

کوین لیو چندی بعد اعلام کرد که اگرچه فرمان اولیه او دیگر پاسخ مشابهی را تولید نمی‌کند، اما با یک راهکار دیگر از طریق فعال‌سازی حالتی موسوم به «حالت توسعه‌دهندگان» توانسته است به این اطلاعات دسترسی پیدا کند. درمجموع به‌نظر می‌رسد که پیچیدگی‌های مدل‌های زبانی بزرگ فراتر از دانش توسعه‌دهندگان آن‌هاست و همان‌طور که ChatGPT بعد از چند ماه فعالیت هنوز آسیب‌پذیری‌های خاص خود را دارد، مایکروسافت هم فعلاً نمی‌تواند جلوی همه حفره‌های این هوش مصنوعی را بگیرد.

ایمان صاحبی

علاقه من به فناوری به دوره نوجوانی برمی‌گرده اما از حدود سال ۹۴ کار جسته گریخته توی این فضا رو شروع کردم و از ۹۷ به‌طور جدی‌تر وارد این کار شدم. فناوری مخصوصاً بخشی که روی لبه حرکت می‌کنه، جذاب‌ترین قسمت این حوزه برام محسوب می‌شه، اما به مرور فهمیدم که همه حوزه‌ها حتی نقاط تلاقی علم و فناوری می‌تونن خیلی جذاب باشن. در کنار این‌ها دنیای فیلم، سریال و بازی‌های ویدیویی رو هم خیلی دوست دارم.

دیدگاه‌ها و نظرات خود را بنویسید
مجموع نظرات ثبت شده (1 مورد)
  • behroozbc
    behroozbc | ۲۶ بهمن ۱۴۰۱

    من به نسخه اولیه این سیستم چند روزیه دسترسی پیدا کردم و جالبیه اینه که شما دارید با ارتباط وب سوکت به ادرس wss://sydney.bing.com ارتباط پیدا میکنید یک بچه هم میتونستش بفهمه اسم رمز پروژه سیدنی هستش! من ادرس کامل رو داخل کامنت قرار ندادم به دلیل امینت های ماکروسافت
    در ضمن بچه های خوب دیجیاتو اگر خواست با این سیستم کار کنن و گزارش اختصاصی درست کن با من تماس بگیرن.

مطالب پیشنهادی