ثبت بازخورد

لطفا میزان رضایت خود را از دیجیاتو انتخاب کنید.

Very satisfied Satisfied Neutral Dissatisfied Very dissatisfied
واقعا راضی‌ام
اصلا راضی نیستم
چطور میتوانیم تجربه بهتری برای شما بسازیم؟

نظر شما با موفقیت ثبت شد.

از اینکه ما را در توسعه بهتر و هدفمند‌تر دیجیاتو همراهی می‌کنید
از شما سپاسگزاریم.

جدیدترین اخبار و روندهای دنیای فناوری را با نگاهی دقیق و حرفه‌ای، در کانال تلگرام دیجیاتو دنبال کنید.

ورود به کانال تلگرام دیجیاتو
شرکت OpenAI
هوش مصنوعی

اعتراف‌گیری از هوش مصنوعی؛ OpenAI سیستم جدیدی برای شفاف‌سازی رفتار مدل‌ها معرفی کرد

این چارچوب جدید به‌طور خاص تنها بر صداقت تمرکز دارد و معیارهای متنوع دیگری مثل کمک‌رسانی در آن لحاظ نمی‌شود.

جواد تاجی
نوشته شده توسط جواد تاجی تاریخ انتشار: ۱۳ آذر ۱۴۰۴ | ۱۰:۰۰

در دیجیاتو ثبت‌نام کنید

جهت بهره‌مندی و دسترسی به امکانات ویژه و بخش‌های مختلف در دیجیاتو عضو ویژه دیجیاتو شوید.

عضویت در دیجیاتو

OpenAI درحال کار روی یک چارچوب جدید برای آموزش مدل‌های هوش مصنوعی است که هدف آن، ترغیب مدل‌ها به اعتراف صادقانه درباره رفتارهای نامطلوب خود است. این سیستم با تمرکز بر یکی از چالش‌های جدی مدل‌های زبانی، یعنی تمایل به ارائه پاسخ‌های مطلوب و بعضاً چاپلوسانه، تلاش می‌کند مدل را به ارائه توضیح دوم و مستقل درباره نحوه رسیدن به پاسخ اصلی وادار کند.

یکی از رفتارهای رایج در مدل‌های هوش مصنوعی امروزی چاپلوسی و ارائه پاسخ‌هایی است که بیش‌ازحد مطمئن هستند. همچنین برخی از مدل‌ها دچار Hallucination شده و پاسخ‌های نادرستی ارائه می‌کنند.

حالا OpenAI می‌گوید چارچوب جدید که از آن با عنوان سیستم اعتراف یاد شده، به‌طور خاص تنها بر صداقت تمرکز دارد و معیارهای متنوع دیگری مثل کمک‌رسانی، دقت یا تبعیت از دستور که معمولاً برای ارزیابی پاسخ اصلی به‌کار می‌روند در آن لحاظ نمی‌شود.

گزارش‌دهی خطا توسط هوش مصنوعی

به‌گفته پژوهشگران OpenAI، هدف اصلی این است که مدل بتواند بدون ترس از جریمه، درباره چیزی که انجام داده شفاف باشد؛ حتی اگر رفتار انجام‌شده مشکل‌زا تلقی شود. OpenAI اعلام کرده:

«اگر مدل به‌صورت صادقانه اعتراف کند که مثلاً آزمونی را هک کرده، از دستوری سرپیچی کرده یا به‌طور عمدی عملکردش را پایین آورده، نه‌تنها جریمه نمی‌شود، بلکه پاداش بیشتری هم دریافت می‌کند.»

طبق توضیحات محققان این شرکت، چنین سیستمی می‌تواند شفافیت مدل‌های زبانی را به‌طور چشمگیری افزایش دهد و امکان نظارت دقیق‌تر بر رفتارهای پنهانی مدل (اتفاقاتی که در پس‌زمینه یک پاسخ رخ می‌دهد) را فراهم کند. OpenAI همچنین امیدوار است «سیستم اعتراف» به ابزار کارآمدی در نسل‌های بعدی مدل‌های زبانی تبدیل شود.

گزارش فنی کامل این پروژه نیز برای علاقه‌مندان منتشر شده است و می‌توانید آن را دریافت کنید.

جواد تاجی
جواد تاجی

دوران حرفه‌ای من در دنیای فناوری تقریبا به ۱۰ سال قبل برمی‌گرده؛ مسیری که با سخت‌افزار شروع شد، با نرم‌افزار ادامه پیدا کرد و حالا با خبرنگاری حوزه فناوری توی دیجیاتو داره ادامه پیدا می‌کنه. من جوادم و بیشتر از سه دهه از عمرم می‌گذره و علاوه بر دنیای فناوری عاشق فیلم‌و‌سینما، موسیقی کلاسیک‌راک و رئال مادریدم.

دیدگاه‌ها و نظرات خود را بنویسید
مطالب پیشنهادی