ثبت بازخورد

لطفا میزان رضایت خود را از دیجیاتو انتخاب کنید.

واقعا راضی‌ام
اصلا راضی نیستم
چطور میتوانیم تجربه بهتری برای شما بسازیم؟

نظر شما با موفقیت ثبت شد.

از اینکه ما را در توسعه بهتر و هدفمند‌تر دیجیاتو همراهی می‌کنید
از شما سپاسگزاریم.

شفاف‌سازی مدل‌های هوش مصنوعی
هوش مصنوعی

آنتروپیک می‌خواهد تا سال 2027 جعبه سیاه مدل‌های هوش مصنوعی را باز کند

مدیرعامل آنتروپیک در یادداشتی بر اهمیت کشف سازوکارهای پشت صحنه مدل‌های هوش مصنوعی اشاره کرده است.

مونا طحان
نوشته شده توسط مونا طحان | ۶ اردیبهشت ۱۴۰۴ | ۱۸:۴۵

مدیرعامل آنتروپیک، «داریو آمودی»، در مقاله‌ای جدید چالش‌های شفاف‌سازی عملکرد مدل‌های هوش مصنوعی را بررسی کرده و گفته قصد دارد سازوکار این فناوری را تا سال 2027 آشکار کند. این شرکت قصد دارد در آینده‌ای نزدیک، در نحوه تصمیم‌گیری مدل‌های هوش مصنوعی به شفافیت کامل برسد.

داریو آمودی، مدیرعامل آنتروپیک، در مقاله‌ای که به‌تازگی منتشر کرده، از نگرانی‌هایش درباره کمبود شفافیت در مدل‌های هوش مصنوعی پیشرفته سخن گفته است. او تأکید کرده آنتروپیک می‌خواهد تا 2027 به شفاف‌سازی کامل در زمینه عملکرد مدل‌ها دست یابد. آمودی می‌گوید این کار نه‌فقط برای افزایش اعتماد در استفاده از هوش مصنوعی، بلکه برای جلوگیری از خطرات احتمالی آن در بخش‌های مختلف اقتصادی، امنیتی و فناوری ضروری است.

شفاف‌سازی مدل‌های هوش مصنوعی

مدیرعامل آنتروپیک در این مقاله توضیح می‌دهد که شرکت آنها به‌طور خاص روی چگونگی تحلیل و درک فرایندهای تصمیم‌گیری مدل‌ها کار می‌کند. این شرکت درحال‌حاضر با روش‌های جدید توانسته تا حدی به ردیابی مسیرهای فکری مدل‌ها دست یابد اما آمودی باور دارد مسیر طولانی‌تری در پیش است.

آنتروپیک امیدوار است با پیشرفت‌ بیشتر در این زمینه، بتواند عملکرد مدل‌ها را دقیق‌تر و قابل‌اطمینان‌تر شفاف‌ کند که درنهایت می‌تواند مزایای تجاری و ایمنی فراوانی داشته باشد.

شفاف‌سازی مدل‌های هوش مصنوعی

مدیرعامل آنتروپیک در مقاله‌ای که عنوان آن «فوریت تفسیرپذیری» است، اعلام کرده این شرکت موفق شده پیشرفت‌های اولیه‌ای در ردیابی روند تصمیم‌گیری مدل‌های هوش مصنوعی خود داشته باشد اما آمودی تأکید کرد برای رمزگشایی کامل این سیستم‌ها نیاز به تحقیقات گسترده‌تری دارد؛ به‌ویژه با افزایش قدرت و پیچیدگی مدل‌ها.

آنتروپیک یکی از شرکت‌های پیشرو در زمینه «تفسیرپذیری مکانیکی» به شمار می‌رود؛ شاخه‌ای که هدف آن بازکردن جعبه سیاه هوش مصنوعی و درک دلیل انتخاب‌ها و تصمیمات این مدل‌هاست. به گفته آمودی، به‌رغم پیشرفت‌های چشمگیر در عملکرد مدل‌های هوش مصنوعی، هنوز درک دقیقی از چگونگی تصمیم‌گیری آنها وجود ندارد.

او می‌گوید: «هنگامی که سیستم مولد، مثلاً سندی مالی را خلاصه می‌کند، دقیق نمی‌دانیم چرا برخی کلمات را انتخاب می‌کند یا چرا باوجود دقت بالا، گاهی اشتباه می‌کند.» آنتروپیک می‌خواهد دلیل این اتفاقات را بفهمد.

آمودی همچنین به گفته «کریس اولا» (Chris Olah)، هم‌بنیان‌گذار آنتروپیک، اشاره کرد. اولا معتقد است مدل‌های هوش مصنوعی «بیشتر رشد می‌کنند تا ساخته شوند» یعنی پژوهشگران توانسته‌اند عملکرد این مدل‌ها را ارتقا بدهند اما هنوز کامل نمی‌دانند این فرایند به چطور اتفاق می‌افتد.

دیدگاه‌ها و نظرات خود را بنویسید
مطالب پیشنهادی