ثبت بازخورد

لطفا میزان رضایت خود را از دیجیاتو انتخاب کنید.

واقعا راضی‌ام
اصلا راضی نیستم
چطور میتوانیم تجربه بهتری برای شما بسازیم؟

نظر شما با موفقیت ثبت شد.

از اینکه ما را در توسعه بهتر و هدفمند‌تر دیجیاتو همراهی می‌کنید
از شما سپاسگزاریم.

هوش مصنوعی متا
تکنولوژی

افشای داده‌های هوش مصنوعی متا؛ آیا احتمال سوء استفاده از AI فیسبوک وجود دارد؟

فایل‌های هوش مصنوعی متا به صورت غیرمجاز منتشر شده‌اند و نگرانی کارشناسان پیرامون استفاده از آن برای اهداف نامناسب را در پی داشته است.

امیرحسین امام‌جمعه
نوشته شده توسط امیرحسین امام‌جمعه | ۱۸ اسفند ۱۴۰۱ | ۱۲:۰۰

حدود دو هفته پیش، متا از مدل زبانی هوش مصنوعی خود با عنوان LLaMA رونمایی کرد؛ ابزاری که برخلاف رقبای خود مثل ChatGPT یا چت‌بات بینگ مایکروسافت، برای عموم منتشر نشده است. اما به‌تازگی گزارش‌هایی از افشای هوش مصنوعی متا در یکی از پلتفرم‌های نه‌چندان خوشنام اینترنت منتشر شده؛ اقدامی که نگران‌هایی را پیرامون استفاده از ابزار مذکور در پی داشته است.

آیا هوش مصنوعی متا خطرساز خواهد بود؟

متا قصد انتشار LLaMA را در به صورت یک چت‌بات برای عموم نداشته است و تنها می‌خواست آن را در قالب یک بسته متن‌باز در اختیار فعالان حوزه AI قرار دهد. مدیران فیسبوک، علت این تصمیم را رفع مشکلات و باگ‌ها در کنار مواردی مثل ارائه پاسخ‌های جهت‌دار و نادرست اعلام کرده بودند. با این حال، تنها پس از گذشت حدود یک هفته، یک فایل تورنت قابل دانلود روی پلتفرم 4Chan قرار گرفت و به سرعت در سایت‌ها و اپ‌های دیگر پخش شد که شامل مدل زبانی مورد بحث می‌شود.

برخی افراد معتقد هستند که افشای این داده‌ها، می‌تواند عواقب جدی برای فیسبوک به همراه داشته باشد و این شرکت را متهم به انتشار سهل‌انگارانه سرویس خود می‌کنند. یکی از کارشناسان حوزه امنیت سایبری، هشدار می‌دهد که کاربران باید به‌زودی منتظر انبوهی از پیام‌های اسپم شخصی‌سازی شده و تلاش‌های جدید برای حملات فیشینگ باشند. البته برخی دیگر، می‌گویند که دسترسی آزادانه به AI از ضرورت بالایی برخوردار است و مدل‌های زبانی پیچیده مشابه با محصول فیسبوک هم در گذشته به صورت عمومی در اختیار علاقه‌مندان قرار گرفته‌اند و پیامدهای چندانی نداشته‌اند.

نشریه دِورج در مصاحبه با چندین کارشناس امنیت دیجیتال، مطابقت مدل زبانی افشا شده با هوش مصنوعی متا را تایید کرده است. مدیران فیسبوک از اظهار نظر پیرامون منشاء نشت داده، خودداری کرده‌اند؛ اما مدیر اجرایی بخش AI این شرکت، تایید کرده است که برخی افراد، قصد دسترسی غیرمجاز به LLaMA را داشته‌اند. شایان ذکر است که دانلود فایل‌های مرتبط با ابزار مذکور که شامل ۴ مدل زبانی مختلف می‌شود، چندان سودی برای کاربران عادی نخواهد داشت؛ زیرا با یک مدل خام مواجه هستیم که نیاز به تمرین دارد و برای چنین کاری، به حجم عظیمی از قدرت پردازشی نیاز خواهد داشت.

گفته شده است که افراد دارای تجربه کار با سرورها و محیط‌های توسعه در پروژه‌های پیچیده می‌توانند با دنبال کردن راهنمای مناسب و صرف زمان کافی، LLaMA را به یک ابزار قابل استفاده تبدیل کنند. همچنین سخت‌افزار و مهارت قبلی، تنها موانع استفاده غیرمجاز از هوش مصنوعی متا نیستند؛ زیرا این ابزار برای ایجاد مکالمه با کاربر مثل ChatGPT بهینه‌سازی نشده است. معمولاً چنین بهینه‌سازی‌هایی در مراحل پایانی توسعه ابزارهای مبتنی بر AI صورت می‌گیرند و فرایند نسبتاً دشواری به شمار می‌روند.

گرداننده موسسه تحقیقاتی غیرانتفاعی EleutherAI اشاره دارد که نیاز پردازش بالای هوش مصنوعی متا، عامل محدودکننده اصلی در استفاده موثر از آن خواهد بود؛ چون اغلب کاربران از حداقل سخت‌افزار مورد نیاز برای اجرای LLaMA برخوردار نیستند و برای اجرای روان آن هم به سیستم‌های پیشرفته و گران‌تری نیاز خواهد بود. نیاز پردازشی سنگین، نشان می‌دهد که ابزار فیسبوک از قدرت زیادی برخوردار است؛ به‌طوری که می تواند میلیاردها پارامتر را مورد ارزیابی قرار دهد. البته متا اشاره دارد که یکی از مدل‌های زبانی با قابلیت بررسی ۱۳ میلیارد پارامتر، می‌تواند روی کارت گرافیک A100 اجرا شود و امکان اجاره ابری آن به ازای چند دلار در ساعت، وجود دارد. فیسبوک ادعا دارد که این مدل، می‌تواند عملکردی بهتر از GPT-3 با توان ارزیابی ۱۷۵ میلیارد پارامتر از خود نشان دهد.

شایان ذکر است که بنچمارک‌های AI از اعتبار چندانی برخوردار نیستند و بسیاری اذعان دارند که نتایج آنها با عملکرد دنیای واقعی، تفاوت محسوسی از خود نشان می‌دهد. به همین دلیل نمی‌توان ادعای فیسبوک را به درستی ارزیابی کرد و تعدادی از کاربران، گزارش داده‌اند که امکان دریافت خروجی از LLaMA داخل بنچمارک‌ها وجود ندارد؛ اما بعضی دیگر، علت این پدیده را ضعف در مهارت و توانایی اجرای مدل زبانی بیان می‌کنند. با این حال می‌توان پیش‌بینی کرد که اگر هوش مصنوعی متا به درستی بهینه‌سازی شود، می‌تواند حداقل عملکردی مشابه با ChatGPT از خود نشان دهد.

افشای هوش مصنوعی متا، بحث درباره دسترسی آزاد به ابزارهای مبتنی بر AI را هم دوباره پیش کشیده است. اگرچه هدف مخالفان و موافقان این موضوع، یکسان است؛ اما دید کاملاً متفاوتی نسبت به مسئله دارند. موافقان، می‌گویند که دسترسی آزاد می‌تواند مشکلات و آسیب‌پذیری‌های سرویس‌ها را سریع‌تر مشخص کند و امکان سوء استفاده از آنها را محدود سازد. در سوی دیگر مخالفان ادعا دارند که دسترسی آزادانه می‌تواند خطرناک باشد و امکان استفاده از AI برای انجام امور پیچیده و خطرناک وجود دارد که در نهایت می‌تواند امنیت عموم را به خطر بیندازد.

دیدگاه‌ها و نظرات خود را بنویسید
مجموع نظرات ثبت شده (1 مورد)
  • ...Architect
    ...Architect | ۱۸ اسفند ۱۴۰۱

    سلام خدمت شما
    چطور میشه به این فایلها دسترسی داشت؟

مطالب پیشنهادی