ثبت بازخورد

لطفا میزان رضایت خود را از دیجیاتو انتخاب کنید.

واقعا راضی‌ام
اصلا راضی نیستم
چطور میتوانیم تجربه بهتری برای شما بسازیم؟

نظر شما با موفقیت ثبت شد.

از اینکه ما را در توسعه بهتر و هدفمند‌تر دیجیاتو همراهی می‌کنید
از شما سپاسگزاریم.

آنتروپیک
اینترنت و شبکه

استارتاپ هوش مصنوعی انتروپیک به جمع‌آوری غیرقانونی محتوا از چند وب‌سایت متهم شد

وب‌سایت Freelancer و iFixit ادعا دارند که استارتاپ انتروپیک برای آموزش هوش مصنوعی Claude بدون پرداخت هزینه از محتوای آن‌ها استفاده می‌کند.

جواد تاجی
نوشته شده توسط جواد تاجی | ۷ مرداد ۱۴۰۳ | ۱۷:۳۰

وب‌سایت Freelancer استارتاپ هوش مصنوعی انتروپیک (Anthropic)، سازنده مدل Claude، را به استفاده از داده‌های وب‌سایتش متهم کرده است. «کایل وینز»، مدیرعامل iFixit، نیز اعلام کرده Anthropic سیاست‌های این وب‌سایت برای استفاده از محتوایش به‌منظور آموزش مدل هوش مصنوعی خود را نادیده گرفته است.

به‌ گزارش فایننشال تایمز، «مت باری»، مدیر اجرایی Freelancer، اعلام کرده ClaudeBot از Anthropic «تهاجمی‌ترین مدل استخراج‌کننده اطلاعات وب‌سایت‌ها» است. طبق ادعای مدیرعامل iFixtit در ایکس، چت‌بات انتروپیک طی 24 ساعت، یک‌میلیون‌ بار به سرورهای iFixit ضربه زده است.

تأثیر انتروپیک بر کسب‌و‌کار وب‌سایت‌ها

او در پست خود خطاب به انتروپیک نوشت:

«شما نه‌تنها بدون پرداخت هزینه از محتوای ما استفاده می‌کنید، بلکه منابع توسعه‌دهنده ما را نیز محدود می‌کنید.»

مدیر اجرایی Freelancer می‌گوید آن‌ها ابتدا تلاش کردند صرفاً درخواست دسترسی چت‌بات انتروپیک را رد کنند اما درنهایت مجبور شدند آن را کامل مسدود کنند. iFixit نیز با اضافه‌کردن چند مورد به فایل robots.txt سایت خود، دسترسی ابزار جمع‌آوری اطلاعات انتروپیک را متوقف کرده است.

پروتکل robot.txt چیست؟

چند ماه قبل نیز Wired یکی دیگر از شرکت‌های هوش مصنوعی، Perplexity، را متهم کرده بود که اطلاعات وب‌سایتش را استخراج کرده است. شرکت‌ها از فایلی با عنوان robots.txt استفاده می‌کنند که حاوی دستورالعمل‌هایی برای استخراج داده‌های وب است و صفحاتی را که می‌توان یا نمی‌توان به آن‌ها دسترسی داشت، مشخص می‌کند.

درحالی‌که پیروی از این دستورالعمل‌ها داوطلبانه است، اکثراً نادیده گرفته می‌شود.

پس از انتشار گزارش Wired، استارتاپی با نام TollBit که ارتباط شرکت‌های هوش مصنوعی را با ناشران محتوا برقرار می‌کند، گفت فقط Perplexity فایل robots.txt را دور نمی‌زند. هرچند در آن زمان به شرکت خاصی اشاره نشد، در گزارش دیگری گفته شد OpenAI و Anthropic نیز آن را نادیده می‌گیرند.

شرکت‌های هوش مصنوعی از ابزارهای جمع‌آوری اطلاعات که به‌اصطلاح خزنده (Crawlers) نامیده می‌شود، برای جمع‌آوری محتوا از وب‌سایت‌ها استفاده می‌کنند. سپس از این داده‌ها می‌توان برای آموزش مدل‌های هوش مصنوعی استفاده کرد؛ بنابراین به‌دلیل استفاده از محتوا، شکایت‌های متعددی از آن‌ها مطرح شد. به‌ همین دلیل، OpenAI در چند ماه گذشته با چندین ناشر ازجمله فایننشال تایمز و مالک مجله People قرارداد همکاری امضا کرده است.

دیدگاه‌ها و نظرات خود را بنویسید
مطالب پیشنهادی