ثبت بازخورد

لطفا میزان رضایت خود را از دیجیاتو انتخاب کنید.

واقعا راضی‌ام
اصلا راضی نیستم
چطور میتوانیم تجربه بهتری برای شما بسازیم؟

نظر شما با موفقیت ثبت شد.

از اینکه ما را در توسعه بهتر و هدفمند‌تر دیجیاتو همراهی می‌کنید
از شما سپاسگزاریم.

اپل
تکنولوژی

نهاد نظارتی بریتانیا اپل را به ارائه گزارش‌های غیرواقعی درباره محتواهای کودک‌آزاری متهم کرد

این نهاد می‌گوید گزارش‌هایی که اپل از کشف محتواهای مرتبط با سوءاستفاده از کودکان در سرویس‌های خود ارائه می‌کند، غیرواقعی است.

ایمان صاحبی
نوشته شده توسط ایمان صاحبی | ۲ مرداد ۱۴۰۳ | ۱۳:۰۰

«انجمن ملی پیشگیری از خشونت علیه کودکان» در بریتانیا (NSPCC) اپل را به ارائه گزارش‌های ناکافی پیرامون گستردگی محتواهای مرتبط با سوءاستفاده جنسی از کودکان (CSAM) متهم کرده است. این انجمن می‌گوید سازنده آیفون در سال گذشته میلادی تنها کشف 267 مورد مشکوک CSAM در سراسر جهان را به «مرکز ملی کودکان گمشده یا تحت سوءاستفاده» بریتانیا (NCMEC) ارسال کرده، درحالی‌که این موارد باید خیلی بیشتر باشد.

به‌ گزارش گاردین، NSPCC می‌گوید اپل آمار مربوط به محتواهای CSAM در محصولات خود را به‌درستی اعلام نکرده است. طبق داده‌های پلیس که به دست NSPCC رسیده است، سوءاستفاده‌گران طی یک سال فقط در انگلیس و ولز بیشتر از آماری که توسط اپل برای کل جهان گزارش شده، از سرویس‌های این شرکت ازجمله آیکلود، آی‌مسج و فیس‌تایم برای ارسال یا ذخیره‌سازی این محتواهای غیرقانونی استفاده کرده‌اند.

محتواهای CSAM در سرویس‌های اپل باید بسیار بیشتر باشد

NSPCC می‌گوید اپل از آوریل 2022 تا مارس 2023 با بیش از 337 مورد CSAM در انگلیس و ولز مواجه شده است. این انجمن از طریق قانون آزادی دسترسی به اطلاعات این داده‌ها را از پلیس به‌ دست آورده است. از سوی دیگر، گوگل و متا به‌ترتیب 1.47 و 30.6 میلیون مورد مشکوک جهانی را گزارش کرده‌اند که نسبت به آمار اپل بسیار بیشتر است.

اگرچه اپل از رمزنگاری سرتاسری در سرویس‌های خود استفاده می‌کند، واتس‌اپ نیز که سیستم مشابهی در پیام‌رسان خود دارد، سال 2023 حدود 1.4 میلیون مورد مشکوک CSAM را به NCMEC گزارش کرده است. «ریچارد کالرد»، مدیر واحد سیاست‌های ایمنی آنلاین کودکان در NSPCC می‌گوید:

«اختلاف نگران‌کننده‌ای میان آمار جرایم تصویری سوءاستفاده از کودکان بریتانیایی در سرویس‌های اپل و آمار تقریباً قابل‌چشم‌پوشی خود اپل پیرامون گزارش‌های جهانی درباره محتواهای مربوط به سوءاستفاده وجود دارد. اپل به‌وضوح در زمینه مقابل با سوءاستفاده جنسی از کودکان عقب‌تر از همتایان خود است.»

اپل سال 2021 از برنامه‌ای برای اسکن تصاویر پیش از آپلود آن‌ها در آیکلود رونمایی کرد اما به‌دلیل واکنش منفی کاربران و خطر تهدید حریم خصوصی آن را لغو کرد. این شرکت حالا در واکنش به این گزارش جدید همان پاسخی را داده است که قبلاً در تجدیدنظر خودش اعلام کرده بود: «تمرکز این شرکت بر استفاده از سایر استراتژی‌ها برای اولویت‌دادن به امنیت و حریم خصوصی کاربران است.»

دیدگاه‌ها و نظرات خود را بنویسید
مطالب پیشنهادی