ثبت بازخورد

لطفا میزان رضایت خود را از دیجیاتو انتخاب کنید.

واقعا راضی‌ام
اصلا راضی نیستم
چطور میتوانیم تجربه بهتری برای شما بسازیم؟

نظر شما با موفقیت ثبت شد.

از اینکه ما را در توسعه بهتر و هدفمند‌تر دیجیاتو همراهی می‌کنید
از شما سپاسگزاریم.

کودک‌آزاری و اپل
امنیت

از اپل به دلیل توقف برنامه شناسایی محتواهای کودک‌آزاری در iCloud شکایت شد

اپل سال 2021 می‌خواست محتواها را برای مقابله با کودک‌آزاری اسکن کند اما بعداً به‌دلیل انتقادات از این تصمیم عقب‌نشینی کرد.

آزاد کبیری
نوشته شده توسط آزاد کبیری | ۱۹ آذر ۱۴۰۳ | ۱۰:۳۱

یکی از قربانیان سوءاستفاده جنسی و کودک‌آزاری به‌دلیل اجرانکردن طرح اسکن تصاویر در iCloud برای یافتن محتواهای کودک‌آزاری (CSAM) از اپل شکایت کرد. سال 2021، اپل اعلام کرده بود روی ابزاری برای شناسایی CSAM کار می‌کند که چنین سوءاستفاده‌هایی را تشخیص می‌دهد و مرکز ملی کودکان مفقود و مورد سوءاستفاده قرار گرفته را مطلع می‌کند اما بعداً این برنامه را معلق کرد.

براساس گزارش نیویوک تایمز، زنی 27 ساله که در کودکی یکی از بستگانش به او آزار جنسی رسانده بود، از اپل به‌دلیل توقف قابلیت تشخیص CSAM شکایت کرد. او در شکایت خود می‌گوید اپل با حذف ویژگی اسکن CSAM از iCloud، وعده خود برای محافظت از قربانیانی مانند او را زیر پا گذاشته است.

به گفته یکی از وکلای این زن، شکایت علیه اپل خواستار تغییر در رویه‌های این شرکت و پرداخت غرامت احتمالی به گروهی متشکل از 2 هزار 680 قربانی واجد شرایط دیگر است. طبق قانون فعلی، قربانیان کودک‌آزاری می‌توانند حداقل 150 هزار دلار غرامت دریافت کنند. اگر همه شاکیان بالقوه در شکایت این زن غرامت بگیرند، درصورتی‌که اپل مسئول شناخته شود، مجموع خسارت ممکن است حدود یک‌میلیارد و ۲۰۰ میلیون دلار باشد.

شکایت از اپل برای شناسایی‌نکردن محتواهای کودک‌آزاری

در پرونده‌ای جداگانه نیز آگوست امسال چند وکیل به نمایندگی از قربانی 9 ساله کودک‌آزاری از اپل شکایت کردند. به گفته نیویورک تایمز، در این مورد، دختر می‌گوید غریبه‌هایی لینک ویدیوهای CSAM مختلف را از طریق iCloud برای او می‌فرستادند و او را تشویق می‌کردند فیلم‌های مشابهی از خود ضبط و آپلود کند.

سخنگوی اپل نیز در بیانیه‌ای گفت: «محتوای کودک‌آزاری نفرت‌انگیز است و ما متعهد به مبارزه با روش‌هایی هستیم که از طریق آن سوءاستفاده‌گران کودکان را در معرض خطر قرار می‌دهند. ما برای مبارزه با این جرایم بدون به خطر انداختن امنیت و حریم خصوصی کاربران خود، فوری و فعالانه دست به نوآوری زده‌ایم.»

سخنگوی اپل از قابلیتی مانند «ایمنی ارتباطات» (Communication Safety) در اپلیکیشن Messages نام می‌برد که هنگام دریافت یا تلاش برای ارسال محتوای حاوی برهنگی به کودکان هشدار می‌دهد تا به شکستن زنجیره‌ای که منجر به سوءاستفاده جنسی از کودکان می‌شود، کمک کند.

آزاد کبیری

دانش‌آموخته‌ی ساکتِ زبان‌شناسی هستم و همان‌قدر که به کلمات علاقه‌مندم، سرک‌کشیدن به هر گوشه‌ از تکنولوژی و علم را هم دوست دارم. حدود 15 سال نیز از نگارش اولین متن رسمی من می‌گذرد.

دیدگاه‌ها و نظرات خود را بنویسید
مطالب پیشنهادی