ثبت بازخورد

لطفا میزان رضایت خود را از دیجیاتو انتخاب کنید.

واقعا راضی‌ام
اصلا راضی نیستم
چطور میتوانیم تجربه بهتری برای شما بسازیم؟

نظر شما با موفقیت ثبت شد.

از اینکه ما را در توسعه بهتر و هدفمند‌تر دیجیاتو همراهی می‌کنید
از شما سپاسگزاریم.

بریتانیا و الگوریتم های سمی
نرم افزار و اپلیکیشن

بریتانیا برای محافظت از کودکان، شبکه‌های اجتماعی دارای «الگوریتم‌های سمی» را جریمه می‌کند

بریتانیا شرکت‌ها را به‌اندازه 22.4 میلیون دلار یا 10 درصد از درآمد جهانی آن‌ها جریمه کند. این طرح برای محافظت از کودکان اجرا می‌شود.

آزاد کبیری
نوشته شده توسط آزاد کبیری | ۱۹ اردیبهشت ۱۴۰۳ | ۱۸:۴۵

بریتانیا از شرکت‌ها و پلتفرم‌های موتور جستجو و رسانه‌های اجتماعی می‌خواهد که «الگوریتم‌های سمی» را که محتوای مضر به کودکان نشان می‌دهند، مهار کنند؛ در غیر این صورت با میلیون‌ها دلار جریمه مواجه خواهند شد.

براساس گزارش ورج، آفکام، رگولاتور بریتانیا برای محافظت بهتر از کودکان بیش از 40 مورد الزامات پیشنهادی ازجمله بررسی دقیق‌تر سن کاربران و تعدیل محتوا را برای غول‌های فناوری تشریح کرد. مدیر اجرایی آفکام می‌گوید که موارد پیشنهادی این رگولاتوری به‌طور قاطع مسئولیت ایمن‌نگه‌داشتن کودکان را به‌عهده شرکت‌های فناوری قرار می‌دهد.

اقدامات بریتانیا برای محافظت از کودکان در رسانه‌های اجتماعی

آفکام از شبکه‌های اجتماعی می‌خواهد تا الگوریتم‌های ناسالم را کنترل کنند تا محتوای مضر مانند صحبت‌های مشوق تنفر یا خشونت را به کودکان نشان ندهند. همچنین باید کنترل دقیق‌تری روی سن کودکان انجام شود تا این کاربران تجربه‌ای مناسب با سنشان داشته باشند.

قانون موسوم به «ایمنی آنلاین» به آفکام اجازه می‌دهد تا متخلفان را به‌اندازه 18 میلیون پوند (حدود 22.4 میلیون دلار) یا 10 درصد از درآمد جهانی آن‌ها جریمه کند. این بدان معناست که شرکت‌های بزرگی مانند متا، گوگل و تیک‌تاک در معرض خطر جریمه‌های سنگین قرار می‌گیرند.

شرکت‌های رسانه اجتماعی تا 17 جولای (27 تیرماه) فرصت دارند تا قبل از ارائه الزامات آفکام به مجلس، به خواسته‌های این رگولاتوری پاسخ دهند. آفکام قرار است نسخه نهایی طرح خود را در بهار 2025 منتشر کند و پس از آن پلتفرم‌ها سه ماه فرصت خواهند داشت تا از آن پیروی کنند.

آفکام درواقع می‌خواهد از مواجهه کودکان با محتوای مرتبط با مواردی مانند اختلالات خوردن، آسیب‌رساندن به خود، خودکشی و هر گونه محتوای بزرگسالانه، خشونت‌آمیز، نفرت‌انگیز یا توهین‌آمیز جلوگیری کند. پلتفرم‌ها همچنین باید به کودکان اجازه دهند درباره محتوایی که نمی‌خواهند ببینند بازخورد منفی بگذارند تا بتوانند فیدهای خود را بهتر مدیریت کنند.

دیدگاه‌ها و نظرات خود را بنویسید
مطالب پیشنهادی