ثبت بازخورد

لطفا میزان رضایت خود را از دیجیاتو انتخاب کنید.

واقعا راضی‌ام
اصلا راضی نیستم
چطور میتوانیم تجربه بهتری برای شما بسازیم؟

نظر شما با موفقیت ثبت شد.

از اینکه ما را در توسعه بهتر و هدفمند‌تر دیجیاتو همراهی می‌کنید
از شما سپاسگزاریم.

همکاری متا، تیک‌تاک و اسنپ چت برای شناسایی محتوای مضر
نرم افزار و اپلیکیشن

همکاری متا، تیک‌تاک و اسنپ‌چت: برنامه‌ Thrive محتواهای مضر را شناسایی می‌کند

این طرح به شرکت‌های فناوری اجازه می‌دهد سیگنال‌هایی را به منظور شناسایی محتوای مربوط به خودکشی در پلتفرم‌هایشان برای یکدیگر بفرستند.

آزاد کبیری
نوشته شده توسط آزاد کبیری | ۲۶ شهریور ۱۴۰۳ | ۱۷:۳۰

متا، اسنپ‌چت و تیک‌تاک با هم همکاری می‌کنند تا در طرحی به نام Thrive محتواهای مضر درباره خودکشی و خودآزاری را در پلتفرم‌هایشان تشخیص دهند. عملکرد این برنامه به‌ این صورت است که اگر متا چنین محتواهای مضری در پلتفرم‌های خود شناسایی کرد، سیگنالی به دیگر شرکت‌ها می‌فرستد تا وجود این محتوا را در اپلیکیشن‌هایشان بررسی کنند.

براساس اعلام متا، «ائتلاف سلامت روان» برای ایجاد برنامه Thrive به شرکت‌های فناوری اجازه می‌دهد سیگنال‌هایی درباره تشخیص محتوای خودکشی یا خودآزاری به دیگر پلتفرم‌ها بفرستند تا از انتشار آن‌ها در پلتفرم‌های مختلف جلوگیری شود. متا دراین‌باره می‌گوید:

«مانند بسیاری از انواع مختلف محتوای مشکل‌ساز، محتوای خودکشی و خودآزاری به هیچ پلتفرمی محدود نیست… به همین دلیل با ائتلاف سلامت روان تلاش کردیم Thrive به وجود بیاید. این برنامه برای به‌اشتراک‌گذاشتن سیگنال‌های مربوط به نقض [قوانین درباره] محتوای خودکشی و خودآزاری است.»

برنامه متا، اسنپ چت و تیک‌تاک برای شناسایی محتواهای مضر درباره خودکشی

نحوه عملکرد برنامه Thrive متا، اسنپ‌چت و تیک‌تاک

هنگامی که شرکتی مانند متا محتوای مضری را در اپلیکیشن‌های خود کشف می‌کند، هش (کد ناشناس مربوط به محتوای خودآزاری یا خودکشی) را با سایر شرکت‌های فناوری به اشتراک می‌گذارد، تا آن‌ها بتوانند پایگاه داده‌هایشان را برای جست‌وجوی همان محتوا بررسی کنند.

متا می‌گوید از آوریل تا ژوئن امسال (فروردین و خرداد)، بیش از 12 میلیون محتوای مربوط به خودکشی و خودآزاری در فیسبوک و اینستاگرام شناسایی کرده است. این شرکت اگرچه به کاربران اجازه می‌دهد درباره تجربیات خودکشی و خودآزاری خود صحبت کنند، وقتی این مطالب جنبه ترغیب‌ دیگران به چنین کاری پیدا کند، محتوایی مضر شناسایی می‌شود.

یکی از مسائل دشوار تشخیص محتوای مضر در شبکه‌های اجتماعی این است که باید دائم تحت نظارت قرار بگیرند. هوش مصنوعی مطمئناً می‌تواند به برچسب‌گذاری خودکار این محتواهای مضر کمک کند اما بسیاری از این محتواها جزئیات ظریفی دارند که فقط انسان می‌تواند جنبه مضر آن‌ها را تشخیص دهد. اکنون شرکت‌های فناوری در برنامه Thrive گام مهمی برداشته‌اند تا فرایند پیچیده یافتن و پاکسازی این محتواها کمی آسان‌تر شود.

دیدگاه‌ها و نظرات خود را بنویسید
مطالب پیشنهادی