TikTok comenzará a usar algoritmos para eliminar automáticamente el contenido que viole su política de usuario.
La red social propiedad de ByteDance también está realizando algunos cambios en la forma en que notifica a los usuarios. TikTok dice que el nuevo sistema está diseñado para ayudar a reducir la cantidad de videos inapropiados que su equipo de seguridad humana debe revisar. El equipo de moderación podrá entonces concentrarse en áreas como la intimidación, el discurso de odio y el acoso.
TikTok está probando la eliminación automática de contenido que viola sus políticas, como desnudez de adultos, actividad sexual, contenido violento, actividades ilegales y bienes regulados. La compañía ha estado experimentando con la eliminación automática de infracciones de contenido fuera de los EE. UU. durante meses. TikTok dice que la tasa de falsos positivos de sus algoritmos es de alrededor del 5%. Las solicitudes para revisar las apelaciones de eliminación de contenido se han mantenido constantes desde que se introdujo la automatización en el proceso.
TikTok quiere introducir más transparencia en su proceso de moderación mediante la introducción de algoritmos.
La compañía también informará cuántas cuentas elimina debido a que sean de usuarios menores de 13 años. TikTok se ha enfrentado a fuertes multas de la FTC por violar leyes de privacidad infantil como COPPA. TikTok también está realizando algunos cambios en la forma en que notifica a los usuarios que han subido contenido que viola sus pautas.
“Se notificará a las personas sobre las consecuencias de sus infracciones a partir de la sección Actualizaciones de la bandeja de entrada de su cuenta. Allí, pueden ver un registro de las infracciones acumuladas”
Hay varias categorías de violaciones, que incluyen video, comentarios, mensaje directo, hashtag, perfil, sonido y en vivo.
Cómo funcionan las infracciones de contenido de TikTok: Eliminación automática
TikTok también ha descrito cómo funcionarán estas consecuencias para las infracciones de contenido repetidas. Tras la primera infracción, los usuarios recibirán una advertencia en la aplicación, a menos que la infracción sea de tolerancia cero. Las políticas de tolerancia cero incluyen (pero no se limitan a) abuso sexual infantil y material pornográfico.
Después de la primera violación
Los usuarios que continúen violando las políticas de TikTok pueden esperar ver las siguientes consecuencias:
- Capacidad suspendida para cargar un video, comentar o editar un perfil durante 24 a 48 horas.
- Cuenta restringida a una experiencia de solo lectura durante 72 horas, hasta una semana
- Después de varias infracciones, un usuario recibirá una advertencia de prohibición.
“Desarrollamos estos sistemas con el aporte de nuestro Consejo Asesor de Contenido de EE. UU. y, al probarlos en EE. UU. y Canadá durante las últimas semanas, más del 60% de las personas que recibieron una primera advertencia por violar nuestras pautas no tuvieron una segunda violación”
- Link a la nota de prensa de Tiktok.