La aplicación para compartir vídeos cortos TikTok dijo el viernes que utilizará más sistemas automatizados para eliminar de su plataforma los vídeos que infrinjan sus directrices comunitarias.
Te puede interesar: Imágenes y videos de WhatsApp que se autodestruyen ya son una realidad
En la actualidad, los vídeos subidos a la plataforma pasan por herramientas tecnológicas que reconocen y etiquetan cualquier posible infracción, que luego revisa un miembro del equipo de seguridad. Si se detecta una infracción, se elimina el vídeo y se notifica al usuario, dijo TikTok.
La empresa, propiedad de ByteDance, añadió que en las próximas semanas empezará a eliminar automáticamente algunos tipos de contenido que infringen la política de seguridad de los menores, los desnudos y las actividades sexuales de los adultos, el contenido violento y gráfico y las actividades ilegales y los productos regulados.
Esto se sumará a las eliminaciones realizadas por el equipo de seguridad.
La compañía dijo que esto ayudará a su equipo de seguridad a concentrarse más en áreas altamente contextuales y matizadas, como la intimidación y el acoso, la desinformación y las conductas de odio.
TikTok también añadió que enviará una advertencia en la aplicación ante la primera infracción. Sin embargo, en caso de que se repitan las infracciones, se notificará al usuario y también se podrá eliminar la cuenta de forma permanente.
Los cambios se producen en un momento en que las redes sociales, incluidas Facebook y TikTok, han sido objeto de críticas por amplificar discursos de odio y la desinformación a nivel mundial en sus plataformas.