TikTok ahora notificará las razones tras la eliminación de algún vídeo

Aunque las regulaciones que definen qué contenido es o no es considerado apropiado son de conocimiento público en cualquier red social, usualmente son pocas las personas que se detienen a leerlas en detalle.

En el caso de TikTok, la remoción de contenido inapropiado era hasta hace un tiempo escueta que simplemente hacía alusión de forma genérica a una infracción de sus pautas comunitarias. Sin embargo, una reciente actualización implementó un mecanismo más transparente para la emisión de estos reportes, los cuales a contar de ahora especificarán cual es la falta específica en la que se incurrió con la publicación vetada.



Con esta mejora, los reportes desprendidos de una publicación eliminada se emitirán con mayor transparencia, para despejar las eventuales dudas que genere esto.

En el pasado, a diferencia de otras redes sociales como Facebook, que permiten apelar ante resoluciones como estas, TikTok carecía de instancias como esta. Sin embargo, en esta nueva etapa se ofrece una alternativa similar, pues las notificaciones derivadas de estos reportes se enmarcarán en un espacio de comunicación bilateral, con derecho a réplica.

Este nuevo mecanismo de reportes busca familiarizar más a los usuarios de TikTok con sus pautas comunitarias. A pesar de que estas normas se asumen conocidas desde la creación de una cuenta, cuando se aceptan los términos del servicio; es una realidad visible que estos detalles suelen ser pasados por alto, en parte debido a lo densos que suelen ser estos textos.

Reporte Tiktok

A pesar de presentarse recientemente al público la aplicación de esta medida, a nivel de pruebas se experimentó en una etapa piloto con la misma durante los últimos meses, con una cuota limitada de usuarios. Respecto a esta etapa de la iniciativa, un comunicado oficial de TikTok señala que “nuestros objetivos son mejorar la transparencia y la educación en torno a nuestras normas de la comunidad, para reducir los malentendidos sobre el contenido de nuestra plataforma y ​​los resultados han sido prometedores”.

La implementación de esta iniciativa cumple con la misión de reiterarle a los creadores de contenido que ellos son los responsables de aplicar un primer filtro sobre lo que comparten. Aunque existen mecanismos de denuncia y sistemas automatizados de filtrado, estos no son lo suficientemente rápidos o precisos.

La experiencia hasta el momento ha sido positiva, de acuerdo a lo que desde TikTok comentan, mediante cifras positivas como la reducción en un 14% de las solicitudes de eliminación de contenido inapropiado. Otras señales destacadas por el producto estrella de ByteDance son la reducción de la tasa de reincidencias en infracciones y el incremento de las visitas a su página de normas comunitarias al triple.

Panel de ayuda TikTok

Como recurso adicional, si el contenido eliminado se puede calificar como autolesivo o referente al suicidio, la plataforma desplegará mediante una segunda notificación un panel de ayuda, con acceso a recursos de expertos para obtener ayuda.

Al igual que muchas otras redes sociales y servicios digitales, TikTok suele comentar que estas medidas se justifican en la necesidad de hacer de su espacio uno amigable para toda su comunidad.

Tras finalizar su período de pruebas, ya se encuentra disponible a nivel global esta nueva medida que apuesta por fomentar la generación de “contenido positivo y comportamiento acogedor”, en palabras de TikTok.

Fuente: Link