TikTok adotta nuove politiche per tutelare la sua community: i motivi della rimozione dei contenuti verranno chiariti agli utenti.
La rimozione dei contenuti su TikTok verrà da ora spiegata in modo più chiaro per permettere agli utenti di capire quali linee guida della community sono state violate. Finora sul social network cinese in seguito alla rimozione di un video il proprietario del contenuto veniva avvisato con un messaggio generico.
Non era, quindi, possibile venire a conoscenza di quale regola nello specifico era stata violata attraverso la pubblicazione del contenuto oggetto della rimozione. TikTok ha però deciso di sperimentare un nuovo sistema per allertare gli utenti e garantire una maggiore trasparenza e sicurezza a tutta la comunità, vediamo di cosa si tratta.
Rimozione dei contenuti su TikTok: ecco cosa cambia
Quando un contenuto sarà rimosso per la violazione delle regole interne della community, invece di un avviso generico, gli utenti verranno informati sui motivi della rimozione. Per farlo è stato ideato un nuovo sistema di notifica attraverso cui fare maggiore chiarezza sulla tipologia di contenuti consentiti.
Un’attenzione particolare sarà inoltre dedicata a quei post che verranno segnalati per la presenza di contenuto autolesionista o riconducibile al suicidio. In questi casi, infatti, il sistema oltre a prevedere l’eliminazione del contenuto provvederà anche ad avviare un processo di supporto. Insieme alla notifica di rimozione del post, infatti, gli utenti riceveranno anche un messaggio da un team di supporto psicologico.
TikTok: regole della community e violazioni
Come per gli altri social, anche su TikTok le regole della comunità sono state introdotte per evitare che contenuti inappropriati possano essere distribuiti attraverso la piattaforma.
Esiste anche un limite di età per l’utilizzo del social network, i ragazzi con meno di 13 anni, infatti, non potrebbero utilizzare la piattaforma. Tuttavia, come spesso accade, è difficile vigilare sul rispetto di queste regole.
Diversi episodi tra cui le polemiche sulla sicurezza dei contenuti e sui rischi a cui è esposta la community, infatti, hanno spinto i creatori del social a prestare una maggiore attenzione verso la moderazione.
Già a febbraio di quest’anno, infatti, era stato introdotto un filtro Famiglia per tutelare i minori dalla presenza di contenuti sensibili. Sempre nello stesso periodo sono state introdotte ulteriori misure per la limitazione della messaggistica diretta tra gli utenti.
Fonte foto: https://pixabay.com/it/photos/smartphone-cellulare-1894723/