
Il social ha commissionato un’indagine su sfide e bufale virali
Il social cinese TikTok, passato agli annali per i video brevi e divertenti ma anche per le sfide estreme e pericolose, ha commissionato una ricerca sulle challenge e sulle bufale che diventano virali nei suoi feed.
Ne è emerso che il 48% delle challenge sono percepite dagli adolescenti come sicure e vengono definite divertenti o spensierate; il 32% invece è considerato sicuro ma gli viene associata una certa dose di rischio; il 14% viene definito rischioso e pericoloso e il 3% infine è dichiaramente molto pericoloso.
Durante lo studio è stato specificato ai partecipanti che si definisce “sfida online pericolosa” quella che comporta un rischio significativo di avere danni fisici, mentali o emotivi, come le cosiddette “sfide bufale“, legate a suicidio o autolesionismo come Galindo, Blue Whale e Momo (leggi l’approfondimento sulle sfide mortali di TikTok su Il Mondo-smce, clicca qui).
In tutto sono state intervistate oltre 10 mila persone in Argentina, Australia, Brasile, Germania, Italia, Indonesia, Messico, Regno Unito, Usa e Vietnam.
Solo lo 0,3% dei rispondenti ha dichiarato di aver preso parte a una challenge che riteneva pericolosa.
Però altri dati preoccupano: il 56% dei genitori ha dichiarato di non affrontare una discussione riguardo ad un contenuto sull’autolesionismo se non viene introdotto prima dal minore e il 37% trova difficile parlarne senza sviluppare un interesse negli adolescenti.
Alla luce di quanto emerso, il social ha deciso che imporrà un vero e proprio giro di vite nella policy sulle challenge: verranno eliminati i contenuti allarmistici e resi più efficaci i messaggi di avviso che gli utenti visualizzeranno quando proveranno a cercare contenuti relativi a sfide pericolose o bufale.
«La ricerca – sottolinea TikTok – dimostra che, anche quando condivisi con le migliori intenzioni, le bufale sui contenuti autolesionistici possono avere un forte impatto sul benessere degli adolescenti. Noi rimuoviamo già questi contenuti e interveniamo per limitarne la diffusione. Da oggi, come ulteriore protezione per la nostra community, elimineremo anche i contenuti allarmistici: infatti, trattando come reali i contenuti ingannevoli e le bufale, essi stessi possono essere dannosi. Continueremo invece a consentire le conversazioni che cercano di eliminare il panico e promuovere informazioni accurate».
Quest’ultimo punto è fondamentale perché dal report è emerso anche che gli adolescenti vogliono ricevere più informazioni che li aiutino a riconoscere le challenge rischiose: il 46% ha dichiarato di volere “maggiore disponibilità di informazioni valide sui rischi e sulle attività estreme”.
di: Micaela FERRARO
FOTO: ANSA/EPA/DIVYAKANT SOLANKI