Influencer triestina Samantha: “L'IA va regolata, su TikTok rischi enormi per i più giovani” (VIDEO)

Influencer triestina Samantha: “L'IA va regolata, su TikTok rischi enormi per i più giovani” (VIDEO)

Nel corso della diretta serale di Trieste Cafe, condotta da Luca Marsi, l’influencer Samantha Favretto ha affrontato uno dei temi più delicati e discussi dell’attualità digitale: l’arrivo su TikTok di un nuovo filtro che permette agli utenti di decidere se visualizzare o meno i contenuti generati con l’intelligenza artificiale. Un cambiamento che, nelle intenzioni della piattaforma, dovrebbe aiutare a distinguere ciò che è reale da ciò che è prodotto artificialmente. Favretto, forte della sua esperienza diretta nel mondo dei social, ha offerto un’analisi approfondita, prudente e estremamente concreta, mettendo in evidenza le potenzialità ma soprattutto i rischi connessi a questo tipo di tecnologia.

Durante la diretta ha chiarito subito di non essere contraria in assoluto all’intelligenza artificiale. Anzi, ha spiegato di considerarla uno strumento affascinante e utile, purché venga utilizzata con responsabilità e con regole chiare. Tuttavia, ha raccontato di utilizzare l’AI con grande parsimonia proprio perché, nella sua attività quotidiana sui social, vede crescere fenomeni che definisce “preoccupanti”. Uno degli aspetti che più la allarma è la capacità dell’intelligenza artificiale di replicare in modo estremamente realistico voci e volti. Ha spiegato che oggi è possibile creare contenuti in cui una persona sembra parlare, muoversi o apparire esattamente come nella realtà, pur non essendo lei, al punto che chiunque potrebbe ritrovarsi “replicato” da qualche parte senza esserne consapevole. Un potere così grande, ha sottolineato, apre la porta anche a truffe e manipolazioni, come confermato anche da Marsi che in studio ha ricordato casi recenti di frodi telefoniche basate su imitazioni vocali.

La riflessione di Favretto si è poi concentrata su TikTok, piattaforma sulla quale negli ultimi mesi, secondo la sua esperienza, i controlli interni si sarebbero notevolmente indeboliti. Ha raccontato di avere effettuato test diretti commentando alcuni contenuti con un linguaggio provocatorio e volutamente colorito, senza ottenere alcuna rimozione, nessuna limitazione e nessuna moderazione. Ha descritto TikTok come una piattaforma dove ormai la gestione dei commenti sembra affidata quasi esclusivamente a sistemi automatici che non riconoscono insulti, provocazioni, volgarità o contenuti inadeguati, lasciando tutto visibile senza alcun filtro. Favretto ha definito questa situazione “pericolosissima”, soprattutto per la presenza massiccia di minori, spesso molto piccoli, che aprono profili con il consenso dei genitori oppure utilizzando direttamente gli account degli adulti della famiglia.

L’influencer ha portato esempi molto concreti sul rischio che i bambini corrano di imbattersi in interazioni inappropriate, raccontando di aver visto personalmente adulti rivolgersi a minori con toni o contenuti fuori luogo. Ha detto di segnalare sempre queste situazioni, ma ha spiegato anche che, quando le segnalazioni vengono inviate, la piattaforma tende sistematicamente a rispondere che il contenuto “non viola alcuna regola”, lasciando tutto online. Un segnale evidente, secondo lei, che il meccanismo di moderazione interna non solo non è sufficiente, ma di fatto non è più in grado di tutelare gli utenti vulnerabili.

Pur criticando duramente le modalità con cui TikTok gestisce l’intelligenza artificiale e la sicurezza dei minori, Favretto non ha assunto un atteggiamento ideologico. Ha ribadito più volte che l’AI può essere utile, ad esempio quando aiuta a reperire informazioni o a facilitare alcune operazioni, anche se ha ricordato che spesso è comunque possibile ottenere risultati simili semplicemente utilizzando strumenti tradizionali come una ricerca web. La vera questione, nella sua analisi, è il modo in cui la tecnologia viene utilizzata e il fatto che, nelle mani sbagliate o in assenza di controlli adeguati, possa diventare uno strumento capace di falsificare la realtà con una precisione disturbante.

Nel suo intervento ha insistito sulla necessità di introdurre regole più chiare sia da parte delle piattaforme che da parte delle istituzioni, ricordando che i giovani sono gli utenti più fragili e meno attrezzati per distinguere ciò che è vero da ciò che non lo è. Per questo sostiene che piattaforme come TikTok debbano assumersi maggiori responsabilità e tornare a esercitare un controllo serio e costante sui contenuti, perché l’introduzione di filtri selezionabili dagli utenti non è sufficiente a risolvere problemi così profondi.

DI SEGUITO IL VIDEO

RIPRODUZIONE RISERVATA

Guarda il video

IL VIDEO