Filoweb.it
By Filippo Brunelli


FB TW Pinterest whatsapp RSS FEED News letter

  ► Magazine

Perché bisogna temere le app cinesi e non solo tiktok
Perché bisogna temere le app cinesi e non solo tiktok

Stareste seduti su di una bomba con il detonatore nelle mani di qualcun altro?
Se la risposta è no allora considerate che continuare ad utilizzare determinate app potrebbe equivalere ad essere seduti su di una bomba della quale non abbiamo nessun controllo.
L’allarme non è recente, ma solamente è con lo scontro sempre più acceso tra USA e Cina sull’uso di Tick Tock in territorio Nord Americano che la preoccupazione su determinate applicazioni entra a gamba tesa nella vita di delle persone normali, e non solo degli addetti ai lavori.


Il problema del trattamento dei dati personali e della privacy
In Europa, ancor più che negli Stati Uniti, la privacy ed il trattamento dei dati è molto sentito. In effetti noi Europei abbiamo il regolamento più stringente, che implica sempre il consenso da parte dell’utente sulla raccolta e l’utilizzo dei dati e ne impone la chiarezza su quale tipo di utilizzo viene fatto dei dati raccolti e dove questi sono conservati ma, soprattutto, pone dei limiti sull’utilizzo che lo stato può fare dei dati che le aziende raccolgono.
Negli Stati Uniti la legislazione è molto più blanda: non esiste una legge federale sulla privacy generale, diversi settori sono regolati da leggi diverse (ad esempio il regolamento per le telecomunicazioni è differente da quello sulla salute o sui i servizi finanziari), il consenso non sempre necessario e viene messo in rilievo una maggiore enfasi sulla sicurezza dei dati rispetto alla loro privacy; da sottolineare che tra USA ed Unione Europea esisteva un accordo, chiamato “Privacy Shield”, che regolava il trasferimento dei dati personali tra i due, in via di sostituzione con il “EU-U.S. Data Privacy Framework1.
In Cina, la legge sulla protezione dei dati personali, che è entrata in vigore nel 2017 con il nome PIPL,  si ispira al GDPR europeo ma con alcune differenze: il PIPL si applica a tutte le organizzazioni che trattano dati personali di cittadini cinesi, indipendentemente da dove si trovano,  il consenso può essere implicito o esplicito e, per finire, è più focalizzato sulla sicurezza dei dati e sul controllo statale. Nel paese asiatico, quindi, il sistema della privacy è in mano allo stato che ne controlla ogni aspetto.
Dopo aver dato un rapido riassunto di come è considerata la privacy in Europa, Usa e Cina cerchiamo di capire perché l’utilizzo di certe App cinesi può essere un rischio, non solo per la privacy ma, ma anche per i nostri dispositivi finanche alla sicurezza nazionale.


TEMU e Grizzly Research LLC
ByteDange è un’azienda cinese con sede a Pechino specializzata in tecnologie internet. Tra le sue creazioni vi sono la piattaforma di notizie Toutiao, l’app chiamata Neihan Duanzi (fatta chiudere nel 2018 dalla censura del governo cinese) mentre tra le app acquisite compare la famosa piattaforma TikTok. Detiene anche delle partecipazioni azionarie di PDD Holding. Da sottolineare che, a detta sia di ByteDange che di PDD, le due aziende rimangono indipendenti.
Per chi non lo sapesse PDD Holding è l’azienda che nel 2022 ha lanciato la piattaforma di acquisti online Temu: una piattaforma di e-commerce che possiamo considerare equiparabile a Wish o Aliexpress più che ad Amazon o Ebay ma, a detta di chi l’ha provata, a differenza delle due concorrenti ha tempi di spedizione più brevi e prodotti di qualità superiore.
Importante è considerare che Temu nasce come miglioramento dell’ app di “social shopping” 2 PinDuoDuo che venne rimossa dal Google Play Store per mancanza di sicurezza (a detta di google sembra che installasse degli spyware negli smartphone). Alla chiusura dell’app buona parte del team che vi lavorava venne spostato da PDD a lavorare su Temu.
Visto questi precedenti, a settembre 2023, la società  Grizzly Research LLC pubblica una lunga ed interessante ricerca sull’app Temu basata, a dire della società di analisi, sulla decompilazione del codice sorgente (per la precisione della versione di Android ma il report contiene un breve esame anche dell’app per IOs).
Per correttezza c’è da sottolineare che il Report è risultato subito controverso: Grizzly Research LLC (come si legge sul sito di quest’ultima) “is focused on producing differentiated research insights on publicly traded companies through in-depth due diligence”(si concentra cioè nella produzione di report di aziende quotate in borsa) e i suoi reports sono sempre molto accurati ma, in questo caso, sebbene affermino di aver consultato diversi specialisti in cyber security, non ne viene citato nessuno specificatamente e questo ha fatto dubitare alcuni utenti entusiasti dell’app dell’accuratezza e veridicità della ricerca.
Prima di analizzare i punti più salienti da un punto di vista tecnico vorrei soffermarmi su un punto che Grizzly Research ha considerato importante: la così detta insostenibilità finanziaria del modello Temu.
Secondo alcuni analisti l’azienda perderebbe costantemente soldi nello spedire prodotti senza costi di spedizione e a così basso prezzo, anche nel caso di social shopping (la perdita stimata è di circa 30$ a ordinazione). Questo farebbe pensare che l’app abbia principalmente il compito di raccogliere iscritti e fare proliferazione in modo da poter vendere illegalmente dati rubati per sostenere un modello di business altrimenti destinato al fallimento. Ad accentuare questo dubbio il fatto che, nella fase di start up, vi erano incentivi aggiuntivi quali la possibilità di vincere un Play Station se si invitavano gli amici ad iscriversi e questi lo facevano, oltre altre offerte a prezzi veramente bassi.
Da un punto di vista tecnico le possibili vulnerabilità (se possiamo chiamarle così anziché vere e proprie trappole informatiche) evidenziate dal report sono parecchie. Tra queste le più preoccupanti sono la presenza della funzione runtime.exec(). Questa funzione (che nel codice sorgente è rinominata “package compile”) può creare nuovi programmi eseguibili, i quali non sono visibili alle scansioni di sicurezza prima o durante l’installazione dell’app, rendendo possibile a Temu di passare tutti i test per l’approvazione negli store di app. Sempre nel codice sorgente decompilato di Temu, ci sono riferimenti a permessi che non sono elencati nel file Android Manifest3 dell’app, il quale è la fonte standardizzata per controllare i permessi. Questi permessi non menzionati includono richieste per l’accesso a funzioni molto invasive come CAMERA, RECORD_AUDIO e ACCESS_FINE_LOCATION.
Un dubbio riguardo il codice è anche la richiesta da parte dell’app di verificare se, nel telefono sul quale è installata, siano presenti i permessi di root4. Molti utenti abilitano questa funzione del dispositivo per poter installare software al difuori dello store ufficiale o per personalizzare ulteriormente il proprio smartphone. Il fatto che un programma voglia verificare se il dispositivo abbia o meno questi permessi non ha nessun senso. Meno preoccupante è invece la presenza di codice offuscato (che viene comunemente utilizzato per proteggere il codice del programma in alcune parti proprietarie o che non si vuol far conoscere).
Un capitolo a parte riguarda la funzione Debug.isDebuggerConnected().  Questa funzione è presente anche in altre applicazioni (come ad esempio Amazon) e permette di verificare se il telefono entra in modalità debugging. Nell’articolo, il riferimento alla funzione si trova nella sezione che discute le caratteristiche di spyware/malware dell’app Temu; secondo il report di Grizzly Research questa funzione ha lo scopo di ostacolare o nascondere l’analisi dell’app e, molto probabilmente, per cambiare il comportamento della stessa se viene ispezionata dinamicamente da un analista. Questo è considerato un enorme segnale di allarme perché suggerisce che il software potrebbe cercare di evitare la rilevazione durante le scansioni di sicurezza automatizzate. Il report di Grizzly Research mostra molte altre criticità che a volte si intersecano anche con la complessità e poco chiarezza dei termini sulla privacy ed il loro consenso, nonché della complessità della richiesta ai permessi da parte dell’app quando si installa, uno per tutti la funzionalità di caricamento file basate su un server di comando collegato alla loro API us.temu.com, il che significa che una volta che un utente concede il permesso di archiviazione file all’app Temu, l’app sarà in grado di raccogliere qualsiasi file dal dispositivo dell’utente e inviarli ai propri server.


Il caso ByteDange e l’occidente
Il caso di ByteDange e Tick Tock è più controverso e si mescola alla percezione comune che si ha del social network, diventando un caso di scontro politico negli Stati Uniti, non solo tra Biden e Trump, ma anche tra Repubblica Popolare Cinese e la Camera dei Rappresentanti del Congresso Americano.
Già durante il suo mandato l’ex presidente degli Stati Uniti Donald Trump, nel 2020, ha cercato di vietare TikTok negli Stati Uniti, a meno che l’app non fosse stata venduta a un’azienda americana, sostenendo che la proprietà cinese della stessa avrebbe dato al governo autoritario di Pechino accesso alle informazioni personali degli utenti americani. L’app TikTok, negando queste accuse investì nella creazione di Project Texas, al fine di confinare i dati degli utenti americani su server statunitensi. A distanza di 4 anni, con la presidenza Biden, il problema si ripresenta solo che questa volta l’ex presidente Trump è contrario alla chiusura di TickTok negli USA.
Cerchiamo quindi di fare un po’ di chiarezza considerato che i motivi per i quali si sta tanto discutendo del pericolo rappresentato da TikTok sono parecchi.
Già nel 2020 il giornale The Washington Post in un articolo intitolato "TikTok privacy concerns grow after teen's videos are posted without her consent" raccontava la storia di Sarah (nome di fantasia trattandosi di una minorenne) una studentessa di 16 anni del New Jersey, che ha installato TikTok senza creare un account. La giovane studentessa ha quindi iniziato a guardare video e a creare delle bozze, senza però mai pubblicare nulla. Tuttavia, un giorno Sarah ha scoperto che alcuni dei suoi video erano stati pubblicati online senza il suo consenso: i video erano stati copiati da altri utenti e condivisi su altre piattaforme social, come Instagram e YouTube.
Ma il caso di Sarah non è un caso isolato: nel 2021, un’altra studentessa di 17 anni della California, Ashley, ha avuto un'esperienza simile. Ha installato TikTok e ha iniziato a creare video, ma non ha mai pubblicato nulla. Anche in questo caso, la ragazza, ha scoperto che alcuni dei suoi video erano stati pubblicati online da un altro utente che aveva creato un account falso con il nome di Ashley e aveva postato i suoi video senza il suo consenso.
Di casi analoghi ne sono stati segnalati molti e tutti evidenziano una serie di problemi legati alla privacy (TikTok non rende facile per gli utenti controllare chi può vedere i loro contenuti e come vengono utilizzati i loro dati) e all’eccessiva quantità di informazioni personali raccolte, tra le quali figurano quelle di geolocalizzazione, di navigazione  ed i dati biometrici che includono “faceprints” (impronte facciali) e “voiceprints” (impronte vocali)5.
ByteDange afferma che TikToka chiederà il consenso agli utenti prima di raccogliere queste informazioni biometriche ma che, tuttavia, ciò avverrà solo quando richiesto dalla legge, omettendo di specificare quale legge richieda il consenso. In pratica non è chiaro se, in stati come Illinois, Washington, California, Texas e New York, che hanno leggi sulla privacy biometrica questa verrà chiesta mentre in altri che non l’hanno non verrà chiesta. Altri dati ai quali TikTok accede comprendono la rete Wi-Fi a cui ci si collega, tutti i contatti memorizzati in rubrica, la funzione di registrazione audio e tutti gli appuntamenti inseriti nel calendario.
Effettuando uno screening con uno strumento tecnico di analisi per app, come quello dell’organizzazione senza scopo di lucro Exodus Privacy6, ci si accorge che TikTok installa una serie di tracciatori di proliferazione tra i quali (oltre al classico di analytics di Google  e quelli di condivisione con Facebook) quello di VKontakte, il principale social network della federazione Russa.
Sebbene tutte queste criticità sarebbero sufficienti a far, se non altro, aprire un’ inchiesta sull’app, il vero motivo per il quale la Camera dei Rappresentanti del Congresso Americano ha deliberato di chiudere TikTok nel territorio degli USA riguarda anche altre motivazioni tra le quali la gestione dell’algoritmo che presenta i video agli utenti: questo è progettato per essere altamente coinvolgente e può portare alla dipendenza e a danni alla salute mentale, soprattutto nei giovani (che ne sono i principali utilizzatori). Inoltre, ByteDange non è trasparente su come funziona il suo algoritmo e questo rende difficile per gli utenti capire come i loro contenuti vengono selezionati e presentati: algoritmo di TikTok è in grado di manipolare i contenuti che essi vedono, un fatto che potrebbe essere utilizzato per diffondere disinformazione, propaganda o per influenzare elezioni o referendum (da qua si può intuire perché l’ex presidente Trump che prima era contrario a TikTok adesso non vuole che venga oscurato).
Sebbene non vi siano prove concrete che l’app stia effettivamente utilizzando il suo algoritmo per danneggiare gli americani, le preoccupazioni della Camera sono sufficientemente gravi da aver spinto i suoi membri a votare una risoluzione per vietare l'app sui dispositivi governativi.
Le paure degli Stati Uniti non vanno assolutamente ignorate: va infatti ricordato che ByteDance ha una partnership strategica con il Ministero cinese della pubblica sicurezza che comprende anche la collaborazione su "attività offline" non specificate. D’altronde nel 2019, ByteDance ha formato joint venture con Beijing Time, un editore controllato dal comitato municipale del PCC di Pechino e, nel giugno 2022, ha collaborato con Shanghai United Media Group per lanciare un piano per sviluppare influencer nazionali ed esteri. L’influenza della censura della Cina è tale che nel aprile 2020, la Cyberspace Administration of China ha ordinato a ByteDance di rimuovere il suo strumento di collaborazione in ufficio, Lark (una piattaforma di collaborazione aziendale), perché poteva essere utilizzato per aggirare la censura di Internet.
Non bisogna, infatti, mai dimenticare che le aziende cinesi sono soggette a numerose leggi e normative che le obbligano a cooperare con il governo cinese e che, oltre a queste leggi, il governo cinese ha anche una serie di strumenti a sua disposizione per costringere le aziende a cooperare.
Ma se negli Stati Uniti TikTok non se la passa bene le cose non vanno meglio nel vecchio continente. L’ Europa ha multato l’azienda proprietaria del software per 45 milioni di euro per la violazione della privacy dei minori e per la mancanza di trasparenza. In particolare l’app, stando alle motivazioni dell’ammenda, ha raccolto illegalmente i dati di bambini di età inferiore ai 13 anni senza il consenso dei genitori, indirizzando a questi pubblicità mirate. La sanzione fa scalpore in quanto si tratta della più grande multa mai comminata dall'Unione Europea per una violazione del GDPR (General Data Protection Regulation). Oltre alla multa, però l'Unione Europea ha ordinato a TikTok di interrompere la raccolta illegale dei dati dei bambini, fornire agli utenti informazioni più chiare su come vengono utilizzati i loro dati e di rendere più facile per gli utenti modificare le proprie impostazioni sulla privacy.


Tencent (WeChat) ed il controllo del Governo Cinese
Il 30 November 2023 il Il NUKIB7 pubblica sulla sul suo sito una pagina di informazioni che mette in guardia sull’utilizzo dell’app WeChat di Tecent.
A differenza delle aziende viste precedentemente, sebbene sia una società privata, il governo cinese ha una partecipazione significativa in Tencent attraverso diverse entità statali e questo significa che ha un certo controllo sulla società e ne può influenzare le decisioni. Molti dipendenti dell’azienda sono membri del Partico Comunista Cinese (ovvero il governo) e quest’ultimo può censurare i contenuti su WeChat e ordinarne la rimozione determinate app o servizi.
L’allerta Sicurezza lanciata dal NUKIB riguarda essenzialmente il grande volume di dati che l’app raccoglie dagli utenti e il fatto che questi ultimi possono essere utilizzati per cyber attacchi mirati. Da quello che si legge nel rapporto dell’agenzia di sicurezza Ceca, il Bureau of Industry and Security8 degli USA segnala che i servizi di intelligence cinesi conducono operazioni di influenza contro gli interessi della Repubblica Ceca, con un’attività elevata nel paese e nello spazio cibernetico anche tramite l’app di Tecent.
È bene ricordare che WeChat è già stata bandita in India, Canada e alcuni stati degli USA e che nel 2023 i Paesi Bassi hanno emesso una raccomandazione per i dipendenti governativi di non utilizzare app esprimendo preoccupazione che il governo cinese la possa utilizzare per spiare i cittadini olandesi o per interferire nelle elezioni.
Il governo Indiano, invece, ha bandito WeChat (insieme ad altre 58 app cinesi) perché veniva utilizzata per diffondere disinformazione e propaganda anti-indiana. Il divieto di WeChat è avvenuto in un momento di tensione tra India e Cina a causa di un conflitto al confine himalayano. Sebbene le motivazioni del Governo Indiano riguardino la poca trasparenza e l’utilizzo dei dati dei cittadini indiani da parte della Cina, e che (a detta del governo di Nuova Deli) il blocco verrà rimosso non appena queste criticità saranno risolte, l’app in India risulta ancora bloccata.


Giochi politici o vera emergenza?
L’annuncio della Camera degli Stati Uniti ha fatto subito alzare la testa al Governo Cinese che ha dichiarato tramite il Ministro degli Esteri Wang Wenbin “Un paese che si vanta della libertà di parola e afferma di essere un’economia di libero mercato è disposto a usare il potere dello Stato per reprimere specifiche aziende. Questa è la vera ironia”. La vera ironia sta proprio nelle parole del ministro perché è bene ricordare che Facebook, Youtube, nonché la stessa TikTok nella versione internazionale, oltre a moltissime altre applicazioni sono bloccate in Cina.
Ma il Partito Comunista Cinese non si limita solamente a bloccare determinati siti, app o servizi  quali Netfix o  DropBox ma, attraverso un complicato sistema normativo e tecnologico chiamato “Great Firewall”9 monitorizza e censura tutto il traffico in entrata nel paese. Il sistema è molto complesso e meriterebbe da solo una trattazione separata ma, visto che questo non è lo scopo dell’articolo lo tralasceremo per ora.  Il motivo per il quale ne abbiamo accennato, a parte il fatto della doppia ironia delle accuse del ministro Wang Wenbin è che ci fornisce l’idea di come i social network ed internet siano considerati dal Governo Cinese: uno strumento atto a perseguire i propri fini e, proprio per questo motivo la maggior parte delle app che vengono da lì devono essere considerate come possibili “armi”.
Rifacendoci al precedente articolo “Elezioni Europee -e non- nell’era della post-verità e delle AI” possiamo riflettere di quale pericolo sia, non solo la falsa informazione, ma anche il fatto che i nostri dati, le nostre abitudini ed i nostri interessi siano nelle mani di regimi non democratici.
Pensiamo al caso della Brexit e di come il microtargheting10 operato da Cambridge Analytica abbia influenzato l’esito del referendum: in un primo momento l’azienda ha utilizzato i dati raccolti da Facebook per creare profili psicologici di milioni di persone. Questi profili sono stati poi utilizzati per indirizzare messaggi pubblicitari personalizzati agli elettori, con l'obiettivo di influenzare il loro voto.
Ma non solo questo! Cambridge Analytica ha identificato e preso di mira opinion leader11 e influencer sui social media, i quali sono stati poi utilizzati per diffondere messaggi pro-Brexit a un pubblico più ampio.
È appunto guardando indietro all’esperienza Brexit che dobbiamo preoccuparci della raccolta dei nostri dati e del loro utilizzo e conservazione da parte di potenze straniere, soprattutto in questo particolare momento storico.
Rimane poi un’ultima considerazione da fare: immaginate un dipendente del ministero della difesa o dei servizi segreti che ha un telefono cellulare compromesso sul quale una nazione straniera può installare qualsiasi applicazione a sua insaputa o che, quando è in ufficio collegato alla rete wi-fi, attraverso di essa avere accesso a tutti i file piuttosto che disabilitare i radar o i sistemi di intercettazione.
Uno scenario del genere veniva mostrato nella quinta stagione della serie televisiva “The Last Ship”: attraverso un telefono cellulare compromesso venivano disabilitati i sistemi di difesa della Marina  Militare Americana, permettendo ad una coalizione di forze straniere di annientare la maggior parte della forza navale USA.
Ma quello che ancora nel 2019 sembrava fantascienza oggi potrebbe essere uno scenario reale.



Riferimenti
1  Lo Scudo Europeo per la Privacy (EU-U.S. Privacy Shield) era un accordo tra l'Unione Europea e gli Stati Uniti che permetteva il trasferimento di dati personali dall'UE agli Stati Uniti senza ulteriori restrizioni. L'accordo si basava su un sistema di autocertificazione, in cui le aziende statunitensi che desideravano ricevere dati personali dall'UE dovevano impegnarsi a rispettare determinati principi di protezione dei dati. La CGUE ha invalidato lo Scudo europeo per la privacy perché ha rilevato che le leggi statunitensi sulla sorveglianza non garantivano un livello adeguato di protezione dei dati personali. La Commissione Europea e gli Stati Uniti hanno annunciato un nuovo accordo sul trasferimento di dati, denominato "EU-U.S. Data Privacy Framework". Il nuovo accordo dovrebbe fornire garanzie più forti per la protezione dei dati personali trasferiti dall'UE agli Stati Uniti.
2  L’idea di social Shopping alla base di Pinduoduo prevede prezzi più vantaggiosi per chi decide di fare la spesa in compagnia: la piattaforma mette a disposizione ogni singolo prodotto a due prezzi differenti. Il primo è più alto e rappresenta il costo nel caso in cui l’utente decidesse di acquistare in solitaria; il secondo invece, più basso, rappresenta la cifra che dovrà essere sborsata per accaparrarselo nel caso di partecipazione del numero di utenti richiesto. Al termine stabilito per la vendita, di norma 24 ore, la piattaforma verifica il raggiungimento della soglia: in caso positivo l’acquisto risulta effettuato e spedito entro 48 ore, con l’acquirente che ha fatto partire il gruppo di acquisto che riceve il prodotto gratuitamente a casa. In caso negativo, l’acquisto viene annullato e gli utenti ricevono il rimborso della somma versata.
3  Ogni applicazione Android dev'essere accompagnata da un file chiamato AndroidManifest.xml nella sua direcotry principale. Il Manifest raccoglie informazioni basilari sull'app, informazioni necessarie al sistema per far girare qualsiasi porzione di codice della stessa. Tra le altre cose il Manifest presente in ciascuna app del Play Store si occupa di dare un nome al package Java dell'applicazione, che è anche un identificatore univoco della stessa, descrive le componenti dell'applicazione (attività, servizi, receiver, provider, ecc.), nomina le classi e pubblica le loro "competenze", determina quali processi ospiteranno componenti dell'applicazione, dichiara i permessi dell'app, e i permessi necessari alle altre app per interagire con la stessa, dichiara il livello minimo di API Android che l'app richiede e, in fine, elenca le librerie necessarie all'app.
4  L’attività di rooting è un processo informatico attraverso il quale un utente normale può ottenere il controllo completo del dispositivo, ripetendo azioni solitamente messe in campo dagli sviluppatori. In questo modo diventa possibile variare alcuni parametri, come le prestazioni, modificare il sistema operativo o agire sul dispositivo da remoto, per fare alcuni esempi.
5  TikTok non raccoglie direttamente dati biometrici come impronte digitali o scansioni del viso, tuttavia, può raccogliere informazioni biometriche dai contenuti degli utenti, come Impronte facciali (TikTok può utilizzare il riconoscimento facciale per identificare le persone nei video e per applicare filtri ed effetti e può anche essere utilizzata per creare avatar 3D basati sul viso dell'utente). Le impronte vocali che raccoglie TikTok le può utilizzare il riconoscimento vocale per identificare le persone che parlano nei video e per aggiungere didascalie automatiche. L'app può anche essere utilizzata per creare effetti vocali e per personalizzare la pubblicità. TickTock utilizza l'analisi del corpo per identificare la forma del corpo, la postura e i gesti degli utenti nei video. Anche in questo caso può anche essere utilizzata per creare effetti speciali e per personalizzare la pubblicità.
6  Exodus privacy è uno strumento potentissimo in grado di analizzare, alla ricerca di traccianti e permessi richiesti, praticamente ogni app presente su Google Play o store OpenSource F-Droid
7  Il NUKIB (National Cyber and Information Security Agency) è l'agenzia nazionale per la sicurezza informatica e cibernetica della Repubblica Ceca.
8  Il “BIS” o  Bureau of Industry and Security, un’agenzia del Dipartimento del Commercio degli Stati Uniti. Questa agenzia è responsabile della regolamentazione delle esportazioni commerciali e di sicurezza, comprese le tecnologie dual-use e i beni militari. Il BIS gioca un ruolo chiave nel controllo delle esportazioni per motivi di sicurezza nazionale e interessi di politica estera.
9  Il Great Firewall cinese, letteralmente "Grande Muraglia del fuoco", è un sistema normativo e tecnologico usato dal governo cinese per monitorare, filtrare o bloccare i contenuti internet accessibili dagli utenti all'interno del paese. È nato come progetto per separare in modo selettivo il cyberspazio cinese dal mondo esterno, evitando che i cittadini cinesi accedano a informazioni ritenute dannose o potenzialmente destabilizzanti per gli interessi del paese.
10 Il microtargeting è una forma di pubblicità online profilata che analizza i dati personali –  come le specifiche ricerche online dell’utente, i dati di navigazione o il comportamento online – al fine di identificare gli interessi dell’utente con lo scopo di influenzare le sue azioni, portandolo, ad esempio, a cliccare su un determinato banner perché di suo interesse.
11 L'opinion leader è un utente attivo dei media che interpreta il significato o il contenuto dei messaggi mediatici per utenti medio-bassi dei media. Tipicamente l'opinion leader è tenuto in grande considerazione da coloro che accettano le sue opinioni.




Bibliografia
Norme per la protezione dei dati personali all’interno e all’esterno dell’UE.
Questions & Answers: EU-US Data Privacy Framework
GRIZZLY RESEARCH "We believe PDD is a Dying Fraudulent Company and its Shopping App TEMU is Cleverly Hidden Spyware that Poses an Urgent Security Threat to U.S. National Interests"
Exodus privacy
NUKIB "Mobile App Security Threat Alert: WeChat by Tencent"
Lista siti e app bloccati in Cina

 

Elezioni Europee -e non- nell’era della post-verità e delle AI
Elezioni Europee -e non- nell’era della post-verità e delle AI

A settembre 2023 Vera Jourova, commissario per i valori e la trasparenza dell'Unione Europea, ha dichiarato pubblicamente che X (ex Twitter) è la piattaforma con il “più alto rapporto di post di dis/misinformazione” (largest ratio of mis/disinformation posts) tra le piattaforme che operano anche in Unione Europea. Nulla di strano in questo visto che, da quando è stata acquistata da Musk, la storica piattaforma ha attuato una serie di cambiamenti culminati con la decisione di ritirarsi dagli impegni di rispettare il codice di condotta volontario sulla disinformazione del 2022.
A pochi mesi dalle elezioni europee c’è da chiedersi quanto la disinformazione e la propaganda possano influenzare l’esito degli scrutini e quanto e quali attori ne possono trarre beneficio.


Gli attori

Una delle preoccupazioni maggiori è sicuramente legata all’attuale situazione geopolitica, in particolar modo alla guerra Russo-Ucraina: è di pochi giorni fa (gennaio 2024) la notizia, riportata da Der Spiegel che gli analisti del ministero degli Esteri tedesco hanno scoperto una campagna di disinformazione pro-Russia su X attuata tramite 50mila account falsi. Questo a pochi giorni dalla pubblicazione del report europeo “2nd EEAS Report on Foreign Information Manipulation and Interference Threats” e dalla dichiarazione del World Economic Forum, che sottoline quanto la disinformazione, anche con l’aiuto dall’intelligenza artificiale, sia la principale minaccia a livello globale nell’immediato futuro.
In particolare il report dell’EEAS evidenzia che l’Ucraina è il principale bersaglio delle attività di FIMI (Foreign Information Manipulation and Interference), soprattutto da parte della Russia, che usa le usa come strumento nella sua guerra di aggressione, ma evidenzia anche la diversità dei bersagli di questi attacchi che includono istituzioni come l’UE o la NATO, i media classici, singoli individui come politici o celebrità, e gruppi sociali come la comunità LGBTIQ+. Sempre secondo questo report, oltre all’Ucraina i paesi più bersagliati sono risultati Stati Untiti, seguiti da Polonia, Germania, e Francia.
La Russia, sembra quindi essere il principale attore (direttamente o indirettamente) di campagne di disinformazione in occidente; d'altronde la campagna di propaganda Russa (sempre secondo il report EEAS pp.12-13) era iniziata già prima dell’invasione dell’ Ucraina.


Quali pericoli per le elezioni.

Già nel 2017, dopo le elezioni a presidente degli Stati Uniti di Donald Trump, un rapporto dell'Australian strategic policy institute (Securing Democracy In the Digital Age) aveva dimostrato come le fakenews possono condizionare gli esiti delle urne elettorali.
Secondo lo studio sopra citato, le settimane prima delle elezioni del 2016, un grande flusso di false informazioni, circolate in rete, hanno generato dubbi sulla credibilità dei media generando confusione e, soprattutto, indecisione tra gli elettori. Stando a quanto si evince, infatti, quello che conta maggiormente è quello che chiamano auto-percezione degli utenti: non è necessario che la notizia o il post di disinformazione convinca tutti, basta che sia in grado di generare un certo livello di confusione in modo –come nel caso delle elezioni americane del 2016 – da screditare i media tradizionali e generale indecisione tra gli elettori.
Ma quello delle elezioni USA non è il solo caso eclatante: sempre nel 2016, in occasione del referendum tra i cittadini del Regno Unito che erano chiamati all’uscita dall’ Unione Europea la disinformazione ha giocato un ruolo importante.
Il film per la televisione del 2019 “ Brexit: the incivil war” descrive come Dominic Cummings (considerato l’ architetto della Brexit) decide di usare i social media e internet come mezzi di marketing piuttosto che la campagna tradizionale. In particolare (come fa notare la giornalista Carole Cadwalladr), tramite una serie di annunci fuorvianti sul social network Facebook, gli elettori più vulnerabili ed incerti, furono convinti a votare per il leave, anche grazia al lavoro della società Cambridge Analytica che aveva raccolto i dati personali di 87 milioni di account Facebook senza il loro consenso e li aveva usati per scopi di propaganda politica.
Da allora le istituzioni europee hanno iniziato una serie di riforme (soprattutto in fatto di privacy) che hanno portato a creare regole per impedire che casi simili si possano ripetere ma non sembra essere sufficiente: la disinformazioni può utilizzare diversi metodi per influenzare le elezioni di un paese o all’interno della UE. Attualmente sembra che il metodo più utilizzato sia quello di creare o amplificare false narrative su temi sensibili o controversi, come la migrazione, i diritti LGBT+, il cambiamento climatico, i diritti umani, la salute, ecc. In questo modo si possono indurre gli elettori a votare in base a informazioni errate o incomplete, o a perdere fiducia nelle istituzioni democratiche e nei media, proprio come è accaduto durante l’epidemia di Covid-19 quando la disinformazione sui vaccini ha indotto molte persone a non vaccinarsi e ha creato il movimento no-vax.br />


AI nuovo nemico

Ma oggi, alla vigilia di una serie di importanti appuntamenti elettorali sembra essere quello generato dall’utilizzo improprio del’ intelligenza artificiale il pericolo che potrebbe più di ogni altro minare la base delle istituzioni democratiche: tramite l’utilizzo di AI si possono non solo generare chatbot ma anche profili falsi che, a loro volta, generano contenuti che sembrano veri; oppure, si si ha la possibilità di creare post con video di personaggi famosi ai quali viene fatto dire quello che si vuole.
Sebbene i controlli presenti sui social - riescono ad impedire (quasi sempre) la pubblicazione di questi post, capita che talune volte, alcuni contenuti, riescano a sfuggire per qualche minuto (o qualche ora) alla censura, così da venir distribuiti in rete e condivisi. In questo caso si parla di DeepFake e di questo tipo di disinformazione, che sfrutta la figura di politici più o meno importanti, ne abbiamo parecchi come nell’esempio del video in cui il presidente degli Stati Uniti Joe Biden sembra dire frasi incoerenti e confuse, creato per screditarlo durante la campagna elettorale del 2020 e che per molti è ancora considerato vero, oppure il video nel quale il presidente francese Macron annuncia l’uscita della Francia dall’Unione Europea.
Inutile dire come questo tipo di propaganda sia pericolosa in una democrazia, specialmente in periodo di elezioni e, sebbene l’Unione Europea cerchi di dotarsi di regole per poter discernere il vero dal falso (
vedi il mio precedente articolo:”Questo articolo non è stato scritto da un AI!”) il pericolo esiste ed è reale.


Come possiamo difenderci?

Il 2024 vedrà i cittadini di tutto il mondo chiamati a esercitare il diritto di voto in almeno 83 elezioni, comprese le elezioni del Parlamento europeo per i 27 Stati membri dell'UE. Il rapporto EAS, in vista di quest’importante processo democratico, propone delle risposte nel caso specifico delle FIMI durante i processi elettorali. Inutile dire che il passo più importante è quello di rafforzare la resilienza della società tramite campagne di sensibilizzazione (la rai sta già attuando questa pratica tramite degli spot) e l’alfabetizzazione informatica ed informativa.
Ma sensibilizzare e alfabetizzare potrebbe non essere sufficiente così si suggerisce anche di attivare misure legate all’azione esterna dell’UE, tra cui la cooperazione internazionale, il meccanismo di risposta rapida del G7 (la bozza dei questo meccanismo era stata proposta già nell’incontro del 2021) e le sanzioni contro gli organi di informazione controllati dal Cremlino.
Tutto questo sarà sufficiente? Forse no, ma noi come comuni cittadini possiamo fare quello che abbiamo ripetuto da anni su queste pagine riguardo la disinformazione: non lasciare che i nostri bias cognitivi condizionino le nostre valutazioni, approfondire la notizia, cercarne la fonte, e così via.
Gli stati hanno invece la maggior responsabilità e, visto che è impossibile impedire l’accesso ad un sito che ha i server all’estero (le VPN permettono di baypassare quasi ogni tipo di blocco del genere) dovrebbero iniziare a considerare i social network responsabili delle notizie che vengono diffuse tramite i loro canali e, visto che per società come X, Facebook, eccetera, quello che conta sono i profitti prima di tutto, iniziare a sanzionare pesantemente nel caso vi siano evidenti e massicce forme di disinformazione che possano pregiudicare non solo lo svolgimento regolare delle elezioni, ma anche la normale vita politica di un paese.

 

 


Bibliografia:


- European Union commissioner blasts X over disinformation track record | CNN Business
- Codice di condotta sulla disinformazione 2022 | Plasmare il futuro digitale dell'Europa
- EEAS-2nd-Report on FIMI Threats-January-2024_0.pdf (europa.eu)
- Desinformation aus Russland: Auswärtiges Amt deckt pro-russische Kampagne auf - DER SPIEGEL
- Securing Democracy In the Digital Age
- Carole Cadwalladr: Facebook's role in Brexit -- and the threat to democracy | TED Talk
- Brexit: The Uncivil War (film Tv 2019)

 

Hate Speech Online
Hate Speech Online

In italiano il termine “Hate speech” è tradotto con le parole “incitamento all’odio” ma, il vero significato di queste due parole, è molto più profondo e concerne aspetti della vita che trascendono quello che è il solo comportamento online. Le parole che vengono espresse nell‘ Hate speech sono infatti dei veri e propri discorsi offensivi rivolti a un gruppo o ad un singolo individuo, sulla base di caratteristiche intrinseche, sessuali o religiose e, la maggior parte delle volte, questi discorsi sono basati su degli stereotipi.
L’utilizzo dei media per incitare all’odio verso delle minoranze o dei gruppi non è una novità dell’era di internet, basti pensare ai “Protocolli dei Savi di Sion” che hanno dato origine ai vari pogrom tra la fine del ‘800 ed i primi anni del ‘900, oppure all’utilizzo della propaganda (sempre antisemita) operata  dal regime Nazista per giustificare l’Olocausto.
Alla fine degli anni ’90 del XX secolo il fenomeno dell’ “Hate Speech” e dei diritti civili nel cyberspazio iniziò ad essere dibattuto dalla giurisprudenza statunitense con una certa preoccupazione ed un grande senso di urgenza.
Nei paesi democratici, i media definiti tradizionali, hanno da tempo adottato dei codici deontologici atti a impedire l’utilizzo dell’incitamento all’odio, così come i singoli stati e le istituzioni nazionali e sovranazionali hanno iniziato, a partire dal primo decennio del XXI secolo, ad attuare delle leggi e delle riforme atte a contenere quello che, a tutti gli effetti, può essere considerato un reato.
In particolare, nell’ultimo decennio, l’attenzione dei vari legislatori si è focalizzata sull’uso di un linguaggio d’odio verso gruppi etnici, minoranze, singole persone o categorie (giornalisti, magistrati, poliziotti, ecc.) nell’ambito dei social media e del mondo internet: infatti dato che il cyberspazio offre libertà di comunicazione e di esprimere le proprie opinioni liberamente, gli attuali social media vengono spesso utilizzati in modo improprio per diffondere messaggi violenti, commenti e discorsi che incitano all’odio.

Un primo passo
Nel maggio del 2016 Facebook, Microsoft (per quanto riguarda i servizi ai consumatori da loro ospitati), Twitter e YouTube hanno sottoscritto un codice di condotta per contrastare la diffusione di contenuti che incitano l’odio in Europa. Nel 2018 anche Instagram e Google+ (non più attivo) aderirono all’accordo a dimostrazione di quanto le piattaforme online prendano in considerazione questo fenomeno.
Riassumendo brevemente il codice di condotta scopriamo che impone a tutte le società informatiche firmatarie norme che vietano agli utenti di postare contenuti che incitano alla violenza o all'odio ai danni di gruppi protetti; come conseguenza, tutte le piattaforme hanno aumentato considerevolmente il numero di persone che monitorano e esaminano i contenuti. Secondo alcuni test fatti dalla Commissione Europea già nel 2018 la maggior parte delle società firmatarie  rimuovono in media l’89% dei contenuti segnalati entro le 24 ore o ne bloccano l’accesso in attesa di ulteriori verifiche.
Visto che il codice di condotta integra, a livello giuridico, quanto contenuto nel “Quadro 2008/913/GAI del Consiglio, del 28 novembre 2008 , sulla lotta contro talune forme ed espressioni di razzismo e xenofobia mediante il diritto penale”,  tutte le società che hanno aderito al codice di condotta hanno designato rappresentanti o uffici locali nei vari paesi, al fine di facilitare la comunicazione e la cooperazione tra le società e le autorità nazionali: il “quadro 2008/913/GAI”  impone che gli autori di reati di illecito incitamento all'odio, siano essi online o offline, siano perseguiti in modo efficace.
Va infine segnalato che, ad oggi, la maggior parte delle segnalazioni non vengono fatte da altri utenti, ma da sistemi di AI automatici che talvolta non riescono a contestualizzare una discorso o una parola e generano anche dei falsi.

Tipi di odio online più diffusi
Dobbiamo distinguere due tipi di incitamento all’odio: quello indirizzato a dei gruppi o quelli ad una singola persona. Tra quelli in gruppi risultano più evidenti alcuni sottogruppi.
- L’incitamento all'odio religioso online è un tipo di “Hate speech” che è definito come l'uso di parole infiammatorie ed un linguaggio settario per promuovere l'odio e la violenza contro le persone sul in base alla loro appartenenza religiosa.  A livello mondiale la religione più soggetta a questo tipo di odio è l’Islam: i contenuti anti-islamici si esprimono lungo un ampio spettro di strategie discorsive, in cui le persone giustificano l’opposizione all’Islam basata principalmente sulle azioni terroristiche dei musulmani in diversi paesi. L’hashtag #StopIslam è stato utilizzato per diffondere discorsi di odio razziale e, la disinformazione diretta verso l’Islam e i musulmani, è andata avanti su Twitter dopo gli attacchi terroristici del marzo 2016 a Bruxelles
- Il razzismo online è un altro tipo di razzismo indirizzato a dei gruppi identitari e spesso si identifica con la xenofobia. Pur non essendo un fenomeno nuovo il razzismo, spostato online, acquista maggiore forza dato che nel buio della propria stanza gli utenti del web hanno meno paura ad esprimere le loro idee.
- L’odio politico, quando espresso online, ha la stessa forza e  “cattiveria” che si trova nell’odio raziale e, talvolta, si incrocia: in Gran Bretagna, i tweet dopo il referendum sulla “Brexit”, sono stati seguiti da un aumento degli episodi islamofobici. Questi sentimenti anti-islamici erano legati alla religione, all'etnia, alla politica e al genere, promuovendo la violenza simbolica.
Spesso l’odio politico e di genere si mescolano arrivando a conseguenze catastrofiche come nel caso della deputata presso la Camera dei Comuni del Regno Unito Jo Cox, alla quale è stata intitolata la “Commissione sull’intolleranza, la xenofobia, il razzismo e i fenomeni di odio”, voluta dall’allora presidente della camera Laura Boldrini e  dalla quale risulta che le donne, in particolare, sembrano essere le prime vittime dell’odio online.
- L’odio di Genere è un tipo d’odio che è in crescita online. Il progetto italiano “Italian Hate Map” (nel 2018), ha analizzato 2.659.879 Tweet dove le donne sono state il gruppo più insultato,  seguite da gay e lesbiche.
Moltissime donne che hanno blog o sono personaggi pubblici hanno sofferto esperienze negative online che non solo riguardano commenti offensivi ma anche stalking, troll, minacce di  stupro, minacce di morte, spiacevoli incontri offline, intimidazioni, discredito, estrema ostilità nel contesto forma di sessismo digitale nelle chat room o nelle sezioni dei commenti.
Sempre nei crimini d’odio di genere compaiono quelli commessi nei confronti delle comunità Lgbt+. Emblematico è l’esempio dell’omicidio perpetrato in Slovacchia nell’ottobre del 2022 quando un 19enne spara davanti ad un bar frequentato da membri della comunità gay uccidendo due persone. È spaventoso che suoi social il killer avesse pubblicato post antisemiti ed omofobi ma, ancora più spaventoso, fu che a seguito di questa aggressione diversi tweet sono stati fatti in sostegno del ragazzo e contro la comunità Lgbt+.
Quando parliamo di odio online verso una singola persona, solitamente, l’ ”hate speech” non si limita ad attaccare un soggetto in quanto tale ma in quanto appartenente anche ad un gruppo. Ecco che la giornalista è attaccata perché giornalista e perché donna, il politico perché gay e perché appartenente ad una determinata area politica o il compagno di scuola viene deriso nella chat perché timido e perché magari non è italiano.
Tra i tipi di odio indirizzati ad una singola persona spicca Il Cyberbullismo. Questo fenomeno, che colpisce principalmente giovani e adolescenti, non è altro che l’evoluzione del classico bullismo ma che risulta amplificato nel mondo virtuale dall’eco mediatico dato da una platea di utenti ampia come può essere quella del web.
Una ragazza o un ragazzo che in classe, in palestra o comunque in un gruppo sociale chiuso, viene preso in giro per il suo modo di comportarsi o perché magari timido e impacciato, attraverso i social network subisce le stesse angherie che subisce nel gruppo ma, adesso, sono  proiettate nel mondo virtuale e quindi ad un pubblico più ampio. Negli ultimi anni sono state migliaia le segnala di questo tipo di odio che ha portato, in alcuni casi, alla morte del soggetto bullizzato.

Chi sono gli odiatori online?
Al di là di gruppi nati per diffondere odio e disinformazione con specifiche finalità politiche o destabilizzanti chi sono i così detti haters o “leoni da tastiera”? 
Sono principalmente persone che presentano una mancanza di empatia e spesso anche di cultura e conoscenza (Effetto Dunning-Kruger), che hanno difficoltà a relazionarsi con gli altri, a sostenere confronti e discussioni costruttive. Vivono la maggior parte della loro vita in una ristretta cerchia di amicizie e conoscenze creando così una echo-chamber per le loro idee. La possibilità di nascondersi dietro uno schermo dà a queste persone, subdole e vigliacche, la forza di esprimere l’odio e la frustrazione che si portano dentro. Sono persone che se incontrate nel mondo reale avrebbero tutt’altro comportamento ma nell’apparente anonimato del web danno sfogo a tutta la loro aggressività.
Spesso la disinformazione e l’odio online vanno di pari passo: forti dell’idea che “uno vale uno”, gli haters si sentono incoraggiati ad esprimere le loro idee senza la necessità di motivarle (la maggior parte delle volte non hanno una motivazione da dare) ma facendole valere con il puro odio che di manifesta nell’utilizzo di parole ed espressioni contro un gruppo sociale, religioso o contro una giornalista (la maggior parte dei giornalisti colpiti dall’odio in rete sono donne!) solo per il fatto di essere donna.
Secondo una ricerca del 2018 “Internet Trolling and Everyday Sadism: Parallel Effects on Pain Perception and Moral Judgment”, la personalità dei leoni da tastiera a tre componenti:  il narcisismo, la psicopatia e  il machiavellismo.
Il primo elemento si caratterizza per senso di importanza e  superiorità, il bisogno di lusinghe e di riconoscimento nonché l’incapacità di accettare le critiche; la psicopatia, invece, riguarda l’impulsività, la scarsa empatia, nonché la mancanza di rimorso per le proprie azioni e la mancanza di  compassione verso il soggetto del loro attacco. Infine, per machiavellismo, si considera una personalità manipolativa, fredda con scarso senso morale e tendente all’inganno.
Gli haters hanno anche una grande componente sadica: dalle loro azioni traggono piacere nel farle e un senso di potenza (che nella vita reale non hanno) dall’aver arrecato danno agli altri.

Come comportarsi e come proteggersi dagli haters online?
Ci sono vari modi di comportarsi difronte a situazioni di odio online e, a seconda della gravità e frequenza del fatto vanno prese in considerazione l’una piuttosto di un’altra.
- Ignorare e restare in silenzio: questo metodo è forse il più facile e spesso da buoni risultati in quanto, dopo poco, l’haters si stanca e cerca un altro soggetto su cui indirizzare le sue campagne d’odio.
- Rispondere con cortesia e precisione alla critica, usando un tono neutro. Questo metodo potrebbe sembrare facile ma, non sempre da dei buoni risultati e spesso si genera una discussione interminabile che dà forza al leone da tastiera che ci sta attaccando.
- Eliminare e bloccare la persona. Semplice, veloce e indolore quest’azione ci libera da tanta fatica e arrabbiature. Risulta forse la soluzione migliore da attuare.
- Segnalare, denunciare: questo metodo è da considerare solo in casi estremi e per fatti veramente gravi quali minacce, diffamazione o insulti tesi a ledere la dignità personale o anche nel caso di cyberbullismo.


Considerazioni
Ricorrendo a parole, immagini e suoni, l’hate speech può mirare sia a disumanizzare e sminuire i membri di un certo gruppo, ritraendoli come sgradevoli e sgraditi, sia a rafforzare il senso di adesione al proprio gruppo egemone (e in pericolo, ci stanno facendo scomparire, vogliono che pensiamo tutti in maniera uguale, ecc…). Tramite l’hate speech si possono spostare le idee da un piano puramente virtuale ad uno reale con conseguenze a volte drammatiche.
Quando di parla di hate speech è importante tener conto che non è facile tracciare una linea che separa l’odio d’espressione dalla libertà di espressione: non si tratta di distinguere tra bianco e nere ma tra sottili linee di grigio.
Per finire dobbiamo tener conto che bisogna impedire che le piattaforme social diventino gli unici regolatori della libertà d’espressione online, soppiantando il ruolo dell’autorità pubblica. Un esempio è quello accaduto il 9 settembre del 2019, quando Facebook ha chiuso gli account del partito italiano di estrema destra Casapound perché non allineati alla policy del sito contro l’incitamento all’odio. Con l’ordinanza n. 59264/2019 il tribunale civile di Roma ha accolto il ricorso di Casapound e ha ordinato a Facebook la riattivazione immediata del profilo, sostenendo che l’esclusione del movimento di estrema destra dal social implicasse l’esclusione anche dal dibattito politico di quest’ultimo. Infine nel dicembre 2022, una nuova sentenza del tribunale di Roma ha riconosciuto il diritto esercitato da Meta a chiudere le pagine di CasaPound Italia aperte su Facebook. Abbiamo quindi visto un rimbalzare di decisioni su quello che era da fare ed un conflitto tra la società che gestisce il servizio social e la Giustizia Italiana su chi avesse potere decisionale.
L’hate speech è un fenomeno dannoso e pericoloso sia per la singola persona che viene attaccata che per i gruppi religiosi/etnici/politici/di genere che possono subire discriminazioni, e verso i quali si può generare una campagna d’odio degna dei regimi totalitari degli anni ’30 del XX secolo. È quindi sempre più importante che vi sia un lavoro di sinergia tra social network e governi per gestire e legiferare in maniera corretta, riaffermando il potere decisionale delle autorità pubbliche rispetto a quello delle singole piattaforme che, spesso, prendono decisioni arbitrarie.
Altrettanto importante che si continui a fare campagne di sensibilizzazione nelle scuole e nei media, sia tradizionali che no, affinché sempre più persone siano sensibilizzare sul problema e imparino la differenza tra libertà di espressione e odio.
Bisogna, infine,  ripensare alla rete internet come un nuovo spazio di democratizzazione digitale dove vengono rispettati e tutelati i diritti individuali come lo sono nella vita reale: la rete deve passare da vettore polarizzante di idee a strumento per la circolazione ed il consolidamento di conoscenza.

 

Bibiliografia:
Contrastare l'illecito incitamento all'odio online: l'iniziativa della Commissione registra progressi costanti, con l'adesione di ulteriori piattaforme”, Gennaio 2018, Commissione Europea.
Relazione finale della Commissione ‘Jo Cox’ sull'intolleranza, la xenofobia, il razzismo e i fenomeni di odio”, Camera dei deputati
Risoluzione del Parlamento europeo del 20 ottobre 2022 sull'aumento dei reati generati dall'odio contro persone LGBTIQ+ in Europa alla luce del recente omicidio omofobo in Slovacchia”, Gazzetta ufficiale dell’Unione europea, 20 ottobre 2022.
Elsevier: “Internet, social media and online hate speech. Systematic review”, Sergio Andres Castano-Pulgarín, Natalia Suarez-Betancur, Luz Magnolia Tilano Vega, Harvey Mauricio Herrera Lopez, 2021
Hate speech review in the context of online social networks”, Naganna Chetty , Sreejith Alathur, National Institute of Technology Karnataka, Surathkal, India, 2018.
Internet Trolling and Everyday Sadism: Parallel Effects on Pain Perception and Moral Judgment”, Journal of Personality n.87, Aprile 2018, Erin E. Buckels, Paul D. Trapnell, Tamara Andjelovic, Delroy Paulhus (University of British Columbia)

Questo articolo non è stato scritto da un AI!
Questo articolo non è stato scritto da un AI!

Ad aprile di questo stesso anno avevo scritto un articolo dove parlavo dell’intelligenza artificiale e di come vi fossero paure (talvolta infondate) riguardo questa nuova tecnologia.
A distanza di qualche mese, dopo che il garante per la privacy ha rimosso il blocco all’utilizzo di ChatGPT e che l’unione europea ha licenziato il testo “AI ACT”, ho deciso di tornare a parlare di Intelligenza Artificiale generativa ma da un punto di vista più “umano”.
Visto che sempre più spesso viene utilizzata l’AI per generare contenuti mi sono chiesto quanto questi contenuti siano realmente di qualità e fino a che punto siano difficili da riconoscere da quelli creati da esseri umani.
L’utilizzo che sto facendo dei verbi “generare” e “creare” in riferimento, con il primo alle intelligenze artificiali generative e con il secondo all’ingegno umano, non sono per nulla casuali. Sono, infatti, profondamente convinto che il processo di creazione sia tipico dell’essere umano e della sua consapevolezza di essere un individuo unico e pensante; il cartesiano “Cogito ergo sum” è, a mio avviso, un processo mentale solamente umano che le AI non potranno mai raggiungere.


I test
Ho deciso quindi di fare una serie di esperimenti: ho chiesto a due AI gratuite (ChatGPT 3.5 e il Chatbot di Skype) di creare tre articoli su specifici argomenti. Come base per due di essi ho deciso di utilizzare due articoli che avevo scritto io in precedenza (“Il Metaverso Evoluzione Della Realtà Virtuale E Di Internet.” e “Coding Nelle Scuole: Il Bambino Impara A Pensare”), aggiungendo per l'ultimo articolo un argomento difficile e particolare per un AI.
I risultati dell’interrogazione sono disponibili a questo
LINK .

Per prima cosa ho dovuto istruire su quali argomenti volevo che venissero trattati in modo da avere dei risultati che assomigliasse a quelli che avevo creato io o che, almeno, utilizzassero gli stessi spunti e riferimenti nello svolgere il compito. La prima richiesta è stata: Scrivi un articolo dal titolo: Il Metaverso evoluzione della realtà virtuale e di internet, parlando della storia della realtà virtuale partendo dal Sensorama, passando per il powerglow della Mattel, parlando del SuperCockpit di Tom Zimmermann e Jaron Lainer, della webcam LG LPCU30. Fare riferimento alla letteratura fantascientifica della cultura Cyber Punk dei romanzi come “Neuromante” o “Aidoru” di William Gibson Utilizzare come fonti: Linda Jacobson, “Realtà Virtuale con il personal Computer”, Apogeo, 1994, Ron Wodaski e Donna Brown, “Realtà virtuale attualità e futuro”, Tecniche Nuove, 1995. Cita le bibliografie e le pagine delle bibliografie.
Il riferimento alla webcam LG LPCU30 era voluto in quanto, oltre ad essere stata una delle prime webcam USB, era accompagnata da una serie di software che permettevano di far interagire l’utente con lo schermo tramite piccoli giochi di realtà virtuale. Inutile dire che nessuna delle due IA l’ha specificato nell’articolo dato che solo chi ha potuto provarla è a conoscenza di questo.
Gli articoli sono abbastanza simili, semplici, concisi e si limitano ad una banale esposizione dei fatti con una conclusione altrettanto banale e scontata. Sembra quasi di leggere un tema scolastico di un ragazzino dei primi anni di liceo.
Nota importante: mentre ChatGPT si limita a citare come bibliografia solamente i libri che ho messo io come riferimento, l’Ai di Microsoft non solo cita i medesimi testi con riferimento specifico alle pagine consultate ma amplia la bibliografia con altri sei testi.

Per il secondo test ho deciso di essere più preciso ed ho chiesto esplicitamente di allargare la ricerca ad altre fonti. Ho quindi interrogato così le AI: Scrivimi un articolo sul coding nelle scuole utilizzando come spunti "le due culture" di Snow e l'articolo della professoressa Wing del 2006. Mettici delle citazioni dai libri e articoli e fai, inoltre, l'esempio di come si può utilizzare come nel film Apollo13. Utilizza anche altre fonti pertinenti e metti le note bibliografiche a piede pagina.
Anche questa volta gli articoli sono risultati simili tra di loro ed altrettanto banali con il testo si ben steso e grammaticalmente corretto ma ancora troppo lineare e semplice. Questa volta, a differenza di prima, ChatGPT ha accluso altre fonti oltre il libro di Snow e l’articolo della professoressa Wing ma, entrambi, hanno sbagliato il riferimento a come sia possibile trovare l’esempio di pensiero computazionale nel film Apollo13.
Nessuno dei due articoli, sebbene richiesto, ha messo delle citazioni tratte dal libro o dall’articolo.

L’ultimo test è stato invece volutamente pensato per verificare le conoscenze delle due Ai e l’ampiezza delle fonti a loro disposizione. Il comando impartito era: In riferimento al libro "Epigrafi romane in Transilvania" puoi farmi un'analisi sulla perdita di documenti storici a causa di incidenti come quello occorso in questo caso sul Danubio?
Questa volta i risultati comparati tra le due intelligenze sono stati completamente differenti: ChatGPT, infatti, ha esordito con: “Purtroppo, non ho informazioni specifiche sul libro Epigrafi romane in Transilvania poiché il mio addestramento ha una data di taglio alla conoscenza fino a settembre 2021, e non sono in grado di accedere a nuovi dati o libri pubblicati dopo quella data. Pertanto, non posso fornire un'analisi dettagliata su quel libro specifico.”
A questo punto è doveroso far notare al lettore che il libro (composto da 2 volumi) è stato pubblicato in solo 1000 copie nell’autunno del 2010, quindi ben dentro quello che è il periodo di addestramento dell’intelligenza artificiale.
ChatGPT, come uno studente delle scuole dell’obbligo che non ha studiato, ha provato comunque a trattare l’argomento in maniera generica.
Meglio è andata la risposta del chatbot di Skype che, non solo conosceva il testo, ma ha anche messo il riferimento bibliografico. Anche in questo caso, però, il testo dell’articolo è risultato molto semplice e banale, sebbene scorrevole nella lettura.


È possibile distinguere se un articolo è stato scritto da una AI?
Il lettore che non ha avuto modo di provare le intelligenze artificiali generative, a questo punto della lettura, si chiederà sicuramente se esiste un modo per distinguere un articolo generato da una AI da quello scritto da un essere umano.
Vi sono online alcuni tools che permettono, una volta inserito un testo, di capire quale probabilità vi sia che il testo sia stato scritto da un umano anziché un’intelligenza artificiale. Ho provato due di questi tools (https://contentatscale.ai/  e https://www.zerogpt.com/) ed anche qua i risultati sono stai divergenti.
Nel considerare il primo articolo contentscale ha verificato come scritto completamente da umani l’articolo, mentre zerogpt ha rilevato una probabilità del 58.74% che l’articolo sia stato scritto da un AI. Ho fatto la controprova utilizzando l’articolo scritto da me ed ancora, mentre il primo assicura che l’articolo sia stato scritto da umani, zerogpt il da una possibilità che sia stato scritto da intelligenza artificiale solamente del 10.82%. Risultati analoghi li ho avuti con tutti gli articoli generati dall’AI.

Ma come fanno questi software a riconoscere che un testo sia stato scritto da un AI?
Principalmente utilizzano altri modelli di  intelligenze artificiali. ChatGPT, così come i suoi simili artificiali, imparano a scrivere in base a dei pattern o schemi: un po’ come gli umani creano un loro “stile” le Intelligenze artificiali creano un modo di scrivere facendo la media degli stili che hanno imparato. Così, controllando la ricorrenza di determinate parole, del modo di scrivere, come risulta la costruzione della frase e la prevedibilità, piuttosto che imprevedibilità, di una parola in un’espressione, i tools che verificano un testo, redigono la probabilità che ciò che hanno letto sia umano o artificiale.
Ma non sempre questi tools funzionano (io suggerisco di utilizzare https://www.zerogpt.com/ se si vuole provare) e quindi…
La prima cosa che consiglio è di imparare (o reimparare) a leggere. Le AI hanno imparato principalmente da ciò che hanno avuto a disposizione online ed hanno quindi uno stile conciso, semplice e veloce, con frasi corte e semplici. Chi è abitato a leggere si accorge subito se un libro, piuttosto che un racconto o un articolo, sono stati scritti da un essere umano o meno notando la complessità della scrittura: tendenzialmente, un testo scritto da un intelligenza artificiale, è davvero banale, contiene numerose ripetizioni e non si avvale dell’intero vocabolario della lingua utilizzata, specie se non si tratta dell’inglese. Per quanto possa risultare ben steso, il documento è la maggior parte delle volte troppo lineare e non sostituisce certi termini con sinonimi più consoni al contesto, realizzando un testo tutt’altro che ricco e accattivante.
Se avete una padronanza avanzata dell’italiano e/o siete lettori assidui riconoscere un testo artificiale vi risulterà facile una volta capiti i meccanismi.

Considerazioni
Le Ai sono il futuro, è inutile negarlo!
Esistono ad oggi però tanti problemi aperti, soprattutto morali.
La prima considerazione che mi viene da fare è quella di quelle aziende che si affidano a professionisti o ad altre aziende specializzate per scrivere banner pubblicitari o articoli promozionali che, convinte di pagare professionisti laureati che hanno studiato, con anni di esperienza e conoscono il loro mestiere, si ritrovano a pagare in realtà un AI spacciata per essere umano.
La seconda considerazione che mi viene è più culturale: utilizzando le AI per scrivere testi rischiamo di disimparare l’arte della creatività e disabituarci a leggere libri scritti magari in linguaggi difficili, con periodi lunghi e, quindi, a quel lavoro mentale che ha caratterizzato lo sviluppo della nostra cultura fin dalla nascita della scrittura.
La Commissione Europea, il 23 giugno del 2023 ha licenziato il AI ACT, un testo molto complesso, destinato a gestire l’utilizzo delle AI all’interno dell’Unione in base ad un sistema di valutazione dei rischi.
Tralasciando i punti che non riguardano questo argomento mi soffermerei invece su l'utilizzo dei testi generati da intelligenze artificiali: la proposta della Commissione Europea prevede che questi siano considerati sistemi di IA a rischio limitato, in quanto possono influenzare il comportamento o le scelte delle persone o creare aspettative irrealistiche. Pertanto, i fornitori e gli utenti di questi sistemi dovrebbero informare chiaramente le persone quando sono esposte a contenuti generati da IA e indicare la fonte e la natura dei contenuti. Inoltre, i fornitori e gli utenti dovrebbero garantire che i contenuti generati da IA non siano ingannevoli, discriminatori o lesivi della dignità umana.
Fermare l’AI è impossibile ed ingiusto. Utilizzare strumenti come ChatGPT per migliorare o aiutare il lavoro è doveroso. Utilizzarli al posto della creatività umana, invece, è immorale e ingannevole oltre che un insulto a più di 2000 anni di ingegno e creatività.
La soluzione è riappropriarci dei libri. Leggere, leggere e leggere ancora. Classici, moderni, contemporanei e saggi, in modo da poter imparare a distinguere un testo di qualità da uno banale e scialbo, indipendentemente da chi ne sia l'autore (Ai o Umano) e poter risalire la china di disinformazione e bassa cultura che negli ultimi 10-15 anni ha iniziato ad avanzare.
La mente umana è capace di collegare diverse discipline, citare una frase al momento giusto e a dovere, le AI non sono in grado di farlo: non vedono film, non sentono la musica, non percepiscono la poesia.
Se scrivono un testo non sanno come collegare un film, una foto, un evento ad un altro argomento che non sembra aver connessione. Se non lo avessi specificato direttamente nella richiesta, parlando di Realtà virtuale e di Metaverso le Ai non avrebbero mai collegato di loro iniziativa i romanzi di Gibson o film come “Il 13° piano” (in effetti non l’hanno fatto con quest’ultimo) pur essendo pertinenti con l’argomento.
Creare è un processo difficile, che richiede energie ed impegno, conoscenza e studio. Non si può ridurre tutto ad un freddo algoritmo o il risultato sarà una creazione scialba, banale, e piena di luoghi comuni, con un linguaggio semplice, fatto di frasi corte e povero da un punto di vista lessicale.
Come sempre non lasciamoci ingannare dalla tecnologia. Siamo noi a doverla utilizzare nel modo corretto e non abusarne per pigrizia.



Riferimenti:
https://eur-lex.europa.eu/~/?uri=CELEX:52021PC0206 https://www.~/EPRS_BRI%282021%29698792
(ultima consultazione agosto 2023)
https://www.zerogpt.com/
https://www.zerogpt.com/
https://contentatscale.ai/
https://chat.openai.com/
https://www.bing.com/?/ai
https://theunedited.com/nerdering/aiarticoli.html
https://www.dcuci.univr.it/?ent=progetto&id=1927


(ultima consultazione agosto 2023)
Polli Digitali
Polli Digitali

Note dell’autore: Gli esempi riportati nell’articolo sono tutti esempi reali. Non ho messo i nomi degli autori per evitare fastidiose noie legali, ma sarò felice di comunicare in privato, a chi fosse interessato, i nomi degli autori dei corsi.

Una nuova forma di raggiro si è sviluppata negli ultimi anni online affianco alle classiche atte a sottrarre i dati personali o della carta di credito degli utenti: quella dei “Corsi online per diventare esperti in…”.
Di questo tipo di raggiri, perché non è corretto parlare di truffe, ce ne sono di vari tipi. Da quelle più o meno innocue che offrono corsi all’apparenza gratis, a quelle che i corsi li fanno veramente pagare sennonché scoprire, una volta pagati ed iniziati, che questi corsi sono fatti, come si suol dire, “un tanto al chilo ed in maniera troppo superficiale.
Certo non tutti i corsi sono delle truffe, anzi la maggior parte sono seri e fatti da veri professionisti, ma sarebbe bene fare attenzione a quello che viene proposto.
Vediamo alcuni esempi e alcune tecniche reali che vengono utilizzate per sfruttare la buona fede delle persone.
Come inizio possiamo dire che tutti questi tipi di corsi promettono di avere lauti guadagni senza dover spendere troppi soldi (a parte l’eventuale acquisto del corso ma quello, ovviamente, non conta perché è da considerarsi un investimento a detta di chi lo vende N.d.r.) e senza dover faticare troppo, oppure di diventare esperti in un campo (se non in molti) in brevissimo tempo.

Dropshipping.
Il primo esempio che voglio proporre al mio lettore è quello di un corso sul  Dropshipping.
Per chi non lo sapesse il dropshipping è un metodo di vendita applicabile all’e-commerce che consiste nel vendere un prodotto online senza averlo materialmente in un magazzino, ma che viene proposto agli acquirenti facendo da tramite tra il pubblico e il fornitore. Una specie di agente di commercio online. Questo è, ovviamente, possibile in quanto  esiste un accordo commerciale tra venditore chiamato dropshipper e fornitore primario.
Il corso in realtà era un Videocorso e, dopo aver visto i primi video, avevo già capito che era un lavoro molto poco professionale: l’autore ha utilizzato un programma freeware chiamato OBS Studio (che indipendentemente dal fatto che sia gratuito funziona molto bene!) per registrare lo schermo e la sua voce. Fino a qua non ci sarebbe nulla di male se non fosse che il ragazzo che ha realizzato questo video corso ha registrato tutto direttamente, senza alcun montaggio o taglio, tanto che all’inizio di ogni video si vedeva OBS Studio che partiva e registrava lo schermo e che, il lavoro era un lavoro raffazzonato e approssimativo. Lo si deduceva dal fatto che durante le “lezioni” l’autore faceva a volte degli sbagli e si correggeva, segno questo che non seguiva o una traccia e che, comunque, invece di fermare la registrazione e rifare il pezzo sbagliato o tagliarlo, andava avanti a registrare.
A mio avviso questa forma di sciatteria nel fare un videocorso che viene venduto a caro prezzo (parliamo di migliaia di euro) è, non solo una mancanza di professionalità ma, soprattutto, mancanza di rispetto nei confronti degli acquirenti.

Corso gratis ma…
Non tutti i corsi online sono a pagamento. C’è anche chi offre corsi gratuiti o, almeno, che sembrano gratuiti. È questo il caso di un corso che promette di: “iniziare a guadagnare online seriamente in 3 giorni, senza trucchi bizzarri né segreti deliranti”.
Anche in questo caso stiamo parlando di un videocorso che, sebbene sia fatto meglio del precedente con tanto di montaggio e spiegazione dei vari passaggi senza errori, ha una durata di meno di 3 ore con la lezione più lunga che dura 49” e la più corta 1”59. Già da questo punto si dovrebbe iniziare a pensare che il segreto della ricchezza racchiuso in così poco tempo di video sia una cosa su cui storcere il naso.
Ma proseguiamo analizzando il corso in alcuni punti salienti: dopo un introduzione nella quale il relatore parla di persone che si accontentano e persone che invece vogliono di più, inizia a parlare del corso e del suo Kit (che molto magnanimamente mette a disposizione gratuita), che anche un piccolo business può portare a grandi guadagni, che non serve essere esperti per parlare di un argomento ma basta condividere i contenuti che parlano di quell’ argomento, perché per creare un business online basta essere considerati esperti in quella cosa e non esserlo effettivamente (al massimo basta essere informati), e così via fino a parlare della necessità di creare un sito web e Lead generation1.  
Seguono poi vari video che parlano di modelli di business e di come scegliere una “nicchia” di mercato per arrivare ad un video di soli 4 minuti e 13” dove ripete la necessità di creare un sito web.  Segue, finalmente, il video con il vero scopo del corso: la creazione di un sito web che porta a “lauti guadagni”!
A questo punto l’autore invita a creare un sito web e consiglia di utilizzare Wordpress2 e, dato che ci siamo, meglio che utilizziamo l’hosting che consiglia lui attraverso il semplice click sul link che ci propone. Si perché lo starter kit che ha messo a disposizione gratis è un modello Wordpress che, assicura, è ottimizzato per questo scopo quindi è da utilizzare. Ovviamente niente impedisce di utilizzare altri CMS ma non saranno funzionali come il suo sito. C’è però un problema se si vuole usare il suo modello super testato: per utilizzarlo c’è bisogno di utilizzare un plug-in3 di wordpress (a pagamento chiaramente) e, per semplificare le cose, ecco bello e pronto il link da cliccare per acquistare il plug-in.
Così il nostro munifico autore ha già guadagnato la commissione sulle vendite che vengono fatte tramite il suo corso (come la barzelletta del carabiniere che vede l’uomo che mangia i semi delle mele).
Proseguendo con il corso troviamo un video che spiega, in maniera semplificata e superficiale, la creazione e la gestione SEO4 del sito.  Il video è tanto essenziale che, se non si seguono pedissequamente le sue istruzioni e/o non si conosce Wordpress, si rischia di fare danni. Anche per quanto riguarda la personalizzazione non offre molte spiegazioni particolareggiate ma, d'altronde, il suo scopo è stato ormai raggiunto, tutto il resto è di contorno, tanto che ci si chiede per quale motivo abbia voluto far installare il plug-in “Elementor” dato che quello che chiede di fare si può fare benissimo anche senza…
Per quanto riguarda la parte SEO, sempre tramite un plug-in (questa volta gratuito) la spiegazione è a livelli talmente elementari che non parla nemmeno di Microdata, Sitemap, Robots.txt, Heading Order, Slug SEO valido e molto altro. Insomma un corso molto approssimativo tanto che la creazione del banner cookie e del contenuto da mettere non è aggiornato alle ultime normative rischiando così di prendere multe salate.
Alla fine si scopre che tutto il presunto guadagno astronomico che si può fare, sì basa sul fatto di creare un sito web nel quale mettere le “pubblicità” di prodotti e servizi di aziende (come Amazon, Udemy, ecc.) in modo che, quando un utente faccia un acquisto tramite il sito, noi ne ricaviamo una percentuale. Peccato che per poter sperare di aver ricavi tramite questo metodo ci sia la necessità di un volume di visite mensile notevole e non certo le poche centinaia che un sito fatto (male) tramite il suo kit può avere.


Impariamo a programmare?
Infine l’ultimo esempio che voglio analizzare è una vera chicca: direttamente da uno dei siti di corsi online più blasonati ed il cui titolo è già di per sé un programma (scusare il giro di parole): “Programmazione - Il MEGA Corso Completo”. 
Ed a guardare i più di 40 capitoli (ognuno con vari video all’interno) il corso sembra veramente dare quello che promette sennonché si scopre che i video toccano in maniera superficiale il tema della programmazione o i vari linguaggi: per fare un esempio la programmazione in Java occupa in totale 2 ore e 21 minuti di video, mentre Python5 viene trattato sono come Ethical Hacking6 e, in 57 minuti, vengono proposti solamente dei listati senza insegnare la programmazione in questo fantastico linguaggio!
Una parte da leone la fanno i capitoli dedicati all’ HTML e al CSS che sono addirittura considerati “hard Skill” anche se, parlando con un programmatore, dirà certamente che non possono essere considerati linguaggi di programmazione ma piuttosto linguaggi di formattazione.
Infine da notare che, come sempre, non poteva mancare un capitolo (molto più corposo di quello su HTML e CSS) dedicato a Wordpress e, a questo punto, mi piacerebbe sapere che c’entra Wordpress con la programmazione!
Certo non mancano capitoli dedicati ad Ajax, Jquery e Java script o ai database ma tutto trattato senza approfondire molto i concetti. D'altronde un corso di programmazione serio richiede molto tempo e, questo, per imparare solamente un singolo linguaggio.


Non tutti sono così
Per fortuna non tutti i corsi online sono delle truffe, anzi ho avuto modo di vedere corsi su Media Marketing o sulla programmazione (ma dedicati ad un solo specifico linguaggio) molto esaustivi e completi.
Come distinguere i corsi seri da quelli meno allora?
Qua la cosa è più complicata rispetto alle classiche truffe in quanto, la maggior parte delle volte, ci si accorge di aver buttato via i soldi solo dopo averlo fatto.
Rimangono da tenere a mente alcuni avvertimenti dati dal buon senso:
1. Se una cosa è troppo bella per essere vera allora forse non lo è! A tutti piace fare i soldi facili ma, a parte casi particolari, per aver successo in qualsiasi attività è richiesto molto impegno, dedizione, sacrificio e, soprattutto, tempo: un ingegnere informatico o un programmatore studiano anni per arrivare ad avere le competenze necessarie a padroneggiare un settore.
2. Se possibile sentire il consiglio di qualche amico o persona esperta che conosca la materia o sa di cosa si parla. Non è sempre vero che un profilo virtuale corrisponda alla realtà e solo perché chi ci propone un corso è “famoso” online con vari profili social e skills di rilievo, non è detto che queste competenze siano vere. Creare un profilo e più facile che rubare le caramelle ad un bambino!
3. I buoni vecchi libri! Prima di seguire un corso online sarebbe meglio consultare un libro cartaceo (o e-book) sull’argomento per poter valutare quello che ci viene proposto.

A questo punto mi vien voglia di mettermi a fare un corso… Ma realmente gratis perché “la conoscenza deve sempre essere condivisa con tutti” e non tutti hanno i mezzi per poter comperare la conoscenza!



1La lead generation è il processo che consiste nell'attrarre l'interesse di potenziali clienti, per trasformarlo in transazioni di vendita.
2 WordPress è una piattaforma software per la creazione di "blog" e Content Management System (CMS) open source basato sul linguaggio di script PHP e database MySql,  che consente la creazione e distribuzione di un sito Internet facilmente aggiornabile.
3 I plug-in sono componenti di un software che aggiungono delle funzionalità a un programma esistente.
4 SEO è l'acronimo inglese della parola Search Engine Optimization, che tradotto significa ottimizzazione per i motori di ricerca. É una disciplina informatica che ha l'obiettivo incrementare la visibilità e il posizionamento di un sito web all'interno dei risultati organici dei motori di ricerca
5 Python è uno dei linguaggi di programmazione più usati al mondo. Grazie alla sua sintassi asciutta e potente, ed al supporto multipiattaforma, è utilizzato per moltissime tipologie di applicazioni, dal networking, al web, fino al machine learning
6 L'Ethical Hacker si occupa di testare la sicurezza dei sistemi informatici aziendali mediante simulazione e prevenzione di possibili attacchi informatici.

Paura AI?
Paura AI?

Dopo che il Garante della Privacy ha aperto un’istruttoria su ChatGPT, di fatto bloccandola temporaneamente nel nostro paese, quello che prima era un tool di AI1 riservato a pochi appassionati è diventato un argomento di “cultura generale” dove chiunque può esprimere la propria opinione.
A dare adito alle preoccupazioni riguardo questa tecnologia si sono inseriti nel dibattito anche persone di autorevolezza come l'ex presidente dell'Agenzia spaziale italiana Roberto Battiston o il cofondatore di Neuralink e OpenAI Elon Musk (nonché direttore tecnico di SpaceX, amministratore delegato di Tesla, ecc).
Ma sono davvero fondate queste preoccupazioni?
Vediamo di fare un po’ di luce sulla situazione e soprattutto se solo ChatCPT è pericolosa o anche le altre AI.


Cos’è un’intelligenza artificiale?
Già nel 1950 sulla rivista Mind il grande matematico Alan Turing nell'articolo “Computing machinery and intelligence” ideò un test per determinare se una macchina sia in grado di esibire un comportamento intelligente (vedi articolo “
È Stato Superato Il Test Di Turing?” su questo stesso sito). Questo fu il primo tentativo per avvicinarsi al concetto di intelligenza artificiale. In realtà il concetto di AI al giorno d’oggi si è evoluto in una tecnologia che consente di simulare i processi dell’intelligenza umana tramite programmi in grado di pensare e agire come gli esseri umani. Per ottenere tutto questo sono necessari principalmente 2 fattori: grandi capacità di calcolo e un enorme molte di dati sui quali gli algoritmi possano crescere.
Se per il primo requisito gli ostacoli sono risultati facilmente superabili, per il secondo, fino all’avvento di internet e dei social network (ma soprattutto fino alla loro massificazione), le cose erano più complicate in quanto si necessitava di raccogliere dati da varie fonti che spesso non comunicavano tra loro e inserirli negli algoritmi; ma, come appena scritto, grazie a questi due strumenti le aziende che sviluppano Intelligenza Artificiale hanno potuto accedere quantità enormi di informazioni eterogenee che hanno dato lo slancio alla creazione una nuova tecnologia.
Già negli ultimi 10 anni si è assistito ad un lento sviluppo delle AI anche se non ci siamo mai soffermati a rifletterci: quando usiamo le auto con la guida autonoma o semi-autonoma  usiamo programmi di AI, così come quando interagiamo con un Chatbot2 e o utilizziamo software per riconoscere piante o persone tramite la telecamera del nostro smartphone o tablet oppure semplicemente utilizziamo un assistente vocale quali Siri o Cortana.


Cos’è ChatGPT?
Ma cosa rende questa AI diversa delle altre e perché?  
Innanzitutto chiariamo che lo scopo di ChatGPT è quello di rendere l’interazione con i sistemi di intelligenza artificiale più naturale e intuitiva, infatti GPT sta per Generative Pretrained Transformer (traducibile grossolanamente in “trasformatore pre-istruito e generatore di conversazioni”), ovvero un modello di linguaggio che utilizza il Deep Learning3 per produrre testi simili in tutto e per tutto a quelli che scriverebbe un essere umano: quando un utente inserisce un messaggio, Chat GPT elabora l'input e genera una risposta pertinente e coerente all’interno della conversazione.
Ma se quello che facesse questa AI fosse solo rispondere alle domande degli utenti in maniera simile a quella di un essere umano saremmo davanti a niente più di un chatbot evoluto. In realtà quello che ChatGPT fa e sta imparando a fare è molto più articolato: permette di scrivere testi più o meno lunghi (temi, tesi, libricini, ecc.), permette di scrivere programmi senza quasi aver alcuna conoscenza di linguaggi di programmazione piuttosto che una canzone, una poesia o anche una sceneggiatura cinematografica inoltre è anche in grado di dare consigli su viaggi o di qualsiasi altra cosa e, come un vero essere umano, a volte può anche sbagliare nelle risposte o nei compiti assegnati.
Per usare ChatGPT è sufficiente collegarsi a OpenAi.com e poi attivare gratuitamente un account. Sfortunatamente da qualche settimana questo non è più possibile per noi utenti italiani senza una VPN.


Non esiste solo ChatGPT?
Sebbene famosa questa AI non è la sola presente sul mercato. Anche altre aziende oltre OpenAi stanno sviluppando (o anno già sviluppato)  sistemi analoghi.
BingAi, sviluppato da Miscrosoft (che è stato uno dei finanziatori più generosi di OpenAi) è stato integrato nell’omonimo motore di ricerca della società di Redmond che si pone come obbiettivo di dare risposte, ma non solo: se ad esempio ci colleghiamo alla sezione “create” (https://www.bing.com/create) possiamo far creare a BingAi un immaigne partendo da una nostra descrizione (solo in inglese per ora). BingAi utilizza lo stesso motore di GPT.
Google Bard è, invece, l’alternativa proposta da BigG. Questo strumento di AI per il momento è ancora in fase di sviluppo nelle prime fasi non ha entusiasmato più di tanto e i risultati delle sue integrazioni sono risultati inferiori come qualità a quelle presentata dai concorrenti. Il CEO di Google, Sundar Picha, non sembra particolarmente preoccupato di questo e afferma che Brad passerà presto dal modello LaMDA (Language Model for Dialogue Applications) a PaLM (Pathways Language Model) in quanto il modello attuale è “addestrato” da solamente 137 miliardi di parametri, contro i 540 miliardi di parametri di PaLM. Quando Bard sarà attivo in maniera completa cambierà soprattutto il modo nel quale vengono presentate le ricerche da Google e, probabilmente, il motore di ricerca più utilizzato al mondo diventerà più attento nella qualità delle pagine indicizzate e proposte; o almeno questo è l’intento di Google.
IBM Watson è l’intelligenza artificiale sviluppata, appunto da IBM dal 2010 che nel 2013 ha avuto la prima applicazione commerciale ovvero la gestione delle decisioni nel trattamento del cancro ai polmoni al Memorial Sloan-Kettering Cancer Center. A differenza dei suoi antagonisti sopra citati Watson si propone ad un pubblico business: il sistema è in grado di analizzare ed interpretare i dati, testi non strutturati, immagini, dati audio e video e, grazie all'intelligenza artificiale, il software riconosce la personalità, il tono e l'umore dell'utente.


Perché fa paura l’evoluzione delle AI?
Le intelligenze artificiali, da come abbiamo visto fino ad ora, sembrano essere una panacea per l’aiuto nel lavoro di tutti i giorni, ma presentano anche dei lati oscuri che non sono però gli scenari apocalittici rappresentati da tanti film di fantascienza quali Matrix, Terminator, eccetera.
Così come sono in grado di creare immagini dal nulla con semplicemente delle spiegazioni, altrettanto possono creare dei falsi video o foto per generare disinformazione. Già nel 2019 Samsung ha sviluppato un sistema, basato sull'intelligenza artificiale, capace di creare finti video da una o due fotografie e, negli ultimi mesi del 2022 , sempre più video falsi realizzati con lo scopo di mostrare le capacità delle AI nel generare contenuti, sono stati messi in rete.
Certo, si obbietterà, che la produzione di video "fake" non è nuova, ma quello che cambia adesso è che,  se fino a ora erano necessarie grandi quantità di dati e competenza e un’ occhio allenato poteva notare la differenza tra reale e no adesso, con le AI si possono costruire movimenti del viso e della bocca che non sono mai esistiti e che sembrano reali.
Quindi se la manipolazione delle immagini (o dei suoni) tramite AI può dare vita a meme innocui, oppure semplificare la vita di animatori e sviluppatori di videogiochi bisogna prestare attenzione ad un possibile utilizzo illegale o atto a disinformare l’opinione pubblica o discreditare chiunque.
Pensate: cosa fareste se un giorno vi trovaste a vedere un video su Facebook di voi che state facendo una rapina in banca e questo video sarebbe tanto dettagliato da sembrare reale?
Ma non si tratta solo della capacità di creare fave video. Le IA come ChatGPT possono anche creare commenti e di auto-evolversi.
Queste capacità di auto-evolversi sono state uno dei motivi che hanno portato Musk con altri mille esperti a chiedere una moratoria di sei mesi all'addestramento delle Intelligenze artificiali (non solo ChatGPT) attraverso una lettera aperta (sotto forma di petizione) indirizzata ai governi e, soprattutto, alle aziende che in questi hanno aumentato la ricerca allo sviluppo di queste tecnologie. In questa petizione, pubblicata sul sito Futureoflife.org, imprenditori e accademici chiedono una moratoria sull'uso delle AI fino alla creazione di sistemi di sicurezza. Il rischio più grande non è che le intelligenze artificiali possano scatenare una guerra contro l’umanità ma che si mettano a “fare cose” senza un motivo a noi apparente o che “imparino cose sbagliate”.
In Italia il Garante per la Privacy ha bloccato momentaneamente ChatGPT in attesa sul chiarimento su come vengono trattati i dati personali degli utenti. Una motivazione forse banale ma che ha portato ad un blocco (unico per adesso in Europa) della tecnologia di OpenAi. In particolare il Garante rileva “la mancanza di una informativa (come quelle presenti nei normali siti web) agli utenti e a tutti gli interessati i cui dati vengono raccolti da OpenAI”. Inoltre, sottolinea sempre il Garante c’è “l’assenza di una base giuridica che giustifichi la raccolta e la conservazione massiccia di dati personali, allo scopo di “addestrare” gli algoritmi sottesi al funzionamento della piattaforma”, che si può tradurre come: “Non c’è un motivo per utilizzare i dati personali delle persone per insegnare al vostro software!”.
Mentre in Italia si attua un blocco momentaneo a CathGPT in attesa di delucidazioni sull’uso dei dati personali, in Europa molti paese (come Germani, Francia) chiedono delucidazioni all’Italia per questa sua decisione e nella Commissione Europea si discute se e come regolarizzare le Intelligenze Artificiali.


Quale futuro?
Di sicuro l’evoluzione dell’intelligenza artificiale rappresenta per l’informatica quello che l’energia nucleare ha rappresentato nel mondo della fisica e, proprio come l’energia nucleare, può rappresentare sia un’utilità che un mezzo di distruzione. Intanto si stanno delineando nuove opportunità nel mondo del lavoro per chi sa utilizzare e programmare le AI e nuove professioni stanno nascendo come ad esempio il prompt expert4 che negli Stati Uniti può arrivare a guadagnare da 70.000 a 140.000 dollari all’anno.
Da tutto questo l’Italia rischia, per adesso, di rimanere esclusa.
Se la decisione del Garante sia giusta o meno non lo sappiamo e lo sapremo in futuro, ma per adesso, se vogliamo utilizzare ChatGPT non ci resta che utilizzare una VPN.

 


 

1Ai è l’acronimo di Artificial Intelliggence
2 Un chatbot è un software che simula ed elabora le conversazioni umane (scritte o parlate), consentendo agli utenti di interagire con i dispositivi digitali come se stessero comunicando con una persona reale
3 Il Deep Learning, la cui traduzione letterale significa apprendimento profondo, è una sottocategoria del Machine Learning (che letteralmente viene tradotto come apprendimento automatico) e indica quella branca dell’intelligenza artificiale che fa riferimento agli algoritmi ispirati alla struttura e alla funzione del cervello, chiamati reti neurali artificiali. Da un punto di vista scientifico, potremmo dire che il Deep learning è l’apprendimento da parte delle “macchine” attraverso dati appresi grazie all’utilizzo di algoritmi (prevalentemente di calcolo statistico).
4 Il prompt è la descrizione, ossia l’input, che diamo all’intelligenza artificiale generativa quando le chiediamo qualcosa. Il prompt Expert una figura professionale che ha il compito di fornire all’intelligenza artificiale descrizioni sempre più precise per fare in modo che le risposte che si ottengono lo siano altrettanto.

 


BIBLIOGRAFIA
Improving Language Understanding by Generative Pre-Training, The university of British Columbia, https://www.cs.ubc.ca/~amuham01/LING530/papers/radford2018improving.pdf
OpenAI Documentation,
https://platform.openai.com/docs/introduction
SHERPA project
https://www.project-sherpa.eu/european-commissions-proposed-regulation-on-artificial-intelligence-is-the-draft-regulation-aligned-with-the-sherpa-recommendations/
(Ultima consultazione siti web aprile 2023)

← Back
Foward →
FB TW Pinterest whatsapp RSS FEED News letter

filoweb.it è il sito personale di Filippo Brunelli
(c) 2017 Filippo Brunelli
Le immagini ed i testi contenuti nel sito filoweb.it sono di proprietà di Filippo Brunelli salvo diversamente indicato.
L'uso delle immagini e del testo è gratuito per uso personale ed è subbordinato alla citazione della fonte.
Brunelli Filippo declina ogni responsabilità per l'uso che viene fatto delle informazioni presenti nel sito filoweb.it.
X
La tua privacy è importante
Utilizziamo, senza il tuo consenso, SOLO cookies necessari alla elaborazione di analisi statistiche e tecnici per l'utilizzo del sito. Chiudendo il Cookie Banner, mediante il simbolo "X" o negando il consenso, continuerai a navigare in assenza di cookie di profilazione. More info

Tutti
Cookie tecnici
I cookie tecnici sono necessari al fine di "effettuare la trasmissione di una comunicazione su una rete di comunicazione elettronica, o nella misura strettamente necessaria al fornitore di un servizio della società dell'informazione esplicitamente richiesto dal contraente o dall'utente a erogare tale servizio" (art. 122, comma 1 del Codice privacy).
Cookie analitici di terze parti
I cookie analytics sono utilizzati al fine di valutare l'efficacia di un servizio della società dell'informazione fornito da un titolare di un sito, per progettare un sito web o contribuire a misurare il "traffico" di un sito web, ovvero il numero di visitatori ripartiti per area geografica, fascia oraria della connessione o altre caratteristiche.
Cookie di profilazione
Sono cookie che creano profili personalizzati relativi all'utente per finalità di marketing, ad esempio il retargeting o advertising sui social network.

FILOWEB.it by Filippo Brunelli. FILOWEB.it by Filippo Brunelli. FILOWEB.it by Filippo Brunelli. Il sito web FILOWEB.it di Filippo Brunelli è attivo dal 2001. Negli anni il sito web FILOWEB.it by Filippo Brunelli ha avuto molte modifiche e rivisitazioni. Iniziato come un sito web html standart, il sito web FILOWEB.it by Filippo Brunelli è passato alla tecnoloiga Flash per finire con ASPX e CSS e HTML nuovamente. FILOWEB.it by Filippo Brunelli è opera di Filippo Brunelli. Filoweb contiente molte informazioni che potranno piacerti. Continua a visitare filoweb