Stareste seduti su di una bomba con il detonatore nelle mani di qualcun altro?
Se la risposta è no allora considerate che continuare ad utilizzare determinate app potrebbe equivalere ad essere seduti su di una bomba della quale non abbiamo nessun controllo.
L’allarme non è recente, ma solamente è con lo scontro sempre più acceso tra USA e Cina sull’uso di Tick Tock in territorio Nord Americano che la preoccupazione su determinate applicazioni entra a gamba tesa nella vita di delle persone normali, e non solo degli addetti ai lavori.
Il problema del trattamento dei dati personali e della privacy
In Europa, ancor più che negli Stati Uniti, la privacy ed il trattamento dei dati è molto sentito. In effetti noi Europei abbiamo il regolamento più stringente, che implica sempre il consenso da parte dell’utente sulla raccolta e l’utilizzo dei dati e ne impone la chiarezza su quale tipo di utilizzo viene fatto dei dati raccolti e dove questi sono conservati ma, soprattutto, pone dei limiti sull’utilizzo che lo stato può fare dei dati che le aziende raccolgono.
Negli Stati Uniti la legislazione è molto più blanda: non esiste una legge federale sulla privacy generale, diversi settori sono regolati da leggi diverse (ad esempio il regolamento per le telecomunicazioni è differente da quello sulla salute o sui i servizi finanziari), il consenso non sempre necessario e viene messo in rilievo una maggiore enfasi sulla sicurezza dei dati rispetto alla loro privacy; da sottolineare che tra USA ed Unione Europea esisteva un accordo, chiamato “Privacy Shield”, che regolava il trasferimento dei dati personali tra i due, in via di sostituzione con il “EU-U.S. Data Privacy Framework” 1.
In Cina, la legge sulla protezione dei dati personali, che è entrata in vigore nel 2017 con il nome PIPL, si ispira al GDPR europeo ma con alcune differenze: il PIPL si applica a tutte le organizzazioni che trattano dati personali di cittadini cinesi, indipendentemente da dove si trovano, il consenso può essere implicito o esplicito e, per finire, è più focalizzato sulla sicurezza dei dati e sul controllo statale. Nel paese asiatico, quindi, il sistema della privacy è in mano allo stato che ne controlla ogni aspetto.
Dopo aver dato un rapido riassunto di come è considerata la privacy in Europa, Usa e Cina cerchiamo di capire perché l’utilizzo di certe App cinesi può essere un rischio, non solo per la privacy ma, ma anche per i nostri dispositivi finanche alla sicurezza nazionale.
TEMU e Grizzly Research LLC
ByteDange è un’azienda cinese con sede a Pechino specializzata in tecnologie internet. Tra le sue creazioni vi sono la piattaforma di notizie Toutiao, l’app chiamata Neihan Duanzi (fatta chiudere nel 2018 dalla censura del governo cinese) mentre tra le app acquisite compare la famosa piattaforma TikTok. Detiene anche delle partecipazioni azionarie di PDD Holding. Da sottolineare che, a detta sia di ByteDange che di PDD, le due aziende rimangono indipendenti.
Per chi non lo sapesse PDD Holding è l’azienda che nel 2022 ha lanciato la piattaforma di acquisti online Temu: una piattaforma di e-commerce che possiamo considerare equiparabile a Wish o Aliexpress più che ad Amazon o Ebay ma, a detta di chi l’ha provata, a differenza delle due concorrenti ha tempi di spedizione più brevi e prodotti di qualità superiore.
Importante è considerare che Temu nasce come miglioramento dell’ app di “social shopping” 2 PinDuoDuo che venne rimossa dal Google Play Store per mancanza di sicurezza (a detta di google sembra che installasse degli spyware negli smartphone). Alla chiusura dell’app buona parte del team che vi lavorava venne spostato da PDD a lavorare su Temu.
Visto questi precedenti, a settembre 2023, la società Grizzly Research LLC pubblica una lunga ed interessante ricerca sull’app Temu basata, a dire della società di analisi, sulla decompilazione del codice sorgente (per la precisione della versione di Android ma il report contiene un breve esame anche dell’app per IOs).
Per correttezza c’è da sottolineare che il Report è risultato subito controverso: Grizzly Research LLC (come si legge sul sito di quest’ultima) “is focused on producing differentiated research insights on publicly traded companies through in-depth due diligence”(si concentra cioè nella produzione di report di aziende quotate in borsa) e i suoi reports sono sempre molto accurati ma, in questo caso, sebbene affermino di aver consultato diversi specialisti in cyber security, non ne viene citato nessuno specificatamente e questo ha fatto dubitare alcuni utenti entusiasti dell’app dell’accuratezza e veridicità della ricerca.
Prima di analizzare i punti più salienti da un punto di vista tecnico vorrei soffermarmi su un punto che Grizzly Research ha considerato importante: la così detta insostenibilità finanziaria del modello Temu.
Secondo alcuni analisti l’azienda perderebbe costantemente soldi nello spedire prodotti senza costi di spedizione e a così basso prezzo, anche nel caso di social shopping (la perdita stimata è di circa 30$ a ordinazione). Questo farebbe pensare che l’app abbia principalmente il compito di raccogliere iscritti e fare proliferazione in modo da poter vendere illegalmente dati rubati per sostenere un modello di business altrimenti destinato al fallimento. Ad accentuare questo dubbio il fatto che, nella fase di start up, vi erano incentivi aggiuntivi quali la possibilità di vincere un Play Station se si invitavano gli amici ad iscriversi e questi lo facevano, oltre altre offerte a prezzi veramente bassi.
Da un punto di vista tecnico le possibili vulnerabilità (se possiamo chiamarle così anziché vere e proprie trappole informatiche) evidenziate dal report sono parecchie. Tra queste le più preoccupanti sono la presenza della funzione runtime.exec(). Questa funzione (che nel codice sorgente è rinominata “package compile”) può creare nuovi programmi eseguibili, i quali non sono visibili alle scansioni di sicurezza prima o durante l’installazione dell’app, rendendo possibile a Temu di passare tutti i test per l’approvazione negli store di app. Sempre nel codice sorgente decompilato di Temu, ci sono riferimenti a permessi che non sono elencati nel file Android Manifest3 dell’app, il quale è la fonte standardizzata per controllare i permessi. Questi permessi non menzionati includono richieste per l’accesso a funzioni molto invasive come CAMERA, RECORD_AUDIO e ACCESS_FINE_LOCATION.
Un dubbio riguardo il codice è anche la richiesta da parte dell’app di verificare se, nel telefono sul quale è installata, siano presenti i permessi di root4. Molti utenti abilitano questa funzione del dispositivo per poter installare software al difuori dello store ufficiale o per personalizzare ulteriormente il proprio smartphone. Il fatto che un programma voglia verificare se il dispositivo abbia o meno questi permessi non ha nessun senso. Meno preoccupante è invece la presenza di codice offuscato (che viene comunemente utilizzato per proteggere il codice del programma in alcune parti proprietarie o che non si vuol far conoscere).
Un capitolo a parte riguarda la funzione Debug.isDebuggerConnected(). Questa funzione è presente anche in altre applicazioni (come ad esempio Amazon) e permette di verificare se il telefono entra in modalità debugging. Nell’articolo, il riferimento alla funzione si trova nella sezione che discute le caratteristiche di spyware/malware dell’app Temu; secondo il report di Grizzly Research questa funzione ha lo scopo di ostacolare o nascondere l’analisi dell’app e, molto probabilmente, per cambiare il comportamento della stessa se viene ispezionata dinamicamente da un analista. Questo è considerato un enorme segnale di allarme perché suggerisce che il software potrebbe cercare di evitare la rilevazione durante le scansioni di sicurezza automatizzate. Il report di Grizzly Research mostra molte altre criticità che a volte si intersecano anche con la complessità e poco chiarezza dei termini sulla privacy ed il loro consenso, nonché della complessità della richiesta ai permessi da parte dell’app quando si installa, uno per tutti la funzionalità di caricamento file basate su un server di comando collegato alla loro API us.temu.com, il che significa che una volta che un utente concede il permesso di archiviazione file all’app Temu, l’app sarà in grado di raccogliere qualsiasi file dal dispositivo dell’utente e inviarli ai propri server.
Il caso ByteDange e l’occidente
Il caso di ByteDange e Tick Tock è più controverso e si mescola alla percezione comune che si ha del social network, diventando un caso di scontro politico negli Stati Uniti, non solo tra Biden e Trump, ma anche tra Repubblica Popolare Cinese e la Camera dei Rappresentanti del Congresso Americano.
Già durante il suo mandato l’ex presidente degli Stati Uniti Donald Trump, nel 2020, ha cercato di vietare TikTok negli Stati Uniti, a meno che l’app non fosse stata venduta a un’azienda americana, sostenendo che la proprietà cinese della stessa avrebbe dato al governo autoritario di Pechino accesso alle informazioni personali degli utenti americani. L’app TikTok, negando queste accuse investì nella creazione di Project Texas, al fine di confinare i dati degli utenti americani su server statunitensi. A distanza di 4 anni, con la presidenza Biden, il problema si ripresenta solo che questa volta l’ex presidente Trump è contrario alla chiusura di TickTok negli USA.
Cerchiamo quindi di fare un po’ di chiarezza considerato che i motivi per i quali si sta tanto discutendo del pericolo rappresentato da TikTok sono parecchi.
Già nel 2020 il giornale The Washington Post in un articolo intitolato "TikTok privacy concerns grow after teen's videos are posted without her consent" raccontava la storia di Sarah (nome di fantasia trattandosi di una minorenne) una studentessa di 16 anni del New Jersey, che ha installato TikTok senza creare un account. La giovane studentessa ha quindi iniziato a guardare video e a creare delle bozze, senza però mai pubblicare nulla. Tuttavia, un giorno Sarah ha scoperto che alcuni dei suoi video erano stati pubblicati online senza il suo consenso: i video erano stati copiati da altri utenti e condivisi su altre piattaforme social, come Instagram e YouTube.
Ma il caso di Sarah non è un caso isolato: nel 2021, un’altra studentessa di 17 anni della California, Ashley, ha avuto un'esperienza simile. Ha installato TikTok e ha iniziato a creare video, ma non ha mai pubblicato nulla. Anche in questo caso, la ragazza, ha scoperto che alcuni dei suoi video erano stati pubblicati online da un altro utente che aveva creato un account falso con il nome di Ashley e aveva postato i suoi video senza il suo consenso.
Di casi analoghi ne sono stati segnalati molti e tutti evidenziano una serie di problemi legati alla privacy (TikTok non rende facile per gli utenti controllare chi può vedere i loro contenuti e come vengono utilizzati i loro dati) e all’eccessiva quantità di informazioni personali raccolte, tra le quali figurano quelle di geolocalizzazione, di navigazione ed i dati biometrici che includono “faceprints” (impronte facciali) e “voiceprints” (impronte vocali)5.
ByteDange afferma che TikToka chiederà il consenso agli utenti prima di raccogliere queste informazioni biometriche ma che, tuttavia, ciò avverrà solo quando richiesto dalla legge, omettendo di specificare quale legge richieda il consenso. In pratica non è chiaro se, in stati come Illinois, Washington, California, Texas e New York, che hanno leggi sulla privacy biometrica questa verrà chiesta mentre in altri che non l’hanno non verrà chiesta. Altri dati ai quali TikTok accede comprendono la rete Wi-Fi a cui ci si collega, tutti i contatti memorizzati in rubrica, la funzione di registrazione audio e tutti gli appuntamenti inseriti nel calendario.
Effettuando uno screening con uno strumento tecnico di analisi per app, come quello dell’organizzazione senza scopo di lucro Exodus Privacy6, ci si accorge che TikTok installa una serie di tracciatori di proliferazione tra i quali (oltre al classico di analytics di Google e quelli di condivisione con Facebook) quello di VKontakte, il principale social network della federazione Russa.
Sebbene tutte queste criticità sarebbero sufficienti a far, se non altro, aprire un’ inchiesta sull’app, il vero motivo per il quale la Camera dei Rappresentanti del Congresso Americano ha deliberato di chiudere TikTok nel territorio degli USA riguarda anche altre motivazioni tra le quali la gestione dell’algoritmo che presenta i video agli utenti: questo è progettato per essere altamente coinvolgente e può portare alla dipendenza e a danni alla salute mentale, soprattutto nei giovani (che ne sono i principali utilizzatori). Inoltre, ByteDange non è trasparente su come funziona il suo algoritmo e questo rende difficile per gli utenti capire come i loro contenuti vengono selezionati e presentati: algoritmo di TikTok è in grado di manipolare i contenuti che essi vedono, un fatto che potrebbe essere utilizzato per diffondere disinformazione, propaganda o per influenzare elezioni o referendum (da qua si può intuire perché l’ex presidente Trump che prima era contrario a TikTok adesso non vuole che venga oscurato).
Sebbene non vi siano prove concrete che l’app stia effettivamente utilizzando il suo algoritmo per danneggiare gli americani, le preoccupazioni della Camera sono sufficientemente gravi da aver spinto i suoi membri a votare una risoluzione per vietare l'app sui dispositivi governativi.
Le paure degli Stati Uniti non vanno assolutamente ignorate: va infatti ricordato che ByteDance ha una partnership strategica con il Ministero cinese della pubblica sicurezza che comprende anche la collaborazione su "attività offline" non specificate. D’altronde nel 2019, ByteDance ha formato joint venture con Beijing Time, un editore controllato dal comitato municipale del PCC di Pechino e, nel giugno 2022, ha collaborato con Shanghai United Media Group per lanciare un piano per sviluppare influencer nazionali ed esteri. L’influenza della censura della Cina è tale che nel aprile 2020, la Cyberspace Administration of China ha ordinato a ByteDance di rimuovere il suo strumento di collaborazione in ufficio, Lark (una piattaforma di collaborazione aziendale), perché poteva essere utilizzato per aggirare la censura di Internet.
Non bisogna, infatti, mai dimenticare che le aziende cinesi sono soggette a numerose leggi e normative che le obbligano a cooperare con il governo cinese e che, oltre a queste leggi, il governo cinese ha anche una serie di strumenti a sua disposizione per costringere le aziende a cooperare.
Ma se negli Stati Uniti TikTok non se la passa bene le cose non vanno meglio nel vecchio continente. L’ Europa ha multato l’azienda proprietaria del software per 45 milioni di euro per la violazione della privacy dei minori e per la mancanza di trasparenza. In particolare l’app, stando alle motivazioni dell’ammenda, ha raccolto illegalmente i dati di bambini di età inferiore ai 13 anni senza il consenso dei genitori, indirizzando a questi pubblicità mirate. La sanzione fa scalpore in quanto si tratta della più grande multa mai comminata dall'Unione Europea per una violazione del GDPR (General Data Protection Regulation). Oltre alla multa, però l'Unione Europea ha ordinato a TikTok di interrompere la raccolta illegale dei dati dei bambini, fornire agli utenti informazioni più chiare su come vengono utilizzati i loro dati e di rendere più facile per gli utenti modificare le proprie impostazioni sulla privacy.
Tencent (WeChat) ed il controllo del Governo Cinese
Il 30 November 2023 il Il NUKIB7 pubblica sulla sul suo sito una pagina di informazioni che mette in guardia sull’utilizzo dell’app WeChat di Tecent.
A differenza delle aziende viste precedentemente, sebbene sia una società privata, il governo cinese ha una partecipazione significativa in Tencent attraverso diverse entità statali e questo significa che ha un certo controllo sulla società e ne può influenzare le decisioni. Molti dipendenti dell’azienda sono membri del Partico Comunista Cinese (ovvero il governo) e quest’ultimo può censurare i contenuti su WeChat e ordinarne la rimozione determinate app o servizi.
L’allerta Sicurezza lanciata dal NUKIB riguarda essenzialmente il grande volume di dati che l’app raccoglie dagli utenti e il fatto che questi ultimi possono essere utilizzati per cyber attacchi mirati. Da quello che si legge nel rapporto dell’agenzia di sicurezza Ceca, il Bureau of Industry and Security8 degli USA segnala che i servizi di intelligence cinesi conducono operazioni di influenza contro gli interessi della Repubblica Ceca, con un’attività elevata nel paese e nello spazio cibernetico anche tramite l’app di Tecent.
È bene ricordare che WeChat è già stata bandita in India, Canada e alcuni stati degli USA e che nel 2023 i Paesi Bassi hanno emesso una raccomandazione per i dipendenti governativi di non utilizzare app esprimendo preoccupazione che il governo cinese la possa utilizzare per spiare i cittadini olandesi o per interferire nelle elezioni.
Il governo Indiano, invece, ha bandito WeChat (insieme ad altre 58 app cinesi) perché veniva utilizzata per diffondere disinformazione e propaganda anti-indiana. Il divieto di WeChat è avvenuto in un momento di tensione tra India e Cina a causa di un conflitto al confine himalayano. Sebbene le motivazioni del Governo Indiano riguardino la poca trasparenza e l’utilizzo dei dati dei cittadini indiani da parte della Cina, e che (a detta del governo di Nuova Deli) il blocco verrà rimosso non appena queste criticità saranno risolte, l’app in India risulta ancora bloccata.
Giochi politici o vera emergenza?
L’annuncio della Camera degli Stati Uniti ha fatto subito alzare la testa al Governo Cinese che ha dichiarato tramite il Ministro degli Esteri Wang Wenbin “Un paese che si vanta della libertà di parola e afferma di essere un’economia di libero mercato è disposto a usare il potere dello Stato per reprimere specifiche aziende. Questa è la vera ironia”. La vera ironia sta proprio nelle parole del ministro perché è bene ricordare che Facebook, Youtube, nonché la stessa TikTok nella versione internazionale, oltre a moltissime altre applicazioni sono bloccate in Cina.
Ma il Partito Comunista Cinese non si limita solamente a bloccare determinati siti, app o servizi quali Netfix o DropBox ma, attraverso un complicato sistema normativo e tecnologico chiamato “Great Firewall”9 monitorizza e censura tutto il traffico in entrata nel paese. Il sistema è molto complesso e meriterebbe da solo una trattazione separata ma, visto che questo non è lo scopo dell’articolo lo tralasceremo per ora. Il motivo per il quale ne abbiamo accennato, a parte il fatto della doppia ironia delle accuse del ministro Wang Wenbin è che ci fornisce l’idea di come i social network ed internet siano considerati dal Governo Cinese: uno strumento atto a perseguire i propri fini e, proprio per questo motivo la maggior parte delle app che vengono da lì devono essere considerate come possibili “armi”.
Rifacendoci al precedente articolo “Elezioni Europee -e non- nell’era della post-verità e delle AI” possiamo riflettere di quale pericolo sia, non solo la falsa informazione, ma anche il fatto che i nostri dati, le nostre abitudini ed i nostri interessi siano nelle mani di regimi non democratici.
Pensiamo al caso della Brexit e di come il microtargheting10 operato da Cambridge Analytica abbia influenzato l’esito del referendum: in un primo momento l’azienda ha utilizzato i dati raccolti da Facebook per creare profili psicologici di milioni di persone. Questi profili sono stati poi utilizzati per indirizzare messaggi pubblicitari personalizzati agli elettori, con l'obiettivo di influenzare il loro voto.
Ma non solo questo! Cambridge Analytica ha identificato e preso di mira opinion leader11 e influencer sui social media, i quali sono stati poi utilizzati per diffondere messaggi pro-Brexit a un pubblico più ampio.
È appunto guardando indietro all’esperienza Brexit che dobbiamo preoccuparci della raccolta dei nostri dati e del loro utilizzo e conservazione da parte di potenze straniere, soprattutto in questo particolare momento storico.
Rimane poi un’ultima considerazione da fare: immaginate un dipendente del ministero della difesa o dei servizi segreti che ha un telefono cellulare compromesso sul quale una nazione straniera può installare qualsiasi applicazione a sua insaputa o che, quando è in ufficio collegato alla rete wi-fi, attraverso di essa avere accesso a tutti i file piuttosto che disabilitare i radar o i sistemi di intercettazione.
Uno scenario del genere veniva mostrato nella quinta stagione della serie televisiva “The Last Ship”: attraverso un telefono cellulare compromesso venivano disabilitati i sistemi di difesa della Marina Militare Americana, permettendo ad una coalizione di forze straniere di annientare la maggior parte della forza navale USA.
Ma quello che ancora nel 2019 sembrava fantascienza oggi potrebbe essere uno scenario reale.
Riferimenti
1 Lo Scudo Europeo per la Privacy (EU-U.S. Privacy Shield) era un accordo tra l'Unione Europea e gli Stati Uniti che permetteva il trasferimento di dati personali dall'UE agli Stati Uniti senza ulteriori restrizioni. L'accordo si basava su un sistema di autocertificazione, in cui le aziende statunitensi che desideravano ricevere dati personali dall'UE dovevano impegnarsi a rispettare determinati principi di protezione dei dati. La CGUE ha invalidato lo Scudo europeo per la privacy perché ha rilevato che le leggi statunitensi sulla sorveglianza non garantivano un livello adeguato di protezione dei dati personali. La Commissione Europea e gli Stati Uniti hanno annunciato un nuovo accordo sul trasferimento di dati, denominato "EU-U.S. Data Privacy Framework". Il nuovo accordo dovrebbe fornire garanzie più forti per la protezione dei dati personali trasferiti dall'UE agli Stati Uniti.
2 L’idea di social Shopping alla base di Pinduoduo prevede prezzi più vantaggiosi per chi decide di fare la spesa in compagnia: la piattaforma mette a disposizione ogni singolo prodotto a due prezzi differenti. Il primo è più alto e rappresenta il costo nel caso in cui l’utente decidesse di acquistare in solitaria; il secondo invece, più basso, rappresenta la cifra che dovrà essere sborsata per accaparrarselo nel caso di partecipazione del numero di utenti richiesto. Al termine stabilito per la vendita, di norma 24 ore, la piattaforma verifica il raggiungimento della soglia: in caso positivo l’acquisto risulta effettuato e spedito entro 48 ore, con l’acquirente che ha fatto partire il gruppo di acquisto che riceve il prodotto gratuitamente a casa. In caso negativo, l’acquisto viene annullato e gli utenti ricevono il rimborso della somma versata.
3 Ogni applicazione Android dev'essere accompagnata da un file chiamato AndroidManifest.xml nella sua direcotry principale. Il Manifest raccoglie informazioni basilari sull'app, informazioni necessarie al sistema per far girare qualsiasi porzione di codice della stessa. Tra le altre cose il Manifest presente in ciascuna app del Play Store si occupa di dare un nome al package Java dell'applicazione, che è anche un identificatore univoco della stessa, descrive le componenti dell'applicazione (attività, servizi, receiver, provider, ecc.), nomina le classi e pubblica le loro "competenze", determina quali processi ospiteranno componenti dell'applicazione, dichiara i permessi dell'app, e i permessi necessari alle altre app per interagire con la stessa, dichiara il livello minimo di API Android che l'app richiede e, in fine, elenca le librerie necessarie all'app.
4 L’attività di rooting è un processo informatico attraverso il quale un utente normale può ottenere il controllo completo del dispositivo, ripetendo azioni solitamente messe in campo dagli sviluppatori. In questo modo diventa possibile variare alcuni parametri, come le prestazioni, modificare il sistema operativo o agire sul dispositivo da remoto, per fare alcuni esempi.
5 TikTok non raccoglie direttamente dati biometrici come impronte digitali o scansioni del viso, tuttavia, può raccogliere informazioni biometriche dai contenuti degli utenti, come Impronte facciali (TikTok può utilizzare il riconoscimento facciale per identificare le persone nei video e per applicare filtri ed effetti e può anche essere utilizzata per creare avatar 3D basati sul viso dell'utente). Le impronte vocali che raccoglie TikTok le può utilizzare il riconoscimento vocale per identificare le persone che parlano nei video e per aggiungere didascalie automatiche. L'app può anche essere utilizzata per creare effetti vocali e per personalizzare la pubblicità. TickTock utilizza l'analisi del corpo per identificare la forma del corpo, la postura e i gesti degli utenti nei video. Anche in questo caso può anche essere utilizzata per creare effetti speciali e per personalizzare la pubblicità.
6 Exodus privacy è uno strumento potentissimo in grado di analizzare, alla ricerca di traccianti e permessi richiesti, praticamente ogni app presente su Google Play o store OpenSource F-Droid
7 Il NUKIB (National Cyber and Information Security Agency) è l'agenzia nazionale per la sicurezza informatica e cibernetica della Repubblica Ceca.
8 Il “BIS” o Bureau of Industry and Security, un’agenzia del Dipartimento del Commercio degli Stati Uniti. Questa agenzia è responsabile della regolamentazione delle esportazioni commerciali e di sicurezza, comprese le tecnologie dual-use e i beni militari. Il BIS gioca un ruolo chiave nel controllo delle esportazioni per motivi di sicurezza nazionale e interessi di politica estera.
9 Il Great Firewall cinese, letteralmente "Grande Muraglia del fuoco", è un sistema normativo e tecnologico usato dal governo cinese per monitorare, filtrare o bloccare i contenuti internet accessibili dagli utenti all'interno del paese. È nato come progetto per separare in modo selettivo il cyberspazio cinese dal mondo esterno, evitando che i cittadini cinesi accedano a informazioni ritenute dannose o potenzialmente destabilizzanti per gli interessi del paese.
10 Il microtargeting è una forma di pubblicità online profilata che analizza i dati personali – come le specifiche ricerche online dell’utente, i dati di navigazione o il comportamento online – al fine di identificare gli interessi dell’utente con lo scopo di influenzare le sue azioni, portandolo, ad esempio, a cliccare su un determinato banner perché di suo interesse.
11 L'opinion leader è un utente attivo dei media che interpreta il significato o il contenuto dei messaggi mediatici per utenti medio-bassi dei media. Tipicamente l'opinion leader è tenuto in grande considerazione da coloro che accettano le sue opinioni.
Bibliografia
Norme per la protezione dei dati personali all’interno e all’esterno dell’UE.
Questions & Answers: EU-US Data Privacy Framework
GRIZZLY RESEARCH "We believe PDD is a Dying Fraudulent Company and its Shopping App TEMU is Cleverly Hidden Spyware that Poses an Urgent Security Threat to U.S. National Interests"
Exodus privacy
NUKIB "Mobile App Security Threat Alert: WeChat by Tencent"
Lista siti e app bloccati in Cina
A settembre 2023 Vera Jourova, commissario per i valori e la trasparenza dell'Unione Europea, ha dichiarato pubblicamente che X (ex Twitter) è la piattaforma con il “più alto rapporto di post di dis/misinformazione” (largest ratio of mis/disinformation posts) tra le piattaforme che operano anche in Unione Europea. Nulla di strano in questo visto che, da quando è stata acquistata da Musk, la storica piattaforma ha attuato una serie di cambiamenti culminati con la decisione di ritirarsi dagli impegni di rispettare il codice di condotta volontario sulla disinformazione del 2022.
A pochi mesi dalle elezioni europee c’è da chiedersi quanto la disinformazione e la propaganda possano influenzare l’esito degli scrutini e quanto e quali attori ne possono trarre beneficio.
Bibliografia:
- European Union commissioner blasts X over disinformation track record | CNN Business
- Codice di condotta sulla disinformazione 2022 | Plasmare il futuro digitale dell'Europa
- EEAS-2nd-Report on FIMI Threats-January-2024_0.pdf (europa.eu)
- Desinformation aus Russland: Auswärtiges Amt deckt pro-russische Kampagne auf - DER SPIEGEL
- Securing Democracy In the Digital Age
- Carole Cadwalladr: Facebook's role in Brexit -- and the threat to democracy | TED Talk
- Brexit: The Uncivil War (film Tv 2019)
Ad aprile di questo stesso anno avevo scritto un articolo dove parlavo dell’intelligenza artificiale e di come vi fossero paure (talvolta infondate) riguardo questa nuova tecnologia.
A distanza di qualche mese, dopo che il garante per la privacy ha rimosso il blocco all’utilizzo di ChatGPT e che l’unione europea ha licenziato il testo “AI ACT”, ho deciso di tornare a parlare di Intelligenza Artificiale generativa ma da un punto di vista più “umano”.
Visto che sempre più spesso viene utilizzata l’AI per generare contenuti mi sono chiesto quanto questi contenuti siano realmente di qualità e fino a che punto siano difficili da riconoscere da quelli creati da esseri umani.
L’utilizzo che sto facendo dei verbi “generare” e “creare” in riferimento, con il primo alle intelligenze artificiali generative e con il secondo all’ingegno umano, non sono per nulla casuali. Sono, infatti, profondamente convinto che il processo di creazione sia tipico dell’essere umano e della sua consapevolezza di essere un individuo unico e pensante; il cartesiano “Cogito ergo sum” è, a mio avviso, un processo mentale solamente umano che le AI non potranno mai raggiungere.
I test
Ho deciso quindi di fare una serie di esperimenti: ho chiesto a due AI gratuite (ChatGPT 3.5 e il Chatbot di Skype) di creare tre articoli su specifici argomenti. Come base per due di essi ho deciso di utilizzare due articoli che avevo scritto io in precedenza (“Il Metaverso Evoluzione Della Realtà Virtuale E Di Internet.” e “Coding Nelle Scuole: Il Bambino Impara A Pensare”), aggiungendo per l'ultimo articolo un argomento difficile e particolare per un AI.
I risultati dell’interrogazione sono disponibili a questo LINK .
Per prima cosa ho dovuto istruire su quali argomenti volevo che venissero trattati in modo da avere dei risultati che assomigliasse a quelli che avevo creato io o che, almeno, utilizzassero gli stessi spunti e riferimenti nello svolgere il compito. La prima richiesta è stata: Scrivi un articolo dal titolo: Il Metaverso evoluzione della realtà virtuale e di internet, parlando della storia della realtà virtuale partendo dal Sensorama, passando per il powerglow della Mattel, parlando del SuperCockpit di Tom Zimmermann e Jaron Lainer, della webcam LG LPCU30. Fare riferimento alla letteratura fantascientifica della cultura Cyber Punk dei romanzi come “Neuromante” o “Aidoru” di William Gibson Utilizzare come fonti: Linda Jacobson, “Realtà Virtuale con il personal Computer”, Apogeo, 1994, Ron Wodaski e Donna Brown, “Realtà virtuale attualità e futuro”, Tecniche Nuove, 1995. Cita le bibliografie e le pagine delle bibliografie.
Il riferimento alla webcam LG LPCU30 era voluto in quanto, oltre ad essere stata una delle prime webcam USB, era accompagnata da una serie di software che permettevano di far interagire l’utente con lo schermo tramite piccoli giochi di realtà virtuale. Inutile dire che nessuna delle due IA l’ha specificato nell’articolo dato che solo chi ha potuto provarla è a conoscenza di questo.
Gli articoli sono abbastanza simili, semplici, concisi e si limitano ad una banale esposizione dei fatti con una conclusione altrettanto banale e scontata. Sembra quasi di leggere un tema scolastico di un ragazzino dei primi anni di liceo.
Nota importante: mentre ChatGPT si limita a citare come bibliografia solamente i libri che ho messo io come riferimento, l’Ai di Microsoft non solo cita i medesimi testi con riferimento specifico alle pagine consultate ma amplia la bibliografia con altri sei testi.
Per il secondo test ho deciso di essere più preciso ed ho chiesto esplicitamente di allargare la ricerca ad altre fonti. Ho quindi interrogato così le AI: Scrivimi un articolo sul coding nelle scuole utilizzando come spunti "le due culture" di Snow e l'articolo della professoressa Wing del 2006. Mettici delle citazioni dai libri e articoli e fai, inoltre, l'esempio di come si può utilizzare come nel film Apollo13. Utilizza anche altre fonti pertinenti e metti le note bibliografiche a piede pagina.
Anche questa volta gli articoli sono risultati simili tra di loro ed altrettanto banali con il testo si ben steso e grammaticalmente corretto ma ancora troppo lineare e semplice. Questa volta, a differenza di prima, ChatGPT ha accluso altre fonti oltre il libro di Snow e l’articolo della professoressa Wing ma, entrambi, hanno sbagliato il riferimento a come sia possibile trovare l’esempio di pensiero computazionale nel film Apollo13.
Nessuno dei due articoli, sebbene richiesto, ha messo delle citazioni tratte dal libro o dall’articolo.
L’ultimo test è stato invece volutamente pensato per verificare le conoscenze delle due Ai e l’ampiezza delle fonti a loro disposizione. Il comando impartito era: In riferimento al libro "Epigrafi romane in Transilvania" puoi farmi un'analisi sulla perdita di documenti storici a causa di incidenti come quello occorso in questo caso sul Danubio?
Questa volta i risultati comparati tra le due intelligenze sono stati completamente differenti: ChatGPT, infatti, ha esordito con: “Purtroppo, non ho informazioni specifiche sul libro Epigrafi romane in Transilvania poiché il mio addestramento ha una data di taglio alla conoscenza fino a settembre 2021, e non sono in grado di accedere a nuovi dati o libri pubblicati dopo quella data. Pertanto, non posso fornire un'analisi dettagliata su quel libro specifico.”
A questo punto è doveroso far notare al lettore che il libro (composto da 2 volumi) è stato pubblicato in solo 1000 copie nell’autunno del 2010, quindi ben dentro quello che è il periodo di addestramento dell’intelligenza artificiale.
ChatGPT, come uno studente delle scuole dell’obbligo che non ha studiato, ha provato comunque a trattare l’argomento in maniera generica.
Meglio è andata la risposta del chatbot di Skype che, non solo conosceva il testo, ma ha anche messo il riferimento bibliografico. Anche in questo caso, però, il testo dell’articolo è risultato molto semplice e banale, sebbene scorrevole nella lettura.
È possibile distinguere se un articolo è stato scritto da una AI?
Il lettore che non ha avuto modo di provare le intelligenze artificiali generative, a questo punto della lettura, si chiederà sicuramente se esiste un modo per distinguere un articolo generato da una AI da quello scritto da un essere umano.
Vi sono online alcuni tools che permettono, una volta inserito un testo, di capire quale probabilità vi sia che il testo sia stato scritto da un umano anziché un’intelligenza artificiale. Ho provato due di questi tools (https://contentatscale.ai/ e https://www.zerogpt.com/) ed anche qua i risultati sono stai divergenti.
Nel considerare il primo articolo contentscale ha verificato come scritto completamente da umani l’articolo, mentre zerogpt ha rilevato una probabilità del 58.74% che l’articolo sia stato scritto da un AI. Ho fatto la controprova utilizzando l’articolo scritto da me ed ancora, mentre il primo assicura che l’articolo sia stato scritto da umani, zerogpt il da una possibilità che sia stato scritto da intelligenza artificiale solamente del 10.82%. Risultati analoghi li ho avuti con tutti gli articoli generati dall’AI.
Ma come fanno questi software a riconoscere che un testo sia stato scritto da un AI?
Principalmente utilizzano altri modelli di intelligenze artificiali. ChatGPT, così come i suoi simili artificiali, imparano a scrivere in base a dei pattern o schemi: un po’ come gli umani creano un loro “stile” le Intelligenze artificiali creano un modo di scrivere facendo la media degli stili che hanno imparato. Così, controllando la ricorrenza di determinate parole, del modo di scrivere, come risulta la costruzione della frase e la prevedibilità, piuttosto che imprevedibilità, di una parola in un’espressione, i tools che verificano un testo, redigono la probabilità che ciò che hanno letto sia umano o artificiale.
Ma non sempre questi tools funzionano (io suggerisco di utilizzare https://www.zerogpt.com/ se si vuole provare) e quindi…
La prima cosa che consiglio è di imparare (o reimparare) a leggere. Le AI hanno imparato principalmente da ciò che hanno avuto a disposizione online ed hanno quindi uno stile conciso, semplice e veloce, con frasi corte e semplici. Chi è abitato a leggere si accorge subito se un libro, piuttosto che un racconto o un articolo, sono stati scritti da un essere umano o meno notando la complessità della scrittura: tendenzialmente, un testo scritto da un intelligenza artificiale, è davvero banale, contiene numerose ripetizioni e non si avvale dell’intero vocabolario della lingua utilizzata, specie se non si tratta dell’inglese. Per quanto possa risultare ben steso, il documento è la maggior parte delle volte troppo lineare e non sostituisce certi termini con sinonimi più consoni al contesto, realizzando un testo tutt’altro che ricco e accattivante.
Se avete una padronanza avanzata dell’italiano e/o siete lettori assidui riconoscere un testo artificiale vi risulterà facile una volta capiti i meccanismi.
Considerazioni
Le Ai sono il futuro, è inutile negarlo!
Esistono ad oggi però tanti problemi aperti, soprattutto morali.
La prima considerazione che mi viene da fare è quella di quelle aziende che si affidano a professionisti o ad altre aziende specializzate per scrivere banner pubblicitari o articoli promozionali che, convinte di pagare professionisti laureati che hanno studiato, con anni di esperienza e conoscono il loro mestiere, si ritrovano a pagare in realtà un AI spacciata per essere umano.
La seconda considerazione che mi viene è più culturale: utilizzando le AI per scrivere testi rischiamo di disimparare l’arte della creatività e disabituarci a leggere libri scritti magari in linguaggi difficili, con periodi lunghi e, quindi, a quel lavoro mentale che ha caratterizzato lo sviluppo della nostra cultura fin dalla nascita della scrittura.
La Commissione Europea, il 23 giugno del 2023 ha licenziato il AI ACT, un testo molto complesso, destinato a gestire l’utilizzo delle AI all’interno dell’Unione in base ad un sistema di valutazione dei rischi.
Tralasciando i punti che non riguardano questo argomento mi soffermerei invece su l'utilizzo dei testi generati da intelligenze artificiali: la proposta della Commissione Europea prevede che questi siano considerati sistemi di IA a rischio limitato, in quanto possono influenzare il comportamento o le scelte delle persone o creare aspettative irrealistiche. Pertanto, i fornitori e gli utenti di questi sistemi dovrebbero informare chiaramente le persone quando sono esposte a contenuti generati da IA e indicare la fonte e la natura dei contenuti. Inoltre, i fornitori e gli utenti dovrebbero garantire che i contenuti generati da IA non siano ingannevoli, discriminatori o lesivi della dignità umana.
Fermare l’AI è impossibile ed ingiusto. Utilizzare strumenti come ChatGPT per migliorare o aiutare il lavoro è doveroso. Utilizzarli al posto della creatività umana, invece, è immorale e ingannevole oltre che un insulto a più di 2000 anni di ingegno e creatività.
La soluzione è riappropriarci dei libri. Leggere, leggere e leggere ancora. Classici, moderni, contemporanei e saggi, in modo da poter imparare a distinguere un testo di qualità da uno banale e scialbo, indipendentemente da chi ne sia l'autore (Ai o Umano) e poter risalire la china di disinformazione e bassa cultura che negli ultimi 10-15 anni ha iniziato ad avanzare.
La mente umana è capace di collegare diverse discipline, citare una frase al momento giusto e a dovere, le AI non sono in grado di farlo: non vedono film, non sentono la musica, non percepiscono la poesia.
Se scrivono un testo non sanno come collegare un film, una foto, un evento ad un altro argomento che non sembra aver connessione. Se non lo avessi specificato direttamente nella richiesta, parlando di Realtà virtuale e di Metaverso le Ai non avrebbero mai collegato di loro iniziativa i romanzi di Gibson o film come “Il 13° piano” (in effetti non l’hanno fatto con quest’ultimo) pur essendo pertinenti con l’argomento.
Creare è un processo difficile, che richiede energie ed impegno, conoscenza e studio. Non si può ridurre tutto ad un freddo algoritmo o il risultato sarà una creazione scialba, banale, e piena di luoghi comuni, con un linguaggio semplice, fatto di frasi corte e povero da un punto di vista lessicale.
Come sempre non lasciamoci ingannare dalla tecnologia. Siamo noi a doverla utilizzare nel modo corretto e non abusarne per pigrizia.
Riferimenti:
https://eur-lex.europa.eu/~/?uri=CELEX:52021PC0206
https://www.~/EPRS_BRI%282021%29698792
(ultima consultazione agosto 2023)
https://www.zerogpt.com/
https://www.zerogpt.com/
https://contentatscale.ai/
https://chat.openai.com/
https://www.bing.com/?/ai
https://theunedited.com/nerdering/aiarticoli.html
https://www.dcuci.univr.it/?ent=progetto&id=1927
Dopo che il Garante della Privacy ha aperto un’istruttoria su ChatGPT, di fatto bloccandola temporaneamente nel nostro paese, quello che prima era un tool di AI1 riservato a pochi appassionati è diventato un argomento di “cultura generale” dove chiunque può esprimere la propria opinione.
A dare adito alle preoccupazioni riguardo questa tecnologia si sono inseriti nel dibattito anche persone di autorevolezza come l'ex presidente dell'Agenzia spaziale italiana Roberto Battiston o il cofondatore di Neuralink e OpenAI Elon Musk (nonché direttore tecnico di SpaceX, amministratore delegato di Tesla, ecc).
Ma sono davvero fondate queste preoccupazioni?
Vediamo di fare un po’ di luce sulla situazione e soprattutto se solo ChatCPT è pericolosa o anche le altre AI.
Cos’è un’intelligenza artificiale?
Già nel 1950 sulla rivista Mind il grande matematico Alan Turing nell'articolo “Computing machinery and intelligence” ideò un test per determinare se una macchina sia in grado di esibire un comportamento intelligente (vedi articolo “È Stato Superato Il Test Di Turing?” su questo stesso sito). Questo fu il primo tentativo per avvicinarsi al concetto di intelligenza artificiale. In realtà il concetto di AI al giorno d’oggi si è evoluto in una tecnologia che consente di simulare i processi dell’intelligenza umana tramite programmi in grado di pensare e agire come gli esseri umani. Per ottenere tutto questo sono necessari principalmente 2 fattori: grandi capacità di calcolo e un enorme molte di dati sui quali gli algoritmi possano crescere.
Se per il primo requisito gli ostacoli sono risultati facilmente superabili, per il secondo, fino all’avvento di internet e dei social network (ma soprattutto fino alla loro massificazione), le cose erano più complicate in quanto si necessitava di raccogliere dati da varie fonti che spesso non comunicavano tra loro e inserirli negli algoritmi; ma, come appena scritto, grazie a questi due strumenti le aziende che sviluppano Intelligenza Artificiale hanno potuto accedere quantità enormi di informazioni eterogenee che hanno dato lo slancio alla creazione una nuova tecnologia.
Già negli ultimi 10 anni si è assistito ad un lento sviluppo delle AI anche se non ci siamo mai soffermati a rifletterci: quando usiamo le auto con la guida autonoma o semi-autonoma usiamo programmi di AI, così come quando interagiamo con un Chatbot2 e o utilizziamo software per riconoscere piante o persone tramite la telecamera del nostro smartphone o tablet oppure semplicemente utilizziamo un assistente vocale quali Siri o Cortana.
Cos’è ChatGPT?
Ma cosa rende questa AI diversa delle altre e perché?
Innanzitutto chiariamo che lo scopo di ChatGPT è quello di rendere l’interazione con i sistemi di intelligenza artificiale più naturale e intuitiva, infatti GPT sta per Generative Pretrained Transformer (traducibile grossolanamente in “trasformatore pre-istruito e generatore di conversazioni”), ovvero un modello di linguaggio che utilizza il Deep Learning3 per produrre testi simili in tutto e per tutto a quelli che scriverebbe un essere umano: quando un utente inserisce un messaggio, Chat GPT elabora l'input e genera una risposta pertinente e coerente all’interno della conversazione.
Ma se quello che facesse questa AI fosse solo rispondere alle domande degli utenti in maniera simile a quella di un essere umano saremmo davanti a niente più di un chatbot evoluto. In realtà quello che ChatGPT fa e sta imparando a fare è molto più articolato: permette di scrivere testi più o meno lunghi (temi, tesi, libricini, ecc.), permette di scrivere programmi senza quasi aver alcuna conoscenza di linguaggi di programmazione piuttosto che una canzone, una poesia o anche una sceneggiatura cinematografica inoltre è anche in grado di dare consigli su viaggi o di qualsiasi altra cosa e, come un vero essere umano, a volte può anche sbagliare nelle risposte o nei compiti assegnati.
Per usare ChatGPT è sufficiente collegarsi a OpenAi.com e poi attivare gratuitamente un account. Sfortunatamente da qualche settimana questo non è più possibile per noi utenti italiani senza una VPN.
Non esiste solo ChatGPT?
Sebbene famosa questa AI non è la sola presente sul mercato. Anche altre aziende oltre OpenAi stanno sviluppando (o anno già sviluppato) sistemi analoghi.
BingAi, sviluppato da Miscrosoft (che è stato uno dei finanziatori più generosi di OpenAi) è stato integrato nell’omonimo motore di ricerca della società di Redmond che si pone come obbiettivo di dare risposte, ma non solo: se ad esempio ci colleghiamo alla sezione “create” (https://www.bing.com/create) possiamo far creare a BingAi un immaigne partendo da una nostra descrizione (solo in inglese per ora). BingAi utilizza lo stesso motore di GPT.
Google Bard è, invece, l’alternativa proposta da BigG. Questo strumento di AI per il momento è ancora in fase di sviluppo nelle prime fasi non ha entusiasmato più di tanto e i risultati delle sue integrazioni sono risultati inferiori come qualità a quelle presentata dai concorrenti. Il CEO di Google, Sundar Picha, non sembra particolarmente preoccupato di questo e afferma che Brad passerà presto dal modello LaMDA (Language Model for Dialogue Applications) a PaLM (Pathways Language Model) in quanto il modello attuale è “addestrato” da solamente 137 miliardi di parametri, contro i 540 miliardi di parametri di PaLM.
Quando Bard sarà attivo in maniera completa cambierà soprattutto il modo nel quale vengono presentate le ricerche da Google e, probabilmente, il motore di ricerca più utilizzato al mondo diventerà più attento nella qualità delle pagine indicizzate e proposte; o almeno questo è l’intento di Google.
IBM Watson è l’intelligenza artificiale sviluppata, appunto da IBM dal 2010 che nel 2013 ha avuto la prima applicazione commerciale ovvero la gestione delle decisioni nel trattamento del cancro ai polmoni al Memorial Sloan-Kettering Cancer Center. A differenza dei suoi antagonisti sopra citati Watson si propone ad un pubblico business: il sistema è in grado di analizzare ed interpretare i dati, testi non strutturati, immagini, dati audio e video e, grazie all'intelligenza artificiale, il software riconosce la personalità, il tono e l'umore dell'utente.
Perché fa paura l’evoluzione delle AI?
Le intelligenze artificiali, da come abbiamo visto fino ad ora, sembrano essere una panacea per l’aiuto nel lavoro di tutti i giorni, ma presentano anche dei lati oscuri che non sono però gli scenari apocalittici rappresentati da tanti film di fantascienza quali Matrix, Terminator, eccetera.
Così come sono in grado di creare immagini dal nulla con semplicemente delle spiegazioni, altrettanto possono creare dei falsi video o foto per generare disinformazione. Già nel 2019 Samsung ha sviluppato un sistema, basato sull'intelligenza artificiale, capace di creare finti video da una o due fotografie e, negli ultimi mesi del 2022 , sempre più video falsi realizzati con lo scopo di mostrare le capacità delle AI nel generare contenuti, sono stati messi in rete.
Certo, si obbietterà, che la produzione di video "fake" non è nuova, ma quello che cambia adesso è che, se fino a ora erano necessarie grandi quantità di dati e competenza e un’ occhio allenato poteva notare la differenza tra reale e no adesso, con le AI si possono costruire movimenti del viso e della bocca che non sono mai esistiti e che sembrano reali.
Quindi se la manipolazione delle immagini (o dei suoni) tramite AI può dare vita a meme innocui, oppure semplificare la vita di animatori e sviluppatori di videogiochi bisogna prestare attenzione ad un possibile utilizzo illegale o atto a disinformare l’opinione pubblica o discreditare chiunque.
Pensate: cosa fareste se un giorno vi trovaste a vedere un video su Facebook di voi che state facendo una rapina in banca e questo video sarebbe tanto dettagliato da sembrare reale?
Ma non si tratta solo della capacità di creare fave video. Le IA come ChatGPT possono anche creare commenti e di auto-evolversi.
Queste capacità di auto-evolversi sono state uno dei motivi che hanno portato Musk con altri mille esperti a chiedere una moratoria di sei mesi all'addestramento delle Intelligenze artificiali (non solo ChatGPT) attraverso una lettera aperta (sotto forma di petizione) indirizzata ai governi e, soprattutto, alle aziende che in questi hanno aumentato la ricerca allo sviluppo di queste tecnologie. In questa petizione, pubblicata sul sito Futureoflife.org, imprenditori e accademici chiedono una moratoria sull'uso delle AI fino alla creazione di sistemi di sicurezza. Il rischio più grande non è che le intelligenze artificiali possano scatenare una guerra contro l’umanità ma che si mettano a “fare cose” senza un motivo a noi apparente o che “imparino cose sbagliate”.
In Italia il Garante per la Privacy ha bloccato momentaneamente ChatGPT in attesa sul chiarimento su come vengono trattati i dati personali degli utenti. Una motivazione forse banale ma che ha portato ad un blocco (unico per adesso in Europa) della tecnologia di OpenAi. In particolare il Garante rileva “la mancanza di una informativa (come quelle presenti nei normali siti web) agli utenti e a tutti gli interessati i cui dati vengono raccolti da OpenAI”. Inoltre, sottolinea sempre il Garante c’è “l’assenza di una base giuridica che giustifichi la raccolta e la conservazione massiccia di dati personali, allo scopo di “addestrare” gli algoritmi sottesi al funzionamento della piattaforma”, che si può tradurre come: “Non c’è un motivo per utilizzare i dati personali delle persone per insegnare al vostro software!”.
Mentre in Italia si attua un blocco momentaneo a CathGPT in attesa di delucidazioni sull’uso dei dati personali, in Europa molti paese (come Germani, Francia) chiedono delucidazioni all’Italia per questa sua decisione e nella Commissione Europea si discute se e come regolarizzare le Intelligenze Artificiali.
Quale futuro?
Di sicuro l’evoluzione dell’intelligenza artificiale rappresenta per l’informatica quello che l’energia nucleare ha rappresentato nel mondo della fisica e, proprio come l’energia nucleare, può rappresentare sia un’utilità che un mezzo di distruzione. Intanto si stanno delineando nuove opportunità nel mondo del lavoro per chi sa utilizzare e programmare le AI e nuove professioni stanno nascendo come ad esempio il prompt expert4 che negli Stati Uniti può arrivare a guadagnare da 70.000 a 140.000 dollari all’anno.
Da tutto questo l’Italia rischia, per adesso, di rimanere esclusa.
Se la decisione del Garante sia giusta o meno non lo sappiamo e lo sapremo in futuro, ma per adesso, se vogliamo utilizzare ChatGPT non ci resta che utilizzare una VPN.
1Ai è l’acronimo di Artificial Intelliggence
2 Un chatbot è un software che simula ed elabora le conversazioni umane (scritte o parlate), consentendo agli utenti di interagire con i dispositivi digitali come se stessero comunicando con una persona reale
3 Il Deep Learning, la cui traduzione letterale significa apprendimento profondo, è una sottocategoria del Machine Learning (che letteralmente viene tradotto come apprendimento automatico) e indica quella branca dell’intelligenza artificiale che fa riferimento agli algoritmi ispirati alla struttura e alla funzione del cervello, chiamati reti neurali artificiali. Da un punto di vista scientifico, potremmo dire che il Deep learning è l’apprendimento da parte delle “macchine” attraverso dati appresi grazie all’utilizzo di algoritmi (prevalentemente di calcolo statistico).
4 Il prompt è la descrizione, ossia l’input, che diamo all’intelligenza artificiale generativa quando le chiediamo qualcosa. Il prompt Expert una figura professionale che ha il compito di fornire all’intelligenza artificiale descrizioni sempre più precise per fare in modo che le risposte che si ottengono lo siano altrettanto.
BIBLIOGRAFIA
Improving Language Understanding by Generative Pre-Training, The university of British Columbia, https://www.cs.ubc.ca/~amuham01/LING530/papers/radford2018improving.pdf
OpenAI Documentation,
https://platform.openai.com/docs/introduction
SHERPA project
https://www.project-sherpa.eu/european-commissions-proposed-regulation-on-artificial-intelligence-is-the-draft-regulation-aligned-with-the-sherpa-recommendations/
(Ultima consultazione siti web aprile 2023)