Filoweb.it
By Filippo Brunelli


FB TW Pinterest whatsapp RSS FEED News letter

  ► Magazine

I Nuovi Divulgatori
I Nuovi Divulgatori

Affianco ai vari influencer come Ferragni o Vacchi, senza arte ne parte, il mondo del web si sta aprendo sempre di più ai divulgatori online. La digitalizzazione dei contenuti ha infatti trasformato i tradizionali canali di informazione permettendo ad un sempre maggior numero di persone competenti di poter condividere le proprie conoscenze. Fino a poco meno di una quindicina d’anni fa la divulgazione di massa era appalto esclusivo della televisione e delle radio partendo da “Quark” di Piero Angela per arrivare a “La Grande Bellezza” di Cesare Bocci senza dimenticare la “La macchina del tempo” di Alessandro Cecchi Paone o i vari canali tematici come “Marco Polo” o “Rai Storia”.

Proprio come i media tradizionali hanno iniziato a perdere sempre più audience nei confronti del web anche i programmi di divulgazione devono affrontare la concorrenza dei divulgatori sul web che stanno diventando delle vere star ma che, a differenza dei più conosciuti influencer, diffondono contenuti di qualità.
Attenzione non vogliamo parlare in queste poche righe dei finti divulgatori che spacciano per vere bufale come la terra piatta, gli UFO o le cure omeopatiche, ma di persone che non solo hanno titoli accademici per parlare di determinati argomenti ma anche le capacità di farlo: la divulgazione riguarda innanzitutto ciò che chi ha una certa competenza vorrebbe far comprendere a chi non ha le sue stesse conoscenze, utilizzando un linguaggio il più semplice possibile senza togliere qualità all’informazione che si trasmette.
È poi bene chiarire fin da subito la differenza che esiste tra divulgazione  e didattica online (che non vuol dire solamente la famigerata DAD): quando si parla di didattica online ci si riferisce a dei video che hanno come target quei fruitori di contenuti che vogliono imparare o ripassare determinate conoscenze come ad esempio il “teorema di Pitagora”, come si fa il calcolo vettoriale o una lezione di storia simile a quella che viene fatta nelle aule scolastiche o universitarie. Ne segue necessariamente che un video di didattica ha un pubblico più limitato di quanto lo possa avere uno di divulgazione che si rivolge ad un pubblico più ampio e con un linguaggio meno specifico. La differenza si può quindi riassumere tra il far sapere e il come far sapere.

Il mondo dei divulgatori online utilizza principalmente due canali, Youtube e Instagram e si articola in una miriade eterogenea di contenuti; il fatto che questi due canali di comunicazione siano anche i più apprezzati dagli influencer (in particolar modo Instagram) non deve trarci in inganno ma farci riflettere che non vi sono metodi più o meno adatti per trasmettere un determinato messaggio ma solo l’utilizzo che se ne fa e che siamo noi utenti a doverne cogliere le opportunità e sfruttarli al meglio.
Ma come si riconosce un buon divulgatore online da uno improvvisato che vuole solo guadagnare visite o, peggio ancora, da uno in mala fede?
La prima cosa da tenere in considerazione –ma non la più importante-, quando si segue un video su un canale di divulgazione, è la “reputazione” di chi parla; bisogna poi considerare che fare un video divulgativo richiede non solo conoscenze ma anche tempo ed è importante che vengano citate le fonti quando si parla di un argomento, soprattutto se controverso. Infine un buon divulgatore online, parla principalmente di un solo argomento o di argomenti che sono ad esso collegato, creando eventualmente diverse playlist a seconda degli argomenti.

Tra i divulgatori italiani più attivi sia su Youtube che su Instagram sicuramente è da citare Dario Bressanini.
Chimico, fisico teorico, docente universitario, ricercatore, il professor Bressanini ha al suo attivo diversi libri di divulgazione e articoli su riviste specializzate, sempre sul tema dell’alimentazione analizzata da un punto di vista scientifico.  Ha iniziato la sua attività di divulgazione sui media tradizionali (Tv e Radio) ed ha una rubrica fissa sul mensile “Le Scienze” da parecchi anni. Ma non basta che il curriculum sia corposo e, conscio di questo, il professor Bressanini quando pubblica un video divulgativo cita sempre le fonti alle quali attinge.
Non bisogna infatti scordare che, soprattutto nella scienza, non vale il principio di autorevolezza ma di dimostrabilità.
Un altro divulgatore che mette a disposizione le sue conoscenze è Amedeo Balbi. Astrofisico e ricercatore, professore di astronomia e astrofisica all'Università di Roma "Tor Vergata", autore di diversi libri e autore di articoli scientifici pubblicati regolarmente su “Le Scienze”, “La Stampa”, “Repubblica” ed “Il Manifesto”, racconta come funziona l’universo e la scienza in maniera semplice e diretta, con un linguaggio che non risulta mai artificiosamente complesso.
 
Ma alle frontiere della divulgazione online non approdano solamente persone competenti ma anche organizzazioni come il “CICAP”, fondato da Piero Angela che dal 1989 si occupa di promuovere un'indagine scientifica e critica nei confronti delle pseudoscienze, del paranormale, dei misteri e dell'insolito, con l'obiettivo di diffondere la mentalità scientifica e lo spirito.
Anche un’organizzazione senza scopo di lucro come TED che è dedita alla diffusione di idee, attraverso un suo canale TEDx permette, a chi fosse interessato ad ampliare le proprie conoscenze, di vedere gli incontri che vengono organizzati nelle varie parti del mondo in diverse lingue (Italiano compreso!) con relatori di diverse discipline.
Nemmeno le istituzioni non si sono lasciate sfuggire l’opportunità che i nuovi media permettono e così il Canale YouTube ufficiale dei Laboratori Nazionali di Frascati (LNF) e dell'Istituto Nazionale di Fisica Nucleare (INFN) risulta uno dei più completi con playlist che vanno dalle conferenze alle letture pubbliche, con una sezione molto bella per i bambini chiamata “Summer Camp” le mie giga-nano vacanze estive, in collaborazione con Rai Kids.
Se l’INFN ha un suo canale non poteva certo essere da meno l’Istituto nazionale di astrofisica (INAF),  il principale ente di ricerca italiano per lo studio dell’universo, che sul suo canale propone un video al giorno sulle scoperte più interessanti di astronomia e fisica, sulle notizie di maggior rilievo dallo spazio e in campo tecnologico e sugli eventi rivolti agli appassionati del cielo, nonché interviste, approfondimenti e dirette con alcuni fra i maggiori esperti italiani e internazionali.

Fino ad ora abbiamo parlato solo di divulgazione scientifica online ma anche gli appassionati di materie umanistiche possono trovare approfondimenti o nuove conoscenze. Il canale del Festival della Mente, dedicato alla creatività e alla nascita delle idee che si svolge a Sarzana ogni anno, mette a disposizione i video degli incontri con i vari relatori, mentre tra i divulgatori non scientifici sono sicuramente da ricordare il canale Youtube di Roberto Trizio, che ci racconta aneddoti della vita quotidiana o eventi storici relativi al periodo della Roma Antica o il canale “Vivi everyday” che sempre di storia parla ma da un punto di vista più leggero “raccontando usi, costumi e credenze di altre epoche, il mondo quotidiano di chi ha vissuto prima di noi... tutto questo intervallato da momenti di discussione e video leggeri e comici” (Cit.).
Se si è appassionati di letteratura un canale interessante è quello di “Ima AndtheBooks”, un’insegnante di lettere, che ogni settimana crea un video.  Personalmente trovo molto interessante la playlist sulle biografie  dei grandi scrittori italiani, “con aneddoti, curiosità e segreti che i libri di scuola non ci raccontano” (Cit.).

Ma per fare divulgazione online seriamente bisogna essere obbligatoriamente laureati nell’argomento del quale vogliamo parlare?
Non necessariamente! Uno dei più grandi divulgatori di matematica e scienze, Martin Gardner, ad esempio era laureato in filosofia ma questo non gli impedì di essere, per molti anni, il curatore della rubrica "Mathematical Games" sulla rivista “Scientific American” (la versione italiana è "Giochi Matematici", su “Le Scienze”), nella quale ha divulgato molti argomenti di carattere matematico, come i frattali, la crittografia e molto altro ancora.
Un divulgatore (come insegna Dario Bressanini) quando decide di approfondire un argomento va a cercarsi tutti gli articoli e le ricerche che riesce a trovare, fino ai più recenti, li legge e li mette nel giusto contesto. Li valuta e verifica le fonti, se ci sono studi in contraddizione cerca di approfondirli per trovare quello che è più giusto, e alla fine fa un riassunto il più possibile onesto senza sensazionalismi, esponendo il pensiero generale della comunità (scientifica o di studiosi del settore) senza soffermarsi troppo su di una singola idea o concetto che magari è più simile al suo pensiero. Quando cerca di esporre quando ha appreso lo fa con parole semplici, senza entrare in tecnicismi inutili, tralasciando i dettagli e citando sempre le fonti.
Chiaramente non si può parlare di un argomento senza avere le basi solide di ciò che è il soggetto della trattazione: se si decide di fare un video sulla relatività generale sicuramente bisogna sapere almeno a livello descrittivo cos’è un tensore metrico, se si vuole parlare di storia della Seconda Guerra mondiale, avere la consapevolezza di quello che era l’Europa ed il mondo nel periodo antecedente il  settembre del 1939 e così via.

Troppo spesso si parla dell’aspetto negativo che la rapida diffusione delle notizie e dei contenuti grazie all’utilizzo dei nuovi media permette, dimenticandoci che in un mare pieno di fango si possono trovare le perle. Il periodo di confinamento forzato dovuto al covid-19 e il fatto che molti genitori si sono trovati a casa con i figli e a doverli aiutare nel fare i compiti ha permesso a molti utenti del web di scoprire il mondo dei divulgatori online che spesso sono costretti a battersi con armi impari contro i grandi influencer che non di rado fomentano fake news.
Grazie a internet informarsi è più semplice e i divulgatori (quelli seri!) sono un pezzo essenziale del processo di arricchimento personale che tutti dovremmo fare. Se leggere un saggio, per molte persone, può essere noioso non lo è guardare un video che risulta anche meno “impegnativo” e aiuta ad avvicinarsi ad una materia o ad un argomento. Se poi il video è ben fatto ed invoglia chi lo ha visto ad approfondire ciò che si è appena sentito allora lo scopo della divulgazione è raggiunto.
Viviamo in un’era che ci permette di accedere a conoscenze vere e condivise in maniera semplice e diretta è un peccato se non ne approfittiamo. La prossima volta che su youtube guardate un video clip musicale o una presentazione di qualche influencer pensate ad ampliare le vostre conoscenze e cercate un canale di divulgazione seria, arricchirete voi stessi ed anche le persone che vi circondano.

Pecunia Non Olet
Pecunia Non Olet

L’App IO per il “Cash Back” rientra nel più ampio “Piano Italia cashless” volto ad incentivare l’uso dei pagamenti elettronici. A differenza di quanto è successo per l’app Immuni, questa nuova iniziativa del Governo Italiano sembra aver avuto maggior successo e sembra anche che la maggior parte dei preconcetti riguardo la privacy, che hanno rallentato l’utilizzo dell’app di tracciabilità del Covid, non abbiano disincentivato questa volta gli utenti a scaricarla, malgrado la privacy sia meno tutelata realmente con l’uso di IO per il cashback.

Cos’è il Cashback di Stato
Cashback significa ottenere indietro i soldi in cambio degli acquisti effettuati che, in questo caso, prevede il rimborso del 10% da parte dello Stato Italiano, delle spese effettuate con sistemi di pagamento elettronici nei negozi. L’ 8 dicembre è partita la versione sperimentale di questo procedimento; nei piani del governo il cashback è una delle misure pensate per disincentivare l’uso del contante, spingere i pagamenti digitali e contrastare l’evasione fiscale.
Il procedimento di Cashback non è nuovo, diverse carte di pagamento, negozi online e app di pagamento lo hanno utilizzato e lo utilizzano tutt’ora come strumento promozionale o di fidelizzazione (e a volte è stato utilizzato anche da truffatori e siti malevoli).  Si capisce subito che questo procedimento non è propriamente un metodo di guadagno, visto che non c’è alcun ricavo sull’acquisto e non è neanche uno sconto, dato che i soldi vengono accreditati a posteriori quando la spesa è già fatta, ma possiamo considerare invece il normale cashback come una ricompensa che una carta, un negozio o un sito riconosce agli utenti che sono fidelizzati.
Il metodo di rimborso ideato dal Governo Conte è invece una misura ideata nel tentativo di arginare, come abbiamo detto, l’evasione fiscale e modificare le abitudini dei cittadini Italiani  verso metodi di pagamento tracciabili.
Quella iniziata l’ 8 dicembre è una sperimentazione e, per adesso, è valida solo se si utilizzano carte di credito, di debito o bancomat mentre sono escluse le app come Google Pay o Apple Pay che saranno attive con l’inizio ufficiale dal 1° gennaio 2021. Il rimborso sarà semestrale e di un importo massimo di 1.500 euro; per ottenerlo, però, è necessario fare almeno 50 pagamenti, che vanno da un minimo di 1 euro ad un massimo 150 euro, nei sei mesi.
Chi volesse aderire al cashback deve essere maggiorenne e residente in Italia. Deve poi registrarsi all’app IO della piattaforma della Pubblica Amministrazione, tramite l’SPID o con la carta d’identità elettronica, quindi bisogna indicare il proprio codice fiscale, uno o più sistemi di pagamento elettronico che si utilizzeranno per i pagamenti, e l’Iban del conto corrente su cui verrà accreditato il cashback ogni sei mesi.

L’app IO
L’app IO non è solamente utilizzabile per il cashback ma è un progetto del Governo Italiano, già attivato lo scorso 18 aprile, che permette ai cittadini di poter accedere in modo semplice ai servizi della Pubblica Amministrazione, sia locale che nazionale, direttamente da smartphone.
Un cittadino può tramite IO, ad esempio, ricevere messaggi e comunicazioni riguardanti le proprie scadenze verso la PA come carta d’identità, permesso ZTL, ricevere avvisi di pagamento con la possibilità di pagare tasse come il bollo auto o la TARI direttamente dall’app, mentre in futuro sarà anche possibile ottenere certificati, documenti personali digitali e molto altro.
Dall’8 dicembre, dicevamo, è possibile utilizzare IO anche per registrare i pagamenti associati al cashback di stato. Ad oggi (metà dicembre 2020) i cittadini che hanno scaricato l’app sono più di 8 milioni con un incremento significativo a partire dall’inizio del mese a pochi giorni prima dell’avvio sperimentale del Cashback di stato (un milione in più solamente tra il 7 e l’8 dicembre).
Per utilizzare l’app IO bisogna prima di tutto scaricarla dallo store del nostro dispositivo (Android o I/OS); una volta scaricata ed installata l’app ci chiede la registrazione, che  avviene tramite SPID oppure via carta d’identità elettronica. E qua iniziano i primi problemi in quanto non tutti i cittadini italiani hanno un SPID o una carta digitale e quindi bisogna munirsi di uno di questi due strumenti.  Il sito spid.gov.it mette a disposizione una lista di diversi “gestori d’identità” abilitati alla generazione dello SPID gratuitamente, ma il processo non risulta mai comodo o semplice.
Poste italiane, ad esempio, permette di avere un SPID gratuitamente recandosi presso uno degli sportelli di Poste Italiane o a pagamento se un incaricato si reca a casa. Anche altri gestori premettono il riconoscimento di persona, ma giustamente, bisogna recarsi presso i loro uffici. Ci sono anche metodi di riconoscimento da remoto, tramite webcam, carta d’identità elettronica o passaporto elettronico ma non tutti i fornitori del servizio lo mettono a disposizione gratuitamente.
Una volta registrata l’app IO, tramite SPID o CIE, l’utente deve indicare un pin ed eventualmente registrare la propria impronta digitale, dopo la prima registrazione, per accedere ogni volta basterà inserire il pin e non sarà più necessario utilizzare l’SPID.

E la privacy?
Appena uscita l’app IO ha subito manifestato dei problemi dato il grande numero di query effettuate che i server non erano in grado di gestire (tanto che nuovamente Pornhub aveva offerto l’utilizzo dei propri server), e l’ hashtag #IOapp è stato uno dei più utilizzati per visualizzare le lamentele degli utenti.
Accanto a questo hashtag però un altro compare nelle ricerche: #IOappPrivacy.
Ad onor del vero l’informativa sulla privacy andrebbe sempre letta quando scarichiamo ed installiamo un’app o un programma e a maggior ragione andrebbe letta quando riguarda dati estremamente sensibili come nel caso dell’app IO.
Ma quali dati sono interessati da questa app?
Abbiamo detto che per utilizzare il servizio cashback bisogna comunicare all’app IO il proprio codice fiscale e il proprio IBAN, mentre gli altri dati che l’app raccoglie sono gli estremi della carta, i dati identificativi del titolare della carta stessa, gli Importi degli acquisti e la loro geolocalizzazione nonché la cronologia di questi ultimi.
Certo, viene da obbiettare che la maggior parte di questi dati sono già in possesso dell’azienda che eroga i servizi, qual è quindi la differenza ?
Mentre nel caso di utilizzo di una o più carte su di un sito o presso un negozio ogni dato rimane a disposizione solamente del gestore della carta e del gestore del sito, nel caso di IO la questione è più complessa perché se registriamo e abilitiamo al cashback più carte tutti i dati delle transazioni tramite tali carte vanno a finire dentro un unico grande gestore che ha accesso a tutti i dati e può anche incrociarli.
Il fatto che l’acquisto con metodo di pagamento elettronico sia incentivato dal cashback, poi, stimola l’utente a fare più transazioni con le carte e le app e, quindi, a concedere più dati di quanti non ne concederebbe normalmente. Ai dati delle carte si aggiunge poi il codice IBAN sul quale versare il cashback, che può anche essere diverso dall’eventuale IBAN della carta di pagamento. Insomma il paradiso dei Big Data!
L’app IO è gestita dal MEF (Ministero dell’Economia e delle Finanze ) che è titolare del trattamento dei dati personali, mentre le due società controllate pubbliche PagoPA S.p.A. e Consap S.p.A. sono responsabili del trattamento dei dati personali in rispetto del GDPR. PagoPA e Consap sono autorizzate a nominare eventuali sub-responsabili, in caso, quindi alcune operazioni sui dati vengano subappaltate.
In particolare PagoPa organizza e gestisce tutto il funzionamento del meccanismo del cashback, mentre Consap gestisce gli eventuali reclami tramite una piattaforma web appositamente creata.
Quello che fa riflettere è un paragrafo della privacy policy di IO per il cashback che specifica che alcuni dati potrebbero essere inviati a dei paesi extra-UE: “Per la gestione dell’App IO, utilizzata per il servizio Cashback e gestita da PagoPA S.p.A., la predetta Società si avvale, limitatamente allo svolgimento di alcune attività, di fornitori terzi che risiedono in paesi extra-UE (USA). Per lo svolgimento di alcune attività connesse alla gestione dei reclami attraverso il Portale dedicato, Consap S.p.A. si avvale di fornitori terzi che hanno la propria sede in Paesi extra-UE (USA) “.  Stando a quanto afferma PagoPA uno dei soggetti terzi è l’azienda americana Oracle sui cui server sono ospitati i dati dei reclami (indirizzo di posta elettronica e password, codice fiscale, nome e cognome, dati dei documenti di identità allegati, dati relativi al reclamo stesso). Insomma sembra che questa clausola esista solo per permettere l’utilizzo di server di aziende extra UE che comunque sono localizzati fisicamente in Europa e la cui trasmissione dei dati avviene in maniera crittografata, quindi sicura.
Per finire va sottolineato che la privacy policy dell’app chiarisce che è vietato, oltre alla vendita dei dati, ogni utilizzo per scopi di profilazione,  il che vuol dire che non arriverà nessuna pubblicità mirata legata ai dati che raccoglie l’app IO e che ogni utente può uscire in ogni momento dal piano cashback, richiedendo la cancellazione dei propri dati.
Tutto risolto quindi? Non proprio. L’invio di dati negli Stati Uniti è ormai ritenuto non sicuro da parte dell’Unione Europea dato che il governo USA ha potere di accesso ai dati degli europei e, a quanto sembra, questo viene fatto regolarmente.
E questo non è complottismo visto che la Corte di giustizia dell'Unione europea (CGUE) si è pronunciata il 16 luglio 2020 (c.d. "Sentenza Schrems II") in merito al regime di trasferimento dei dati tra l'Unione europea e gli Stati Uniti facendo notare proprio questo e sottolineandolo nelle FAQ :” La Corte ha ritenuto che i requisiti del diritto interno degli Stati Uniti, e in particolare determinati programmi che consentono alle autorità pubbliche degli Stati Uniti di accedere ai dati personali trasferiti dall'UE agli Stati Uniti ai fini della sicurezza nazionale, comportino limitazioni alla protezione dei dati personali che non sono configurate in modo da soddisfare requisiti sostanzialmente equivalenti a quelli previsti dal diritto dell'UE”.
Non è questa la sede per giudicare le iniziative del governo a riguardo dell’utilizzo dei pagamenti elettronici per contrastare l’evasione fiscale, ne valutare se utilizzare la carta per pagare ad esempio un caffè (visto che il conteggio per il rimborso inizia da spese che partono da 1 euro) sia eticamente accettabile, ma quello che rileviamo è che nuovamente le iniziative messe in campo dal Governo per digitalizzare le attività si sono rivelate alquanto deficitarie soprattutto per le carenze delle infrastrutture di rete, assolutamente non in grado di reggere ampi e sostenuti volumi di traffico on line.
Un altro dato che è da notare riguarda la differenza di download rispetto all’app Immuni che è stata boicottata da molti utenti preoccupati per la privacy che si presumeva venisse violata, mentre per l’app IO per il cashback, questi stessi utenti non hanno avuto gli stessi dubbi, come se il desiderio di attaccarsi alle mammelle della sovvenzione statale li rendesse liberi da ogni turbamento e dubbio morale.
Svetonio ne “Le vite dei cesari” ci riferisce che l’imperatore Vespasiano rispose al figlio Tito che lo rimproverava per una tassa sugli orinatoi con la frase “non olet” (non puzza – la tassa-).
Da allora la frase viene spesso citata per indicare che non bisogna essere troppo schizzinosi riguardo la provenienza dei soldi e così, ripensando a questa frase, chiudiamo queste riflessioni pensando a tutti quei cavalieri “duri e puri” che si battevano contro Immuni per tutelare la privacy e si sono arresti miseramente a IO.


Bibbliografia:

https://io.italia.it/cashback/privacy-policy/
(ultima consultazione dicembre 2020)

https://io.italia.it/dashboard/
(ultima consultazione dicembre 2020)

https://www.garanteprivacy.it/home/docweb/-/docweb-display/docweb/9442415
(ultima consultazione dicembre 2020)

https://www.spid.gov.it/richiedi-spid
(ultima consultazione dicembre 2020)

Quando L’irreale Diventa Reale
Quando L’irreale Diventa Reale

Ci risiamo!
Già a luglio 2020 iniziava  a girare sui social network la notizia di un “fantomatico” Jonathan Galindo che convinceva i bambini ad accettare sfide sempre più pericolose fino a portarli al suicidio. Una cosa simile l’avevamo già vista nel 2017 quando un servizio del programma TV “Le Iene” aveva parlato di una sfida nata in Russia tra i giovani che arrivava fino a spingerli al suicidio e che  prendeva il nome di Blue Whale. Dopo che i video presentati furono smascherati come falsi e per nulla attinenti al fenomeno  venne fuori che tutta la storia non esisteva e che si trattava di una creepypasta1 ma, purtroppo, la stampa aveva cavalcato l’onda e ancora oggi esistono persone che credono che il Blue Whale Challenge fosse vera, anche perché con il diffondersi della notizia iniziarono molti fenomeni di emulazione.

Il personaggio di Jonathan Galindo non è una novità di questi ultimi mesi ma nasce, anche lui, nel 2017 quando per la prima volta la versione messicana della piattaforma di notizie social (o giornalismo sociale come viene definito dai suoi creatori) Blasting News riporta la presenza in rete di svariati profili con l’immagine di un uomo con una strana maschera che ricorda vagamente il Pippo della Disney ma con un atteggiamento minaccioso ed inquietante che risponde al nome di Jonathan Galindo. Secondo quanto riportato dalla testata questo personaggio si divertiva a fare filmati porno vestito in modo stravagante sempre indossando la sua strana maschera per poi diffonderli nel web.
Chiunque conosce il sito Blasting News sa quanto poco siano affidabili le notizie diffuse, dato che gli articoli vengono scritti dagli stessi lettori e pubblicati senza nessuna verifica dei fatti, anzi, più un articolo o un autore è seguito più viene riconosciuto dalla testata.
La figura che viene associata a Galindo, in realtà, è stata creata da un video maker americano che utilizza lo pseudonimo di Sammy Catnipnik nel 2012 e che, nel suo profilo twitter, spiega le origini del personaggio: ”…Le foto e i video sono miei, del 2012-2013. Erano per il mio bizzarro piacere personale, non per qualche cacciatore di brivido dei giorni nostri che cerca di spaventare e bullizzare la gente…”. In effetti la maschera creata da Carnipnik fu utilizzata per creare alcuni video porno online ma tutto finisce qui … O almeno così si sperava.
Un influencer, sempre messicano, che risponde al nome di Carlos Name, nel giugno del 2020, racconta di una figura che ricorda il famoso Pippo della Disney (Jonathan Galindo) che si aggirava fuori dalla casa, di aver sentito strani rumori e che, in fine, l’uomo mascherato avrebbe fatto irruzione in casa sua aggredendolo. Name che conta circa 1.700.000 followers su Instagram è famoso per trattare argomenti paranormali come ufo, fantasmi e chi più ne ha più ne metta come se fossero veri, vantandosi anche di improbabili incontri con queste fantastiche figure. Dopo questo rilancio (che chiaramente è una bufala) la figura di Jonathan Galindo ha iniziato a diffondersi e iniziano a nascere profili sui social con persone che vogliono emularlo oppure semplicemente spaventare gli amici e, purtroppo, anche qualche atto di stalking o aggressione reale dove l’aggressore era mascherato da Galindo.  Dal sud America il tam tam mediatico si sposta prima in India per arrivare infine in Europa.

In Italia, a lanciare la notizia del pericolo di questa nuova sfida tra gli adolescenti è il giornale “Il Resto del Carlino” nel luglio 2020 con una serie di articoli dai titoli evocativi quali “Jonathan Galindo, la folle sfida. Un gioco all’autolesionismo” oppure ”Jonathan Galindo, il folle 'gioco'. Nuove denunce e genitori in allarme”. Negli articoli si fa riferimento ad allarmi lanciati da alcuni genitori e da alcuni ragazzi, nonché di denunce fatte da questi alle forze dell’ordine e ricordando che in Spagna gli eventi legati a Galindo sono stati molto numerosi. L’articolo finisce segnalando che “Ora purtroppo Galindo è arrivato anche in Italia “ e che non si registrano ancora fenomeni di lesionismo tra i ragazzi ma che la guardia è alta.  
La polizia postale (che si occupa di reati collegati al web), dal canto suo, il 9 luglio aveva si aperto una segnalazione di allerta sulla sua pagina web e sul suo profilo Facebook per poi ritirarla qualche giorno dopo a seguito delle indagini che non avevano rilevato fenomeni di autolesionismo tra i giovani in Italia.
Purtroppo adesso i media hanno iniziato a cavalcare l’onda Galindo e il tragico suicidio dell’undicenne a Napoli pochi giorni fa ha portato moltissime testate e telegiornali ad associare la lettera lasciata dal bambino a un possibile Jonathan Galindo, sebbene non vi siano prove di questo.

I toni sensazionalistici utilizzati dai vari media e le fake news rilanciate da siti e profili social di influencer ai quali importa solamente avere visibilità portano a travisare il vero pericolo: non bisogna avvisare i ragazzi di non accettare l’amicizia da Jonathan Galindo, ma bensì da chiunque non si conosca, proprio come una volta si insegnava a non dare confidenza agli sconosciuti e ricordando ai bambini e agli adolescenti di evitare di condividere informazioni personali online.
Continuando a rilanciare l’esistenza di un personaggio come Galindo i media rischiano di portare anche in Italia alla nascita di fenomeni di emulazione, proprio come è accaduto a suo tempo con il Blue Whale Challenge che, pur non essendo una cosa reale si è trasformata in qualcosa di pericolosamente reale,  mentre challenge che sono reali e pericolose come la “Fire Challenge”, la “Kiki Challenge” o il ”Knockout game”, che in Italia nel 2014 ha anche fatto una vittima, vengono trascurate.
Purtroppo sempre più i giornalisti stanno diventando simili a influencer che cercano la visibilità anziché la verità così, a breve, il personaggio di Jhonathan Galindo assurgerà al panteon dei mostri dell’immaginario collettivo insieme a Slenderman, SCP-173, Jeff the Killer ed altri.
Una volta i mostri li creava il cinema, così personaggi come Jason di “Venerdì 13”, Freddy Krueger di “Nightmare‎”, Pinhead di “Hellraiser” o Leatherface di “Non aprite quella porta” spaventavano intere generazioni ma rimanevano confinati nel reame dell’immaginario e dell’irreale, mentre adesso i mostri creati dal Web hanno da fastidiosa abitudine ad emergere nel mondo reale e diventare veri grazie alla massificazione che porta inevitabilmente all’emulazione.

 

1Una Creepypasta è un racconto breve e originale che nasce per terrorizzare e provocare shock nel lettore ispirati solitamente ai racconti di internet o leggende metropolitane, diffusi nei forum tramite il copy&paste (copia ed incolla).

Immuniflop
Immuniflop

Forse troppo tardi il ministero della salute ha iniziato una campagna di marketing “aggressiva” per incentivare gli italiani non solo a scaricare, ma soprattutto ad utilizzare l’app Immuni.
Questa applicazione nasce in un momento nel quale l’Italia era in fase di uscita dall’emergenza Covid-19, sebbene fosse stata pensata in piena crisi, ed ha sofferto sicuramente di una campagna di marketing sbagliata e di una disinformazione che ha invece approfittato della paura delle persone sul rispetto della propria privacy per trasformare una crisi in campagna politica.

Inizialmente, quando si è parlato di creare un app per il tracciamento dei contagi, l’idea che ne ha avuto l’uomo della strata è stata quella del software sviluppato in sud Corea “Corona 100m”, che traccia tutti gli spostamenti di un individuo  e che non garantisce un livello di privacy adeguato agli standard europei.
Certo l’app Coreana ha dimostrato la sua efficacia nel prevenire la nascita di nuovi focolai, ma il prezzo da pagare è stato alto e nei paesi occidentali una simile soluzione risulta impensabile.
In Italia, da subito, le polemiche si sono focalizzate non tanto sul’utilità di una app ma su come questa avrebbe potuto garantire il rispetto della privacy degli utilizzatori  (sebbene questi stessi utenti, spesso e volentieri,  non si fanno alcuno scrupolo a pubblicare ogni sorta di dato personale sui social) e, in un mondo dove il complottismo è sempre più incalzante la promozione di un simile software e la rassicurazione, era la prima cosa da fare. Invece, fin dalla sua nascita, la comunicazione sull’app Immuni è stata sempre confusa e poco chiara partendo dalla gara di appalto per arrivare alle tecnologie utilizzate: l’azienda Bending Spoons che ha vinto l’appalto per la creazione dell’app fa infatti parte del consorzio europeo PEPP-PT.

 Il Pan-European Privacy-Preserving Proximity Tracing  è un progetto no profit che nasce con l’intenzione di assistere le varie nazioni che intendono sviluppare software per il tracciamento ed il contenimento di infezioni (non  solo il Covid-19) e fornire degli strumenti che consentono il tracciamento dei contagiati ed utilizzare dei metodi standard per l’interoperabilità dei dati, non solo all’interno dello stato che ne sviluppa il software ma, eventualmente, anche con altri stati, il tutto cercando di mantenere al massimo la privacy dell’utilizzatore. Il fatto che oltre a Bending Spoons anche altre grandi società multinazionali (come ad esempio vodafone) siano partner del consorzio e che il modello proposto sia, pur mantenendo la privacy,  centralizzato aveva dato adito a molti dubbi sull’effettiva sicurezza dei dati trattati.
Ad aprile Bending Spoons decide di abbandonare il progetto PEPP-PT per lo sviluppo dell’app Immuni a favore del modello decentralizzato proposto da Google ed Apple e questo cambiamento di rotta, contestualmente al fatto che non ci si appoggia più ad una idea no-profit  ma ad un progetto di due colossi privati della new economy ha fatto aumentare le voci  in rete sulla sicurezza dei dati trattati ed il loro anonimanto, sebbene l’idea di Google e Apple si basa su di un modello decentralizzato e più rispettoso della privacy, dove la corrispondenza tra i contatti si svolge sui telefoni dei singoli utilizzatori,  anziché su di un server centrale.
Il 15 giugno 2020, dopo un periodo di sperimentazione in diverse regioni e uno strascico di polemiche, l’app Immuni viene immessa negli app store di Google e Apple con la speranza che almeno il 60% della popolazione italiana la scarichi e la utilizzi affinché sia funzionale al suo scopo. Purtroppo a quasi tre mesi dalla sua uscita solamente uno smartphone su sette, ovvero circa il 14% della popolazione italiana, ha scaricato l’app. Dati decisamente poco incoraggianti e che rischiano di trasformare l’idea in un flop.

Ma perché così poche persone hanno deciso ti utilizzare Immuni?
Sicuramente, come abbiamo detto, la poca informazione ed alcuni errori fatti in buona fede sulla spiegazione del funzionamento dell’App sono stati tra i responsabili di questo flop.
Immuni utilizza per il tracciamento dei contatti avuti la tecnologia Bluetooth Low Energy che, a differenza del bluetooth classico, è progettato per fornire un consumo energetico notevolmente inferiore. Questa tecnologia consente alle app che lo utilizzano di comunicare con dispositivi bluetooth low energy che hanno requisiti di alimentazione più rigidi quali smartwhatch, sensori biometrici, dispositivi per il fitness, eccetera.

Attraverso il bluetooth Immuni rileva il contatto tra due telefoni se avviene a meno di un metro e per un periodo superiore a 15 minuti (le specifiche della distanza e del tempo sono state fornite allo sviluppatore dell’app dal ministero della salute). Ogni telefono che ha installato l’app genera una stringa alfanumerica anonima, una sorta di ID, che viene scambiata con gli altri telefoni se si supera la distanza ed il tempo predefinito. Nel momento in cui una persona si ammala invia il codice al server centrale che smista la lista con le stringhe dell’ identificativi contagiati a tutti i telefoni della rete. A questo punto i singoli smartphone, tramite l’app Immuni hanno il compito di calcolare, per ogni identificativo, il rischio di esposizione all'infezione sulla base di parametri come la vicinanza fisica e il tempo,  generando una lista degli utenti più a rischio.
Niente geolocalizzazione quindi (come invece accade per l’app Sud Coreana) e nessun pericolo di trasmettere dati sensibili o che permettano di risalire ad un singolo utente, dato che il server centrale non è mai a conoscenza degli incontri intercorsi tra gli utenti, ne di chi essi siano.
Per rassicurare gli utenti, inoltre, Bending Spoons ha deciso di pubblicare sulla piattaforma GitHub i codici sorgenti dell’app sia per quanto riguarda il tracciamento dei contatti che l’elaborazione, in modo da rendere tutto il più trasparente possibile.

Purtroppo, come spesso succede, i progetti che sulla carta sembrano perfetti si devono scontrare con la realtà: se è vero che l’app Immuni non utilizza il GPS del telefono per tracciare gli spostamenti dell’utente sulla piattaforma Android, dalla versione 6 (che è quella minima richiesta), per poter per accedere agli identificatori hardware dei dispositivi esterni nelle vicinanze tramite scansioni Bluetooth o scansioni Wi-Fi, le app devono disporre delle autorizzazioni ACCESS_FINE_LOCATION o ACCESS_COARSE_LOCATION e quindi attivare il sistema di posizionamento globale. 
La notizia diffusa dai giornali presso l’utente comune (gli sviluppatori software ne erano già al corrente) di questa necessità da parte del sistema Android ha portato molti utenti a dubitare sulla reale protezione della privacy da parte di Immuni.

La nuova campagna di marketing lanciata dal ministero della salute e che utilizza i classici canali televisivi e volti noti dello show business, ha lo scopo di convincere il maggior numero di italiani a scaricare e utilizzare immuni visto che, ad oggi, sebbene Immuni non sia stata scaricata da un numero sufficiente di utenti dal 13 luglio sono state inviate 809 notifiche agli utenti che hanno la utilizzano e bloccando almeno quattro potenziali focolai.
Purtroppo questo tipo di marketing potrebbe non essere sufficiente: noi italiani siamo un popolo complicato e, come con le mascherine, fino a quando non sono state rese obbligatorie,  molti si sono sempre rifiutati di utilizzarle.  Purtroppo per l’app non è così facile e obbligare gli utenti a scaricarla, anzi aumenterebbe i malcontenti in quella parte della popolazione che viene definita “complottista”.
L’approccio migliore sarebbe creare una situazione simile a quella che negli anni si è sviluppata con i social network come Instagram o Facebook: “…non li uso, ma tutti i miei amici li usano, così mi vedo costretto ad utilizzarli anch’io per non essere digitalmente escluso dal gruppo.”. Ecco che a quel punto tutti i dubbi sulla privacy andrebbero a sparire visto che la maggior parte di chi critica Immuni non ha alcuna remora a pubblicare sui social network dati anche sensibili.
Certo la privacy al 100% non è e non sarà mai garantita, se si legge la guida per sviluppatori google nella sezione bluetooth-le si legge: “Caution: When a user pairs their device with another device using BLE, the data that's communicated between the two devices is accessible to all apps on the user's device”; così accade che come per il GPS anche per i dati trasmessi tra dispositivi è vero che l’app  non va a utilizzare i dati del sensore ma altre app potrebbero e, se disabilito il bluetooth o il GPS, Immuni diventa inutile.
Bisogna quindi decidere se rinunciare ad un pizzico di privacy e paure per essere più protetti o tenersi la privacy ma avere un maggior rischio di ammalarsi.


Bibliografia:


https://developer.android.com/guide/topics/connectivity/bluetooth-le
(Ultima consultazione settembre 2020)

https://developer.android.com/about/versions/marshmallow/android-6.0-changes.html#behavior-hardware-id
(Ultima consultazione settembre 2020)

https://www.immuni.italia.it/
(Ultima consultazione settembre 2020)

http://www.salute.gov.it/
(Ultima consultazione settembre 2020)
L’opportunità Dei Big Data
L’opportunità Dei Big Data

Nel 1997 esce il secondo libro della "Trilogia del Ponte" di William Gibson, Aidoru, dove è presente il personaggio di Colin Laney, un netrunner che ha la capacità di individuare i punti nodali in un insieme di dati casuali di informazioni. Apparentemente controcorrente in un momento nel quale i media davano internet per finito (nel 1997 avevano chiuso quasi 5 milioni di siti web) il libro di Gibson anticipava il futuro e, soprattutto, anticipava il concetto di Big Data e del poter estrapolare dati ordinati da un insieme di questi che appare caotico.

Cosa si intende per Big Data.
Ad oggi, ogni sessanta secondi, vengono generati più di 350.000 tweet, su facebook vengono caricate circa 243.000 immagini e 70.000 ore di video, su google sono fatte quasi 4 milioni di ricerche e 500 mila sono le app scaricate dai vari store. Tutto questo insieme di dati non va mai perso ma viene immagazzinato dai fornitori di servizi per essere analizzato e utilizzato; la combinazione del volume di dati e della velocità con la quale è generato prende il nome di Big Data.
Ma parlare di big data solo per trattare dei dati internet generati dagli utenti è limitativo, anche i navigatori satellitari generano dati che vengono inviati ad aziende private che li elaborano, i sensori delle automobili o delle case sempre più smart generano dati che vengono inviati ed analizzati dalle aziende. Abbiamo quindi, oltre che una grande quantità di dati inviati a grande velocità anche una grande varietà di essi che sono apparentemente disomogenei.
Non bisogna quindi confondere il concetto di Big Data con quello di database. Se un database tradizionale, infatti, può gestire tabelle magari composte di milioni di righe, ma al massimo su poche centinaia di colonne, quando parliamo di Big Data ci riferiamo a strumenti in grado di gestire lo stesso numero di record, ma con migliaia di colonne, dove i dati non sono strutturati in maniera omogenea come ad esempio meta dati, posizioni geografiche, valori rilevati da sensori e quasi sempre destrutturate.
Possiamo dire quindi che la definizione di Big Data è composta da tre "V": Volume di dati, Velocità con la quale sono generati e Varietà, di informazioni che apparentemente non vogliono dire nulla e che, soprattutto per la loro disomogeneità non sembrano avere correlazioni logiche nel modo di pensare classico ma la somma di queste tre V, come risultato, dà un'altra V: il Valore che è considerato l'aspetto più importante dei big data e che si riferisce al processo di individuazione di un elevato valore nascosto all'interno di un gran numero di dati (chiamato peso). Nell'analisi di questo tipo di dati è quindi fondamentale valutarne la veridicità e la qualità affinché possano effettivamente generare valore.

Quale utilizzo viene fatto dei dati?
Iniziamo subito a dire che questa grande quantità di informazioni in così poco tempo (parliamo solitamente di almeno un petabyte per arrivare a diversi yottabyte di dati) viene analizzata ed utilizzata in maniera differente a seconda dell'azienda o ente che se ne occupa. Tutti noi sappiamo l'uso che ne viene fatto nell'ambito del marketing da aziende quali Amazon o Google per il così detto "metodo della raccomandazione" per fare proposte di acquisto sulla base degli interessi di un cliente rispetto a quelli di milioni di altri: tutti i dati di un cliente, navigazione, ricerche, acquisti, eccetera, vengono analizzati e messi in relazione con quelli di milioni di altri utenti per cercare un modello di comportamento comune e suggerire un acquisto che solletichi l'interesse di chi sta navigando nel sito. Ma gli algoritmi non si limitano solo a questo: in base alle ricerche riescono a scoprire se, ad esempio, la persona che sta navigando in quel momento sia uomo o donna, se ha figli, animali domestici, nel caso, ad esempio, di una donna se è incinta e suggerirle, in questo caso, anche possibili acquisti per il futuro e/o coupon; il tutto apparentemente in maniera casuale. Anche le agenzie di carte di credito possono sfruttare le informazioni sugli acquisti che vengono fatti online per predire se un acquirente sia affidabile o meno: secondo alcune analisi, ad esempio, le persone che comprano i feltrini per i mobili rappresentano i clienti migliori per gli istituti di credito, perché più attenti e propensi a colmare i propri debiti nei tempi giusti. Quindi da un punto di vista del marketing puro l'analisi interpretativa dei dati è quella metodologia che dà valore ai big data tramite la quale le aziende possono trovare benefici come aumento delle vendite, miglior soddisfazione del cliente, maggiore efficienza, eccetera.
L'ambito di utilizzo dei Big Data, per fortuna, non si limita solamente al settore commerciale, ma può espandersi in una grandissima varietà di campi.
Un primo esempio che possiamo considerare è Ireact, il risultato di un progetto europeo triennale che ha sviluppato la prima piattaforma europea per integrare i dati di gestione delle emergenze provenienti da più fonti, tra cui quelli forniti dai cittadini attraverso i social media e il crowdsourcing1 .
Il sistema, come abbiamo detto, processa diverse fonti di informazioni come le immagini satellitari, le foto pubblicate dagli utenti sui social media, lo storico degli eventi accaduti in un determinato territorio, dati rilevati dai sensori dell'Internet of things, per poter aiutare a decidere quale strategia attuare in caso di calamità o di un evento catastrofico su un territorio e guidare in tempo reale le persone che prestano soccorso, creando nuove mappe mentre la situazione cambia, indicare quale azione operare in un determinato contesto, eccetera.
Nell'ambito della lotta alla criminalità l'utilizzo dei Big Data trova la sua attuazione nel programma Sirio al quale partecipano UNICRI, la Direzione Nazionale Antimafia ed il CERN e del quale l'Italia rappresenta uno dei principali partner per quanto riguarda l'elaborazione e la fornitura dei dati. Su Sidna, la piattaforma digitale del D.N.A., infatti, vengono memorizzati tutti i procedimenti antimafia e antiterrorismo italiani formando un database che contiene oltre due milioni di nominativi. Per fare un esempio Europol ne contiene solo 90.000 e Interpol 250.000. Ma a fare la differenza non è solo la quantità di dati presenti ma anche la qualità in quanto tutte le informazioni inserite provengono dalle direzioni distrettuali antimafia e quindi hanno un altissimo livello di attendibilità; le ultime 180 operazioni contro la criminalità organizzata nel nostro paese (dati relativi a marzo 2020) hanno avuto origine dall'analisi e l'incrocio dei Big Data. Alla base del processo che permette di trovare delle correlazioni tra i dati presenti in questo database vi sono gli strumenti di visual analytics ideati dal professor Daniel Kime dell'Università di Costanza; questi procedimenti combinano le informazioni semantiche specifiche del dominio di appartenenza con concetti astratti dei dati estratti e di visualizzarne i risultati sotto forma di reti. In questo modo possono emergere relazioni tra un mafioso ed un prestanome oppure tra un criminale ed il tipo di bene confiscato. Lo strumento che permette tutto questo si chiama Colaboration Spotting e, inizialmente, era nato per scopi scientifici mentre il suo uso, in questo campo, è quello di permettere alla Direzione Nazionale Antimafia di prevedere le future strategie criminali attraverso lo studio dei modelli organizzativi dei loro protagonisti.

Dagli algoritmi al deep learning
Nell'ambito scientifico l'utilizzo dei big data sta creando delle nuove opportunità ed anche degli scontri.
Secondo il fisico Chris Anderson la grande quantità di dati, combinata adeguatamente ad appropriate tecniche statistico-matematiche sarebbe in grado di soppiantare ogni altro strumento analitico, rendendo il metodo scientifico obsoleto. Anderson sostiene che nell'era del petabyte la correlazione possa sostituire la causalità e quindi dare la possibilità alla scienza di proseguire senza bisogno di modelli coerenti, teorie unificate o altre spiegazioni meccanicistiche: in pratica le congetture e le confutazioni saranno sostituite da "risposte" che emergeranno da sole dall'insieme di dati.
Se questo si realizzasse avremmo una nuova metodologia di ricerca che andrebbe ad aggiungersi a quelle già esistenti: il metodo sperimentale in vigore dai tempi di Galileo, il metodo matematico che ha permesso di analizzare la fisica quantistica e relativistica ed il metodo computazionale, che fa largo uso di simulazioni numeriche.
Affinché questa nuova metodologia possa svilupparsi i ricercatori fanno largo uso dell'apprendimento automatico, un metodo che utilizziamo normalmente tutti i giorni senza saperlo: gli assistenti vocali di Google, Amazon ed Apple, che hanno raggiunto livelli quasi umani di accuratezza, non fanno più uso di regole impartite da un programmatore, ma costruiscono in autonomia un modello del sistema che devono emulare attraverso l'analisi statistica di un ampio insieme di dati.
Anche se non utilizziamo gli assistenti vocali avremmo sicuramente utilizzato un chatbot che non è altro che un algoritmo capace di interloquire con una persona in modo sensato senza conoscere il significato delle parole o non capendo il significato del discorso ma solamente utilizzando milioni di conversazioni come esempi.
Gli algoritmi di deep learning, che si stanno facendo sempre più sofisticati, fanno viaggiare le informazioni verso una rete composta da milioni di nodi. Ogni nodo si accende in base a dei segnali che riceve dai vicini ed i segnali sono analizzati in base al "peso" (importanza) che hanno nella connessione dove viaggiano: una connessione con peso maggiore ha una probabilità maggiore di far cambiare lo stato del nodo dove arriva. Una volta identificati milioni di numeri viene creato un modello del problema (ad esempio in medicina permette di identificare un tumore in un insieme di pixel) e un programma è in grado di risolverlo, pur non sapendo nulla dell'ambito di sviluppo del problema (come i chatbot), il tutto tramite il deep learning e l'analisi dei Big Data.
Non tutti sono però d'accordo con queste idee. Il fisico Poincaré diceva "La scienza è fatta di dati come una casa è fatta di pietre. Ma un ammasso di dati non è scienza più di quanto un mucchio di pietre sia una casa". I dati, infatti, sono sì in grado di trasmettere contenuti ma i risultati possono essere influenzati dalla lettura che se ne dà e da come vengono correlati tra di loro. I modelli di apprendimento, ad oggi, indipendentemente dalla loro complessità, sono in grado di interpolazioni efficaci tra i dati analizzati ma l'estrapolazione di questi ultimi non supererà mai il loro livello di addestramento; secondo il matematico Edward R. Dougherty questi algoritmi non sono in grado di spiegare le correlazioni che trovano e distinguere tra falsi positivi e non, come la famosa ricerca che correlava i divorzi nel Maine ed il consumo di margarina tra il 2000 ed il 2009. Come esempio delle sue teorie Dougherty porta sempre la teoria generale della relatività, la quale non sarebbe mai potuta essere prodotta dall'estrapolazione dei Big Data solamente.

Quale presente e quale futuro?
Il nostro futuro passa anche dai big data e probabilmente i detrattori hanno in mente solamente l'utilizzo che ne viene fatto da parte delle grandi agenzie che lo utilizzano per il marketing, mentre pochi pensano che stanno nascendo delle nuove figure professionali specializzate nel settore come i Data Scientist, il Data Engineer o il Data Analyst e si prevede un mercato di 5 milioni di posti di lavoro in crescita.
Da un punto di vista puramente scientifico la possibilità di elaborare sempre più dati e sempre più velocemente creando associazioni porterà a "intelligenze artificiali" sempre più sofisticate che troveranno la loro collocazione nella vita di tutti i giorni. Pensiamo ad esempio alla difficoltà di un'auto a guida autonoma che deve decidere se un pupazzo di neve possa o meno attraversare la strada: la possibilità di comparare migliaia di informazioni che provengono dai sensori delle altre auto, compararli con migliaia di immagini presenti in rete e decidere che il pupazzo di neve non può attraversare la strada perché non è un uomo sarà possibile grazie ai Big Data.
Nel 2008 un progetto di Google permise di prevedere l'avanzamento dei focolari di influenza negli USA solamente analizzando i gruppi di termini cercati sul suo motore di ricerca più velocemente di quanto poté fare il ministero della salute analizzando i dati di immissione ospedaliera. Pensiamo a come potrebbe essere stato utile un utilizzo appropriato dei dati nell'analizzare l'evoluzione del COVID-19 nel mondo.
Certo rimane il problema di quanta privacy perdiamo ma a pensarci stiamo già rinunciando alla nostra privacy ogni volta che postiamo una foto o condividiamo un pensiero, quindi meglio perderla per avere dei vantaggi che perderla solo per avere della pubblicità in più.

 


Bibliografia:

Prisma N.17, marzo 2020, "I Big Data, contro il crimine organizzato", pp.38-41

Prisma N.3, dicembre 2018, "Big Data, come costruire modelli teorici in automatico?", pp.32-37

I-React, http://project.i-react.eu/
(Ultima consultazione agosto 2020)

Youtube, 14 marzo 2018, conferenza "Elena Baralis, La nuova scienza dei dati: la sfida dei big data"
(Ultima consultazione agosto 2020)

Youtube, Novembre 2014, "Analyzing and modeling complex and big data, Professor Maria Fasli, TEDxUniversityofEssex"
(Ultima consultazione agosto 2020)


1 crowdsourcing è la richiesta di idee, suggerimenti, opinioni, rivolta agli utenti di Internet da un'azienda o da un privato in vista della realizzazione di un progetto o della soluzione di un problema.

Dal Bit A Qbit
Dal Bit A Qbit

All’inizio degli anni ’80 il premio Nobel per la fisica Richard Feynman si pone la domanda se fosse stato possibile, attraverso un computer classico, simulare la meccanica quantistica. La risposta che lo stesso Feynmann si dà è che no, attraverso un computer classico non è possibile simulare la meccanica quantistica.
Infatti, sebbene sia possibile attraverso i computer classici , elaborare calcoli di meccanica quantistica e quindi emularne il comportamento non è possibile ricreare in un computer classico un comportamento analogo a quello della meccanica quantistica.
Da qua la necessità di iniziare la ricerca per sviluppare un computer quantistico.
Certo, dire che in un computer classico non è possibile emulare il comportamento della meccanica quantistica, può lasciare spiazzati e la domanda che sorge spontanea è: ma se si può emularne il comportamento perché non è possibile anche simularlo?
Per capire questo bisogna avere delle idee basilari sulla meccanica quantistica, in particolare poche e per niente intuitive regole che sembrano uscite dal cappello di un mago.


Le regole basilari
Sebbene la Fisica quantistica sia alla base dei computer quantistici, come la fisica classica è alla base dei computer classici, non è necessario conoscerla per poter capirne il principio di funzionamento e la stessa matematica (solo quella che è alla base dei computer quantistici non della fisica quantistica) non è particolarmente impegnativa.
Diciamo subito che (per quanto contro intuitivo possa sembrare) dobbiamo considerare la possibilità che un sistema fisico nella meccanica quantistica può trovarsi contemporaneamente in tutti gli stati possibili (sovrapposizione coerente di stati). Per semplificare il concetto possiamo dire che se un elettrone può passare da due fenditure, una a destra e una a sinistra, passerà contemporaneamente per entrambe.
In realtà il concetto è molto astratto e riuscire a darne una rappresentazione mentale avulsa dalla matematica che ne sta alla base è veramente difficile.
L’altro concetto da sapere è chiamato entanglement e consiste nella possibilità che due particelle che hanno precedentemente interagito in qualche modo, se separate e messe a distanze elevate, possono ancora interagire nello stesso istante: se modifico la prima la seconda subirà la stessa modifica istantaneamente.
Com’è possibile tutto questo? Per capirlo bisogna sapere che esiste un confine tra la fisica classica e la fisica quantistica, e questo confine prende il nome di lunghezza di Planck: al di sotto di questa misura tutte le regole della fisica classica non funzionano più ma si utilizza la “funzione d’onda” che è l’incognita dell’equazione di Schrödinger e che rappresenta l’ampiezza di probabilità di trovare la particella in un preciso istante; bisogna però considerare che, sebbene l’evoluzione della funzione d’onda è determinata dall’equazione di Schrödinger, il suo risultato è deterministico.
Finiamo con un esempio per confondere ancora di più le idee: se io considero un sistema composto da un’auto che si muove lungo una strada diritta con un’accelerazione costante potrò sapere in qualunque istante dove si trova ed a quale velocità; in meccanica quantistica, se misuro una particella che si muove in una determinata direzione, non potrò sapere, contemporaneamente, la posizione ed il momento.
Se si capiscono questi concetti che possono sembrare contro intuitivi capire il principio di funzionamento di un computer quantistico diventa abbastanza semplice.


I Qbit
Alla base dei computer quantistici ci sono i Qbit, che come i classici bit possono avere valore 1 e 0.
Mentre nei computer classici il bit corrisponde alla presenza o assenza di un segnale, non è così per i qbit che possono essere rappresentati come un vettore a due dimensioni di modulo (lunghezza) pari a 1.
I Qbit hanno due valori di base |0> e |1>  (il simbolo | > è la notazione di Dirac ed indica uno stato quanto-meccanico); ogni valore può assumere lo stato di Ground:

Stato Ground Qbit


E lo stato eccitato

Stato Excited Qbit

Ma, come abbiamo visto precedentemente, può trovarsi anche in una situazione di sovrapposizione e quindi essere in entrambi gli stati, in questo caso viene rappresentato dalla funzione:


|ψ> =α|o>+β|1>

Con α e β che rappresentano la possibilità che il nostro Qbit si trovi in un determinato stato altri qbit standard in sovrapposizione sono quindi:

qbit standard in sovrapposizione

È importante sottolineare che |ψ> non rappresenta un’ulteriore stato come 0 e 1 altrimenti non sarebbe più un sistema binario ma ternario!
Dunque |ψ> alla fine è un vettore in uno spazio che però non è facilmente disegnabile o immaginare in quanto α e β sono numeri complessi. La rappresentazione più utilizzata è quella della sfera di Bloch che ci permette anche di fare chiarezza su quanto detto fino ad ora:

Sfera Bloch

 

Nella sfera di Bloch abbiamo rappresentato il nostro vettore |ψ> in un punto qualsiasi della sfera che ha un angolo φ con l’asse X e θ con l’asse Z e, visto che la sfera ha infiniti punti, può – teoricamente-  trovarsi in infinite posizioni
Per chi ha un po’ di dimestichezza con gli operatori logici classici possiamo immaginare che se un Qbit si trova nello stato |0> e applichiamo una rotazione lungo l’asse delle X cambia stato e diventa |1> e quindi questa operazione può essere considerata al pari di un NOT nella logica binaria classica.

Not Qbit

 

 

Differenza tra computer classico e quantistico
Nei computer classici, abbiamo detto nell’introduzione, si utilizzano i bit che hanno valore 0 oppure 1. Da solo un bit vuol dire poco ed è per questo che vengono raggruppati insieme per trasformarsi in operazioni e prendono il nome di registri all’interno della CPU di un computer.
Quando, ad esempio di parla di processori a 64 bit ci si riferisce alla dimensione dei registri della CPU. All’inizio i registri erano costituiti da 8bit (che è ancora l’unità di misura del Byte). La capacità di immagazzinare ed elaborare l’informazione è 2 (il numero di stati disponibili in un bit) elevato al valore del registro. Quindi se si parla di 8bit ci si riferisce al valore di 255, se si parla di 16bit 65535, e così via. Se volessimo fare due conti vediamo che con gli attuali computer a 64 bit parliamo di un valore intorno a 18.446.744.073.709.551.615!
Tutte le operazioni che un computer può eseguire sono solo 7 che si combinano tra di loro e sono quelle della logica booleana (OR, NOT, AND, NAND, XOR, NOR, XNOR); quando un computer classico deve fare un’operazione lavora in maniera “simile” al nostro cervello: quando noi facciamo, ad esempio la somma 19+12 calcoliamo prima 9+2 (la somma delle unità) e riportiamo 1, poi ripetiamo l’operazione e sommiamo 1+1 (le decine) ed il valore riportato dall’operazione precedente utilizzando sempre le operazioni.
I computer funzionano grosso modo allo stesso modo, ripetendo l’operazione N volte in base a quanti bit sono implicati nell’operazione stessa. Quindi avrò una serie di passaggi alla fine di ognuno dei quali avrò uno stato definito dei miei registri fino a quando i bit non saranno esauriti; nel caso della somma di due o più valori, ad esempio un computer utilizzerà le operazioni OR per fare la somma e AND per il riporto.
Anche i computer quantistici utilizzano dei registri e, anche loro le operazioni che possono fare non sono moltissime ma, a differenza dei loro predecessori, grazie alla sovrapposizione di stati, dopo ogni passaggio il Qbit si troverà in tutte le possibili combinazioni contemporaneamente. I registri che contengo i Qbit, invece non saranno mai in tutte le combinazioni possibili ma solamente a 2n possibili combinazioni dove N è il numero di Qbit che compone il registro; inoltre può capitare che si voglia utilizzare un Qbit come Qbit di controllo e quindi le combinazioni saranno 2n-1 in quanto 1 Qbit mi darà sempre lo stesso risultato.
Un’altra differenza appare nel momento in cui si va a misurare il valore del registro del Qbit: non avrò più il valore 1 o il valore 0, ma grazie sempre alla sovrapposizione avrò una certa probabilità che risulti uno dei due valori, e questa probabilità è legata ai coefficienti α e β dell’equazione vista precedentemente, in particolare il |α|2  avrà una certa probabilità di avere come risultato |0> e il |β|2 di essere |1> .
Un’altra di particolarità dei Qbit è dovuta all’ entanglement: se prendo 2 Qbit che faccio “interagire” insieme creando uno stato, appunto, di entanglement, quando li separo, se il primo mi restituirà |1> quando misurato, anche il secondo (indipendentemente da quanto sia distante dal primo e dal suo stato) mi restituirà|1>, mentre se misurato separatamente mi potrà restituire, tranquillamente un altro risultato.
Le porte logiche dei computer quantistici poi si occupano di “manipolare” lo stato di sovrapposizione quantistica del Qbit e restituisce in output uno stato diverso di sovrapposizione quantistica “alterandone” le probabilità. Quando si misurerà il risultato tutte le possibilità collasseranno in uno stato di 0 o 1, ovvero il risultato con la relativa probabilità.
Ecco perché i computer quantistici processano tutte le combinazioni possibili in un unico processo e perché risultano più veloci dei computer normali. Non importa se la mia è solo una probabilità, se questa probabilità esce 10.000 volte vuol dire che può tranquillamente essere considerato il risultato esatto e chi pensa che questo sia un modo “lento” di operare perché la stessa operazione deve essere ripetuta più volte deve considerare che la velocità di elaborazione di un computer quantistico della stessa operazione è molto maggiore di quello di un computer classico per la stessa operazione ripetuta una sola volta. Le uniche volte nelle quali le operazioni non sono ripetute, ovviamente, sono nel caso che la probabilità sia del 100% ovvero il risultato sia|1>.
Fino ad ora abbiamo parlato di probabilità ma è importante avere in mente il concetto che quando si parla di probabilità nei computer quantistici ci si riferisce ad un’ampiezza di probabilità esprimibile tramite la campana gaussiana e non dobbiamo confonderci con la casualità di un risultato.


A chi serve un computer quantistico?
Per far funzionare un computer si utilizzano quelli che vengono chiamati algoritmi, ovvero una serie di istruzioni che eseguono una serie di operazioni per arrivare ad un risultato, e poco importa che si utilizzi la programmazione strutturata o ad oggetti, il concetto di algoritmo non cambia: sempre operazioni ed istruzioni serializzate sono.
Nei computer quantistici, invece abbiamo appena visto, le operazioni tendono ad essere elaborate in parallelo ed è lì che la maggior velocità di elaborazione entra in gioco.
Risulta quindi evidente che utilizzare un computer quantistico per vedere un film in full HD, navigare in internet, progettare un grattacielo o qualsiasi altro tipo di programma classico non ha molto senso, anzi potrebbe risultare più lento nell’elaborazione di un computer classico. Dove invece l’elaborazione quantistica, dà il massimo di sé, è (oltre che per i problemi di fisica quantistica) appunto nelle operazioni che devono essere parallelizzate e per le quali gli algoritmi devono essere scritti appositamente.
Gli esempi dove l’utilizzo di un computer quantistico e che più colpiscono l’immaginazione sono la fattorizzazione dei numeri primi, della decrittazione dei codici segreti come quelli che stanno alla base della RSA, e l’analisi dei Big Data.
Non stupisce quindi che tra i maggiori investitori nella ricerca sui computer quantistici, e tra i primi ad aver creato un vero computer quantistico funzionante, vi sia Google, leader nel trattamento di dati tramite i suoi servizi di ricerca nel web e di cloud.
Anche IBM ha sviluppato un suo computer quantistico e, a differenza di Big G, ha rilasciato anche parecchie specifiche, dando la possibilità a chiunque, tramite un servizio di cloud, di provare a programmare il proprio computer quantistico.


Quale futuro?
Indubbiamente il futuro è anche dei computer quantistici che però non sono un sostituto dei classici computer e non lo saranno ancora per parecchio tempo.
Questo però non esclude che negli ultimi anni l’interesse per i computer quantistici è notevolmente aumentata; Microsoft, ad esempio,  ha mostrato il suo interesse per la programmazione dei quantum computer rilasciando Q# per il frameworks .Net che permette di creare programmi per i computer quantistici, mentre il fatto che ancora non esista uno standard, lascia aperto un buco che sarà riempito da chi riuscirà ad imporsi per primo come leader (come è accaduto per il computer PC IBM a metà degli anni ’80 del secolo scorso).
Le dimensioni e le peculiarità necessarie nello sviluppo dei computer quantistici (bassissima temperatura e/o campi elettromagnetici particolarmente intensi per poter modificare gli stati degli atomi di idrogeno ad esempio) sono un altro impedimento per la massificazione di questa tecnologia come invece è successo con i computer classici che, potendo disporre di prezzi sempre più bassi e dimensioni ridotte, sono diventati uno strumento  presente in ogni casa.
Facilmente il futuro dei computer quantistici sarà simile a quello che già IBM sta testando, ovvero il Cloud.
Mentre adesso si può accedere al computer IBM tramite Cloud solamente per provare a programmare, in futuro utilizzeremo algoritmi quantistici direttamente dal nostro smartphone per accedere ai servizi che necessitano di computer quantistici per essere eseguiti e che saranno ospitati su server remoti, trasformando il nostro dispositivo in un semplice terminale intelligente.

 

NOTE ALL’ARTICOLO: alcuni concetti sono stati semplificati allo scopo di renderli comprensibili dato che potevano essere difficili da capire; allo stesso modo sono tate utilizzate parole che non sono i termini esatti ma che aiutano a comprendere l’articolo ad un numero maggiore di utenti

← Back
Foward →
FB TW Pinterest whatsapp RSS FEED News letter

filoweb.it è il sito personale di Filippo Brunelli
(c) 2017 Filippo Brunelli
Le immagini ed i testi contenuti nel sito filoweb.it sono di proprietà di Filippo Brunelli salvo diversamente indicato.
L'uso delle immagini e del testo è gratuito per uso personale ed è subbordinato alla citazione della fonte.
Brunelli Filippo declina ogni responsabilità per l'uso che viene fatto delle informazioni presenti nel sito filoweb.it.
X
La tua privacy è importante
Utilizziamo, senza il tuo consenso, SOLO cookies necessari alla elaborazione di analisi statistiche e tecnici per l'utilizzo del sito. Chiudendo il Cookie Banner, mediante il simbolo "X" o negando il consenso, continuerai a navigare in assenza di cookie di profilazione. More info

Tutti
Cookie tecnici
I cookie tecnici sono necessari al fine di "effettuare la trasmissione di una comunicazione su una rete di comunicazione elettronica, o nella misura strettamente necessaria al fornitore di un servizio della società dell'informazione esplicitamente richiesto dal contraente o dall'utente a erogare tale servizio" (art. 122, comma 1 del Codice privacy).
Cookie analitici di terze parti
I cookie analytics sono utilizzati al fine di valutare l'efficacia di un servizio della società dell'informazione fornito da un titolare di un sito, per progettare un sito web o contribuire a misurare il "traffico" di un sito web, ovvero il numero di visitatori ripartiti per area geografica, fascia oraria della connessione o altre caratteristiche.
Cookie di profilazione
Sono cookie che creano profili personalizzati relativi all'utente per finalità di marketing, ad esempio il retargeting o advertising sui social network.

FILOWEB.it by Filippo Brunelli. FILOWEB.it by Filippo Brunelli. FILOWEB.it by Filippo Brunelli. Il sito web FILOWEB.it di Filippo Brunelli è attivo dal 2001. Negli anni il sito web FILOWEB.it by Filippo Brunelli ha avuto molte modifiche e rivisitazioni. Iniziato come un sito web html standart, il sito web FILOWEB.it by Filippo Brunelli è passato alla tecnoloiga Flash per finire con ASPX e CSS e HTML nuovamente. FILOWEB.it by Filippo Brunelli è opera di Filippo Brunelli. Filoweb contiente molte informazioni che potranno piacerti. Continua a visitare filoweb