Filoweb.it
By Filippo Brunelli


FB TW Pinterest whatsapp RSS FEED News letter

  ► Magazine

Un 2019 Social
Un 2019 Social
Il 2019 è ormai quasi finito ed il 2020 è alle porte, così è interessante tirare le somme di quest’anno online con tutti i suoi pregi e difetti.
Se, infatti, il Global Digital Report ci mostra una crescita di un 10% degli utenti internet online rispetto all’anno precedente (circa 400 milioni di utenti in più), soprattutto dai paesi emergenti e dall’Africa, la maggior parte di essi appaiono utenti principalmente social.
“We are Social” verrebbe quindi da dire ma attenzione perchè ci sono delle novità: Facebook ha visto solo una crescita di circa 8 milioni di nuovi utenti tra luglio e settembre 2019, mentre è in netta crescita l’uso di programmi di instant messaging (che vengono ormai equiparati a social network), dovuti all’uso di dispositivi mobili come principale mezzo per accedere al web. I dati mostrano una crescita del 51% di utilizzatori di smartphone, contro solamente un 44% di utenti che utilizzano il computer, mentre l’uso di tablet è sceso al 3,6% (un calo del 13%).
Malgrado il calo di visitatori Facebook rimane ancora il 3° sito web più visitato al mondo, subito dopo Google e Youtube, pur rimanendo la query di ricerca più richiesta sul motore di ricerca Google e mantiene ancora il primato come social network con il maggior numero di utenti attivi, seguito da Youtube e Watsapp.
Pur essendo leggermente superiore il numero di utenti di sesso maschile che utilizzano il social network di Zuckerberg le donne sembrano più attive avendo un maggior numero di commenti postati, link condivisi e Like assegnati ai post.
Rimanendo sempre in area solamente social network (non considerando i programmi di Istant messaging come tali) il secondo per utenti attivi risulta essere Instagram, sempre di proprietà di Zuckerberg, i cui utilizzatori hanno, per la maggior parte, meno di 30 anni, mentre Twitter mostra un lento ma continuo aumento di utilizzatori dovuto probabilmente al differente tipo di utilizzo e alla censura meno severa, così come Linkedin.
Abbiamo detto che vogliamo considerare i programmi di messaggistica istantanea separatamente dai social network e qua vediamo che a farla da padrone è sempre Facebook che con il suo Messenger ed il suo whatsapp ha il 90% del mercato, mentre i suoi “concorrenti” come Telegram o Viber sono quasi inesistenti o con un target geograficamente limitato, mentre resiste Wechat che in Cina è praticamente il padrone assoluto. Da segnalare che negli ultimi mesi dell’anno TikTok ha avuto un impenno diventando la terza app più scaricata (Whatsapp è solamente la 4°) e che, se confermato il trend, sarà un valido rivale per il 2020 ai programmi di Zuckemberg.

Interessante è anche il modo che hanno gli utenti di utilizzare il web; come abbiamo detto all’inizio di questo articolo la maggior parte degli utenti utilizza i dispositivi mobili e questa metodologia permette di utilizzare i comandi vocali più agevolmente che non su di un PC, così il 50% degli utilizzatori che hanno tra i 16 ed i 34 anni preferiscono usare il riconoscimento vocale per interagire con il web, mentre questa metodologia di utilizzo tende a scendere con l’aumentare dell’età attestandosi ad un 21% per utenti che vanno dai 55 ai 64 anni.
Per quanto riguarda i tempi di utilizzo del web sembra che (a livello mondiale) si passi in media 6 ore al giorno connessi tra App, Navigazione, Messaggistica e mail; per fortuna non tutto il tempo è passato sui social media (come alcuni servizi sui media tradizionali possono portare a pensare) e si va dai soli 36 minuti al giorno per gli utenti di internet in Giappone ad un massimo di 4 ore medie per gli utenti Filippini.
Infatti i dati di GlobalWebIndex mostrano che il 98% degli utenti internet che ha visitato un social network nell’ultimo mese solo l’83% è risultato un utente attivo e non solo fruitore passivo e che molti di loro utilizzano il social network anche per lavoro.

Fino ad ora abbiamo trattato di dati a livello globale, ma come ce la passiamo noi Italiani?
Per prima cosa diciamo che il 92% (54 milioni) degli abitanti del bel paese è connesso ad internet il che fa di noi uno dei paesi europei più digitalmente connessi. Quasi il 60% dei 54 milioni di utenti online è attivo sui social network e poco più della metà di questi accede ai social via dispositivo mobile (Smatphone).
Il tempo che noi passiamo online è anche quello sopra la media che infatti per noi Italiani arrivia a sei ore medie giornaliere mentre tra le query di riceca più utilizzate ci sono le parole Meteo, Facebook, Youtube, Google e Traduttore.
Il campione considerato va dai 16 ai 64 anni, e ci mostra un utilizzo online principalmente per la visione di video (92%), mentre l’utilizzo dei comandi vocali da noi si attesta ad un semplice 30%.
Dal report risulta poi i cittadini del bel paese amano chiacchierare, tanto che risulta l’uso principale del web per i programmi di messaggistica con whatsapp (84% di utilizzatori) che la fa da padrone, seguito da Facebook messenger (54%), mentre Youtube, con il suo 87% di utilizzatori, risulta il social network più seguito incalzato da Facebook (81%) e, a distanza, da Instagram con solo un 55%.
Ma cosa guardano gli Italiani su Youtube? Principalmente musica: tra le ricerche, infatti, la classifica vede in pole position le canzoni, seguite dai film e quindi dal gioco Fortnite.
Solamente 11% degli utilizzatori dei social, poi, dichiarano di utilizzarli anche per lavoro a dimostrazione che in Italia vengono utilizzati come canale panacea di svago.
Su di un piano puramente “sessista” vediamo che, mentre tra facebook e instagram la differenza di utenti di un sesso anzichè l’altro non è molto differente (su Facebook gli uomini superano leggermente le donne e su instagram l’inverso) su Twitter sono gli uomini a farla da padroni con un 68% di utilizzatori.

Nell’era del web 2.0 e della digital revolution sapere come ci comportiamo online, quali App si scaricano o Quali siti si visitano, nonché il metodo di utilizzo della tecnologia, rappresenta uno specchio della società né più né meno delle statistiche ISTAT che ogni anno ci vengono presentate come specchio della società. Queste analisi dei comportamenti dove la differenza tra vita reale e vita virtuale non rappresenta più due elementi separati ma un unico elemento della vita delle persone è una rappresentazione che riguarda tutti noi e non sono più solo uno strumento di statistica per creare marketing online utilizzato dagli operatori del settore.
Un’ultima cosa che appare (e che dovrebbe preoccuparci!) dal report sull’utilizzo del web nel 2019 è la centralizzazione che Facebook sta operando nel settore della messaggistica istantanea e che è quasi a livello di monopolio.

 

Riferimenti: https://datareportal.com/reports/digital-2019-q4-global-digital-statshot
L’Illusione Della Navigazione Anonima
L’Illusione Della Navigazione Anonima
A luglio 2019 Microsoft ha pubblicato un report che elenca le principali aziende che si occupano del tracking dei comportamenti dell’utente sui siti per adulti. Dalla ricerca emerge che Facebook, Google, Oracle e Cloudflare sono tra le aziende più attive in tale settore.
Non deve stupire questo, visto che questi siti utilizzano il tracking dei visitatori e dei naviganti per indirizzare gli advertisment sulle pagine web e per creare il loro introito. Dal report risulta che 93% dei siti analizzati utilizzano script che registrano le abitudini di navigazione degli utenti e, di questi dati, il 74% viene inviato a Google, il 24% ad Oracle, il 10% a Facebook ed il 7% a Cloudflare.
Ma la cosa che dovrebbe preoccupare chi naviga (non solo nei siti per adulti) è che solamente solo una piccola parte di questi cookies (meno del 20%) invierebbe i propri dati sfruttando algoritmi di crittografia e quindi in maniera sicura. Per rendere un’idea di quanto possano essere invasivi i cookies di tracciamento basta pensare che alcuni antivirus e anti-malware li considerano come elementi malevoli!

Sulla base di quanto sopra detto si potrebbe pensare che utilizzare un servizio di VPN oppure di Tor durante la navigazione permetta di risolvere i problemi di privacy e di mantenere l’anonimato ma non è proprio così.
Un recente un articolo che Sven Slootweg (uno stimato sviluppatore indipendente) ha pubblicato sul suo blog personale ha infatti scoperchiato un vaso di cui già i programmatori conoscevano il contenuto ossia che utilizzare una VPN non garantisce l’anonimato.
Spieghiamo subito, per chi non lo sappia, cos’è una VPN.
Se cerchiamo su wikipedia cosa sia una VPN la cosa che la maggior parte degli internauti capisce è che in italiano questo termine è la traduzione di rete privata virtuale ma del resto, probabilmente, capirebbe assai poco. Se si cerca su youtube o su internet si è portati a identificare le VPN con la navigazione anonima e con la possibilità di fare quello che si vuole online senza il pericolo di essere scoperti.
In realtà, come dice Slootweg la VPN non è altro che un server proxy glorificato dalla maggior parte degli utilizzatori di internet.
Quando un utente “naviga” su di un sito web si collega al proxy (un computer remoto) e gli invia le richieste, il proxy si collega al server ospitante il sito web e gli inoltra la richiesta dell’ utente; una volta ricevuta la risposta, il proxy la manda al client richiedente.
Solitamente l’utilità di un proxy consiste nel fatto che velocizza la navigazione in quanto i siti visitati recentemente da qualunque utente di quella rete, vengono memorizzati nel proxy che in questo modo evita di scaricarli nuovamente e possono essere ricevuti alla massima velocità permessa dalla propria connessione.
Tramite un Poxy è anche possibile, per i provider internet o per le autorità giudiziarie dei vari paesi, bloccare l’accesso a taluni siti web o applicazioni online.
In pratica un proxy non è altro che un ponte tra l’utente e il sito web interessato.
Visto che i proxy, nella maggior parte dei casi, sono gestiti direttamente dai provider di accesso internet questi memorizzano la navigazione di un utente associando il suo indirizzo ip ( indirizzo che viene assegnato ad una macchina quando si collega alla rete internet) e gli indirizzi che visita.
Una VPN lavora, in un certo senso, allo stesso modo: agisce come un tunnel tra due diverse reti quella dell’utente e quella che intende raggiungere (per questo le VPN sono spesso utilizzate nel darkweb, dato che permettono di raggiungere anche reti non raggiungibili dal normali canali), bypassando il fornitore di accesso ad internet di un utente.
Il problema che anche i server delle reti VPN memorizzano in un log la navigazione che viene fatta da un utente, se non altro per potersi eventualmente tutelare da eventuali azioni giudiziarie, ma non c’è nessuna certezza di quali utilizzi il gestore del server VPN faccia dei nostri log, se li vende ad agenzie di advertisment, o se utilizzi la connessione di un utente alla VPN per scopi non legali.
Ogni utente che utilizza una VPN è infatti collegato ai loro servizi tramite il proprio indirizzo IP e se qualcuno vuole intercettare la connessione basta che lo faccia un qualsiasi altro punto, come quando si collega o si scollega alla VPN.
Inoltre, sebbene la connessione ad una VPN sia criptata non sempre lo è il trasferimento di informazioni con un sito, come nel caso dell’invio di dati dai form, non tutti i siti web hanno la criptazione dei dati (vedere l’articolo https://www.filoweb.it/magazine/31-da-HTTP-a-HTTPS- .
Per finire per i moderni metodi di tracciamento l’indirizzo ip dell’utente sono meno rilevanti che nel passato e le grandi compagnie di marketing online utilizzano altre metriche per tracciare il profilo di chi utilizza un servizio e la sua identità.

A questo punto viene da chiedersi per quale motivo esistono le VPN se sono così poco sicure.
Bisogna prima di tutto considerare che le VPN sono nate per scopi aziendali, per dare modo ai dipendenti di accedere alle infrastrutture di un network privato da qualunque parte del mondo essi si trovino, la possibilità di essere utilizzate in ambito privato per dare l’idea di una navigazione anonima ha dato il via ad un business. La maggior parte dei servizi VPN disponibili sono a pagamento mentre quelli gratuiti sono pochi e consentono una limitata lista di utenti connessi contemporaneamente.
Si può scegliere di utilizzare una rete VPN nel caso ci si trovi ad utilizzare quella che viene definita connessione non sicura, come nel caso di aeroporti o stazioni o comunque connessioni wi-fi aperte, ma se il nostro intento è quello di navigare nel più completo anonimato allora rimane solo una sicurezza emotiva.
Sfumature Di Pensiero
Sfumature Di Pensiero
L’universalità di internet deve corrispondere all’universalità di un pensiero eticamente unificato?
Abbiamo assistito un paio di mesi fa a due eventi che ci portano a riflettere: la chiusura degli account Facebook dei profili di Casa Pound e di Forza Nuova e, pochi giorni dopo, la chiusura temporanea della pagina dei “Socialisti Gaudenti”.
È certamente giusto e doveroso da parte del gestore di un servizio non fomentare l’odio e l’intolleranza, nonché l’incitamento alla violenza, non solo per evitare eventuali conseguenze penali, ma anche per tutelare la propria reputazione.
Ma in base a cosa un’azienda prede queste decisioni?
Nel caso di Facebook, un’azienda statunitense con sede in America, le regole della comunità si basano sul "politicamente corretto" della società statunitense in termini di linguaggi, etica, immagini ammesse e lotta alla discriminazione sessuale, il tutto basato sul puritanesimo tipico della società statunitense.
Sugli stessi principi etici che intingono questo tipo di pensiero vediamo che la soluzione dei conflitti tra le persone all’interno della comunità virtuale vengono lasciate a loro, senza censurare l’utilizzo di insulti e, nel contempo, si lascia spazio ad un relativismo scientifico e culturale che spazia da i no vax agli ufologi, dai complottisti vari, ai terrapiattisti, in base al concetto tipicamente nord-americano che la libertà di parola deve valere sopra tutto.

Sebbene la rete internet stia sempre più diventando un sistema chiuso e proprietario rimane ancora una rete libera, universale e aperta ma, a differenza di appena 10 anni fa, è aumentato il numero di persone che ne usufruiscono mentre è diminuito nel contempo il numero di siti che vengono visitati. Certamente anche allora la maggioranza degli utenti visitava sempre stessi siti, ma oggi gran parte degli internauti va solamente a visitare i social network come Facebook, Twitter, Instagram, Vk e, da qua, nasce una riflessione importante: quanto una società privata, con sede all'estero, abbia il diritto di decide che cosa sia pubblicabile o meno aldilà delle leggi di un paese e della sua Costituzione?
La prima causa di questa polarizzazione etica è dovuta, nel vecchio continente, all’arretratezza Europea nei confronti degli USA nel settore dei Social Network e dei motori di ricerca che ha portato un’egemonia culturale della società nord-americana nei nostri confronti, un’egemonia che è accentuata anche dalla presenza in massa della società americana nelle nostre televisioni nella maggior parte delle serie televisive, dei film e dei libri.
Alcuni paesi, come la Cina o dove vigono regimi totalitari o teocratici, lo stato tende a limitare l’accesso ad alcuni siti o social per, a detta dei censori, tutelare la cultura autoctona, ma in realtà queste forme di censura servono solo a tutelare loro stessi.
Chiaramente la censura ed un atteggiamento pregiudiziale nei confronti di altri modi di pensare non è, e non potrà mai essere, la soluzione ad un’egemonia culturale che si impone in maniera indiretta, così come non è possibile illudersi di cambiare gli atteggiamenti radicati. Bisogna, invece cercare di evitare il monopolio culturale ed ideologico dei social network recuperando il divario tecnologico che ci separa dalla società americana, incentivando lo sviluppo di nuove idee e favorendo la nascita di società tecnologiche sul territorio europeo.
Fare questo non vuol dire chiudersi su se stessi o avere atteggiamenti che vengono considerati di una determinata visione politica, ma è importante considerare che, se ad esempio, negli Stati Uniti mostrare il seno in pubblico è considerato immorale, in Europa, una simile concezione è diversa e così, un post che mostra una donna a seno nudo che manifesta a favore della prevenzione del tumore non è considerato immorale e, quindi censurato, a differenza di quello che succede oltreoceano.
Sempre nelle differenze tra cultura Statunitense e cultura Europea vediamo che da noi è più facile fare battute su un determinato gruppo culturale o linguistico (le famose barzellette: c’è un Italiano, un Francese, un Tedesco...) mentre negli Stati Uniti questo può venir considerato scorretto e razzista.
Nell’ambito dei social network queste differenze sono ancora più enfatizzate e gli algoritmi ed i robot che si occupano di valutare il contenuto di un post sono tarati su quello che è considerato “bene” dalla cultura che lo ha generato, in questo caso quella Americana che è molto diversa da quella europea.

L’ esempio di paese che è riuscito a mantenere una propria identità online è quello della Russia.
Nel 1997 (un anno prima di Google) nasce Yandex, un motore di ricerca costruito sul linguaggio e gli algoritmi russi che ancora oggi è più utilizzato di Google in tutti i paesi di lingua e cultura Russa che facevano parte dell’ex URSS, offrendo gli stessi servizi (che vanno dal noleggio auto alla vendita online, dalle mail gratuite alla richiesta di taxi) che sono offerti dai colossi made in USA ma pensati per un bacino di utenza culturalmente diverso. Nel 2011 la società è stata quotata nella borsa di New York ed ha ottenuto un valore di 1.3 miliardi di dollari, aprendo poi filiali in tutto il mondo, proprio come BigG e Facebook.
Vediamo quindi che, agevolare la nascita di motori di ricerca e social network a livello nazionale non vuol dire solamente tutelare la propria cultura ma anche offrire la possibilità di nascere ad aziende che hanno il potenziale di creare indotto e ricchezza per un paese.
Certo a livello Europeo le cose sono un po’ più complicate, siamo un insieme di stati e popoli che tendono ad avere una visione nazionalistica del concetto di unione europea ed abbiamo una moltitudine di lingue che complicano la realizzazione di un progetto europeo, ma recuperare il tempo perso non è impossibile ed è ancora fattibile.
La Rivincita Dell’Open Source
La Rivincita Dell’Open Source
Quando Linus Torvald nel 1991 ideò un proprio sistema operativo per testare il suo nuovo computer a 32 bit non pensava certo che avrebbe creato una rivoluzione nel mondo dell’informatica e di rimanere, nel contempo, sconosciuto alla maggior parte delle persone comuni.
La prima volta che sentii parlare di linux avevo poco più di vent’anni ed era al corso di informatica di ingegneria dell’università di Padova; fino ad allora la mia conoscenza dei computer era quella che avevo maturato durante gli anni sui computer a 8 e 16 bit (Comodore, MSX, ecc) e sul mio PC 8088 con sistema operativo DOS che, con grande disappunto, scoprii di dover cambiare per poter installare ed utilizzare quel sistema operativo da casa anziché i computer dell’università.
Per chi volesse approfondire la genesi di questo sistema operativo consiglio il bellissimo libro di L. Torvald e D. Diamond “Rivoluzionario per caso. Come ho creato Linux (solo per divertirmi)”, mentre chi vuole sapere quale importanza ha avuto questo progetto nel mondo dell’informatica e come mai grandi nomi dell’informatica si stiano sempre più avvicinando al mondo dell’Open Source consiglio di proseguire con la lettura di questo articolo.


Visto che il nome completo di linux è GNU/Linux, per capire di cosa parleremo, bisogna prima di tutto chiarire il concetto di software libero e di cosa significa quell’ acronimo ricorsivo che precede il nome del sistema operativo.
Nel 1985 l’informatico Richard Stallman fondò un’ organizzazione senza fini di lucro per lo sviluppo e la distribuzione di software libero, in netto contrasto con il mercato dei software protetti che si stava sviluppando. L’idea di base era che un codice sorgente deve essere pubblico per poter essere modificato in base alle necessità di chi lo utilizza. In realtà l’idea di Stallman era già nata l’anno prima con il progetto GNU ("GNU's Not Unix") per creare un sistema operativo Unix like libero nell’utilizzo e libero di essere modificato a piacimento. Purtroppo l’idea di Stallman non riuscì per molti anni a realizzarsi in quando non era ancora stato sviluppato un Kernel1.
Nel 1991 un giovane studente di informatica dell’università di Helsinki passò l’estate chiuso in camera sua a creare un proprio sistema operativo per testare il suo nuovo computer basato su processore i368 e, una volta finito di elaborare il progetto, lo mise in rete (all’epoca la maggior parte degli utilizzatori di internet erano nerd, studenti, professori universitari, organizzazioni governative) per condividerlo chiedendo solamente che gli venisse mandata una cartolina da coloro che provavano e apprezzavano il suo lavoro; questo studente era Linus Torvald che in breve tempo si ritrovò la camera piena di cartoline da tutto il mondo!
Torvald decise di distribuire il suo sistema operativo sotto la licenza Open Source che è caratterizzata da quattro principali caratteristiche: libertà di eseguire il programma per qualsiasi scopo, libertà di studiare il programma e modificarlo, libertà di ridistribuire copie del programma, libertà di migliorare il programma e di distribuirne pubblicamente i miglioramenti. Da allora Linux si è sviluppato tramite molti collaboratori che vedendone il codice lo migliorano, lo implementano e lo ridistribuiscono, mentre il suo creatore mantiene solo il ruolo di coordinare e decidere quali migliorie possono essere implementate e ridistribuite.
La nascita di Linux coincide anche con due grandi momenti della storia dell’informatica: la grande distribuzione e disponibilità di computer presso gli utenti finali e la diffusione di Internet.
Molte aziende di software iniziarono a distribuire versioni personalizzate di Linux (per questo quando si parla di questo sistema operativo si parla di distribuzione mentre quando si parla di versione ci si riferisce alla sola versione del Kernel) facendo pagare solo il costo del supporto (nel caso venga distribuito su CD) e dell’assistenza.
Visto che linux è un sistema operativo Unix-Like ci si accorse subito di quanto era indicato allo sviluppo dei server e, avendo un prezzo pressoché nullo, ottenne un grande successo nei primi internet provider che offrivano accesso alla rete e che ospitavano i primi siti web che stavano nascendo, permettendo di abbattere i prezzi ai fruitori di tali servizi. Per fare un esempio consideriamo che senza Linux, oggi, non avremmo Facebook, Twitter e moltissimi social network che sono nati inizialmente su hosting linux visto il budget limitato dei loro creatori; allo stesso modo il sistema operativo Android (che equipaggia la maggior parte degli smartphone in circolazione) è stato sviluppato da Google sul kernel Linux 2.6 e 3.x ed è per la maggior parte (a parte alcuni firmware2 proprietari) un progetto open source coordinato da Google che prende il nome di “progetto Open Source Android”.


Negli ultimi vent’anni sono state sempre di più le aziende che hanno abbracciato più o meno completamente, il mondo dell’Open Source. Un esempio eclatante è quello della storica azienda americana IBM che ha iniziato ad avvicinarsi all’Open Source fin dal 2004 quando al Linux World Conference & Expo a San Francisco, Nick Donofrio, senior vice president of technology and manufacturing di IBM, ha fatto sapere che Big Blue “non ha nessuna intenzione di usare i brevetti in possesso per attaccare Linux”.
In quel tempo, infatti, IBM deteneva circa 60 brevetti che si supponeva Linux potesse infrangere. La speranza di Donofrio, all’epoca, era anche che altre aziende seguissero l’esempio di IBM, poiché prevedeva una notevole diffusione del movimento open source nella decade successiva. Nel 2013 Big Blue sancisce la nascita della OpenPOWER Foundation, una comunità tecnica aperta, basata sull’architettura Power di IBM, il cui obiettivo è creare un ecosistema open, disposto a condividere competenze, investimenti e proprietà intellettuale di classe server, per facilitare l’innovazione a livello hardware e software e semplificare la progettazione dei sistemi.


L’open source è stato anche alla base di uno dei progetti informatici sociali più rivoluzionari a livello mondiale: “One Laptop Per Child”  (http://one.laptop.org/) ideato da Nicolas Negroponte.
OLPC è un'organizzazione no-profit che si prefigge come scopo aiutare i bambini più poveri del mondo attraverso l'istruzione e, per raggiungere questo l'obiettivo, l’intenzione è di fornire ad ogni bambino un laptop robusto, a basso consumo, connesso ad internet ad un prezzo di solo 100$ (in realtà la prima fornitura di computer nel 2007 ebbe un costo di 130$ al pezzo).  È chiaro che senza un sistema che sta alla base open source non sarebbe mai stato possibile riuscire in questo intento e molti altri progetti open source (come wikipedia) hanno offerto la loro collaborazione al progetto. Malgrado l’idea però il progetto non riuscì mai ad emergere completamente in quanto l’avvento degli smartphone economici (che utilizzano sempre sistemi operativi open source) fa sembrare inutile la creazione di un computer con quelle caratteristiche.


L’ultimo annuncio importante nel mondo dell’open source viene dall’azienda cinese Huawei che, dopo le dichiarazioni del presidente USA Trump su eventuali embarghi americani, ha iniziato la prima distribuzione di personal computer laptop con sistema operativo Linux anziché windows (con un risparmio notevole per l’utente finale che non deve pagare la licenza) e che, nel contempo, sta sviluppando un suo sistema operativo per i suoi smartphone, sempre basato sul kernel di Linux e sempre Open Source.
Visto che sempre più app e servizi si stanno spostando all'interno del mondo delle web app questa potrebbe essere una buona occasione per favorire la diffusione di sistemi operativi alternativi a Windows?
D’altronde sono sempre più le aziende, pubbliche o private, che stanno passando al software libero: nel giugno del 2019 il CERN (lì dove è nato il World Wide Web!) ha avviato un ambizioso piano di trasformazione del suo reparto IT per sganciarsi dalle insostenibili richieste economiche del software a codice chiuso fornito da Microsoft (che non fornirà più le licenze accademiche al centro ricerche) e passare a software Open Source, così come ha già fatto il governo sud coreano e così come stanno facendo molte pubbliche amministrazioni che sono, inoltre, obbligate a rilasciare in formato open source il software che loro stesse sviluppano.

La stessa Microsoft, che per anni si è battuta per le licenze software chiuse, d’altronde, ha iniziato un lento avvicinamento al mondo dell’open source entrando nella Linux Foundation con un esborso annuo di 500 mila dollari che le permette di sedere nel consiglio d’amministrazione della fondazione.
Alla fine degli anni ’90 del secolo scorso Microsoft e Linux erano visti come due mondi opposti ed erano considerate dai loro utilizzatori scelte di vita piuttosto che semplici opzioni informatiche, tanto che nel 2001 l’allora CEO di Microsoft Steve Ballmer definì Linux come un “cancro”, mentre oggi, con l’entrata di Microsoft nella Linux Foundation, Scott Guthrie (Vice President di Microsoft Cloud ed Enterprise Executive) commenta: “Linux Foundation è la casa non solo di Linux, ma anche dei progetti più innovativi della comunità open-source. Siamo entusiasti di aderire alla Linux Foundation”.
Così anche Microsoft, insieme a grandi aziende come Cisco, Fujitsu, HPE, Huawei, IBM, Intel, NEC, Oracle, Qualcomm, Samsung, Google e Facebook entra a far parte del mondo Open Source anche se questo non vuol dire che Windows e Office saranno distribuite gratuitamente.
L’avvicinamento di Microsoft al mondo Open è stato graduale e continuo, seppur lento. Per fare un esempio il 40% delle macchine virtuali su Azure (il cloud Microsoft per lo sviluppo) sono basate su Linux, mentre Windows 10 versione per sviluppatori contiene strumenti software open source che provengono sempre dal mondo Linux: dalla Bash (la classica shell o prompt dei comandi), agli strumenti di sviluppo che possono essere integrati dentro Windows 10 accanto ai classici di Microsoft come PowerShell, Chakra Core e Visual Studio Code. Da qualche tempo, inoltre, Microsoft ha stretto una partnership con Canonical per portare Ubuntu (una delle più famose distribuzioni Linux) su Windows 10.


Nel giugno del 2018 Microsoft ha acquistato il principale social network per gli sviluppatori, github.com, ad un prezzo di 7,5 miliardi di dollari quando nel 2016 il servizio ha incassato solamente 98 milioni di dollari in nove mesi, a fronte di una valutazione del 2015 che vedeva  GitHub quotato due miliardi di dollari. Perché allora Microsoft ha pagato così tanto questa piattaforma che sviluppa essenzialmente progetti Open Source?
Su questa piattaforma sono attualmente ospitati 80milioni di progetti software ed è utilizzata da  27 milioni di utenti, per la maggior parte sviluppatori. Se si considera che negli ultimi dieci anni  non è emersa nessuna infrastruttura software a livello di piattaforma dominante in forma chiusa o proprietaria, ma tutte sono nate da idee e progetti open source (come ad esempio MongoDB) e che moltissime app si basano su piattaforme open source, è facile immaginare che la scelta di Microsoft sia soprattutto quella di invogliare gli sviluppatori ad utilizzare le sue piattaforme (come Azzure) piuttosto che voler vendere più software. Ecco quindi che alcuni programmi per lo sviluppo, come  Visual Studio,  sono messi a disposizione da Microsoft nella versione base libera di essere scaricata ed installata, mentre per le versioni superiori si continua a dover pagare la licenza; Visual Studio Code  viene distribuito con licenza permissiva e alcuni dei componenti core di .NET vengono rilasciati addirittura con licenza open source.
È facile supporre che, dopo aver perso la sfida nel mondo degli smartphone, Microsoft non intenda ripetere la stessa esperienza nel mondo dello sviluppo dei software ed abbia intenzione di avviare quel processo che IBM ed altre aziende hanno già iniziato: dal 2016, infatti, il software open source è alla base dei quattro pilastri – mobility, cloud, social business e big data3 – della trasformazione digitale in atto.

 



1 Il kernel è il componente centrale di ogni sistema operativo che ha il compito di  fare da ponte tra le componenti hardware di un computer – come processore, RAM, hard disk, ecc. – e i programmi in esecuzione sulla macchina.
2 Il firmware non è altro che un particolare tipo di programma, normalmente memorizzato su una piccola memoria non volatile (quindi una rom) , posto all’interno di un computer, di uno smartphone, di un tablet, di un masterizzatore, di una smart TV e in quasi tutti i dispositivi elettronici, con il compito di far correttamente avviare il dispositivo e di far dialogare l’hardware con il software.
3 Con il termine Big Data si intende la capacità di usare la grande quantità di dati che vengono acquisiti (solitamente online attraverso i social network, la navigazione, lo scarico di file, ecc.) per elaborare, analizzare e trovare riscontri oggettivi su diverse tematiche.

Assistenti vocali e privacy
Assistenti vocali e privacy
La mancata consapevolezza dell’uso della tecnologia a volte ci porta a perdere alcuni diritti fondamentali che abbiamo guadagnato come quello alla privacy.
Non è insolito, quando un comune decide di installare delle telecamere di videosorveglianza in una via o in una zona di una qualche città vedere la nascita di comitati contrari che si battono in nome della difesa della privacy dei cittadini. Non meraviglia poi vedere quelle stesse persone che fanno parte dei comitati "dettare" un promemoria o un messaggio da inviare al loro assistente vocale o, una volta rientrate a casa, dire: "Alexa - o Cortana, o google- fammi ascoltare della musica".
Che relazione c’è tra le due azioni? Possiamo dire che entrambe sono un accesso alla nostra privacy, ma mentre nel caso delle telecamere il loro uso è regolamentato da leggi e il loro scopo è quello di una maggior tutela del cittadino, nel caso degli assistenti vocali, invece, non vi è alcuna regolamentazione specifica (se non quella generica sull’uso dei dati personali) e lo scopo è quello di fornirci un servizio personale.
Quello degli assistenti vocali non è un fenomeno nuovo anche se solamente negli ultimi anni ha iniziato a svilupparsi e ad essere veramente funzionale, grazie al miglioramento delle tecnologie di Machine learning e delle intelligenze artificiali.
A memoria di chi scrive già alla fine degli anni ’90 del secolo passato si iniziavano a vedere i primi programmi che permettevano di controllare il computer tramite la voce, aprire chiudere i programmi, dettare una mail, leggere un testo, prendere appuntamenti nel calendario ricordandoli e molto altro ancora. Uno dei primi software a funzionare nei computer domestici fu messo in commercio nel 1997 dalla Dragon System con il nome di "Dragon Naturally Speaking" ed era uno dei più sofisticati programmi di controllo del computer tramite l’uso di un linguagio naturale; la stessa Microsoft nella beta del sistema operativo WindowsNT5 (che poi diventerà windows 2000) aveva preinstallato un assistente vocale che si attivava tramite “Hey computer!” seguito dal comando. Ad esempio si poteva dire "Hey computer! start running word" ed il computer faceva partire il programma word.
Il problema di questi programmi era che avevano bisogno di molto tempo per "imparare" a capire la voce di chi parlava ed i comandi che venivano invocati, oltre a necessitare di molte risorse delle macchine sulle quali giravano.
Oggi ogni smartphone è dotato di assistente vocale, i computer dotati di windows10 hanno anche loro un loro assistente vocale chiamato Cortana, mentre le grandi compagnie del web sviluppano i loro assistenti che si integrano con i device di casa senza bisogno di un classico computer, come ad esempio Amazon Echo, o Google Home.
La prima azienda che nel secondo decennio del nuovo millennio diede un importante contributo alla rinascita degli assistenti vocali ed alla loro evoluzione è stata la Apple che nel 2011 lanciò Siri che ancora oggi è parte integrante dei dispositivi dell’azienda di Cupertino.
La principale differenza tra Siri (così come di tutti i moderni assistenti vocali) ed i programmi della generazione precedente è che la nuova generazione lavora tramite connessione internet in remoto: i comandi non vengono più elaborati dal processore della macchina sulla quale gira l’assistente vocale, ma la voce viene inviata ad un server remoto che la elabora e rimanda all’assistente il comando relativo alla richiesta. In questo modo il dispositivo che viene usato dell’utente diventa un semplice terminale e tutto il carico di lavoro viene relegato ai server, così si può anche evitare il tedioso passaggio del machine learning che viene già eseguito a monte.
Ma la sola intelligenza artificiale presente sui server ed il processo di machine learning dovuto a centinaia di migliaia di utenti che ogni giorno comunicano con il proprio assistente virtuale è sufficiente a creare quella interazione uomo macchina che permette di controllare una casa smart o sviluppare tutte quelle funzioni che offrono Alexa, Ok Google, Cortana e Siri senza sbagliare? Forse no!
Un reportage realizzato dalla televisione pubblica belga Vrt Nws ha messo in luce che Google, Apple e Amazon, con la scusa di migliorare i servizi offerti dagli assistenti vocali, hanno spiato la propria utenza attraverso gli stessi assistenti.
Il canale televisivo Vrt Nws sarebbe entrato in possesso di alcune conversazioni registrate "accindentalmente" senza che venisse attivato l’assistente vocale google piene di dati personali e dati sensibili come i discorsi fatti all’interno di un’ignara famiglia o quelli di un utente che parla della sua vita sentimentale. Il fatto inquietante è che non solo i dipendenti di google hanno accesso alle conversazioni ma anche le aziende partner per permettere di comprendere meglio gli ordini degli utenti. Dal canto suo l’azienda di Mountain View si è giustificata dicendo che "solo lo 0,2% di tutte le registrazioni è accessibile a chi lavora per Google e che i file audio sono comunque privi di informazioni che permettono di identificare l’utente". Mentre l’inchiesta della televisione belga era principalmente incentrata su google, un’ inchiesta del Guardian rivela che un processo analogo è operato anche da Apple tramite Siri e da Amazon tramite Alexa; Bloomberd, invece, racconta come Amazon tramite persone che lavorano anche nove ore al giorno in tutto il mondo e team di aziende appaltatrici che vanno dagli Stati Uniti alla Romania, dall’ India al Costarica, ascolta le registrazioni vocali catturate dai dispositivi Echo, le trascrive, le annota e quindi le inserisce nel software per eliminare le lacune nella comprensione del linguaggio umano da parte di Alexa e aiutarlo a rispondere meglio ai comandi.
Anche Amazon, come Google si è difesa dicendo che il campione di audio che viene ascoltato è molto limitato: "Abbiamo rigorose garanzie tecniche e operative e una politica di tolleranza zero per l'abuso del nostro sistema. I dipendenti non hanno accesso diretto alle informazioni che possono identificare la persona o l'account. Tutte le informazioni sono trattate con alta riservatezza".
In questo contesto non è facile capire se venga o meno violata la privacy dei proprietari dei dispositivi incriminati, ma, sicuramente, la faccenda ha preoccupato il garante della privacy di Amburgo che ha imposto una pausa temporanea alla pratica di 3 mesi a Google e suggerito agli altri big del settore di fare lo stesso, fino a quando non saranno concluse le indagini avviate riguardo l’uso che viene fatto dei dati raccolti: "L’uso di assistenti vocali automatici da parte di provider come Google, Apple e Amazon - evidenzia l’Autority - prova l’elevato rischio per la privacy delle persone coinvolte".
Questa pratica, comunque non è appalto esclusivo degli assistenti vocali. Anche l’azienda Facebook, si è scoperto, tendeva a trascrivere i messaggi audio delle conversazioni degli utenti della chat "messanger" e non è escluso che lo stesso sia stato fatto per whatsapp.
Quando si decide di utilizzare una tecnologia che non sempre è sotto il nostro controllo bisogna sempre considerare la possibilità di dover rinunciare a una parte, più o meno grande, della nostra privacy.
Ma il prezzo che stiamo pagando è giusto?
La risposta la sapremo solo in futuro

Deontologia nei social: obbligo o scelta?
Deontologia nei social: obbligo o scelta?
Troppo spesso ci dimentichiamo che Facebook come la maggior parte dei social network non è un nostro spazio privato ma un luogo pubblico dove chiunque può leggere quello che scriviamo, indipendentemente dal grado di privacy che usiamo. Basta solo che uno dei nostri contatti condivida un nostro post per renderlo pubblico, aumentarne la visibilità e renderlo disponibile per sempre. 
Ma in fondo è questo il motivo per il quale scriviamo i post, la ricerca di visibilità, la caccia ai Like, e rimaniamo profondamente turbati se un nostro post non viene accolto con entusiasmo dato che la maggior parte dei nostri contatti sono affini a noi per idee.
Proprio il fatto che i social network siano uno spazio pubblico ci dovrebbe portare a considerare quello che postiamo prima di pubblicarlo; così come un giornalista o un proprietario di un blog o di un sito è responsabile di ciò che pubblica anche l’accesso ai social network dovrebbe essere subordinato all’uso di una qualche forma deontologica.
Questo non succede!

Jeremy Bentham può essere considerato il padre della deontologia moderna con la sua opera postuma “Deontology or the Science of Morality” del 1834 dove elabora un'etica, chiamata appunto deontologia. 
Lo scopo ultimo di questa scienza è quello di motivare comportamenti che producano la massima felicità nella collettività che, a differenza della legislazione che agisce sugli interessi privati con la minaccia della punizione giuridica, suscita motivazioni basate sull'interesse privato. Le idee di Bentham vengono applicate negli ordini professionali moderni agli avvocati, dagli ingegneri ai giornalisti; e proprio come per questi ultimi anche per quello che riguarda i social network bisognerebbe adottare una qualche forma deontologica per chi vi accede per pubblicare post quando non sono strettamente personali.
Ma le difficoltà che si presentano sono molte e di vario tipo.
Partiamo nel considerare che la rete offre una grande libertà di espressione che si esprime sia nella fruizione dei contenuti e sia nell’espressione che spesso degenera in eccessi; fino a quando c’era quello che comunemente veniva chiamato Web 1.0 ovvero vi erano siti web che pubblicavano contenuti e utenti che vi accedevano e l’interazione era limitata ai forum ed ai newsgroup era abbastanza facile gestire questi eccessi: il proprietario di un sito web era (ed è tutt’ora) il responsabile di quanto vi appare e quindi ha tutto l’interesse a che quello che viene pubblicato rispetti determinate leggi scritte o morali; discorso analogo per i forum dove vi era un moderatore.
Con l’avvento del Web 2.0 le cose si complicano: tramite i social network chiunque può creare un profilo 
( anche falso) e diventare editore e pubblicista, solo che in questo modo si crea un limbo dove è difficile attribuire delle responsabilità; il fatto poi che il profilo venga definito “personale” crea nell’utente la falsa considerazione che tutto sia permetto e lecito sul “nostro profilo personale”.

In realtà le cose non stanno esattamente così. Come abbiamo già detto tutto quello che pubblichiamo diventa subito disponibile e usufruibile da tutti e quindi dovremmo sempre pensare prima di pubblicare qualcosa.
Un esempio è accaduto l’ 8 dicembre del 2014, quando il cantante Mango si accasciò sul palco durante un concerto e vi morì sotto gli occhi dei suoi fan che con smartphone e tablet stavano riprendendo il concerto; nulla di sbagliato se non fosse che nel giro di pochi minuti tutti questi video furono pubblicati sui social e la notizia si propagò, prima di diventare ufficiale e che ne venissero informati i famigliari. Nel caso di un giornalista che fosse venuto a conoscenza della notizia avrebbe dovuto attendere che la famiglia ne fosse informata prima di divulgare la notizia, ma anche i giornalisti, in questo caso, per non “bucare” la notizia si sono visti costretti a pubblicarla.

Un altro problema che si presenta con i social network è la loro atemporalità. Il termine virtuale (che oggi è tanto usato) ha origine nel latino medioevale, deriva da “virtù”, e indica ( secondo Tommaso d'Aquino) la potenza attiva in grado di passare all’atto e diventare attuale. Questa è la rete e questi sono i social network dove tutto è attuale sempre e per sempre, dove il virtuale è diventato reale: una notizia o un post di anni fa può essere ripubblicato o ripresentato e ritorna ad essere attuale, decontestualizzato da quelli che sono il tempo e gli avvenimenti che lo hanno generato. I nostri post, una volta pubblicati, rimangono per sempre rendendo difficile l’esercitare il diritto all’oblio (da non confondere con il diritto all’oblio del GDPR).

Gli utenti del web sono sempre più fornitori di informazione e hanno creato una forma depravata di city journalism dove tutti sono fornitori di informazioni ed editori di se stesse senza esserne responsabili.
La mancanza di regole però deve essere riempita. Il solo articolo 21 della costituzione (libertà di espressione utilizzando ogni mezzo) non può essere preso a pretesto per creare l’anarchia informativa.
Quando i legislatori hanno scritto l’articolo 21 i mezzi di comunicazione erano limitati ai giornali, radio e Tv che stava nascendo ma che comunque erano sempre vincolati a degli editori che ne dettavano le linee guida deontologiche. Anche con la nascita delle radio libere degli anni ’70 del ventesimo secolo e delle televisioni commerciali degli anni ’80 c’era sempre un certo controllo deontologico sull’informazione.
Con la diffusione del web negli anni ’90 ed in particolare la nascita del web 2.0 si è diffusa l’idea di diritto alla libertà di espressione per tutti senza doverne avere i doveri.
Mentre per un sito o un blog il proprietario può essere considerato l’editore oltre che il pubblicista e ne risponde nei social network non è così: il social (ad esempio Facebook) diventa coproprietario dei nostri post e li può vendere o condividere a suo piacimento, ma non ne è direttamente responsabile e viene a mancare quello che può essere considerata la figura dell’editore.

La soluzione sarebbe facile, basterebbe che un social network al momento dell’iscrizione facesse accettare delle clausole “morali e deontologiche” che impongano, a chi è fruitore del servizio, di rispettare il diritto alla dignità personale delle persone, alla giusta informazione non decontestualizzata, al rispetto della privacy e all’oblio di altri che vengono nominati, regole simili a quelle deontologiche dell’ordine dei giornalisti per notizie di carattere pubblico, dato che spesso sono assimilabili ad essi.
Bisogna poi che chi si iscrive abbia la coscienza e la conoscenza che entra in un mondo dove tutto è pubblico, ma difficilmente un dodicenne (visto che è l’età minima per iscriversi a Facebook) ha la consapevolezza di ciò; bisogna sapere che il diritto alla deindicizzazione che applicano i principali motori di ricerca non porta automaticamente al far sparire da internet quello che abbiamo scritto, detto o pubblicato.

Quello che serve è uno sforzo comune tra autorità centrali (esempio parlamento europeo) e le grandi aziende del web 2.0 per creare prima delle regole che prima diventano un obbligo in quanto imposte ma poi si trasformano in regole implicite da tenere, sull’uso dei social e di ciò che vi si pubblica.
In realtà l’Italia ha già iniziato un processo per la regolamentazione deontologica di internet: nel 2015 viene redatta dal consiglio dei ministri la “Dichiarazione dei diritti in Internet” dove nell’articolo 9 comma 1 dichiara :” Ogni persona ha diritto alla rappresentazione integrale e aggiornata delle proprie identità in Rete”. Quando parliamo di identità intendiamo non solo l’aspetto fisico, il nome ed il cognome ma anche le opinioni, i valori e quant’altro identifichi una persona nella sua completezza in quel determinato periodo e luogo; estrapolare, tagliare o riproporre post, frasi o immagini senza tener conto di questo è una violazione di quanto sopra.
Ancora più interessante è l’articolo 11 nella sua interezza: “1. Ogni persona ha diritto di ottenere la cancellazione dagli indici dei motori di ricerca dei riferimenti ad informazioni che, per il loro contenuto o per il tempo trascorso dal momento della loro raccolta, non abbiano più rilevanza pubblica. 2. Il diritto all’oblio non può limitare la libertà di ricerca e il diritto dell’opinione pubblica a essere informata, che costituiscono condizioni necessarie per il funzionamento di una società democratica. Tale diritto può essere esercitato dalle persone note o alle quali sono affidate funzioni pubbliche solo se i dati che le riguardano non hanno alcun rilievo in relazione all’attività svolta o alle funzioni pubbliche esercitate. 3. Se la richiesta di cancellazione dagli indici dei motori di ricerca dei dati è stata accolta, chiunque può impugnare la decisione davanti all’autorità giudiziaria per garantire l’interesse pubblico all’informazione.” Quando noi riproponiamo un post di 10 anni fa, senza nessun collegamento a vicende attuali, solo per screditare questa o quella persona violiamo questo articolo.
Nell’articolo 12 poi si parla di obblighi da parte delle piattaforme digitali nei confronti degli utenti, mentre nell’articolo 14 al comma 1 si legge:” Ogni persona ha diritto di vedere riconosciuti i propri diritti in Rete sia a livello nazionale che internazionale.”; la dichiarazione finisce con il comma 7 che mette in evidenza la necessità di creare strutture nazionali e sovranazionali: ”La costituzione di autorità nazionali e sovranazionali è indispensabile per garantire effettivamente il rispetto dei criteri indicati, anche attraverso una valutazione di conformità delle nuove norme ai principi di questa Dichiarazione.”
Per chi volesse approfondire il testo integrale è disponibile sul sito della camera dei deputati.

Come si vede in Italia il problema di una forma di regolamentazione è molto più sentito che in altri paesi ( come ad esempio gli Stati Uniti) dove prevale il principio di libertà di espressione sopra ogni altro.
Per adesso, comunque, per quanto ci riguarda anche quando pubblichiamo qualcosa su un social network dobbiamo ricordarci sempre che siamo vincolati alle leggi del nostro paese in materia, quindi esiste il codice civile e penale, bisogna rispettare le regole sui diritti d’autore, sull’implicito consenso se pubblico foto che raffigurano in primo piano una persona, se posto dei fotogrammi tratti da un film non devono essere della scena madre, se posto un concerto o una rappresentazione teatrale non superare i 3 minuti, quando cito qualcuno o parte di un libro mettere sempre la fonte e i riferimenti senza decontestualizzare la frase e tutte le altre regole che esistono per l’editoria classica anche se sono un semplice utente di facebook.
Foward →
FB TW Pinterest whatsapp RSS FEED News letter

filoweb.it è il sito personale di Filippo Brunelli
(c) 2017 Filippo Brunelli
Le immagini ed i testi contenuti nel sito filoweb.it sono di proprietà di Filippo Brunelli salvo diversamente indicato.
L'uso delle immagini e del testo è gratuito per uso personale ed è subbordinato alla citazione della fonte.
Brunelli Filippo declina ogni responsabilità per l'uso che viene fatto delle informazioni presenti nel sito filoweb.it.