Filoweb.it
By Filippo Brunelli


FB TW Pinterest whatsapp RSS FEED News letter

  ► Magazine

Sfumature Di Pensiero
Sfumature Di Pensiero
L’universalità di internet deve corrispondere all’universalità di un pensiero eticamente unificato?
Abbiamo assistito un paio di mesi fa a due eventi che ci portano a riflettere: la chiusura degli account Facebook dei profili di Casa Pound e di Forza Nuova e, pochi giorni dopo, la chiusura temporanea della pagina dei “Socialisti Gaudenti”.
È certamente giusto e doveroso da parte del gestore di un servizio non fomentare l’odio e l’intolleranza, nonché l’incitamento alla violenza, non solo per evitare eventuali conseguenze penali, ma anche per tutelare la propria reputazione.
Ma in base a cosa un’azienda prede queste decisioni?
Nel caso di Facebook, un’azienda statunitense con sede in America, le regole della comunità si basano sul "politicamente corretto" della società statunitense in termini di linguaggi, etica, immagini ammesse e lotta alla discriminazione sessuale, il tutto basato sul puritanesimo tipico della società statunitense.
Sugli stessi principi etici che intingono questo tipo di pensiero vediamo che la soluzione dei conflitti tra le persone all’interno della comunità virtuale vengono lasciate a loro, senza censurare l’utilizzo di insulti e, nel contempo, si lascia spazio ad un relativismo scientifico e culturale che spazia da i no vax agli ufologi, dai complottisti vari, ai terrapiattisti, in base al concetto tipicamente nord-americano che la libertà di parola deve valere sopra tutto.

Sebbene la rete internet stia sempre più diventando un sistema chiuso e proprietario rimane ancora una rete libera, universale e aperta ma, a differenza di appena 10 anni fa, è aumentato il numero di persone che ne usufruiscono mentre è diminuito nel contempo il numero di siti che vengono visitati. Certamente anche allora la maggioranza degli utenti visitava sempre stessi siti, ma oggi gran parte degli internauti va solamente a visitare i social network come Facebook, Twitter, Instagram, Vk e, da qua, nasce una riflessione importante: quanto una società privata, con sede all'estero, abbia il diritto di decide che cosa sia pubblicabile o meno aldilà delle leggi di un paese e della sua Costituzione?
La prima causa di questa polarizzazione etica è dovuta, nel vecchio continente, all’arretratezza Europea nei confronti degli USA nel settore dei Social Network e dei motori di ricerca che ha portato un’egemonia culturale della società nord-americana nei nostri confronti, un’egemonia che è accentuata anche dalla presenza in massa della società americana nelle nostre televisioni nella maggior parte delle serie televisive, dei film e dei libri.
Alcuni paesi, come la Cina o dove vigono regimi totalitari o teocratici, lo stato tende a limitare l’accesso ad alcuni siti o social per, a detta dei censori, tutelare la cultura autoctona, ma in realtà queste forme di censura servono solo a tutelare loro stessi.
Chiaramente la censura ed un atteggiamento pregiudiziale nei confronti di altri modi di pensare non è, e non potrà mai essere, la soluzione ad un’egemonia culturale che si impone in maniera indiretta, così come non è possibile illudersi di cambiare gli atteggiamenti radicati. Bisogna, invece cercare di evitare il monopolio culturale ed ideologico dei social network recuperando il divario tecnologico che ci separa dalla società americana, incentivando lo sviluppo di nuove idee e favorendo la nascita di società tecnologiche sul territorio europeo.
Fare questo non vuol dire chiudersi su se stessi o avere atteggiamenti che vengono considerati di una determinata visione politica, ma è importante considerare che, se ad esempio, negli Stati Uniti mostrare il seno in pubblico è considerato immorale, in Europa, una simile concezione è diversa e così, un post che mostra una donna a seno nudo che manifesta a favore della prevenzione del tumore non è considerato immorale e, quindi censurato, a differenza di quello che succede oltreoceano.
Sempre nelle differenze tra cultura Statunitense e cultura Europea vediamo che da noi è più facile fare battute su un determinato gruppo culturale o linguistico (le famose barzellette: c’è un Italiano, un Francese, un Tedesco...) mentre negli Stati Uniti questo può venir considerato scorretto e razzista.
Nell’ambito dei social network queste differenze sono ancora più enfatizzate e gli algoritmi ed i robot che si occupano di valutare il contenuto di un post sono tarati su quello che è considerato “bene” dalla cultura che lo ha generato, in questo caso quella Americana che è molto diversa da quella europea.

L’ esempio di paese che è riuscito a mantenere una propria identità online è quello della Russia.
Nel 1997 (un anno prima di Google) nasce Yandex, un motore di ricerca costruito sul linguaggio e gli algoritmi russi che ancora oggi è più utilizzato di Google in tutti i paesi di lingua e cultura Russa che facevano parte dell’ex URSS, offrendo gli stessi servizi (che vanno dal noleggio auto alla vendita online, dalle mail gratuite alla richiesta di taxi) che sono offerti dai colossi made in USA ma pensati per un bacino di utenza culturalmente diverso. Nel 2011 la società è stata quotata nella borsa di New York ed ha ottenuto un valore di 1.3 miliardi di dollari, aprendo poi filiali in tutto il mondo, proprio come BigG e Facebook.
Vediamo quindi che, agevolare la nascita di motori di ricerca e social network a livello nazionale non vuol dire solamente tutelare la propria cultura ma anche offrire la possibilità di nascere ad aziende che hanno il potenziale di creare indotto e ricchezza per un paese.
Certo a livello Europeo le cose sono un po’ più complicate, siamo un insieme di stati e popoli che tendono ad avere una visione nazionalistica del concetto di unione europea ed abbiamo una moltitudine di lingue che complicano la realizzazione di un progetto europeo, ma recuperare il tempo perso non è impossibile ed è ancora fattibile.
La Rivincita Dell’Open Source
La Rivincita Dell’Open Source
Quando Linus Torvald nel 1991 ideò un proprio sistema operativo per testare il suo nuovo computer a 32 bit non pensava certo che avrebbe creato una rivoluzione nel mondo dell’informatica e di rimanere, nel contempo, sconosciuto alla maggior parte delle persone comuni.
La prima volta che sentii parlare di linux avevo poco più di vent’anni ed era al corso di informatica di ingegneria dell’università di Padova; fino ad allora la mia conoscenza dei computer era quella che avevo maturato durante gli anni sui computer a 8 e 16 bit (Comodore, MSX, ecc) e sul mio PC 8088 con sistema operativo DOS che, con grande disappunto, scoprii di dover cambiare per poter installare ed utilizzare quel sistema operativo da casa anziché i computer dell’università.
Per chi volesse approfondire la genesi di questo sistema operativo consiglio il bellissimo libro di L. Torvald e D. Diamond “Rivoluzionario per caso. Come ho creato Linux (solo per divertirmi)”, mentre chi vuole sapere quale importanza ha avuto questo progetto nel mondo dell’informatica e come mai grandi nomi dell’informatica si stiano sempre più avvicinando al mondo dell’Open Source consiglio di proseguire con la lettura di questo articolo.


Visto che il nome completo di linux è GNU/Linux, per capire di cosa parleremo, bisogna prima di tutto chiarire il concetto di software libero e di cosa significa quell’ acronimo ricorsivo che precede il nome del sistema operativo.
Nel 1985 l’informatico Richard Stallman fondò un’ organizzazione senza fini di lucro per lo sviluppo e la distribuzione di software libero, in netto contrasto con il mercato dei software protetti che si stava sviluppando. L’idea di base era che un codice sorgente deve essere pubblico per poter essere modificato in base alle necessità di chi lo utilizza. In realtà l’idea di Stallman era già nata l’anno prima con il progetto GNU ("GNU's Not Unix") per creare un sistema operativo Unix like libero nell’utilizzo e libero di essere modificato a piacimento. Purtroppo l’idea di Stallman non riuscì per molti anni a realizzarsi in quando non era ancora stato sviluppato un Kernel1.
Nel 1991 un giovane studente di informatica dell’università di Helsinki passò l’estate chiuso in camera sua a creare un proprio sistema operativo per testare il suo nuovo computer basato su processore i368 e, una volta finito di elaborare il progetto, lo mise in rete (all’epoca la maggior parte degli utilizzatori di internet erano nerd, studenti, professori universitari, organizzazioni governative) per condividerlo chiedendo solamente che gli venisse mandata una cartolina da coloro che provavano e apprezzavano il suo lavoro; questo studente era Linus Torvald che in breve tempo si ritrovò la camera piena di cartoline da tutto il mondo!
Torvald decise di distribuire il suo sistema operativo sotto la licenza Open Source che è caratterizzata da quattro principali caratteristiche: libertà di eseguire il programma per qualsiasi scopo, libertà di studiare il programma e modificarlo, libertà di ridistribuire copie del programma, libertà di migliorare il programma e di distribuirne pubblicamente i miglioramenti. Da allora Linux si è sviluppato tramite molti collaboratori che vedendone il codice lo migliorano, lo implementano e lo ridistribuiscono, mentre il suo creatore mantiene solo il ruolo di coordinare e decidere quali migliorie possono essere implementate e ridistribuite.
La nascita di Linux coincide anche con due grandi momenti della storia dell’informatica: la grande distribuzione e disponibilità di computer presso gli utenti finali e la diffusione di Internet.
Molte aziende di software iniziarono a distribuire versioni personalizzate di Linux (per questo quando si parla di questo sistema operativo si parla di distribuzione mentre quando si parla di versione ci si riferisce alla sola versione del Kernel) facendo pagare solo il costo del supporto (nel caso venga distribuito su CD) e dell’assistenza.
Visto che linux è un sistema operativo Unix-Like ci si accorse subito di quanto era indicato allo sviluppo dei server e, avendo un prezzo pressoché nullo, ottenne un grande successo nei primi internet provider che offrivano accesso alla rete e che ospitavano i primi siti web che stavano nascendo, permettendo di abbattere i prezzi ai fruitori di tali servizi. Per fare un esempio consideriamo che senza Linux, oggi, non avremmo Facebook, Twitter e moltissimi social network che sono nati inizialmente su hosting linux visto il budget limitato dei loro creatori; allo stesso modo il sistema operativo Android (che equipaggia la maggior parte degli smartphone in circolazione) è stato sviluppato da Google sul kernel Linux 2.6 e 3.x ed è per la maggior parte (a parte alcuni firmware2 proprietari) un progetto open source coordinato da Google che prende il nome di “progetto Open Source Android”.


Negli ultimi vent’anni sono state sempre di più le aziende che hanno abbracciato più o meno completamente, il mondo dell’Open Source. Un esempio eclatante è quello della storica azienda americana IBM che ha iniziato ad avvicinarsi all’Open Source fin dal 2004 quando al Linux World Conference & Expo a San Francisco, Nick Donofrio, senior vice president of technology and manufacturing di IBM, ha fatto sapere che Big Blue “non ha nessuna intenzione di usare i brevetti in possesso per attaccare Linux”.
In quel tempo, infatti, IBM deteneva circa 60 brevetti che si supponeva Linux potesse infrangere. La speranza di Donofrio, all’epoca, era anche che altre aziende seguissero l’esempio di IBM, poiché prevedeva una notevole diffusione del movimento open source nella decade successiva. Nel 2013 Big Blue sancisce la nascita della OpenPOWER Foundation, una comunità tecnica aperta, basata sull’architettura Power di IBM, il cui obiettivo è creare un ecosistema open, disposto a condividere competenze, investimenti e proprietà intellettuale di classe server, per facilitare l’innovazione a livello hardware e software e semplificare la progettazione dei sistemi.


L’open source è stato anche alla base di uno dei progetti informatici sociali più rivoluzionari a livello mondiale: “One Laptop Per Child”  (http://one.laptop.org/) ideato da Nicolas Negroponte.
OLPC è un'organizzazione no-profit che si prefigge come scopo aiutare i bambini più poveri del mondo attraverso l'istruzione e, per raggiungere questo l'obiettivo, l’intenzione è di fornire ad ogni bambino un laptop robusto, a basso consumo, connesso ad internet ad un prezzo di solo 100$ (in realtà la prima fornitura di computer nel 2007 ebbe un costo di 130$ al pezzo).  È chiaro che senza un sistema che sta alla base open source non sarebbe mai stato possibile riuscire in questo intento e molti altri progetti open source (come wikipedia) hanno offerto la loro collaborazione al progetto. Malgrado l’idea però il progetto non riuscì mai ad emergere completamente in quanto l’avvento degli smartphone economici (che utilizzano sempre sistemi operativi open source) fa sembrare inutile la creazione di un computer con quelle caratteristiche.


L’ultimo annuncio importante nel mondo dell’open source viene dall’azienda cinese Huawei che, dopo le dichiarazioni del presidente USA Trump su eventuali embarghi americani, ha iniziato la prima distribuzione di personal computer laptop con sistema operativo Linux anziché windows (con un risparmio notevole per l’utente finale che non deve pagare la licenza) e che, nel contempo, sta sviluppando un suo sistema operativo per i suoi smartphone, sempre basato sul kernel di Linux e sempre Open Source.
Visto che sempre più app e servizi si stanno spostando all'interno del mondo delle web app questa potrebbe essere una buona occasione per favorire la diffusione di sistemi operativi alternativi a Windows?
D’altronde sono sempre più le aziende, pubbliche o private, che stanno passando al software libero: nel giugno del 2019 il CERN (lì dove è nato il World Wide Web!) ha avviato un ambizioso piano di trasformazione del suo reparto IT per sganciarsi dalle insostenibili richieste economiche del software a codice chiuso fornito da Microsoft (che non fornirà più le licenze accademiche al centro ricerche) e passare a software Open Source, così come ha già fatto il governo sud coreano e così come stanno facendo molte pubbliche amministrazioni che sono, inoltre, obbligate a rilasciare in formato open source il software che loro stesse sviluppano.

La stessa Microsoft, che per anni si è battuta per le licenze software chiuse, d’altronde, ha iniziato un lento avvicinamento al mondo dell’open source entrando nella Linux Foundation con un esborso annuo di 500 mila dollari che le permette di sedere nel consiglio d’amministrazione della fondazione.
Alla fine degli anni ’90 del secolo scorso Microsoft e Linux erano visti come due mondi opposti ed erano considerate dai loro utilizzatori scelte di vita piuttosto che semplici opzioni informatiche, tanto che nel 2001 l’allora CEO di Microsoft Steve Ballmer definì Linux come un “cancro”, mentre oggi, con l’entrata di Microsoft nella Linux Foundation, Scott Guthrie (Vice President di Microsoft Cloud ed Enterprise Executive) commenta: “Linux Foundation è la casa non solo di Linux, ma anche dei progetti più innovativi della comunità open-source. Siamo entusiasti di aderire alla Linux Foundation”.
Così anche Microsoft, insieme a grandi aziende come Cisco, Fujitsu, HPE, Huawei, IBM, Intel, NEC, Oracle, Qualcomm, Samsung, Google e Facebook entra a far parte del mondo Open Source anche se questo non vuol dire che Windows e Office saranno distribuite gratuitamente.
L’avvicinamento di Microsoft al mondo Open è stato graduale e continuo, seppur lento. Per fare un esempio il 40% delle macchine virtuali su Azure (il cloud Microsoft per lo sviluppo) sono basate su Linux, mentre Windows 10 versione per sviluppatori contiene strumenti software open source che provengono sempre dal mondo Linux: dalla Bash (la classica shell o prompt dei comandi), agli strumenti di sviluppo che possono essere integrati dentro Windows 10 accanto ai classici di Microsoft come PowerShell, Chakra Core e Visual Studio Code. Da qualche tempo, inoltre, Microsoft ha stretto una partnership con Canonical per portare Ubuntu (una delle più famose distribuzioni Linux) su Windows 10.


Nel giugno del 2018 Microsoft ha acquistato il principale social network per gli sviluppatori, github.com, ad un prezzo di 7,5 miliardi di dollari quando nel 2016 il servizio ha incassato solamente 98 milioni di dollari in nove mesi, a fronte di una valutazione del 2015 che vedeva  GitHub quotato due miliardi di dollari. Perché allora Microsoft ha pagato così tanto questa piattaforma che sviluppa essenzialmente progetti Open Source?
Su questa piattaforma sono attualmente ospitati 80milioni di progetti software ed è utilizzata da  27 milioni di utenti, per la maggior parte sviluppatori. Se si considera che negli ultimi dieci anni  non è emersa nessuna infrastruttura software a livello di piattaforma dominante in forma chiusa o proprietaria, ma tutte sono nate da idee e progetti open source (come ad esempio MongoDB) e che moltissime app si basano su piattaforme open source, è facile immaginare che la scelta di Microsoft sia soprattutto quella di invogliare gli sviluppatori ad utilizzare le sue piattaforme (come Azzure) piuttosto che voler vendere più software. Ecco quindi che alcuni programmi per lo sviluppo, come  Visual Studio,  sono messi a disposizione da Microsoft nella versione base libera di essere scaricata ed installata, mentre per le versioni superiori si continua a dover pagare la licenza; Visual Studio Code  viene distribuito con licenza permissiva e alcuni dei componenti core di .NET vengono rilasciati addirittura con licenza open source.
È facile supporre che, dopo aver perso la sfida nel mondo degli smartphone, Microsoft non intenda ripetere la stessa esperienza nel mondo dello sviluppo dei software ed abbia intenzione di avviare quel processo che IBM ed altre aziende hanno già iniziato: dal 2016, infatti, il software open source è alla base dei quattro pilastri – mobility, cloud, social business e big data3 – della trasformazione digitale in atto.

 



1 Il kernel è il componente centrale di ogni sistema operativo che ha il compito di  fare da ponte tra le componenti hardware di un computer – come processore, RAM, hard disk, ecc. – e i programmi in esecuzione sulla macchina.
2 Il firmware non è altro che un particolare tipo di programma, normalmente memorizzato su una piccola memoria non volatile (quindi una rom) , posto all’interno di un computer, di uno smartphone, di un tablet, di un masterizzatore, di una smart TV e in quasi tutti i dispositivi elettronici, con il compito di far correttamente avviare il dispositivo e di far dialogare l’hardware con il software.
3 Con il termine Big Data si intende la capacità di usare la grande quantità di dati che vengono acquisiti (solitamente online attraverso i social network, la navigazione, lo scarico di file, ecc.) per elaborare, analizzare e trovare riscontri oggettivi su diverse tematiche.

Assistenti vocali e privacy
Assistenti vocali e privacy
La mancata consapevolezza dell’uso della tecnologia a volte ci porta a perdere alcuni diritti fondamentali che abbiamo guadagnato come quello alla privacy.
Non è insolito, quando un comune decide di installare delle telecamere di videosorveglianza in una via o in una zona di una qualche città vedere la nascita di comitati contrari che si battono in nome della difesa della privacy dei cittadini. Non meraviglia poi vedere quelle stesse persone che fanno parte dei comitati "dettare" un promemoria o un messaggio da inviare al loro assistente vocale o, una volta rientrate a casa, dire: "Alexa - o Cortana, o google- fammi ascoltare della musica".
Che relazione c’è tra le due azioni? Possiamo dire che entrambe sono un accesso alla nostra privacy, ma mentre nel caso delle telecamere il loro uso è regolamentato da leggi e il loro scopo è quello di una maggior tutela del cittadino, nel caso degli assistenti vocali, invece, non vi è alcuna regolamentazione specifica (se non quella generica sull’uso dei dati personali) e lo scopo è quello di fornirci un servizio personale.
Quello degli assistenti vocali non è un fenomeno nuovo anche se solamente negli ultimi anni ha iniziato a svilupparsi e ad essere veramente funzionale, grazie al miglioramento delle tecnologie di Machine learning e delle intelligenze artificiali.
A memoria di chi scrive già alla fine degli anni ’90 del secolo passato si iniziavano a vedere i primi programmi che permettevano di controllare il computer tramite la voce, aprire chiudere i programmi, dettare una mail, leggere un testo, prendere appuntamenti nel calendario ricordandoli e molto altro ancora. Uno dei primi software a funzionare nei computer domestici fu messo in commercio nel 1997 dalla Dragon System con il nome di "Dragon Naturally Speaking" ed era uno dei più sofisticati programmi di controllo del computer tramite l’uso di un linguagio naturale; la stessa Microsoft nella beta del sistema operativo WindowsNT5 (che poi diventerà windows 2000) aveva preinstallato un assistente vocale che si attivava tramite “Hey computer!” seguito dal comando. Ad esempio si poteva dire "Hey computer! start running word" ed il computer faceva partire il programma word.
Il problema di questi programmi era che avevano bisogno di molto tempo per "imparare" a capire la voce di chi parlava ed i comandi che venivano invocati, oltre a necessitare di molte risorse delle macchine sulle quali giravano.
Oggi ogni smartphone è dotato di assistente vocale, i computer dotati di windows10 hanno anche loro un loro assistente vocale chiamato Cortana, mentre le grandi compagnie del web sviluppano i loro assistenti che si integrano con i device di casa senza bisogno di un classico computer, come ad esempio Amazon Echo, o Google Home.
La prima azienda che nel secondo decennio del nuovo millennio diede un importante contributo alla rinascita degli assistenti vocali ed alla loro evoluzione è stata la Apple che nel 2011 lanciò Siri che ancora oggi è parte integrante dei dispositivi dell’azienda di Cupertino.
La principale differenza tra Siri (così come di tutti i moderni assistenti vocali) ed i programmi della generazione precedente è che la nuova generazione lavora tramite connessione internet in remoto: i comandi non vengono più elaborati dal processore della macchina sulla quale gira l’assistente vocale, ma la voce viene inviata ad un server remoto che la elabora e rimanda all’assistente il comando relativo alla richiesta. In questo modo il dispositivo che viene usato dell’utente diventa un semplice terminale e tutto il carico di lavoro viene relegato ai server, così si può anche evitare il tedioso passaggio del machine learning che viene già eseguito a monte.
Ma la sola intelligenza artificiale presente sui server ed il processo di machine learning dovuto a centinaia di migliaia di utenti che ogni giorno comunicano con il proprio assistente virtuale è sufficiente a creare quella interazione uomo macchina che permette di controllare una casa smart o sviluppare tutte quelle funzioni che offrono Alexa, Ok Google, Cortana e Siri senza sbagliare? Forse no!
Un reportage realizzato dalla televisione pubblica belga Vrt Nws ha messo in luce che Google, Apple e Amazon, con la scusa di migliorare i servizi offerti dagli assistenti vocali, hanno spiato la propria utenza attraverso gli stessi assistenti.
Il canale televisivo Vrt Nws sarebbe entrato in possesso di alcune conversazioni registrate "accindentalmente" senza che venisse attivato l’assistente vocale google piene di dati personali e dati sensibili come i discorsi fatti all’interno di un’ignara famiglia o quelli di un utente che parla della sua vita sentimentale. Il fatto inquietante è che non solo i dipendenti di google hanno accesso alle conversazioni ma anche le aziende partner per permettere di comprendere meglio gli ordini degli utenti. Dal canto suo l’azienda di Mountain View si è giustificata dicendo che "solo lo 0,2% di tutte le registrazioni è accessibile a chi lavora per Google e che i file audio sono comunque privi di informazioni che permettono di identificare l’utente". Mentre l’inchiesta della televisione belga era principalmente incentrata su google, un’ inchiesta del Guardian rivela che un processo analogo è operato anche da Apple tramite Siri e da Amazon tramite Alexa; Bloomberd, invece, racconta come Amazon tramite persone che lavorano anche nove ore al giorno in tutto il mondo e team di aziende appaltatrici che vanno dagli Stati Uniti alla Romania, dall’ India al Costarica, ascolta le registrazioni vocali catturate dai dispositivi Echo, le trascrive, le annota e quindi le inserisce nel software per eliminare le lacune nella comprensione del linguaggio umano da parte di Alexa e aiutarlo a rispondere meglio ai comandi.
Anche Amazon, come Google si è difesa dicendo che il campione di audio che viene ascoltato è molto limitato: "Abbiamo rigorose garanzie tecniche e operative e una politica di tolleranza zero per l'abuso del nostro sistema. I dipendenti non hanno accesso diretto alle informazioni che possono identificare la persona o l'account. Tutte le informazioni sono trattate con alta riservatezza".
In questo contesto non è facile capire se venga o meno violata la privacy dei proprietari dei dispositivi incriminati, ma, sicuramente, la faccenda ha preoccupato il garante della privacy di Amburgo che ha imposto una pausa temporanea alla pratica di 3 mesi a Google e suggerito agli altri big del settore di fare lo stesso, fino a quando non saranno concluse le indagini avviate riguardo l’uso che viene fatto dei dati raccolti: "L’uso di assistenti vocali automatici da parte di provider come Google, Apple e Amazon - evidenzia l’Autority - prova l’elevato rischio per la privacy delle persone coinvolte".
Questa pratica, comunque non è appalto esclusivo degli assistenti vocali. Anche l’azienda Facebook, si è scoperto, tendeva a trascrivere i messaggi audio delle conversazioni degli utenti della chat "messanger" e non è escluso che lo stesso sia stato fatto per whatsapp.
Quando si decide di utilizzare una tecnologia che non sempre è sotto il nostro controllo bisogna sempre considerare la possibilità di dover rinunciare a una parte, più o meno grande, della nostra privacy.
Ma il prezzo che stiamo pagando è giusto?
La risposta la sapremo solo in futuro

Deontologia nei social: obbligo o scelta?
Deontologia nei social: obbligo o scelta?
Troppo spesso ci dimentichiamo che Facebook come la maggior parte dei social network non è un nostro spazio privato ma un luogo pubblico dove chiunque può leggere quello che scriviamo, indipendentemente dal grado di privacy che usiamo. Basta solo che uno dei nostri contatti condivida un nostro post per renderlo pubblico, aumentarne la visibilità e renderlo disponibile per sempre. 
Ma in fondo è questo il motivo per il quale scriviamo i post, la ricerca di visibilità, la caccia ai Like, e rimaniamo profondamente turbati se un nostro post non viene accolto con entusiasmo dato che la maggior parte dei nostri contatti sono affini a noi per idee.
Proprio il fatto che i social network siano uno spazio pubblico ci dovrebbe portare a considerare quello che postiamo prima di pubblicarlo; così come un giornalista o un proprietario di un blog o di un sito è responsabile di ciò che pubblica anche l’accesso ai social network dovrebbe essere subordinato all’uso di una qualche forma deontologica.
Questo non succede!

Jeremy Bentham può essere considerato il padre della deontologia moderna con la sua opera postuma “Deontology or the Science of Morality” del 1834 dove elabora un'etica, chiamata appunto deontologia. 
Lo scopo ultimo di questa scienza è quello di motivare comportamenti che producano la massima felicità nella collettività che, a differenza della legislazione che agisce sugli interessi privati con la minaccia della punizione giuridica, suscita motivazioni basate sull'interesse privato. Le idee di Bentham vengono applicate negli ordini professionali moderni agli avvocati, dagli ingegneri ai giornalisti; e proprio come per questi ultimi anche per quello che riguarda i social network bisognerebbe adottare una qualche forma deontologica per chi vi accede per pubblicare post quando non sono strettamente personali.
Ma le difficoltà che si presentano sono molte e di vario tipo.
Partiamo nel considerare che la rete offre una grande libertà di espressione che si esprime sia nella fruizione dei contenuti e sia nell’espressione che spesso degenera in eccessi; fino a quando c’era quello che comunemente veniva chiamato Web 1.0 ovvero vi erano siti web che pubblicavano contenuti e utenti che vi accedevano e l’interazione era limitata ai forum ed ai newsgroup era abbastanza facile gestire questi eccessi: il proprietario di un sito web era (ed è tutt’ora) il responsabile di quanto vi appare e quindi ha tutto l’interesse a che quello che viene pubblicato rispetti determinate leggi scritte o morali; discorso analogo per i forum dove vi era un moderatore.
Con l’avvento del Web 2.0 le cose si complicano: tramite i social network chiunque può creare un profilo 
( anche falso) e diventare editore e pubblicista, solo che in questo modo si crea un limbo dove è difficile attribuire delle responsabilità; il fatto poi che il profilo venga definito “personale” crea nell’utente la falsa considerazione che tutto sia permetto e lecito sul “nostro profilo personale”.

In realtà le cose non stanno esattamente così. Come abbiamo già detto tutto quello che pubblichiamo diventa subito disponibile e usufruibile da tutti e quindi dovremmo sempre pensare prima di pubblicare qualcosa.
Un esempio è accaduto l’ 8 dicembre del 2014, quando il cantante Mango si accasciò sul palco durante un concerto e vi morì sotto gli occhi dei suoi fan che con smartphone e tablet stavano riprendendo il concerto; nulla di sbagliato se non fosse che nel giro di pochi minuti tutti questi video furono pubblicati sui social e la notizia si propagò, prima di diventare ufficiale e che ne venissero informati i famigliari. Nel caso di un giornalista che fosse venuto a conoscenza della notizia avrebbe dovuto attendere che la famiglia ne fosse informata prima di divulgare la notizia, ma anche i giornalisti, in questo caso, per non “bucare” la notizia si sono visti costretti a pubblicarla.

Un altro problema che si presenta con i social network è la loro atemporalità. Il termine virtuale (che oggi è tanto usato) ha origine nel latino medioevale, deriva da “virtù”, e indica ( secondo Tommaso d'Aquino) la potenza attiva in grado di passare all’atto e diventare attuale. Questa è la rete e questi sono i social network dove tutto è attuale sempre e per sempre, dove il virtuale è diventato reale: una notizia o un post di anni fa può essere ripubblicato o ripresentato e ritorna ad essere attuale, decontestualizzato da quelli che sono il tempo e gli avvenimenti che lo hanno generato. I nostri post, una volta pubblicati, rimangono per sempre rendendo difficile l’esercitare il diritto all’oblio (da non confondere con il diritto all’oblio del GDPR).

Gli utenti del web sono sempre più fornitori di informazione e hanno creato una forma depravata di city journalism dove tutti sono fornitori di informazioni ed editori di se stesse senza esserne responsabili.
La mancanza di regole però deve essere riempita. Il solo articolo 21 della costituzione (libertà di espressione utilizzando ogni mezzo) non può essere preso a pretesto per creare l’anarchia informativa.
Quando i legislatori hanno scritto l’articolo 21 i mezzi di comunicazione erano limitati ai giornali, radio e Tv che stava nascendo ma che comunque erano sempre vincolati a degli editori che ne dettavano le linee guida deontologiche. Anche con la nascita delle radio libere degli anni ’70 del ventesimo secolo e delle televisioni commerciali degli anni ’80 c’era sempre un certo controllo deontologico sull’informazione.
Con la diffusione del web negli anni ’90 ed in particolare la nascita del web 2.0 si è diffusa l’idea di diritto alla libertà di espressione per tutti senza doverne avere i doveri.
Mentre per un sito o un blog il proprietario può essere considerato l’editore oltre che il pubblicista e ne risponde nei social network non è così: il social (ad esempio Facebook) diventa coproprietario dei nostri post e li può vendere o condividere a suo piacimento, ma non ne è direttamente responsabile e viene a mancare quello che può essere considerata la figura dell’editore.

La soluzione sarebbe facile, basterebbe che un social network al momento dell’iscrizione facesse accettare delle clausole “morali e deontologiche” che impongano, a chi è fruitore del servizio, di rispettare il diritto alla dignità personale delle persone, alla giusta informazione non decontestualizzata, al rispetto della privacy e all’oblio di altri che vengono nominati, regole simili a quelle deontologiche dell’ordine dei giornalisti per notizie di carattere pubblico, dato che spesso sono assimilabili ad essi.
Bisogna poi che chi si iscrive abbia la coscienza e la conoscenza che entra in un mondo dove tutto è pubblico, ma difficilmente un dodicenne (visto che è l’età minima per iscriversi a Facebook) ha la consapevolezza di ciò; bisogna sapere che il diritto alla deindicizzazione che applicano i principali motori di ricerca non porta automaticamente al far sparire da internet quello che abbiamo scritto, detto o pubblicato.

Quello che serve è uno sforzo comune tra autorità centrali (esempio parlamento europeo) e le grandi aziende del web 2.0 per creare prima delle regole che prima diventano un obbligo in quanto imposte ma poi si trasformano in regole implicite da tenere, sull’uso dei social e di ciò che vi si pubblica.
In realtà l’Italia ha già iniziato un processo per la regolamentazione deontologica di internet: nel 2015 viene redatta dal consiglio dei ministri la “Dichiarazione dei diritti in Internet” dove nell’articolo 9 comma 1 dichiara :” Ogni persona ha diritto alla rappresentazione integrale e aggiornata delle proprie identità in Rete”. Quando parliamo di identità intendiamo non solo l’aspetto fisico, il nome ed il cognome ma anche le opinioni, i valori e quant’altro identifichi una persona nella sua completezza in quel determinato periodo e luogo; estrapolare, tagliare o riproporre post, frasi o immagini senza tener conto di questo è una violazione di quanto sopra.
Ancora più interessante è l’articolo 11 nella sua interezza: “1. Ogni persona ha diritto di ottenere la cancellazione dagli indici dei motori di ricerca dei riferimenti ad informazioni che, per il loro contenuto o per il tempo trascorso dal momento della loro raccolta, non abbiano più rilevanza pubblica. 2. Il diritto all’oblio non può limitare la libertà di ricerca e il diritto dell’opinione pubblica a essere informata, che costituiscono condizioni necessarie per il funzionamento di una società democratica. Tale diritto può essere esercitato dalle persone note o alle quali sono affidate funzioni pubbliche solo se i dati che le riguardano non hanno alcun rilievo in relazione all’attività svolta o alle funzioni pubbliche esercitate. 3. Se la richiesta di cancellazione dagli indici dei motori di ricerca dei dati è stata accolta, chiunque può impugnare la decisione davanti all’autorità giudiziaria per garantire l’interesse pubblico all’informazione.” Quando noi riproponiamo un post di 10 anni fa, senza nessun collegamento a vicende attuali, solo per screditare questa o quella persona violiamo questo articolo.
Nell’articolo 12 poi si parla di obblighi da parte delle piattaforme digitali nei confronti degli utenti, mentre nell’articolo 14 al comma 1 si legge:” Ogni persona ha diritto di vedere riconosciuti i propri diritti in Rete sia a livello nazionale che internazionale.”; la dichiarazione finisce con il comma 7 che mette in evidenza la necessità di creare strutture nazionali e sovranazionali: ”La costituzione di autorità nazionali e sovranazionali è indispensabile per garantire effettivamente il rispetto dei criteri indicati, anche attraverso una valutazione di conformità delle nuove norme ai principi di questa Dichiarazione.”
Per chi volesse approfondire il testo integrale è disponibile sul sito della camera dei deputati.

Come si vede in Italia il problema di una forma di regolamentazione è molto più sentito che in altri paesi ( come ad esempio gli Stati Uniti) dove prevale il principio di libertà di espressione sopra ogni altro.
Per adesso, comunque, per quanto ci riguarda anche quando pubblichiamo qualcosa su un social network dobbiamo ricordarci sempre che siamo vincolati alle leggi del nostro paese in materia, quindi esiste il codice civile e penale, bisogna rispettare le regole sui diritti d’autore, sull’implicito consenso se pubblico foto che raffigurano in primo piano una persona, se posto dei fotogrammi tratti da un film non devono essere della scena madre, se posto un concerto o una rappresentazione teatrale non superare i 3 minuti, quando cito qualcuno o parte di un libro mettere sempre la fonte e i riferimenti senza decontestualizzare la frase e tutte le altre regole che esistono per l’editoria classica anche se sono un semplice utente di facebook.
Siti web ikea vs artigianali
Siti web ikea vs artigianali

Quando si decide di fare un sito web, per prima cosa bisogna decidere il tipo di "stumento" da utilizzare. Principalmente ci si orienta tra l'affidarsi ad un CMS e l'affidarsi a un Frameworks1 ( tralasciamo i classici  siti web statici fati solamente in HTML e CSS in quanto obsoleti). Per capire di cosa stiamo parlando iniziamo con il dire che i CMS (Sistemi di gestione dei contenuti) riducono, per l'utente che lo usa, la necessità di avere conoscenze specifiche di programmazione, mentre un frameworks fornisce una serie funzionalità che è possibile utilizzare per creare un sito personalizzato.


Cosa sono i CMS
I CMS, come abbiamo detto sopra, sono un sistema che permette di gestire i contenuti senza la necessità di una conoscenza specifica.  Tra i Content Management Systems più famosi spiccano Wordpress, Joomla!, Drupal, Magneto, Wix.
Le caratteristiche di ogni CMS sono diverse ma il loro nucleo e metodo di utilizzo è suppergiù il medesimo:

  • l'utente installa sul suo server il CMS tramite semplici passaggi (solitamente 1 o 2)
  • sceglie un template2 tra quelli disponibili
  • Inserisce i contenuti
  • Attiva eventuali Plug-in3

Da questi passaggi si evince che un CMS non necessita di nessuna conoscenza di programmazione in quanto si bassa su moduli preinstallati.


Cos'è un Frameworks
Un framework è un'architettura logica di supporto su cui un software può essere progettato e realizzato (quindi non è un linguaggio di programmazione!). La sua funzione è quella di creare una infrastruttura generale, lasciando al programmatore il contenuto vero e proprio dell'applicazione. Lo scopo di un framework è infatti quello di risparmiare allo sviluppatore la riscrittura di codice già scritto in precedenza per compiti simili.
Un Framework permette di interagire con un linguaggio di programmazione (e, come nel caso di .Net, di compilarne il codice).
I frameworks più famosi per la creazione di applicazioni web sono:

  • .Net ,che può interagire con diversi linguaggi che vanno dal C# al Vb.Net
  • Laravel e Symfony, che interagisce con PHP
  • Angular e Node.js, ottimi per Jscript
  • Django, creato per Phyton
  • Ruby on Rails, ottimo per usare Ruby

Si capisce subito che utilizzare un Frameworks richiede conoscenze specifiche e necessita di più tempo per la realizzazione di un progetto.


Personalizzazione
A chi utilizza principalmente i CMS per creare siti web piace molto il motto "perché reinventare la ruota se esiste già?" per riferirsi al fatto che per i CMS esistono centinaia di migliaia di templates disponibili (gratis o a pagamento)  tra i quali scegliere e quindi non ha senso sforzarsi nel creare del nuovo codice e dei nuovi layout per un progetto web. In realtà la maggior parte di chi utilizza i CMS non ha molte conoscenze di programmazione e tende a nascondersi dietro questo modo di pensare.
Tramite un CMS, infatti si hanno a disposizione, come già accennato sopra, tutta una serie di strumenti, tools e plug-in tra i quali scegliere e facilmente installabili e configurabili ma…
Potrebbero insorgere complicazioni quando è necessario che il sito web si adatti alle proprie esigenze specifiche.
Con un framework, invece, si deve creare un progetto da zero, il che porta a realizzare caratteristiche uniche e distintive: i framework sono altamente personalizzabili mentre un  CMS ha in genere dei limiti.
Con un CMS, ad esempio,  non è possibile modificare la funzionalità di base o non si aggiornerà correttamente, mentre un framework non ha limiti!
La realizzazione di un progetto web tramite un frameworks anziché di un CMS comporta, quindi, dei tempi di lavorazione più lunghi (tenendo conto della progettazione, debug4, ecc.) ma un grado di personalizzazione maggiore.


Sicurezza
Sucuri (azienda leader nel monitoraggio e protezione dei siti web) ha rilevato che nel 2018 la maggior parte dei siti web hackerati (90%) erano fatti tramite Wordpress (che è il CMS più utilizzato), seguiti da Magneto e Joomla!.
Gli esperti hanno rilevato che la maggior parte degli attacchi avvenivano tramite plug-in o non aggiornamenti dei sistemi stessi.
Il motivo di questa grande quantità di attacchi è presto chiarita: i CMS ed i relativi Plug-in, sono per la maggior parte progetti Open Source5 e quindi chiunque ne può vedere il codice sorgente ed eventualmente le vulnerabilità (così come chiunque può correggerle!)
Un progetto che utilizza un frameworks, invece, è quasi sempre scritto tramite un codice personalizzato e specifico da chi lo crea e quindi (a parte le vulnerabilità delle infrastrutture) risulta meno soggetto ad attacchi hacker.
Un framework ben sviluppato è molto più sicuro di un CMS generico, anche se i sistemi di gestione dei contenuti hanno spesso plug-in scritti per rafforzare la loro sicurezza.


Flessibilità
Indipendentemente dal tipo di progetto che si vuole creare può nascere la necessità di dover integrare lo stesso con delle funzionalità non previste come ad sistemi di  CMR (customer relationship management ovvero la gestione dei rapporti con i clienti) che possano interagire con altri strumenti e/o siti, come nel caso di Salesforce6.
Un progetto sviluppato tramite un framework sarà benissimo in grado di integrarsi e modellarsi con ogni necessità, mentre un progetto creato tramite un CMS dovrà "adattarsi" in base ai plug-in disponibili oppure affidarsi alla realizzazione dei plug-in personalizzati tramite un programmatore o un' agenzia con costi molto elevati.
Certo esiste anche la possibilità di creare progetti personalizzati che si basano sul core di un CMS ma in questo caso i costi partono, spesso, dai 5.000 euro superando, a volte, i 10.000, quindi non molto lontani (a volte anzi superiori) da quelli della realizzazione di una piattaforma web tramite l'uso di un frameworks.
Quando si parla di flessibilità, quindi, un frameworks offre un grado di libertà a 360° a fronte di costi di sviluppo più alti, mentre un CMS risulta molto più limitato con un costo minore.

 

Cosa segliere?
I CMS ed i Frameworks cono strumenti completamente diversi e la scelta di utilizzare l'uno anziché l'altro dipende da vari fattori. Prima di scegliere quale metodo di sviluppo scegliere è bene considerare alcuni punti:

  • La quantità di tempo che si è disposti a investire su di un progetto
  • La quantità di soldi che si possono/vogliono investire sullo stesso
  • L'unicità del progetto ed il suo grado di flessibilità
  • Il target al quale il progetto è destinato
  • Il grado di sicurezza di cui si necessita

Sicuramente per il blog personale che non necessita di troppe visite o anche di un semplice negozio sotto casa l'utilizzo di un CMS può rappresentare una scelta oculata, laddove, nel caso ci si affidi ad un azienda o a un professionista, i costi non siano troppo elevati.
Se il progetto riguarda invece un progetto web che deve interagire con i clienti, presentare prodotti e come target si designi traguardi elevati è meglio iniziare subito con un Frameworks ( meglio se .net) onde evitare poi di dover ricominciare tutto da capo.
Ricordiamo, infine, che pochissimi degli utenti che accederanno ad un sito web sono in grado di capire con quale tecnologia sia stato sviluppato, ma prestano più attenzione alla fruibilità del sito, ai contenuti e a quanto sia conforme alle sue necessità.


1 Per una spiegazione di cosa sia un frameworks si consiglia di leggere il precedente articolo "Php o .Net? Facciamo Chiarezza" 
2
 Il template nel web è un modello usato per separare il contenuto dalla presentazione grafica, e per la produzione in massa di pagine Web. 
3 Con il termine plug-in, in questo caso, ci si riferisce a programma non autonomo che interagisce con un altro programma per ampliarne o estenderne le funzionalità originarie. 
4Nella programmazione informatica il debug è l'attività di ricerca e correzione degli errori (bug) in un programma. 
5 Letteralmente "sorgente aperta", indica un software il cui codice sorgente è rilasciato con una licenza che lo rende modificabile o migliorabile da parte di chiunque. 
6 Salesforce è la più importante piattaforma per la gestione delle relazioni con i clienti (CRM)

Vivere senza Wikipedia
Vivere senza Wikipedia
Il 25 marzo 2019 gli utenti che accedevano alle pagine della nota enciclopedia online wikipedia hanno avuto la triste sorpresa di trovarsi la pagina autosospesa per protesta contro la legge che si stava varando in nel parlamento europeo riguardo il diritto di copywrite.
Di Wikipedia e di come, a volte, le informazioni esposte non siano sempre affidabili ne ho già parlato in un mio precedente post e non voglio tornarvi sopra, così come non voglio trattare della nuova normativa europea sul copywrite; quello che voglio evidenziare in questo mio post è invece come sia possibile (a volte anche augurabile) approfondire le ricerche online baypassando wikipedia.
I motori di ricerca, tra i vari requisiti che permettono un buon posizionamento nelle ricerche, considerano anche la popolarità di un sito e quanto il contenuto di questo sia affine alle parole ricercate dall’utente. In base a questi criteri Wikipedia compare sempre tra i primi posti (se non addirittura per primo) e l’utente medio, in generale, non cerca più fonti di informazione, ma si limita al primo (al massimo al secondo) risultato che trova. In questo modo Wikipedia guadagna sempre più posizioni ed è diventata il punto di riferimento per “sapere” qualcosa. Secondo i dati Semrush wikipedia è il sito che in Italia riceve il maggior numero di visite da Google
Il 25 marzo, però gli utenti hanno dovuto arrangiarsi come ai tempri pre-wikipedia. Nulla di grave, s’intende, il disguido è stato momentaneo, ma molti utenti hanno riscoperto la rete per le ricerche. 
D'altronde molti geek già lo facevano: se si voleva avere delle informazioni su di un film meglio andare su mymovie.it che offre un database molto fornito oltre che diverse recensioni e critiche; se si vuole sapere qualcosa di matematica cosa c’è di meglio di youmath.it?
Ed in effetti se volessimo fare una prova e confrontare il risultato della ricerca per la parola “numero complesso” tra wikipedia e youmath scopriremmo che la spiegazione di quest’ultimo (sebbene più lunga) è molto più chiara e comprensibile.
Ci siamo accorti che con il passare del tempo Wikipedia tende ad essere sempre più ingombrante, diventando sempre più spesso l’unico mezzo per ricercare informazioni online e che disincentiva l’utente alla ricerca di altre fonti.
Ma il variare delle fonti anche per sedare una piccola curiosità o una trascurabile lacuna, è diventato un obbligo.
Certo molti utenti si saranno trovati spaesati, persi, impauriti senza una risposta manicheistica immediata che illumina la loro curiosità velocemente quasi che un possibile horror digitale si sia insinuato nella loro vita e, magari, hanno rinunciato alla loro ricerca aspettando che il “doomsday” wikipediano passasse.
La verità, invece, è che senza l’enciclopedia libera e collaborativa si può vivere bene, anzi ci si può informare meglio e magari confrontarsi con i nostri interlocutori portando più punti di vista di uno stesso argomento.
Certo il 1492 rimane per tutti l’anno della scoperta dell’America e dell’unificazione spagnola, ma la quantità e la qualità di come quest’informazione viene data fa la differenza, un po’ come leggere una rivista di storia o un saggio di storia sullo stesso argomento.
← Back
Foward →
FB TW Pinterest whatsapp RSS FEED News letter

filoweb.it è il sito personale di Filippo Brunelli
(c) 2017 Filippo Brunelli
Le immagini ed i testi contenuti nel sito filoweb.it sono di proprietà di Filippo Brunelli salvo diversamente indicato.
L'uso delle immagini e del testo è gratuito per uso personale ed è subbordinato alla citazione della fonte.
Brunelli Filippo declina ogni responsabilità per l'uso che viene fatto delle informazioni presenti nel sito filoweb.it.
X
La tua privacy è importante
Utilizziamo, senza il tuo consenso, SOLO cookies necessari alla elaborazione di analisi statistiche e tecnici per l'utilizzo del sito. Chiudendo il Cookie Banner, mediante il simbolo "X" o negando il consenso, continuerai a navigare in assenza di cookie di profilazione. More info

Tutti
Cookie tecnici
I cookie tecnici sono necessari al fine di "effettuare la trasmissione di una comunicazione su una rete di comunicazione elettronica, o nella misura strettamente necessaria al fornitore di un servizio della società dell'informazione esplicitamente richiesto dal contraente o dall'utente a erogare tale servizio" (art. 122, comma 1 del Codice privacy).
Cookie analitici di terze parti
I cookie analytics sono utilizzati al fine di valutare l'efficacia di un servizio della società dell'informazione fornito da un titolare di un sito, per progettare un sito web o contribuire a misurare il "traffico" di un sito web, ovvero il numero di visitatori ripartiti per area geografica, fascia oraria della connessione o altre caratteristiche.
Cookie di profilazione
Sono cookie che creano profili personalizzati relativi all'utente per finalità di marketing, ad esempio il retargeting o advertising sui social network.

FILOWEB.it by Filippo Brunelli. FILOWEB.it by Filippo Brunelli. FILOWEB.it by Filippo Brunelli. Il sito web FILOWEB.it di Filippo Brunelli è attivo dal 2001. Negli anni il sito web FILOWEB.it by Filippo Brunelli ha avuto molte modifiche e rivisitazioni. Iniziato come un sito web html standart, il sito web FILOWEB.it by Filippo Brunelli è passato alla tecnoloiga Flash per finire con ASPX e CSS e HTML nuovamente. FILOWEB.it by Filippo Brunelli è opera di Filippo Brunelli. Filoweb contiente molte informazioni che potranno piacerti. Continua a visitare filoweb