Filoweb.it
By Filippo Brunelli


FB TW Pinterest whatsapp RSS FEED News letter

  ► Magazine

Siti web ikea vs artigianali
Siti web ikea vs artigianali

Quando si decide di fare un sito web, per prima cosa bisogna decidere il tipo di "stumento" da utilizzare. Principalmente ci si orienta tra l'affidarsi ad un CMS e l'affidarsi a un Frameworks1 ( tralasciamo i classici  siti web statici fati solamente in HTML e CSS in quanto obsoleti). Per capire di cosa stiamo parlando iniziamo con il dire che i CMS (Sistemi di gestione dei contenuti) riducono, per l'utente che lo usa, la necessità di avere conoscenze specifiche di programmazione, mentre un frameworks fornisce una serie funzionalità che è possibile utilizzare per creare un sito personalizzato.


Cosa sono i CMS
I CMS, come abbiamo detto sopra, sono un sistema che permette di gestire i contenuti senza la necessità di una conoscenza specifica.  Tra i Content Management Systems più famosi spiccano Wordpress, Joomla!, Drupal, Magneto, Wix.
Le caratteristiche di ogni CMS sono diverse ma il loro nucleo e metodo di utilizzo è suppergiù il medesimo:

  • l'utente installa sul suo server il CMS tramite semplici passaggi (solitamente 1 o 2)
  • sceglie un template2 tra quelli disponibili
  • Inserisce i contenuti
  • Attiva eventuali Plug-in3

Da questi passaggi si evince che un CMS non necessita di nessuna conoscenza di programmazione in quanto si bassa su moduli preinstallati.


Cos'è un Frameworks
Un framework è un'architettura logica di supporto su cui un software può essere progettato e realizzato (quindi non è un linguaggio di programmazione!). La sua funzione è quella di creare una infrastruttura generale, lasciando al programmatore il contenuto vero e proprio dell'applicazione. Lo scopo di un framework è infatti quello di risparmiare allo sviluppatore la riscrittura di codice già scritto in precedenza per compiti simili.
Un Framework permette di interagire con un linguaggio di programmazione (e, come nel caso di .Net, di compilarne il codice).
I frameworks più famosi per la creazione di applicazioni web sono:

  • .Net ,che può interagire con diversi linguaggi che vanno dal C# al Vb.Net
  • Laravel e Symfony, che interagisce con PHP
  • Angular e Node.js, ottimi per Jscript
  • Django, creato per Phyton
  • Ruby on Rails, ottimo per usare Ruby

Si capisce subito che utilizzare un Frameworks richiede conoscenze specifiche e necessita di più tempo per la realizzazione di un progetto.


Personalizzazione
A chi utilizza principalmente i CMS per creare siti web piace molto il motto "perché reinventare la ruota se esiste già?" per riferirsi al fatto che per i CMS esistono centinaia di migliaia di templates disponibili (gratis o a pagamento)  tra i quali scegliere e quindi non ha senso sforzarsi nel creare del nuovo codice e dei nuovi layout per un progetto web. In realtà la maggior parte di chi utilizza i CMS non ha molte conoscenze di programmazione e tende a nascondersi dietro questo modo di pensare.
Tramite un CMS, infatti si hanno a disposizione, come già accennato sopra, tutta una serie di strumenti, tools e plug-in tra i quali scegliere e facilmente installabili e configurabili ma…
Potrebbero insorgere complicazioni quando è necessario che il sito web si adatti alle proprie esigenze specifiche.
Con un framework, invece, si deve creare un progetto da zero, il che porta a realizzare caratteristiche uniche e distintive: i framework sono altamente personalizzabili mentre un  CMS ha in genere dei limiti.
Con un CMS, ad esempio,  non è possibile modificare la funzionalità di base o non si aggiornerà correttamente, mentre un framework non ha limiti!
La realizzazione di un progetto web tramite un frameworks anziché di un CMS comporta, quindi, dei tempi di lavorazione più lunghi (tenendo conto della progettazione, debug4, ecc.) ma un grado di personalizzazione maggiore.


Sicurezza
Sucuri (azienda leader nel monitoraggio e protezione dei siti web) ha rilevato che nel 2018 la maggior parte dei siti web hackerati (90%) erano fatti tramite Wordpress (che è il CMS più utilizzato), seguiti da Magneto e Joomla!.
Gli esperti hanno rilevato che la maggior parte degli attacchi avvenivano tramite plug-in o non aggiornamenti dei sistemi stessi.
Il motivo di questa grande quantità di attacchi è presto chiarita: i CMS ed i relativi Plug-in, sono per la maggior parte progetti Open Source5 e quindi chiunque ne può vedere il codice sorgente ed eventualmente le vulnerabilità (così come chiunque può correggerle!)
Un progetto che utilizza un frameworks, invece, è quasi sempre scritto tramite un codice personalizzato e specifico da chi lo crea e quindi (a parte le vulnerabilità delle infrastrutture) risulta meno soggetto ad attacchi hacker.
Un framework ben sviluppato è molto più sicuro di un CMS generico, anche se i sistemi di gestione dei contenuti hanno spesso plug-in scritti per rafforzare la loro sicurezza.


Flessibilità
Indipendentemente dal tipo di progetto che si vuole creare può nascere la necessità di dover integrare lo stesso con delle funzionalità non previste come ad sistemi di  CMR (customer relationship management ovvero la gestione dei rapporti con i clienti) che possano interagire con altri strumenti e/o siti, come nel caso di Salesforce6.
Un progetto sviluppato tramite un framework sarà benissimo in grado di integrarsi e modellarsi con ogni necessità, mentre un progetto creato tramite un CMS dovrà "adattarsi" in base ai plug-in disponibili oppure affidarsi alla realizzazione dei plug-in personalizzati tramite un programmatore o un' agenzia con costi molto elevati.
Certo esiste anche la possibilità di creare progetti personalizzati che si basano sul core di un CMS ma in questo caso i costi partono, spesso, dai 5.000 euro superando, a volte, i 10.000, quindi non molto lontani (a volte anzi superiori) da quelli della realizzazione di una piattaforma web tramite l'uso di un frameworks.
Quando si parla di flessibilità, quindi, un frameworks offre un grado di libertà a 360° a fronte di costi di sviluppo più alti, mentre un CMS risulta molto più limitato con un costo minore.

 

Cosa segliere?
I CMS ed i Frameworks cono strumenti completamente diversi e la scelta di utilizzare l'uno anziché l'altro dipende da vari fattori. Prima di scegliere quale metodo di sviluppo scegliere è bene considerare alcuni punti:

  • La quantità di tempo che si è disposti a investire su di un progetto
  • La quantità di soldi che si possono/vogliono investire sullo stesso
  • L'unicità del progetto ed il suo grado di flessibilità
  • Il target al quale il progetto è destinato
  • Il grado di sicurezza di cui si necessita

Sicuramente per il blog personale che non necessita di troppe visite o anche di un semplice negozio sotto casa l'utilizzo di un CMS può rappresentare una scelta oculata, laddove, nel caso ci si affidi ad un azienda o a un professionista, i costi non siano troppo elevati.
Se il progetto riguarda invece un progetto web che deve interagire con i clienti, presentare prodotti e come target si designi traguardi elevati è meglio iniziare subito con un Frameworks ( meglio se .net) onde evitare poi di dover ricominciare tutto da capo.
Ricordiamo, infine, che pochissimi degli utenti che accederanno ad un sito web sono in grado di capire con quale tecnologia sia stato sviluppato, ma prestano più attenzione alla fruibilità del sito, ai contenuti e a quanto sia conforme alle sue necessità.


1 Per una spiegazione di cosa sia un frameworks si consiglia di leggere il precedente articolo "Php o .Net? Facciamo Chiarezza" 
2
 Il template nel web è un modello usato per separare il contenuto dalla presentazione grafica, e per la produzione in massa di pagine Web. 
3 Con il termine plug-in, in questo caso, ci si riferisce a programma non autonomo che interagisce con un altro programma per ampliarne o estenderne le funzionalità originarie. 
4Nella programmazione informatica il debug è l'attività di ricerca e correzione degli errori (bug) in un programma. 
5 Letteralmente "sorgente aperta", indica un software il cui codice sorgente è rilasciato con una licenza che lo rende modificabile o migliorabile da parte di chiunque. 
6 Salesforce è la più importante piattaforma per la gestione delle relazioni con i clienti (CRM)

Vivere senza Wikipedia
Vivere senza Wikipedia
Il 25 marzo 2019 gli utenti che accedevano alle pagine della nota enciclopedia online wikipedia hanno avuto la triste sorpresa di trovarsi la pagina autosospesa per protesta contro la legge che si stava varando in nel parlamento europeo riguardo il diritto di copywrite.
Di Wikipedia e di come, a volte, le informazioni esposte non siano sempre affidabili ne ho già parlato in un mio precedente post e non voglio tornarvi sopra, così come non voglio trattare della nuova normativa europea sul copywrite; quello che voglio evidenziare in questo mio post è invece come sia possibile (a volte anche augurabile) approfondire le ricerche online baypassando wikipedia.
I motori di ricerca, tra i vari requisiti che permettono un buon posizionamento nelle ricerche, considerano anche la popolarità di un sito e quanto il contenuto di questo sia affine alle parole ricercate dall’utente. In base a questi criteri Wikipedia compare sempre tra i primi posti (se non addirittura per primo) e l’utente medio, in generale, non cerca più fonti di informazione, ma si limita al primo (al massimo al secondo) risultato che trova. In questo modo Wikipedia guadagna sempre più posizioni ed è diventata il punto di riferimento per “sapere” qualcosa. Secondo i dati Semrush wikipedia è il sito che in Italia riceve il maggior numero di visite da Google
Il 25 marzo, però gli utenti hanno dovuto arrangiarsi come ai tempri pre-wikipedia. Nulla di grave, s’intende, il disguido è stato momentaneo, ma molti utenti hanno riscoperto la rete per le ricerche. 
D'altronde molti geek già lo facevano: se si voleva avere delle informazioni su di un film meglio andare su mymovie.it che offre un database molto fornito oltre che diverse recensioni e critiche; se si vuole sapere qualcosa di matematica cosa c’è di meglio di youmath.it?
Ed in effetti se volessimo fare una prova e confrontare il risultato della ricerca per la parola “numero complesso” tra wikipedia e youmath scopriremmo che la spiegazione di quest’ultimo (sebbene più lunga) è molto più chiara e comprensibile.
Ci siamo accorti che con il passare del tempo Wikipedia tende ad essere sempre più ingombrante, diventando sempre più spesso l’unico mezzo per ricercare informazioni online e che disincentiva l’utente alla ricerca di altre fonti.
Ma il variare delle fonti anche per sedare una piccola curiosità o una trascurabile lacuna, è diventato un obbligo.
Certo molti utenti si saranno trovati spaesati, persi, impauriti senza una risposta manicheistica immediata che illumina la loro curiosità velocemente quasi che un possibile horror digitale si sia insinuato nella loro vita e, magari, hanno rinunciato alla loro ricerca aspettando che il “doomsday” wikipediano passasse.
La verità, invece, è che senza l’enciclopedia libera e collaborativa si può vivere bene, anzi ci si può informare meglio e magari confrontarsi con i nostri interlocutori portando più punti di vista di uno stesso argomento.
Certo il 1492 rimane per tutti l’anno della scoperta dell’America e dell’unificazione spagnola, ma la quantità e la qualità di come quest’informazione viene data fa la differenza, un po’ come leggere una rivista di storia o un saggio di storia sullo stesso argomento.
Whatsapp non deve essere l'alternativa ai classici SMS
Whatsapp non deve essere l'alternativa ai classici SMS

La notizia che dal 2019 Whatsapp (che conta 1,5 miliardi di utenti) smetterà di funzionare su alcuni dispositivi, insieme a quella che Google (tramite la propria app CHAT) ha intenzione di sostituire ai classici SMS mi porta a fare alcune riflessioni.


Cosa sono gli SMS
Iniziamo subito con il chiarire la differenza tra i classici SMS e i programmi di Istant Messanging.
I classici SMS sono un servizio che utilizza un protocollo riconosciuto da oltre 160 paesi che permette di scambiare brevi messaggi di testo (160 caratteri da 7 bit equivalenti a 140 byte: 1120bit di messaggio più le informazioni aggiuntive) tra gli utenti di telefoni mobili.
Il servizio di messaggistica breve sui telefoni cellulari nasce agli inizi degli anni ’90 sulla rete GSM ed è poi stato esteso sia sulle reti UMTS che quelle 3G, 4G e 5G. Tramite questo sistema di scambio dati un utente che ha uno smartphone di ultimissima generazione che si trova in Italia può tranquillamente mandare un messaggio di testo ad un utente che ha un telefono GSM vecchio di 20 anni che si trova in Congo, con la certezza che questi lo riceverà, indipendentemente da quale gestore usiamo: un messaggio sms, quando viene inviato, utilizza sei diversi tipi di protocolli, chiamati Protocol Data Unit (PDU)1; tralasciando la spiegazione tecnica di cosa serve ogni protocollo diciamo che, tramite questi protocolli, si può avere la certezza che un sms sia stato recapitato o meno.
Ultima nota tecnica: un sms può essere inviato al centro messaggi2 che provvede a smistarlo tramite vari dispositivi; oltre al telefono cellulare, infatti, posso inviare messaggi tramite modem dialup, dispositivi DMTF ( ad esempio telefono a tono), tramite internet.
Ci sono due modi di inviare sms, il primo è il classico Point to Point dove un messaggio viene inviato da un utente ad un altro, il secondo, chiamato Cell Broadcast, permette di inviare un messaggio a tutti i dispositivi collegati ad una determinata cella. Questo metodo è usato soprattutto dalle agenzie governative per allertare le persone di eventuali pericoli o altro come nel caso del ”PenforCec” (Proximity Emergency Network for Common European Communication) dell’Unione Europea nato con lo scopo di avvisare i cittadini di un attentato nella zona dove si trovano.


Cosa sono i programmi di Istand messaging
I programmi di instant messaging nascono anche loro negli anni ’90 del secolo scorso; il primo programma (che è ancora funzionante) si chiamava ICQ e, installato su di un computer, permetteva di ricevere messaggi in tempo reale e di scambiare foto e informazioni; con l’avvento degli smartphone questi programmi hanno preso il nome di APP e hanno iniziato ad evolversi offrendo più funzionalità, ma il principio di funzionamento è sempre lo stesso: tramite una connessione ad internet posso inviare una sequenza di byte ad un altro utente che utilizza il medesimo programma.


Differeneze, sicurezza e altro
Vediamo subito che mentre il primo è un servizio che usa un protocollo standard il secondo è un programma di una azienda privata che per funzionare tra due o più utenti necessita che entrambi abbiano lo stesso programma installato. Inoltre può succedere, come nel caso di whatsapp che se l’azienda decide che un sistema o un tipo di telefono non possa più usare quel programma nulla può fare l’utente per impedirlo, proprio come accadrà dal 2019 quando molti telefoni antecedenti il 2011 e che usano android 2.3.7 (ovvero Gingerbread) non potranno più usare Whatsapp, così come gli Iphone dotati di IOS7 ( ad esempio iphone4 non aggiornati) e moltissimi altri telefoni come quelli che Windowsphone 8.0.
Nel mercato degli Istant messaging sono due i programmi che detengono il primato: Messagner e Whatsapp, entrambi appartengono a Facebook.
In particolare Messanger è utilizzato soprattutto in Nord America, Australia, Francia, in alcuni paesi dell’Europa dell’est, Nord Africa, nel resto del mondo il più usato è Whatsapp ad eccezione della Cina dove è più usato wechat.


Da un punto di vista della sicurezza vediamo subito che essendo il primo (SMS) un servizio ed il secondo (IM) un programma molto spesso si preferisce utilizzare gli SMS per comunicazioni importanti e che richiedono un livello di sicurezza più elevato: le banche, per inviare i codici di accesso preferiscono usare gli SMS anziché un programma di istant messaging, così come alcuni uffici come ad esempio l’INPS per inviare la seconda parte del PIN personale preferisce un SMS o un messaggio in e-mail.
Malgrado le conversazioni di whatsapp siano crittografate ricordiamo che questo rimane pur sempre un programma (o app dir si voglia) e come tale può essere hakerato; nel 2017 un exploit permetteva di conoscere se un utente era attivo o meno o se avesse ricevuto i messaggi, lo stato dell’ultimo accesso, eccetera, malgrado nel profilo le impostazioni fossero impostate per lasciare nascoste queste informazioni.
Inoltre ci sono alcuni tools e tips online che tramite Kali OS (una distribuzione di Linux pensata per effettuare penetration test) che permettono di hakerare un account).
Whatsapp, inoltre non ci può garantire per sempre l’utilizzo che l’azienda Facebook farà dei nosti dati in futuro; nei termini della d’utilizzo si legge:
WhatsApp è una delle aziende di Facebook. WhatsApp lavora e condivide informazioni con le altre aziende di Facebook per ricevere servizi quali infrastrutture, tecnologie e sistemi che ci consentono di offrire e migliorare WhatsApp e continuare a mantenere WhatsApp e le aziende di Facebook sicure e protette.”
Ed ancora:
Oggi, Facebook non usa le informazioni del tuo account WhatsApp per migliorare le tue esperienze con i prodotti di Facebook o per fornirti esperienze pubblicitarie Facebook più pertinenti su Facebook”.
In questo caso la parola che deve preoccupare è “oggi”, in quando se “domani” l’azienda decide di cambiare e di utilizzare i dati l’utente si trova davanti ad una scelta: accettare di vedere utilizzati i propri dati personali ad un simile scopo e continuare ad utilizzare il programma oppure rifiutare e non utilizzare più il programma.
Anche se lasciassimo il programma non avremmo mai la certezza che i nostri dati vengano effettivamente cancellati perché, come si legge sulla pagina ufficiale di Whatsapp:
…la copia di alcuni materiali (ad esempio, i file di log e il registro chiamate) potrebbe rimanere nel nostro database, ma non è associata a identificatori personali. Per motivi legali (quali, gestione delle frodi e di altre attività illegali), potremmo conservare le tue informazioni..
Naturalmente l’utilizzo che un azienda fa o farà dei nostri dati non riguarda solo whatsapp ma tutti programmi.


Sfatiamo adesso uno dei luoghi comuni più famosi sulla differenza tra un sms e un messaggio via IM, ovvero che gli sms li pago mentre un messaggio di instant messaging è gratis. L’affermazione più giusta sarebbe che un IM mi cosa meno di un equivalente SMS, ma in entrambi i casi li pago. Quanto? Dipende dal profilo contrattuale che ho con il mio gestore e dall’uso che faccio dei dati.
Molte compagnie di telefonia mobile offrono, ad un costo fisso, un pacchetto che comprende minuti di conversazione, SMS e dati; al superamento della soglia, tutto quello che eccede il traffico fissato viene pagato a parte, così se supero il numero di minuti o di sms che posso usare gli altri li pago. Lo stesso vale anche per il traffico internet.
Un IM utilizza i dati e se mi limito a inviare solo un messaggio di testo di 160 caratteri sono più o meno l’equivalente di 140byte, come un SMS e avendo un profilo che mi consentisse anche solamente 2Gb mensili il numero di IM che mando sarà sempre nettamente superiore agli SMS disponibili (a meno che non abbia sms illimitati!)
Tramite IM non ci si limita a inviare solamente testo ma il più delle volte si inviano informazioni multimediali quali foto, video e messaggi audio che hanno un peso decisamente superiore.
Questo erroneo modo di confrontare SMS e IM nasce dal fatto che pochi sanno quantificare il peso di 1k.
Porto un esempio che mi è capitato pochi giorni fa : una mia conoscente voleva inviare, tramite whatsapp, due video che aveva registrato in full HD. I video erano di pochi minuti ma il peso totale era di circa 780Mb, il profilo della signora prevedeva 2GB3 al mese di dati il che equivaleva a circa 1/3 dei dati che aveva a disposizione.
In pratica non è vero che gli IM sono gratis, solo non è facile quantificarne il costo viste le variabili che entrano in gioco.


Conclusioni
Per quanto l’utilizzo di IM sia molto forte e negli ultimi 2 anni abbiano superato quello degli SMS tradizionali non è assolutamente possibile comparare le due cose. Nel primo caso, mi ripeto, si tratta di un servizio che utilizza una serie di protocolli, mentre nel secondo di programmi fatti da aziende private che possono, come si suol dire, decidere il bello ed il cattivo tempo.
Gli SMS sono e rimangono un sistema sicuro, veloce e funzionale che permette di scambiare messaggi con ogni persona dotata di un telefono cellulare o un dispositivo in grado di supportare questo protocollo.
Aspettiamo di vedere se l’idea di Google di creare un nuovo protocollo di comunicazione denominato Rich Communication System (RCS), una sorta di Sms 2.0, per mezzo del quale si potranno spedire e ricevere foto, video, Gif animate o perfino allegati sia una cosa che riuscirà a svilupparsi o meno, ma fino ad allora il servizio SMS non deve morire o essere sostituito da programmi di IM.

1 Tipo PDU Direzione Funzione
SMS-DELIVER SMSC => Telefono Invia un messaggio breve
SMS-DELIVER-REPORT Telefono => SMSC Invia il motivo di una mancata ricezione del messaggio
SMS-SUBMIT Telefono => SMSC Invia un messaggio breve
SMS-SUBMIT-REPORT SMSC => Telefono Invia il motivo di una mancata ricezione del messaggio
SMS-STATUS-REPORT SMSC => Telefono Invia lo stato di un messaggio
SMS-COMMAND Telefono => SMSC Invia un comando
Il compito principale di SMS-DELIVER e di SMS-SUBMIT è quello di recapitare i dati del messaggio e le informazioni ad esso associate alle entità SMS, che sono il telefono GSM e l'SMSC.
L'SMS-DELIVER-REPORT e l'SMS-SUBMIT-REPORT servono per notificare alle entità SMS che il messaggio non è stato ricevuto in modo corretto e che è necessaria una ritrasmissione dello stesso.
L'SMS-STATUS-REPORT contiene informazioni sullo stato del messaggio: se è stato recapitato o meno dall'entità ricevente e quando è stato recapitato.
L'SMS-COMMAND contiene i comandi che devono essere associati ad un messaggio già inoltrato mediante SMS-SUBMIT.

2 L' SMSC , ovvero il Centro Servizio Messaggi, è una macchina di tipo Store & Forward (Memorizza ed invia), che accetta messaggi da diverse fonti (modem, altri terminali digitali, altri SMSC, internet) e li mantiene in memoria fino a quando non riesce a recapitarli ai terminali mobili digitali riceventi. Il tempo massimo in cui i messaggi verranno tenuti in memoria, se l'SMSC non è in grado di recapitarli immediatamente (perchè il terminale è spento o perchè e fuori campo), dipende dal gestore di rete, ma può anche essere preprogrammato come uno speciale parametro al momento dell'invio del messaggio stesso, ed inoltre può assumere valori da 1 ora fino a qualche settimana. Trascorso tale limite i messaggi vengono automaticamente rimossi dall'SMSC e non verranno più recapitati al terminale mobile.
Ogni network digitale ha in genere uno o più SMSC; ad ogni SMSC corrisponde un numero telefonico, che programmato sul telefono GSM, consente di inviare messaggi

3 Nel 1998 è stata decisa dal SMI la differenza tra GB e Gb. La maggior parte dei computer e dei sistemi operativi opera con una logica binaria e quindi moltiplicare per 1.024 (pari a 2 elevato alla decima ) invece che per 1.000 semplifica notevolmente il calcolo ai computers.
Il gigabyte “decimale” equivale a 1.000.000.000 byte (1 miliardo di byte). L’equivalenza tra gigabyte “decimale” e byte è ottenuta all’interno di un sistema decimale, in cui il gigabyte è visto calcolato come potenza di 10. E’ usato nelle telecomunicazioni, nell’ingegneria e dai produttori dei dischi fissi ed esterni per indicare le specifiche tecniche delle loro apparecchiature;
Il gigabyte “informatico” o “binario” equivale a 1.073.741.824 byte. In realtà più correttamente dovrebbe essere chiamato gibigyte (GiB o GB) l’equivalenza tra gigabyte “informatico” (più correttamente gibibyte Gb) e byte è ottenuta all’interno di un sistema binario, in cui il gigabyte è calcolato come potenza di 2.


Possibili trend per il web nel 2019
Possibili trend per il web nel 2019

Come l’anno passato eccovi alcune considerazioni su possibili web trend nel 2019. Secondo diversi siti specialistici ci aspettano altri 12 mesi all’insegna del minimalismo e del design flat, mentre sempre più spazio lo avranno gli elementi multimediali. In pratica sembra che il 2019 confermerà le tendenze del 2018 con qualche piccola-grande novità.

Mobile first

Come più volte ripetuto negli ultimi anni, l’utilizzo dei dispositivi mobili che hanno superato i pc impone che nella realizzazione di un sito web si pensi prima alla versione mobile e poi a tutto il resto. Il 2019, però, vedrà l’abbandono delle versioni “m.” di un sito dalle funzionalità limitate, dando risalto ai design responsitive che garantiscono la medesima esperienza su qualsiasi tipo di dispositivo.

 

Velocità

In realtà la velocità dovrebbe essere il principio di base delle pagine web con un buon design: gli utenti tendono ad abbandonare un sito se non viene caricato completamente entro tre secondi, mentre fino a pochi anni fa il tempo di caricamento medio richiesto era di 5 secondi.

Da luglio del 2018 d’altronde Google, tramite il Google Speed Update, ha dato alla velocità un peso sempre più importante nel posizionamento del sito. Nella progettazione si considera quindi la necessità che prima avvenga la riproduzione dei contenuti “above the fold” (ovvero quei componenti del sito web visibili all’osservatore senza che sia necessario scorrere con il mouse) mentre il caricamento dei contenuti “below the fold” può avvenire successivamente.

Per quanto riguarda le immagini vengono salvate con il JPG progressivo in modo che il caricamento avvenga in maniera più uniforme. I giorni delle foto gigantesche, dei video non compressi e dei Javascript gonfi sono finiti!

Questo non vuol dire che le immagini e i video di grandi dimensioni non sono stati rimossi dal web design, ma verranno incorporati in modo tale da non rallentare i tempi di caricamento.

 

Minimalismo e Flat design

Rimangono invariati il minimalismo ed il flat design (che aiutano anche il caricamento della pagina) come trend per la grafica fino a sfiorare il “Brutalist design”, che non vuol indicare un design brutto ma si rifà al concetto architettonico di “béton brut”, dove l’attenzione dell’utente non viene sviata a elementi decorativi ma si concentra sul contenuto del messaggio.

I maggiori motori di ricerca, d’altronde, stanno dando sempre più importanza ai contenuti di un sito valutando anche il rapporto tra peso della pagina e testo.

Nonostante sia minimalista, questo non significa che il flat design sia noioso, ma a contrasto degli elementi verranno preferiti colori vivaci e illustrazioni con immagini semplici ed i caratteri sans-serif, la cui somma delle parti si unisce per offrire un'esperienza utente eccellente, accattivante e coinvolgente.

 

Asimmetrie e geometrie

Una nota di novità arriva dalle griglie asimmetriche: quando parliamo di griglie asimmetriche (o spezzate) e di layout asimmetrici, pensiamo subito al sistema a griglia che è stato utilizzato per decenni su tutti i tipi di layout, che aiuta il progettista a mantenere facilmente allineamento e coerenza quando aggiunge un contenuto. Storicamente, non usare una griglia ha portato a ciò che molti hanno definito design sciatti o fastidiosi che impedivano all'utente di concentrarsi sulle parti più importanti della pagina; questo era dovuto principalmente al fatto che non esistevano strumenti adatti per poter abbandonare questo tipo di layout. Tuttavia, l'asimmetria e le griglie spezzate stanno guadagnando sempre più popolarità, probabilmente a causa del fatto di aver trovato un modo per non apparire come la maggior parte dei progetti di altri siti web, mentre allo stesso tempo non sono distratti o sciatti.

Grazie all’uso sapiente dei CSS si possono creare contenuti con asimmetrie che non appaiono come la maggior parte dei progetti di altri siti web, mentre allo stesso tempo non distraggono gli utenti e non sembrano sciatti.

Nel caos controllato che nasce dalle asimmetrie trova spazio l’uso delle forme geometriche, le stesse forme geometriche basilari che si studiano a scuola come quadrati, cerchi e triangoli, il tutto disegnato facendo uso di forme vettoriali e non bitmap. Queste forme geometriche vanno ad occupare lo spazio lasciato dall’asimmetria delle griglie (la loro simmetrie aiuta a bilanciare l’asimmetria creata) e possono essere usate nel contempo per aiutare l’utente del sito nella navigazione e ad attirare l’attenzione su alcune parti che vogliamo evidenziare.

 

Mini video ed animazioni

Se fino al 2018 nelle landing page o nelle home page si tendeva a mettere uno slideshow, il 2019 potrebbe vedere (grazie all’uso dell’HTML5) sostituite le immagini da piccoli video. In realtà, per non appesantire la pagina, si cercherà di creare dei minivideo che sono dei loop; quando un utente arriva su di un sito e un video viene riprodotto in background, è probabile che resti a guardarlo perché i video attirano l'attenzione. Più un utente rimane su di un sito, maggiori sono le probabilità di conversione. Questo, a sua volta, aumenta il tuo tempo sulla metrica del sito, e più alto è il tempo medio sul sito, migliore è punteggio SEO.

Una sottile ma evidente tendenza del 2019 nel web design saranno anche le micro-animazioni che sono un modo potente per offrire un'esperienza intuitiva e soddisfacente per l’utente mentre naviga in un sito web. Ciò avviene attraverso queste piccole animazioni che aiutano l'utente a capire il sito e a convalidarlo quando si passa il mouse sopra o su un elemento, come cambiare il colore di un pulsante quando il cursore si sposta su di esso o un menu che si espande quando fa clic sul Hamburger, lo scorrimento della pagina, eccetera.

 

Chatboot

Una novità che prenderà sempre più piede nei siti che necessitano dell’interazione con l’utente (agenzie assicurative, immobiliari, siti di servizi, ecc.) sono i Chatboot.

Negli ultimi anni, interagire e comunicare con i robot è diventato sempre più normale e chatbot (o robot) stanno diventando sempre più comuni sui siti Web e sulle microinterazioni: molto probabilmente, l’ultima volta che si ha interagito via chat con un nostro gestore la maggior parte della conversazione è stata tenuta da un chatbot in attesa che un operatore fosse libero.

Ad aiutare lo sviluppatore nella creazione di chatboot vi sono diversi frameworks tra i quali segnaliamo Microsoft bot framework, Wit.ai, API.ai, and Aspect CXP-NLU.

 

 

Conclusioni

Il 2019 si prospetta un anno che vedrà una linea di demarcazione pur nel segno della continuità: se nel design vi saranno pochi cambiamenti nell’utilizzo delle varie tecnologie i cambiamenti saranno però importanti nel lato della programmazione, dai chatboot ai video, dall’uso sempre più impattante dell’HTML5 e dei frameworks alla razionalizzazione degli script.

Questo non vuol dire che bisogna cambiare completamente un sito web che magari è appena stato fatto, ma di non lavorare su progetti che nascono già vecchi.

Coding nelle scuole: il bambino impara a pensare.
Coding nelle scuole: il bambino impara a pensare.
Il pensiero computazionale è  un processo mentale per la risoluzione di problemi che permette di operare a diversi livelli di astrazione del pensiero. Il miglior modo per sviluppare il pensiero computazionale, ad oggi,  è tramite il coding. Il termine coding, in italiano, si traduce con la parola programmazione, ma questa traduzione letterale limita molto quello che è il concetto già di per sé molto astratto della parola stessa e l’uso che ne viene fatto.

Abbiamo iniziato affermando che il coding è il miglio modo per sviluppare il pensiero computazionale. Vediamo di approfondire la spiegazione di cosa sia il pensiero computazionale, prendendo spunto da un articolo di  Jeannette Wing ( professoressa di “Computer Science” alla Columbia University) del 2006:

“Computational thinking is a fundamental skill for everyone, not just for computer scientists. To reading, writing, and arithmetic, we should add computational thinking to every child’s analytical ability.
...
Computational thinking involves solving problems, designing systems, and understanding human behavior, by drawing on the concepts fundamental to computer science. Computational thinking includes a range of mental tools that reflect the breadth of the field of computer science.” (http://www.cs.cmu.edu/~15110-s13/Wing06-ct.pdf)

 
Come afferma la professoressa il pensiero computazionale è un metodo di pensare che si può applicare poi nella vita di tutti i giorni e nei rapporti con le altre persone, non è quindi solo un metodo per “imparare a programmare” come affermano i meno informati.

Il coding permette di mettere insieme diverse necessità delle varie discipline scolastiche: come in grammatica bisogna seguire correttamente una sintassi e delle regole,  come in matematica è importante impostare la procedura risolutiva di un problema, sempre come in matematica ed in musica bisogna saper leggere e scrivere usando linguaggi simbolici e, come quando si scrive un testo di italiano,  è necessario scrivere un testo corretto, comprensibile ed espressivo.
Agli inizi degli anni ’60 il professor Seymour Papert del mit ideò quello circa venti anni dopo sarebbe diventato uno dei principali strumenti per insegnare il coding ai bambini: il LOGO.
Inizialmente il LOGO serviva per muovere un robot con dei semplici comandi avandi 10, destra 90, ecc. , fino a quando negli anni ’80 con l’avvento dei monitor e dei computer a basso costo venne sviluppata una versione visuale che letteralmente disegnava sullo schermo quello che in precedenza un robot faceva.
Sempre negli stessi anni iniziarono ad uscire in commercio giochi che si programmavano allo stesso modo e che ancora adesso vengono prodotti.
La semplicità del linguaggio ed il fatto che le principali azioni consistevano del disegnare su di uno schermo portarono il LOGO a diventare il linguaggio principale per spiegare ai bambini i concetti geometrici (cerchio, quadrato, triangolo, ecc) e permise a molti bambini di avvicinarsi ai rudimenti della programmazione sotto forma di gioco.
Purtroppo per molti anni, in Italia ed in molti altri paese, l’idea di insegnare il coding a scuola rimase relegato ai licei sperimentali o agli istituti tecnici con indirizzo specifico, fino a quando ,nel 2014 con la riforma della buona scuola venne introdotto il pensiero computazionale nelle scuole.
Pensiero computazionale, è uno strumento universale: pensare in modo computazionale significa suddividere il processo decisionale in singoli step e ragionare passo dopo passo sul modo migliore per ottenere un obiettivo. Una comportamento che in realtà mettiamo in atto tutti i giorni spesso in maniera inconscia. 
L’esempio più significativo di utilizzo del pensiero computazionale lo troviamo nel film “Apollo 13” nella scena dove un think thank di ingegneri si deve inventarsi un filtro per l’ossigeno partendo da pochi materiali disponibili.
Come abbiamo detto all’inizio il pensiero computazionale è un modo di pensare a diversi livelli di astrazione per raggiungere un obbiettivo, il fatto che il Coding sia il metodo più diretto per sviluppare questo modo di pensare porta alla conseguenza che avremo delle persone più consapevoli non solo del mondo che le circonda ma anche di come interagire con esso visto che sono in grado di padroneggiarne le basi: non saranno più dei semplici fruitori della tecnologia ma ne saranno i veri padroni.

“Intellectually challenging and engaging scientific problems remain to be understood and solved. The problem domain and solution domain are limited only by our own curiosity and creativity" (Jeannette Wing)
Quando l'antivirus non basta.
Quando l'antivirus non basta.
Tutti hanno sentito parlare di virus informatici e tutti coloro che hanno un dispositivo informatico sia esso un personal computer, un table od uno smartphone hanno un antivirus più o meno valido che gli fornisce sicurezza; con il tempo parlare di virus è diventato sinonimo di qualunque tipo di infezione informatica, mentre in realtà ci si riferisce a un programma, una macro o uno script progettato e realizzato per causare danni all’interno del dispositivo infettato.
Questa errata percezione di cosa sia esattamente un virus ha portato gli utenti ad avere un falso senso di sicurezza che si genera con l’installazione di un antivirus ed a pensare che sia sufficiente per essere al sicuro da ogni eventuale danno.

Un po’ di storia.
La storia dei virus informatici è costellata di aneddoti e leggende metropolitane più o meno vere, ma di certo c’è che l’idea di programmi autoreplicanti, in realtà, risale al 1949 quando John von Neumann (considerato da molti il padre dei computer) ipotizzò degli automi capaci di auto-replicare il proprio codice.
Nel 1971 Bob Thomas creò Creeper, un codice capace di auto-replicarsi e di diffondersi ad altri computer presenti sulla rete. In realtà Thomas non voleva creare quello che poi divenne il primo codice malevolo della storia, ma dimostrare la possibilità di passare un programma da un computer ad un altro; Creeper infatti non si auto-replicava ma “saltava” da un computer ad un altro, cancellando la copia precedente.
Contemporaneamente a Creeper venne scritto Repear, che si spostava nella rete allo stesso modo di Creeper ma il cui scopo era di catturare e cancellare il primo.
Il primo virus informatico che si conosce porta il nome di Elk Cloner e funzionava sul sistema operativo del computer Apple II. Era il 1982. Il virus non era di per sé molto pericoloso ma solamente fastidioso in quanto dopo il cinquantesimo riavvio del computer faceva comparire una scritta sul monitor.
Il programma (in quanto di programma si trattava) si autoinstallava nel settore di boot di un floppy disck; quando veniva inserito nel computer il virus si autoinstallava nel settore di boot dell’hard disk, per poi installarsi nuovamente nel settore di boot di un floppy disk non infetto nel momento che questo veniva inserito nel lettore.
Nel 1986 arriva Brain,  è il primo virus di "massa" per DOS di cui si conoscono gli autori (da due fratelli pakistani che intendevano punire i turisti che acquistavano software pirata) in quanto nel codice viene riportato il loro nome, indirizzo e numero telefonico.
È, invece, del 1988 il primo virus che si diffuse tramite internet creato da uno studente del MIT (Robert Morris) che creò un virus che si auto-replicava in memoria fino a portare al collasso del sistema.
Dagli anni ’90 in poi la diffusione dei virus si propagò parimenti con la diffusione dei personal computer, così come la comparsa e l’utilizzo sempre più intensivo degli antivirus.

Tipi di virus
Abbiamo visto che nella storia dei virus si siano sviluppati diversi tipi di codice che si propagano in maniera diversa. Altrettanto vario è il tipo di “danno” che il virus porta al computer o all’utente.
Anche se può sembrare inutile, sapere che tipo di virus può colpire il computer è importante in quanto può aiutare l’utente ad evitare un comportamento pericoloso da un punto di vista della sicurezza informatica.
Il primo tipo di codice pericoloso che andiamo a spiegare è quello che viene comunemente chiamato “virus”: si tratta di un programma del tipo eseguibile che si installa automaticamente o a seguito di un’azione da parte dell’utente e necessita di un host o di un sistema già infetto. Questo tipo di codice malevolo non rappresenta più un pericolo come in passato in quanto gli antivirus sono in grado di riconoscerlo e bloccarlo quasi all’istante, così come anche molti sistemi operativi.
I “worms” (letteralmente vermi) sono dei programmi che si propagano nella rete e si auto-replicano, come il programma Creeper del 1971.
Tra i worms distinguiamo i “trojan”, dei programmi che, come il famoso cavallo di Troia dal quale prende il nome, prende il controllo del computer infetto senza che l’utente se ne renda conto, riuscendo a rubare i dati o a compiere azioni illegali da e verso quest’ultimo.  Uno dei più pericolosi tipi di trojan, comparso la prima volta nel 2013, si chiama CryptoLocker. 
Questi codici infettano un computer, quindi si auto-inviano ai contatti presenti nella rubrica come allegato “vestito” da documento di testo o da foglio di calcolo, ed in fine criptano tutti i files tramite un sistema simile al RSA e chiedono un riscatto (solitamente da pagare in Bitcoin) per poter riavere i files leggibili.
Meno pericolosi, ma comunque molto fastidiosi, sono gli “adware” che installandosi nel computer host mandano pubblicità al browser dell’utente mentre naviga e raccoglie informazioni sulle sue preferenze.

Quando l’antivirus non basta.
Sebbene la maggior parte dei codici pericolosi vengono intercettati da un buon antivirus costantemente aggiornato è da notare che la diffusione dei virus è comunque sempre molto alta: il solo fatto che un dispositivo informatico sia dotato di un antivirus non lo mette automaticamente al sicuro: posso erigere tutte le mura che voglio attorno alla mia città ma se apro le porte al primo che bussa non hanno alcuna utilità.
Una ricerca CISCO del 2014 mostrava come il comportamento dei dipendenti fosse il vero anello debole nella sicurezza informatica nelle aziende e stesse diventando una fonte crescente di rischio (soprattutto per noncuranza, ignoranza e presunzione piuttosto che per volontarietà); gli stessi comportamenti che la CISCO aveva identificato nella sua ricerca del 2014 possono essere portati al comportamento che gli utenti tengono anche fuori dall’ambito lavorativo.
Molte volte capita che mi chiedano come fare ad evitare certi comportamenti, ma mi accorgo che quello che manca è proprio la conoscenza di base di chi mi fa queste domande e che dopo poco che cerco di spiegare il perché ci si infetta mi zittiscono chiedendomi un metodo universale che, al pari di una panacea, li protegga.
Se siete arrivati a leggere l’articolo fino a questo punto presumo che apparteniate a quel 10% degli utenti che capiscono che non esiste una panacea universale ma che bisogna adattare il proprio comportamento a seconda delle circostanze.
Chiariamo subito che sicuramente ci sono azioni e comportamenti da evitare per non aver rischi ma non sono questi i casi che voglio trattare adesso.
La prima cosa da fare è sicuramente imparare a leggere gli URL dei siti web che si aprono e gli allegati di posta elettronica che si ricevono da destra verso sinistra e non da sinistra verso destra come da abitudine.
Un file è composto da un nome ed un’estensione che ne identifica la “famiglia di appartenenza”, ovvero mi dice se si tratta di un programma o di un file che deve essere aperto da un programma; l’estensione è la parte finale di un file (ed è preceduta da un punto), quindi se un file mi finisce con .PDF sicuramente sarà un documento di Acrobat Reader, mentre se finisce con .EXE si tratta di un eseguibile. 
Vediamo come questa informazione possa esserci utile per identificare un allegato dannoso in e-mail.
Supponiamo che riceviamo da un nostro contatto una mail con un allegato chiamato “invito alla festa.pdf.exe”; in questo caso il tipo di file, che quello di un eseguibile in quanto l’estensione è .EXE e non .PDF (che lo identificherebbe come un documento Acrobat Reader), mi dovrebbe far scattare un campanello di allarme dicendomi che si tratta di un virus.
Un altro dei comportamenti pericolosi che si tengono è quello di non prestare attenzione ai siti web che apro. Questo tipo di comportamento viene spesso deprecato ma è una delle principali cause di infezione o di sottrazione di dati personali e si verifica quando si apre una pagina web che in tutto e per tutto sembra un’altra.  Solitamente entriamo in questi siti in due modi: o tramite una mail che ci invita ad aprire un sito per confermare la nostra identità o per rinnovare un pagamento di un servizio scaduto oppure tramite un virus inserito nel nostro browser che ci reindirizza automaticamente a queste pagine.
Se arriviamo ad esempio in una pagina che sembra quella della nostra banca o del nostro social network preferito in tutto e per tutto e ci chiede di inserire i nostri dati personali per l’accesso o per confermare un pagamento è importante verificare che l’URL sia quello giusto.
Ad esempio un indirizzo web http://www.facebook.login.biz  che mi apre una pagina simile (o uguale) a quella del log in di Facebook non ha nulla a che fare con facebook in quanto il dominio è login.biz e non facebook.com
Anche in questo caso è infatti importante leggere il sito da destra a sinistra, quindi vediamo che .biz è il dominio di 1° livello, .login di secondo e .facebook di terzo livello, quindi in questo caso .facebook appartiene alla famiglia .login che appartiene alla famiglia .biz, mentre se vado sul sito ufficiale di facebook vedo che l’url è https://www.facebook.com/, quindi il dominio di primo livello è .com mentre quello di secondo livello è .facebook.
Difficile? Forse si, almeno all’inizio, ma anche per imparare a guidare devo imparare i segnali stradali, la segnaletica orizzontale, sapere quando dare la precedenza e quando no, anzi imparare a guidare è anche più complesso perché devo anche imparare a condurre un’auto. Allora perché dovremmo spaventarci per imparare le basi della sicurezza informatica online? Semplice pigrizia!

Bulbi di tulipano o vera opportunità?
Bulbi di tulipano o vera opportunità?

Prima o poi doveva arrivare anche questo; gli scrittori di fantascienza li avevano sempre inseriti nei loro racconti chiamandole in vari modi e finalmente le criptovalute (o crittovaluta o criptomoneta)  sono arrivate!

Cosa sono le criptovalute?
Iniziamo con il dire che il valore che viene attribuito al denaro, oggi, è il frutto di una convenzione. Facciamo un esempio pratico: il costo di produzione di una moneta da 1 centesimo di euro è in realtà di 4.5 centesimi di euro (se consideriamo il prezzo di acquisto del rame e dell'acciaio necessari per produrlo), mentre per le monete dai 10 centesimi in su il valore nominale per produrli è inferiore.
Una banconota non è altro che un pezzo di carta così come una moneta non è altro che un insieme di leghe se possiamo usarle per ottenere in cambio dei beni è perché siamo tutti d'accordo sul valore che riconosciamo a quel pezzo di carta.
Allo stesso modo della valuta normale le cripto valute sono monete virtuali che gli utenti conservano in portafogli (sempre virtuali) e che possono scambiare tra di loro o spendere per comperare servizi e beni  dove sono accettate.

Chi garantisce le criptovalute?
Il denaro ha un valore che è variabile e questo dipende da molti fattori, riassumendo brevemente possiamo dire che il valore non sta tanto nel livello del suo valore rispetto alle altre monete ma nella capacità di mantenere un cambio stabile o in apprezzamento e questo dipende dalla performance del Paese, dalla fiducia che riscuote, dalla laboriosità dei suoi abitanti, dalla qualità delle sue istituzioni, ecc…
A questo punto c'è da chiedersi chi garantisce il valore delle criptovalute visto che sono create da uno o più computer che tramite un algoritmo definito mining e che, a differenza delle valute tradizionali, i Bitcoin sono completamente decentralizzati e la loro creazione (mining) non avviene per conto di un istituto centrale con funzioni di garanzia.
Chi accetta le criptovalute come pagamento o le usa per gli scambi ha fiducia in queste monete non tanto perché, appunto, vi sia dietro uno stato a garantirne il valore, ma per la tecnologia che è alla base: il blockchain.

Cos'è il Blockchain
La tecnologia che sta alla base delle criptovalute è molto semplice e si presta a moltissimi altri utilizzi.
L'idea di una catena simile ad un albero, dove ogni "foglia" rappresenta blocchi di dati e codici (detti hash), e nel quale ogni ramo si bipartisce rimanendo però matematicamente legato ai rami che genera risale all'inizio degli anni '90 e prende il nome di "Albero di Merkle". Con questo sistema, ogni volta che un ramo si sdoppia, è impossibile modificarlo senza andare a toccare gli altri rami che lo generano o che ne derivano.
Si vede subito che questa tecnologia è molto utile per tracciare una filiera come può essere quella della produzione di alimenti o prodotti, o per gestire il voto digitale per le elezioni (come è successo nelle elezioni del 2018 in Sierra Leone).

Dal Blockchain al Bitcoin
Nell'ottobre del 2008 sulla mailing list di metzdowd.com compare un articolo dal titolo molto indicativo: " A Peer-toPeer Electronic Cash System". In questo articolo, firmato da un certo Satoshi Nakamoto (nome sicuramente inventato), l'autore in solo nove pagine mescola formule matematiche e codici di programmazione e descrive come creare una moneta virtuale, chiamata "bitcoin", che non ha alcuna esistenza nel mondo reale ed è generata da un sistema virtuoso dove gli utenti stessi ne garantiscono la sopravvivenza e lo sviluppo, senza l'intermediazione degli istituti finanziari o delle banche centrali.
Alla base del Bitcoin stanno due tecnologie nate con internet, il Peer to Peer e il Blockchain.

Come si genera un bitcoin?
Per capire come viene generato un bitcoin bisogna prima di tutto vedere come funziona lo scambio dei bitcoin stessi.
Supponiamo che l'utente Filippo che ha 2 bitcoin ne dia 1 a Pamela, a questo punto la  transizione deve essere registrata e comunicata a tutto il mondo. L'operazione viene criptata e trasmessa in tutta la rete bitcoin (con un principio simile a quello del Peer to Peer), dove persone definite "Minatori" hanno il compito di decodificarla e registrarla.
Le operazioni sono criptate e il minatore mette a disposizione uno o più computer con il compito di decodificare l'operazione. Il primo che la decodifica la aggiunge e la comunica alla rete che la conferma, quindi l'aggiunge al libro mastro delle transizioni di bitcoin che si allunga (il sistema del blockchain) e ne riceve in cambio dei bitcoin nuovi di zecca.
Il sistema è stato creato in modo tale che il numero massimo di bitcoin che verranno creati sia di 21.000.000, e che ogni 210.000 operazioni (circa ogni 4 anni a seconda del delle operazioni fatte) il numero di bitcoin creato venga dimezzato. Questo è già successo nel 2012 quando i bitcoin in pagamento sono passati da 50 a 25.
A complicare ulteriormente la situazione è l'algoritmo stesso dei bitcoin che ad ogni operazione aggiunge complessità nella decodifica in modo da allungare la vita della moneta, ma obbligando i minatori a dotarsi sempre di più di calcolatori potenti e numerosi; succede così che se all'inizio un minatore con un normalissimo computer di casa poteva guadagnare, oggi ha bisogno di una serie di computer che lavorano in parallelo e sempre di maggior energia elettrica.
Considerando che ad oggi per poter creare una piccola miniera che estrae Bitcoin, per avere utili decenti, siano richiesti circa 50Mw di potenza per le computer farms, non stupisce che il maggior numero di minatori sia presente li dove l'energia sia a prezzi più bassi come in Islanda o Cina, anche se quest'ultima sta imponendo severe limitazioni ai minatori.

Chi guadagna con i bitcoin?
Abbiamo visto che i primi a guadagnare con i Bitcoin sono i minatori, che però con il passare del tempo sono costretti a dotarsi di computer sempre più potenti e performanti mentre il numero di bitcoin viene dimezzato regolarmente, quindi il margine è destinato a diminuire.
I commercianti, che avrebbero dovuto avere un ruolo importante nella diffusione della moneta elettronica, sono una parte marginale della filiera, mentre stanno sorgendo le figure dei "cambia valute digitali" che convertono le criptomonete in soldi reali in campio di una piccola commissione (come succede con i cambia valuta nel mondo reale).
Malgrado le criptomonete non abbiano avuto un'accoglienza positiva presso i commercianti, ha invece suscitato l'entusiasmo dei traders i quali scommettono in borsa sul rialzo o ribasso dei bitcoin, trasformando la criptovaluta in uno strumento di investimento.
Rimane il fatto che è un investimento estremamente a rischio: nel 2015 per quasi tutto l'anno il valore dei Bitcoin rimase intorno a poche centinaia di dollari per poi risalire e superare la soglia dei 1.000 dollari nel gennaio del 2017 e sfiorare i 20.000 una settimana prima di Natale, per poi scendere ancora intorno ai 6.000 dollari a giugno del 2018.
Il pericolo è che, diventando "una riserva di valore" (ovvero un bene sul quale investire come l'oro o le azioni) ma senza valori economici sottostanti possa scoppiare una bolla speculativa come quella dei bulbi di tulipano nel '600 in Olanda.
I bitcoin hanno un impatto molto importante nelle operazioni illegali: vengono sempre più spesso usati nel dark web per comperare droga, armi o altre transizioni illegali nei canali ufficiali; stanno inoltre diventando il tipo di monta preferita dai pirati informatici che infettano i computer tramite i virus cryptoloker e chiedono il riscatto in bitcoin per poter sbloccare i dati.

Il problema energetico.
Alcuni siti ambientalisti stanno lanciando l'allarme sull'uso smodato di energia che l'estrazione di bitcoin richiede.
Visto che l'estrazione dei bitocoin si basa su una rete di computer e server che richiedono molta energia si è stimato che nel 2017 l'estrazione di questa criptomoneta abbia richiesto 31terawatora all'anno.
Questa richiesta di energia influisce anche sul territorio ed i suoi abitanti, come è successo nel bacino del Mid-Columbia (Usa) dove 5 grandi centrali idroelettriche fornivano elettricità a bassissimo costo alle contee circostante e rivendevano il surplus agli stati vicini. Grazie al prezzo dell'energia così basso e agli impianti di irrigazione gli agricoltori hanno potuto trasformare la zona in una delle più produttive del paese.
La disponibilità di energia a basso costo ha però portato molti minatori ad insediarsi nella zona ed impiantarvi le loro farms. La richiesta di energia è così aumentata, diminuendo quella esportata e creando disagi ai residenti che vedono le loro risorse "rubate" da aziende che non producono nulla.
A questi ultimi si devono aggiungere i minatori che creano in casa loro delle piccole servers farm che richiedono molta più energia di quella disponibile nelle normali abitazioni, creando blackout e surriscaldando i trasformatori che bruciano creando pericolosi incendi.
In realtà, a livello globale si stima che se anche l'attuale incidenza dei bitcoin dovesse centuplicare rappresenterebbe meno del 2% del consumo blobale di energia, il problema si verifica invece nelle zone dove verrebbero ad installarsi le miniere di bitcoin.

Come i tulipani olandedi, gioco della piramide o vera opportunità?
Quella che esplose nel 1637 è considerata dagli economisti la prima bolla speculativa della storia. Nella prima metà del '600 il commercio dei tulipani nei Paesi Bassi era tale che la domanda dei bulbi raggiunse un picco così alto che ogni singolo bulbo raggiunse prezzi enormi, tanto che nel 1635 se ne registrò la vendita di alcuni a ben 25.000 fiorini l'uno (più di una tonnellata di burro). Si iniziarono così a vendere anche bulbi che erano stati appena piantati o che sarebbero stati piantati, quelli che oggi chiamiamo future.
Nel 1637 i commercianti, vedendo che non era più possibile l'innalzamento dei prezzi iniziarono a vendere tutti i loro bulbi inondando il mercato e diminuendone il valore; accadde così che chi aveva contratti per acquistare bulbi a 10 o 100 volte il loro prezzo reale si ritrovò con in mano nulla e chi aveva bulbi pagati anche 10.000 fiorini si ritrovò con solamente dei bei fiori.
Oggi la paura di molti è che quella dei bitcoin sia una situazione simile a quella Olandese del '600 e quando la domanda inizierà a sciamare le criptovalute diventeranno solamente un mezzo per gli acquisti illegali nel darkweb perdendo il loro "valore nel mondo reale" e creando una bolla speculativa.
Altre critiche riguardano il sistema dei bitcoin nel loro insieme: Dick Kovacevich, ex AD di Wells Fargo (una delle quattro più grandi banche degli Stati Uniti) ha definito quella dei bitcoin come "solo uno schema piramidale";  Davide Serra (fondatore di Algebris) invece twitta che: "Bitcoin è uno strumento per ripulire il denaro per criminali ed evasori fiscali che è stato trasformato nel più grande schema Ponzi di tutti i tempi con un valore di 160 miliardi di dollari (3 volte Madoff) e io sono stupefatto che non ci sia un solo regolatore che faccia qualcosa. Semplicemente incredibile". 
In realtà quando acquisto un bitcoin non acquisto una promessa di futuri guadagni, ma una unità che si può utilizzare immediatamente.
Infine rimane il dubbio di sapere chi sia il famoso Satoshi Nakamoto e che non sia tutto un "imboglio" tanto che quando finiranno i 21.000.000 di bitcoin disponibili all'estrazione o quando si perderà interesse per l'estrazione stessa sia l'unico a guadagnarci.
Quello delle criptovalute riamane comunque un investimento ad alto rischio se non diventeranno utili per l'acquisto di beni di consumo, mentre di certo è solamente il fatto che la tecnologia che sta alla base delle criptovalute, il blockchain è una tecnologia che si presta a diversi utilizzi.

Quale futuro?
Possiamo terminare questa analisi dicendo che non è facile ipotizzare cosa potrebbe succedere con le criptovalute ed i bitcoin in particolare.
Uno dei primi scenari, il più tragico, ci porta a pensare che, come nel caso dei tulipani olandesi, sia una bolla speculativa destinata ad esplodere, ma se si pensa che la quantità di bitcoin è limitata difficilmente ci sarà una svalutazione a causa dell'eccesso dell'offerta, portando questa criptovalura ad avvicinarsi all'oro.
L'uso dei bitcoin e delle criptovalute, secondo uno scenario più positivo ma non incoraggiante, potrebbe anche crescere in quanto ha il vantaggio che è difficilmente rintracciabile e non è confiscabile; potrebbe diventare un tipo di investimento di nicchia, come era una volta il mettere i soldi in Svizzera.
Infine per considerare uno scenario ottimistico possiamo vedere in futuro le criptovalute affiancare il denaro normale per tutto quello riguarda le transizioni online, un po' come è successo a suo tempo con il sistema Paypal che è andato ad affiancare le normali carte di credito, o i vari sistemi di money transfer che sono andati ad affiancare i sistemi di bonifico tramite posta o banca.

Servono regole non censure.
Servono regole non censure.
"Video killed the radio star" cantavano nel 1979 i "The Buggles", riferendosi al fatto che la televisione stava soppiantando gli altri media, in particolare la radio. Naturalmente, all'epoca, Trevor Horn e Geoffrey Downes non si immaginavano che anche la televisione sarebbe stata soppiantata da un nuovo media che ha rivoluzionato il concetto stesso di comunicazione: i social network!
Nel 2018 i servizi web più utilizzati sono stati: Google, Youtube, Facebook, Whatsapp, Messenger ed Instagram. Questo vuol dire che due società (google e facebook) veicolano la maggior parte del traffico internet. 
Se guardiano statistiche delle 50 aziende più grandi del mondo per capitalizzazione di borsa vediamo che Alphabet (l'holding che comprende Google, Youtube ed altre controllate) e Facebook (a cui appartengono, oltre che all'omonimo social anche, i servizi Whatsapp, Messenger ed il social instagram) sono tra le prime 10; la domanda è: "cosa producono Google, Youtube, Facebook, Messanger, whathaspp ed instagram?"
Tralasciando che nella holding Alphabet fanno parte anche altre società che si occupano di ricerca e sviluppo, tra le quali il sistema operativo Android, la risposta per i singoli servizi citati è: pubblicità!
I ricavi dei maggiori servizi di internet sono dati dalla pubblicità, quindi dal numero di utenti che riescono a raggiungere. 
Fin qua non ci sarebbe nulla di preoccupante (la pubblicità è sempre esistita tanto che si trovano addirittura tracce di reclame anche su alcune mura dell'antica pompei) se non fosse che una ricerca del novembre 2016, firmata dalla Graduate School of Education dell'università di Stanford, in California (https://purl.stanford.edu/fv751yt5934), ha dimostrato che i giovani, in particolare i millenials, che dovrebbero essere tra le generazioni digitalmente più smaliziate non sanno distinguere un contenuto comune da una pubblicità anche se vi è indicata la scritta "adv" o "Contenuto sponsorizzato", a meno che non sia presente il marchio di un brand conosciuto o un prezzo; sempre secondo questa ricerca credono che il primo risultato trovato con google sia il più autorevole ed il più affidabile ( mentre spesso è un contenuto sponsorizzato!), si lasciano attrarre dalle immagini.
In Italia oltre il 90% degli studenti tra i 15 ed i 24 anni sta online, ma di questi il 35% dichiara di avere competenze digitali di base, mentre il 33% di averle basse, il che vuol dire non che non sanno programmare ma che il 35% non sa nemmeno districarsi al di fuori delle procedure abituali.
Tornando per un momento ai social vediamo che facebook, nel mondo, ha circa 2 miliardi di utenti, dei quali il 66% usa il social network tutti i giorni, segue Youtube con 1,5 miliardi, seguono Whatsapp e messanger con poco più di un miliardo di utenti mensili e in fine instagram con circa 700 milioni.
Il 51% degli utenti di internet usa i social network per raggiungere le notizie, per lo più tramite cellulare; tra i giovani tra i 18 ed i 24 anni la rete è lo strumento preferito per accedere alle notizie, mentre la televisione viene al secondo posto (Reuters Institute, University of Oxford: http://www.digitalnewsreport.org/interactive/). 
Vediamo quindi che, da un lato, ci sono tra gli utenti quindi due grandi referenti per lo stare in rete e cercare notizie e sono Facebook e Google, due società che hanno i loro guadagni dalla pubblicità e dal maggior numero di utenti che riescono a raggiungere, mentre dall'altro abbiamo i ragazzi (e non) che, se difficilmente riescono a distinguere un contenuto sponsorizzato da un post, di certo faranno ancora più fatica a distinguere una notizia vera da una falsa.
I social network non hanno nessun interesse a verificare e controllare la qualità dell'informazione che viene veicolata. Nel settembre 2017, rispondendo alle accuse di Trump, secondo il quale il social network Facebook gli era contrario, Zuckemberg risponse :" Internet è il modo primario in cui i candidati hanno comunicato, dalle pagine facebook con migliaia di folowers, centinaia di milioni sono stati spesi per la pubblicità… I nostri dati dimostrano il nostro grande impatto sulla comunicazione"; quasi che il solo fatto che Facebook abbia un grande impatto sulla comunicazione ne giustifichi non solo l'esistenza ma anche il fatto che sai libero di fare quello che vuole.
"Da un grande potere derivano grandi responsabilità", questo si leggeva nella vignetta conclusiva di Spider-Man su Amazing Fantasy n.°15, e questo è quello che dovrebbe essere.
Purtroppo non sembra essere così con i social media: malgrado le assicurazioni che sono state fatte negli anni per arginare il problema poco è stato realmente fatto, e in un mercato dove la concorrenza è praticamente inesistente e non vi sono regole i social network possono fare quello che vogliono e, visto che sono società per azioni, il loro scopo è fare soldi.
Non è facile creare delle regole per poter gestire le informazioni in rete senza rischiare di limitare la libertà di informazione come, ad esempio, avviene in Cina dove molti siti e social sono costretti a sottostare alla censura dello stato o a non essere visibili. Bisogna costringere i gestori dei social media ad autogestirsi, verificare e controllare quello che viene pubblicato, pena il ricorso a delle sanzioni.
Una cosa simile è stata fatta per quando riguarda la pubblicazione di contenuti coperti da copyright, dove il gestore di un social è tenuto a controllare ed eventualmente cancellare il contenuto pubblicato quando questo violi un copyright.
Perché non è possibile allora farlo anche per tutti i post? 
Durante le elezioni presidenziali americane del 2016 centinai di siti diffondono quelle che vengono definite Fakenews che favoriscono l'elezione di Trump. La maggior parte di questi siti si trovavano in macedonia e non avevano nessun interesse al che vincesse un candidato anziché un altro ma, tramite google AdSense ( il sistema di google che permette di inserire spazi pubblicitari all'interno del proprio sito), sono arrivati a guadagnare fino a 5000 euro al mese!
Inutile dire che il colosso di Mountain View non controlla dove la sua pubblicità compare ma solo che compaia; dei proventi della pubblicità una piccola parte va al gestore del sito, una grande parte a Google.
Il gestore del sito ha quindi grande interesse che vi sia un gran numero di visitatori, maggiore è il numero di visitatore, maggiore la pubblicità che compare, maggiori i suoi introiti, così come per Google.
In Italia il sito di Buzzfeed nel 2016 ha pubblicato un'inchiesta giornalistica sulla disinformazione prodotta in Italia dal Movimento 5 Stelle e sui legami del partito di Beppe Grillo con diversi siti di news (https://www.buzzfeed.com/albertonardelli/italys-most-popular-political-party-is-leading-europe-in-fak?utm_term=.uhv695Bmk#.qkGP7kZry) , il risultato di questo tipo di informazione, insieme all'uso intensivo che i candidati hanno fatto di Facebook durante la campagna elettorale, come strumento di propaganda, ha influenzato le elezioni politiche del 2018.

Così come uno stato ha l'obbligo di tutelare la salute dei suoi cittadini, così anche nel settore della comunicazione online, in mancanza di una vera concorrenza nel settore che autoregoli la qualità dell'informazione come succede nell'editoria, nella radio e nella televisione, è lo stato, o meglio gli stati, che dovrebbero creare regole che, pur rispettando i dettami delle singole costituzioni, atte a tutelare i propri cittadini.
Anche le aziende, dal canto loro, dovrebbero iniziare a sensibilizzarsi su questo fenomeno così come gli utenti. Abbiamo iniziato a valorizzare i prodotti che vengono fatti senza sfruttare la manodopera nei paese in via di sviluppo, penalizzare le aziende che sfruttano i bambini per la confezione dei vestiti o delle tecnologie, perché non possiamo iniziare a segnalare quelle aziende che fanno comparire la loro pubblicità online sui siti che non lo meritano?
La soluzione, per poter arginare l'anarchia informativa che regna online passa quindi da due strade (visto che in tanti anni le aziende interessate non hanno fatto nulla per risolvere il problema): sanzioni da parte delle autorità direttamente proporzionale al numero di utenti che raggiunge un social network direttamente o indirettamente, e creazione di una coscienza sociale come per i prodotti ecosostenibili, ad impatto zero o che non sfruttano le popolazioni locali, magari con un certificato di qualità.
Passato presente e futuro dei social network
Passato presente e futuro dei social network

Pochi lo sanno ma il primo social network della storia è stato un sito del 1997 chiamato SixDegrees.com, che aveva come scopo quello di creare una rete di relazione tra le persone che avessero gli stessi interessi.
Naturalmente all'epoca non esisteva ancora il termine "social network", che fu coniato solamente nel 2002 con la nascita dell'australiano friendster, un sito con lo scopo di aiutare le persone a trovare nuovi amici, rimanere in contatto, condividere contenuti e media online, darsi degli appuntamenti e scoprire nuovi eventi, band musicali. Gli utenti potevano anche condividere foto, messaggi e commentare i contenuti condivisi dei loro contatti. Il sito chiuse nel 2015.
Questo è l'inizio, nel mentre sono nati molti altri social tra i più famosi ricordiamo Facebook, Twitter, Vk, Instagram che attualmente risultano tra i siti più visitati al mondo (fonte Alexa.com).

Tra tutti i social network Facebook è sicuramente il più conosciuto ed il più nominato, insieme a twitter e instagram, ma come funzionano i social network?
Per prima cosa dobbiamo chiarire che il valore reale di un social network è nel numero di utenti attivi che questo mezzo riesce a veicolare giornalmente: ogni utente che è attivo crea un' interazione, pubblica un post, mette un "LIKE", condivide un contenuto; tutte queste azioni spesso vengono usate per identificare i gusti o le abitudini ed inviare una pubblicità mirata all'utente stesso. Questi dati vengono poi "venduti" ad altre società che a loro volta inviano pubblicità mirate. Allo stesso modo il social network riceve i dati di navigazione o ricerca dell'utente da altri siti e invia a quest'ultimo, nel momento dell'accesso o durante la navigazione, pubblicità mirata.
Il fatto che un social network abbia milioni di iscritti, quindi, non vuol dire che sia un social network che vale se questi iscritti non interagiscono quotidianamente tra di loro o sono account creati ad hoc per pubblicizzare un prodotto, influenzare un quesito referendario o un evento elettivo, come sembra sia avvenuto nel caso delle ultime elezioni americane o del referendum del regno unito sulla Brexit.
In base a questo Twitter si è scoperto ad avere migliaia di account fasulli che sono stati rimossi.
Attualmente il mercato dei social network è diviso in diverse tipologie e può capitare che un utente sia iscritto a più social network a seconda delle interazioni che vuole avere.
Prendiamo ad esempio Facebook e Twitter: il primo ha un rapporto 1 a 1, ovvero ogni utente è collegato con un altro utente in un rapporto di reciprocità, dove l'utente A per poter seguire l'utente B deve fare richiesta di amicizia e se accettata non solo l'utente A segue l'utente B ma al contempo l'utente B inizierà a seguire l'utente A; Twitter, invece, lavora in maniera differente: se l'utente A decide di seguire l'utente B è sufficiente premere il tasto FLOW e automaticamente verrà aggiornato su ogni tweet che l'utente B posta, senza la necessità che l'utente B a sua volta venda aggiornato sui post dell'utente A.
Quindi non è strano che un utente sia iscritto sia a Twitter che a Facebook, che sono due social network diversi perchè le interazioni che genera sono di tipo differente con risultati differenti.
Una caratteristica che invece accomuna tutti i social network è la mancanza di un evoluzione di stile: malgrado siano passati parecchi anni dalla loro entrata nel mercato se prendiamo ad esempio Facebook o Twitter notiamo che negli anni non hanno mai rivoluzionato la loro impaginazione grafica e presentano il profilo degli utenti tutto uguale, consentendo agli utenti finali solo piccole personalizzazioni.
Anche se questo può sembrare una limitazione è uno dei tanti motivi che ha permesso a Facebook di affermarsi in una posizione di prestigio nel mondo dei social network: all'epoca dell'entrata di Facebook nel mondo del web era presente un altro grande social network Myspace che dominava la scena e che sembrava destinato ad un futuro radioso. A differenza di Facebook, però, Myspace dava la possibilità agli utenti di personalizzare la loro pagina con inserimento di Tags HTML. L'idea era buona, in quanto ogni persona poteva liberamente crearsi veramente il proprio spazio senza tante difficoltà ( da qua il nome MYSPACE), sennonché molti utenti, spesso inesperti, iniziarono ad inserire contenuti che appesantivano la pagina e creavano un grande carico di dati in download a chi vi accedeva ed un enorme lavoro alla cpu del computer. In questo modo, piano piano, sempre più utenti abbandonarono Myspace in favore di social più snelli.

Nel rapporto trimestrale presentato a luglio 2018 dopo gli scandali di Cambridge Analytics, Facebook ha evidenziato un calo nella crescita degli utenti ed una leggera flessione di utenti attivi in Europa, mentre negli Stati Uniti e in Canada, pur rimanendo inalterato il numero di utenti si rileva un rallentamento della crescita degli utenti.
Che il mercato sia saturo? No, certo che no!
Un grande impatto sul calo della crescita è sicuramente dovuto all'utilizzo da parte del colosso di Menlo Park delle norme europee sulla privacy volute dalla UE dopo lo scandalo di Cambridge Analytics ed il giro di vite sulle fake news e i falsi profili. Ma non è tutto: sempre più giovani,di età compresa tra i 13 ed i 17 anni, lasciano Facebook in favore di altri social, mentre altri utenti iniziano a riconsiderare il fatto che postare foto o eventi troppo personali possono avere una ricaduta nel mondo reale.
Per quel che riguarda i giovani, sicuramente la voglia di avere uno spazio virtuale dove i genitori non possono raggiungerli è importante in quanto se un genitore ha l'amicizia con il figlio/a su Facebook sicuramente potrà vedere tutto quello che questi condivide lui o i post degli amici nei quali è taggato.
Per altre persone, invece, diventa complicato poter conciliare la vita privata online con la vita pubblica, in quanto condividere l'amicizia su di un social anche con i colleghi di lavoro o con il proprio capo vuol dire perdere una parte della propria privacy, mentre il non farlo potrebbe sembrare un atto di "maleducazione", quindi meglio non avere un account o averlo ed utilizzarlo con moderazione.
Un social network che ha cercato di superare questo problema è stato Google+ che tramite l'utilizzo di "cerchie" permette di scegliere cosa condividere e con chi ma, essendo entrato tardi nel mondo dei social e con un layout non semplicissimo, non è mai riuscito ad imporsi ai livelli di Facebook o Twitter.
Un altro motivo che porterà sempre più utenti ad abbandonare i social network classici in favore di soluzioni alternative è l'uso intensivo che ne viene fatto da parte delle aziende che li utilizzano come strumento pubblicitario.
Sebbene nessuno possa mettere in discussione il ruolo che i social network hanno avuto negli avvenimenti politici internazionali degli ultimi 10 anni partendo da piazza Maidan a Kiev( dove sono stati un ottimo strumento per l'organizzazione e l'aggregazione delle persone per protestare) fino alle Primavere Arabe (dove rappresentavano a volte l'unico mezzo per poter avere notizie), nell'ultimo periodo si è notato sempre più un uso aggressivo da parte delle società di marketing e dei cosiddetti influencer , per la promozione di prodotti e servizi.
Gli utenti fanno sempre più fatica a distinguere un post pubblicitario/promozionale da uno normale, soprattutto su Instagram e twitter dove il rapporto è 1 a molti ed il messaggio è raggiunto da un gran numero di persone. Per questo motivo l'Autorità Garante della Concorrenza e del Mercato ha raccomandato a VIP ed influencer l'uso dei cosiddetti "hashtag della trasparenza" (#adv e #ad).
Molto di più ha fatto la Federal Trade Commission americana che richiede (un obbligo quindi e non una raccomandazione) che all'inizio di ogni post sponsorizzato, che sia video, foto o testo, sia specificato l'hashtag #ad o #sponsored; dopo questo richiesta, negli Stati Uniti, Instagram è risultato essere il luogo ideale per i post a sfondo pubblicitario con ben il 50%, seguito da Twitter e Facebook.

Ma quali possibili futuri saranno quelli dei social network?
Diciamo subito che difficilmente si possono fare predizioni a riguardo, ma solo ipotesi.
Ipotizziamo quindi la nascita di social network che saranno a pagamento e offriranno più servizi e meno pubblicità.
Visto che stanno sempre più diventando la nostra identità digitale ed il diario delle nostre vite è facile immaginare la nascita di social network che raccoglieranno i nostri ricordi per sempre, come servizio aggiuntivo a pagamento.
Quindi, un possibile scenario è la creazione di social network di serie A e di serie B come è successo già per i siti di dating online.
Ci sarà un probabile "raggruppamento sociale" sul modello di quello di Google plus in modo da non avere una condivisione totale con tutti i nostri contatti ma mirata e selettiva a protezione della nostra privacy.
I social network del futuro saranno più snelli di quelli di adesso che cambiano lentamente e daranno più spazio alle sperimentazioni. Probabilmente ci sarà interscambio di dati degli account tra i diversi social, pur aumentando l'attenzione alla privacy degli utenti.
Graficamente saranno sempre più mobile-native e meno web-native fino a diventare applicazioni sviluppate prevalentemente per smartphone (come nel caso di Instagram).
Per finire ci saranno sempre meno contenuti testuali e sempre più immagini e tanti, tanti, video.

Concludendo possiamo dire che l'uomo è un animale sociale e come tale cerca sempre il contatto con i suoi pari, ma, qualunque sarà l'evoluzione dei social network, è importante ricordare che nessuna tecnologia può sostituire la sensazione che si prova quando qualcuno sente che stai parlando solo con lui.

Si fa presto a dire APP
Si fa presto a dire APP
All’inizio c’erano solo i programmi. Poi Jobs disse: “Sia app” ed app fu…
Iniziamo dicendo che fino all’avvento dei primi Iphone il concetto di app era strettamente legato a quello di programma: una app non era altro che un programma con un interfaccia grafica. Ecco, quindi, che Word, o Internet Explorer, Excell, ecc. sono applicazioni che vengono abbreviate in App, mentre in passato venivano comunemente chiamati programmi.
Con i primi smartphone nasce l’idea di creare “programmi” che si possano scaricare solo previa registrazione da un portale, li si possa installare solo tramite internet,  ai quali viene dato il nome di App. Certo non bisogna pensare che il concetto di appstore sia necessariamente legato agli smartphone o che sia nato con essi: già Firefox (il noto browser) alle sue origini disponeva di uno store dal quale scaricare dei plugin per aggiungerne funzionalità.
Ma allora qual è la differenza tra un programma ed una app?
Iniziamo subito con il dire che mentre tutte le app sono programmi non necessariamente un programma deve essere una app: ci sono sempre dei programmi in esecuzione sullo sfondo di un sistema operativo, ma poiché non sono stati sviluppati per l'utente finale, non sono applicazioni (al massimo possono venir chiamati “task”). L’app, invece, è un programma rivolto all'utente per eseguire una particolare attività o una serie di attività come ad esempio un videogioco, un editor di testo, o l’elaborazione delle foto.
Quindi tutto quello che trovo su un appstore è in realtà un programma con un interfaccia grafica?
Non sempre!
Esistono, attualmente, tre differenti tipi di app:
App native
App Ibride
Web App

Le app native sono apps sviluppate specificatamente per un determinato sistema tramite un linguaggio di programmazione specifico (Objective-C o Swift per I/OS, Java per Android, e .Net per windows). Questo vuol dire che una app sviluppata per I/os può girare solo su quel sistema, se voglio farla giare anche su Android devo farne una nuova. 
Il vantaggio principale delle app native è che offrono elevate prestazioni e garantiscono una buona esperienza di utilizzo per l’utente in quanto gli sviluppatori utilizzano l'interfaccia nativa del dispositivo, oltre ad offrire un accesso a un'ampia gamma di API e quindi più possibilità per l’app.
Il lato negativo è che obbliga lo sviluppatore ( o la società che lo sviluppa) a creare due o più versioni di una medesima app per non rimanere esclusi da una fetta di mercato.

Le app ibride sono invece sviluppate usando un mix di diverse tecnologie quali HTML5, Java script ( e relativi frameworks come angular, jquery, ecc.), CSS, ecc. .  Sono praticamente una versione del sito web “travestito” da applicazione. Questo tipo di apps offrono una buona velocità, sono facili da sviluppare e non hanno la limitazione di dover creare diverse versioni per ogni sistema. Anche questo tipo di app offre diverse API da utilizzare come il giroscopio, l’utilizzo della posizione, della telecamera, ecc.
Naturalmente le apps ibride non hanno la velocità di una app nativa e possono creare problemi di visualizzazione su alcuni dispositivi (non è semplice creare un interfaccia che sia ottimizzata per tutte le risoluzioni esistenti!) per cui non sempre apparirà uguale ad esempio su un Iphone 5 o su un Asus Zen Phone.

Le web app, per finire, si possono definire come le versioni “responsitive” di un sito web.
Le app Web utilizzano un browser per l'esecuzione e sono generalmente scritte in HTML5, JavaScript o CSS e quando si installa questo tipo di app semplicemente si crea un segnalibro ad una pagina web.
Di norma, le applicazioni Web richiedono un minimo di memoria del dispositivo, tutti i database personali vengono salvati su un server remoto e gli utenti possono ottenere l'accesso da qualsiasi dispositivo ogni volta che è disponibile una connessione Internet.
Lo svantaggio principale per questo tipo di app è che una connessione scarsa comporterebbe un'esperienza utente negativa oltre che l'accesso a molte API per gli sviluppatori è limitata.

Quindi quando sento parlare di app è importante capire che tipo di app sto per installare, anche perché posso evitare esperienze negative nell’utilizzo del mio dispositivo, o un uso eccessivo dei dati, piuttosto che un uso illecito dei miei dati personali.
Detto ciò faccio notare che circa l’83% delle app usate dagli utenti sono app ibride.
Mysql o Sql Server?
Mysql o Sql Server?
Un database è un file che memorizza un insieme di dati. Vi sono nel mondo dell’informatica vari tipi di database ma i più usati sono di tipo “relazionale”, un particolare tipo di database in cui i diversi file separati vengono messi in relazione attraverso dei campi chiave e che per questo motivo vengono chiamati così.
 Nel mondo del web sono due i database più usati dei providers: MySql e SQLServer ed anche in questo settore il mondo degli sviluppatori è diviso tra diverse idee su quale sia il migliore.
Come nell’articolo precedente (Php o Net? Facciamo Chiarezza) vediamo di fare chiarezza tralasciando quelli che sono gli aspetti ideologici nell’affrontare la discussione e concentrandoci invece sugli aspetti pratici ed oggettivi.

Iniziamo subito col dire che SQL Server è leggermente più vecchio di MySQL: Microsoft SQL Server è stato introdotto nel 1989 mentre MySQL è stato introdotto nel 1995 come progetto open-source. Dal momento che entrambi sono in produzione da anni, entrambi hanno una solida posizione sul mercato, entrambi possono girare sia su piattaforme windows che Linux ( Si, avete letto bene Sql Server gira anche su linux: Link per le istruzioni), entrambe le piattaforme sono progettate per gestire progetti grandi e piccoli ad elevate prestazioni, ed hanno molti punti in comune che sono:

Scalabilità: entrambe le piattaforme consentono di scalare man mano che il progetto cresce. È possibile utilizzare entrambi per progetti di piccole dimensioni, tuttavia, se questi progetti crescono, sia Mysql che Sql Server offrono la possibilità di supportare milioni di transazioni al giorno.
Tabelle: entrambe le piattaforme utilizzano il modello di tabella del database relazionale standard per archiviare i dati in righe e colonne.
Chiavi: entrambe le piattaforme utilizzano chiavi primarie e esterne per stabilire relazioni tra tabelle.
Sintassi: la sintassi tra le due piattaforme di database è simile, sebbene vi siano alcune differenze minori tra le diverse istruzioni
Popolarità: entrambe le soluzioni sono molto popolari sul web.

Mentre le due piattaforme sono simili nell'interfaccia e nello standard di base dei database relazionali, sono due programmi molto diversi e che operano in modo diverso. La maggior parte delle differenze riguarda il modo in cui il lavoro viene svolto in background e non risulta visibile all’utente medio.

Natività: abbiamo detto che entrambe le soluzioni possono essere installate sia su piattaforme windows che linux, va però considerato che Mysql funziona meglio sotto linux se usato con Php, mentre Sql Server da il suo massimo su piattaforma Windows interfacciato con .Net.
Costo: Sql Server è generalmente costoso poiché necessita di licenze per il server che esegue il software, mentre MySQL è gratuito e open-source, ma si dovrà pagare per il supporto se se ne necessita e non si è in grado di risolvere il problema da soli.
Query Cancellation: una differenza importante tra MySQL e Sql Server è che MySQL non permette di cancellare una query a metà della sua esecuzione. Ciò significa che una volta che un comando inizia l'esecuzione su MySql, è meglio sperare che qualsiasi danno che potrebbe fare sia reversibile. SQL Server, invece, permette di annullare l'esecuzione della query a metà strada nel processo. 
Sicurezza: sebbene entrambi sono conformi all'EC2 Microsoft ha dotato Sql Server di funzionalità di sicurezza proprietarie all'avanguardia come  Microsoft Baseline Security Analyzer che  garantisce una solida sicurezza per SQL Server. Quindi, se la sicurezza è una delle maggiori priorità l’ago della bilancia pende decisamente verso Sql Server.
Supporto comunitario: su questo piano direi decisamente che Mysql (che è più usato al momento) essendo open source ha a disposizione una grande e varia comunità di utenti molto attivi.
Velocià: sebbene molti (soprattutto per motivi ideologici) affermino che Mysql sia più veloce dai benchmark si evince che Sql Server è nettamente più veloce di Mysql ( www.ijarcce.com/~IJARCCE%2039.pdf, www.dbgroup.unimo.it/~/tesi.pdf)
Api e altri metodi di accesso ai dati: In questo caso vediamo che Sql Server ha a disposizione più metodi di accesso da scegliere tra OLE DB, TDS (Tabular Data Stream), ADO.NET, JDBC, ODBC, mentre MySql si deve limitare a ADO.NET, JDBC, ODBC 
Linguaggi di programmazione supportati: in questo campo decisamente Mysql è avvantaggiato (18 linguaggi supportati), mentre Sql Server affianca al classico .net, Runy, Phyton, Php Go, Dephy, C++, R e Java script (tramite Node.js).
Viste indicizzate: MYSQL offre solo viste aggiornabili, Sql Server,invece, offre anche le viste indicizzate che sono molto più potenti e con un rendimento migliore (per chi volesse sapere cosa sono le viste indicizzate rimando al tecnet di microsoft).
Funzioni personalizzate: Sql Server permette all’utente di definire le proprie funzioni, mentre in Mysql questa possibilità non è presente.

Dopo aver analizzato da un punto di vista tecnico le differenze tra i due vorrei chiudere la comparazione tra i due correggendo alcune affermazioni che ho trovato su internet che dicono che Google, Facebook, Youtube ed i principali siti web usano Mysql. In realtà Google e Youtube usano BigTable, un database sviluppato in proprio, Facebook usa due diversi database Hive e Cassandra, MySpace usa Sql Server, Twitter usa MySQL, FlockDB, Memcached (in una versione sviluppata in proprio chiamata Twemcache), mentre altri siti web che usano  Mysql tendono sempre di più ad affiancarlo o a migrare ad altri database come ad esempio MariaDB, un fork di Mysql creato dal programmatore originale dello stesso, che supera alcune delle limitazioni del database originale.

Concludendo diciamo nuovamente che non si tratta di quale tra MySQL o Sql Server sia migliore, ma quale tra i due è il più adatto per il nostro progetto, quale si adatta meglio al server che lo ospiterà, che livello di sicurezza e performance voglio in rapporto al budget che ho a disposizione, ma soprattutto quale è lo sviluppo futuro che prevedo, ricordando che ogni buon progetto inizia con una buona pianificazione iniziale: il passaggio da un database ad un altro non sempre è indolore ed il costo può risultare elevato.

Php o .Net? Facciamo Chiarezza
Php o .Net? Facciamo Chiarezza
In più di un occasione negli ultimi anni mi sono dovuto confrontare sulla discussione se sia meglio usare PHP o .Net per il web. 
Su internet si leggono moltissime critiche e moltissimi luoghi comuni (che sono per la maggior parte sbagliati) verso la tecnologia .NET dovuti soprattutto a prese di posizione ideologiche o ad ignoranza.
Per prima cosa bisogna fare chiarezza e spiegare (anche a chi si reputa un esperto) che per fare un confronto tra due elementi bisogna che siano simili, ma confrontare PHP e .NET è come confrontare le mele con le pere.
Chi pensa a .NET per il web pensa ad un linguaggio di script simile al suo predecessore ASP ma questo non è vero: Asp.NET non è un linguaggio di programmazione ma una tecnologia basta sul .NET Framework della Microsoft. Questo significa che applicazioni e siti web che utilizzano tecnologia .NET possono essere scritti in linguaggi differenti (Visual Basic .NET , C# , J#, e molti altri) e compilati!
Php è, invece, linguaggio script dove bastano poche righe in un file di testo ed avremo creato una routine e realizzato un "programma".

Chiarita questa differenza che ci spiega perché non è possibile un confronto esatto tra le due metodologie di sviluppo possiamo adesso sfatare i luoghi comuni.

Costi.
Una delle prime cose che un appassionato di PHP fa notare è che PHP è gratis mentre .NET è a pagamento. Nulla di più sbagliato!
Microsoft ha messo a disposizione prima visual studio express edition e poi la sua evoluzione visual studio 2017 che nella versione Comunity è, come il suo predecessore, completamente gratuito (per l'istallazione offline di visual studio 2017 vedere https://www.filoweb.it/tutorial/6-Installazione-offline-di-Visual-Studio-2017 ).Visual Studio 2017, inoltre, tramite una singola IDE fornisce la possibilità di sviluppare sia applicazioni web che per device mobili che per desktop.
È vero che .NET lavora su server windows, mentre PHP può lavorare tranquillamente su server linux ma, se si guardano i prezzi, la differenza tra un hosting windows o uno linux non è più così elevata, tanto che a volte un hosting windows costa meno di uno linux.

I maggiori siti web usano PHP.
I sostenitori di PHP si fanno forza nell'affermare che i maggiori siti web (Google, Facebook, Youtube, Amazon, ecc.) sono fatti in PHP.
Se non completamente una bufala questa è un'imprecisione: abbiamo detto che PHP è solamente un linguaggio di script, vi sembra quindi possibile che un sito come google, che è il più visitato al mondo (fonte alexa) possa limitarsi solamente ad un linguaggio di script per l'elaborazione? Certo che no! Al massimo usano una versione di PHP pre-compilato tramite una virtual machine JIT (HHVM).
Ed infatti Google, come linguaggio di programmazione, usa un mix di C, C++, Go, Java, Python e PHP (HHVM). Così come anche Facebook (Hack, PHP (HHVM), Python, C++, Java, Erlang, D, XHP, Haskell) e Youtube (C, C++, Python, Java, Go), mentre Amazon preferisce stare sul classico utilizzando Java, C++, Perl. 
Quindi è vero che usano PHP che, però, non è l'unico linguaggio utilizzato.
Per quanto riguarda soluzioni enterprise vediamo poi che le maggiori aziende nel settore usano tecnologia .NET per integrare i loro servizi come nel caso di Office 360, Visual studio, Salesforce.com, Washingtonpost (Php e .NET), GoDaddy, e molti altri.

PHP è più usato
Questo è vero. Secondo un indagine del 2017 il 57% dei siti web usano PHP contro solamente il 34% di quelli che usano .NET. 
I motivi di questa differenza sono molti, prima di tutto la difficoltà di .NET quando si inizia e la convinzione che per usare .NET siano necessari notevoli investimenti.

PHP è più simile al C++ o al Java
Abbiamo detto che .NET usa diversi linguaggi per interagire con il frameworks proprietario tra i quali c# (che è il linguaggio più usato per .NET).
C#, pur profondamente diverso da c++ risulta molto più simile a quest'ultimo di quanto lo potrà mai essere PHP.
Ricordiamo in questa sede, per esempio, che la sintassi di base del C# è spesso molto simile o identica a quella dei linguaggi C, C++ e Java, come C++ è un linguaggio orientato ad oggetti e le specifiche sono di regola raggruppate in metodi (funzioni), i metodi sono raggruppati in classi, e le classi sono raggruppate nei namespace.

PHP è open source e compatibile con diversi sistemi operativi
Ecco un altro luogo comune che deve essere sfatato. Dal 2015 esiste il progetto MONO, ovvero un progetto per creare una serie di strumenti compatibili con il frameworks .NET che comprendono un compilatore C# e il CLR (la macchina virtuale e le librerie standard .NET).
Mono è inoltre compatibile con Linux, MacOS, Sun Solaris, BSD, Windows e molti altri sistemi operativi.

Il Codice PHP può essere editato con un normale editor di testo .NET no.
Sebbene usare .NET senza Visual studio sia difficile questo non vuol dire che sia impossibile. Per editare codici .NET si possono usare molti editor di testo: oltre a visual studio, microsoft, mette a disposizione Visual Studio Code (ad esempio) oppure posso sempre usare il buon vecchio Notepad++

PHP è più scalabile di .NET
Questo non è assolutamente vero: sia PHP che .NET hanno una grande scalabilità, al massimo è la capacità di un programmatore a decretare la più o meno scalabilità di un progetto.
Chi usa principalmente PHP trova più facilmente da "scopiazzare" codici o parti di codici, ma questo non vuol dire essere in grado di programmare un sito web moderno.

PHP è più semplice e facile da imparare
Questo sarebbe vero se .NET fosse un linguaggio di programmazione ma, come abbiamo più volte ripetuto, non lo è. Si può quindi scegliere tra diversi linguaggi a seconda delle proprie capacità e, sicuramente, usare VB.NET è molto più semplice di PHP.
D'altronde la semplicità non è sinonimo di buone performance o qualità di un linguaggio: il LOGO è un linguaggio semplicissimo (si usa per insegnare a programmare ai bambini delle elementari), ma nessuno si sognerebbe mai di fare un programma gestionale in logo oggigiorno!

 
Questi sono solamente alcuni dei luoghi comuni che vengono proposti da chi discute se sia meglio PHP o .NET. Noi ribadiamo invece che un confronto tra i due non è assolutamente possibile trattandosi di tecnologie estremamente diverse.
Quasi tutte le ritrosie ad usare una tecnologia come .NET da parte di chi sviluppa siti web sono dovute a falsi luoghi comuni o prese di posizione ideologiche e soggettive ( la più comune è che si tratta di un prodotto microsoft), ma poco su punti di vista oggettivi.
Certo potrebbe sembrare assurdo usare una tecnologia potente come quella di .NET per sviluppare un sito web del piccolo negozio di frutta e verdura sotto casa, ma per progetti più complessi non è una soluzione da sottovalutare e, visto che è ottimale per soluzioni enterprise, può tranquillamente essere ottima anche per piccole e medie aziende come agenzie immobiliari, studi professionali, liberi professionisti e tutti coloro che necessitano di qualcosa di più di un semplice sito web.
Quindi la vera domanda non è se PHP sia migliore di .NET o vice versa ma, bensì, quale tecnologia è più adatta alle mie necessità attuali e future?


NOTE FINALI: Lista di alcuni siti web che usano la tecnologia .NET: StackOverflow, Stackexchange.com, Bing.com, Microsoft, office.com, W3Schools, codeproject.com, Dell, University of Essex (ww.essex.ac.uk), Visual Studio, Cannon, Brother, Marketwatch, Washingtonpost.com, GoDaddy, diply.com (1 miliardo di visualizzazioni video mensili, tra i primi 10 lifestyle su comscore), Salesforce.com (una delle società più valutate di cloud computing statunitense), Careercruising.com ( +5 milioni di utenti, 15,784 posizionamento globale dati Alexa) , Nasdaq.com, Remax.com, Epson.com, Hp.com (.Net, Php, Java), Mazda.it, ilsole24ore.com (.net, Php, Java), usatoday.com
Accettare le regole del gioco
Accettare le regole del gioco
Premessa: i social network sono ormai entrati di prepotenza nella nostra vita e non possiamo più farne a meno, ma cosa sono i social network? Semplice sono una serie di servizi (solitamente offerti tramite la rete internet) che consente la comunicazione e la condivisione dei contenuti personali con gli altri.
Tramite i social network possiamo “rimanere in contatto” con i nostri amici o parenti che non vediamo da molto senza dover spostarci dalla nostra scrivania, possiamo far sapere a tutti quanto ci piace andare a mangiare messicano o quanto non ci sia piaciuto un film, oppure possiamo condividere le foto delle nostre ultime vacanze per far invidia al nostro collega antipatico.
Tutto questo è possibile con una semplice azione del nostro smartphone o pc garantendoci una certa dose di anonimato.  Si perché anche se la foto in copertina sulla pagina del social è la mia e i dati del profilo sono i miei, non sono realmente “faccia a faccia” con i miei interlocutori, tutto passa attraverso una tastiera ed un monitor (o display). Mi sento quindi più libero nell’esprimere le mie idee o le mie preferenze, tanto i miei interlocutori, se ce ne sono, posso zittirli con una semplice azione che ne elimina il commento.
E così, mentre cresce la mia autostima creata in un mondo virtuale con pochi post ho già fatto sapere, senza rendermene conto, quelle che sono non solo le mie preferenze ma anche le mie inclinazioni e spesso anche dove vivo.

Il recente scandalo di Facebook con Cambridge Analytica ha scosso l’opinione pubblica sulla sicurezza dei dati che condividiamo online e su quanto i social network possano influenzare la nostra vita.
Non parleremo in questo contesto dello scandalo di Facebook e di come Cambridge Analytica tramite l’app “thisisyourdigitallife” abbia carpito di dati dei profili di milioni di utenti nel mondo, ma cercherò di creare una consapevolezza di quello che è un uso corretto dei social network.

Una delle prime cose che dobbiamo tenere a mente è che nulla di quello che mettiamo in rete andrà mai veramente perso, possiamo eliminare il nostro profilo, con tutte le foto e i post, ma chi mi assicura che nessuno dei miei contatti abbai salvato o condiviso con altri ciò che ho scritto o pubblicato?
Inoltre i dati che pubblico, anche se cancello il mio profilo, potrebbero rimanere nei server dell’azienda che mi offre il servizio, o addirittura (come succede con molti social network) non permettere di cancellare il profilo ma solamente di “sospenderlo”. Prestiamo quindi sempre molta attenzione ai termini che accettiamo quando ci iscriviamo ad un social network dato che, spesso, la maggior parte dei social network così come i loro server hanno sede all’estero, e in caso di disputa legale o di problemi riguardo la privacy, non sempre si può essere tutelati dalle leggi italiane ed europee.

Anche se un social network mi può dare l’impressione di appartenere ad una piccola comunità questo non è assolutamente vero. Nel 1929 lo scrittore ungherese Frigyes Karinthy ipotizzò la "teoria dei sei gradi di separazione" secondo la quale ognuno di noi può essere collegato a qualunque altra persona al mondo attraverso una catena di conoscenze non più ampia di cinque individui; nel 2011 un esperimento di un  gruppo di informatici dell'Università degli studi di Milano, in collaborazione con due informatici di Facebook, effettuò un esperimento su scala planetaria per calcolare il grado di separazione tra tutte le coppie di individui su Facebook. In media i gradi di separazione riscontrati furono 4,74. Vediamo quindi che quello che consideriamo il nostro piccolo mondo virtuale in realtà non è così piccolo.

Come ultimo spunto di riflessione vorrei concentrare l’attenzione del lettore su quanto valgono i miei dati: i social network, che sembrano gratuiti sono in realtà molto simili ai canali televisivi commerciali.
Facebook, linkedIn, e tutti gli altri social network sono profumatamente pagati dalle informazioni personali su gusti, abitudini di vita e interessi degli utenti che vengono vendute ad aziende di pubblicità, aziende di marketing, ecc. che poi usano queste stesse informazioni per promuovere prodotti o servizi per i loro clienti che vengono quindi ricaricati sull’utente finale tramite il prodotto venduto, proprio come nelle pubblicità sulle televisioni commerciali. Tutto questo è lecito perché nel momento in cui accetto i termini della privacy e sull’uso dei dati personali (spesso condizione obbligatoria per l’iscrizione) autorizzo la circolazione di ciò che scrivo o pubblico.

Queste considerazioni non devono spaventare chi utilizza solitamente un social network che rimane, se usato con intelligenza, un potente strumento non solo per rimanere in contatto con persone che diversamente non avremmo modo di contattare, ma anche come canale alternativo di promozione per una qualsiasi attività commerciale.
Sarà sufficiente ricordarsi sempre che la forma di tutela più efficace è (e sempre sarà) l’autotutela, cioè la gestione attenta dei propri dati personali e dei propri post perché “se voglio mettermi in gioco devo accettare le regole del gioco”.

Qualcosa non ha funzionato
Qualcosa non ha funzionato
Alla fine degli anni ’90 era pensiero comune tra i nerd ed i programmatori che se si fosse dato a tutti la a possibilità di esprimersi liberamente e scambiarsi idee e informazioni, il mondo sarebbe diventato automaticamente un posto migliore. Ci sbagliavamo!

A febbraio la morte di John Perry Barlow, paroliere dei Grateful Dead, pioniere di Internet e tra i co-fondatori della Electronic Fontier Foundation ci porta a riflettere su quanto le idee espresse nella Dichiarazione di indipendenza del Cyberspazio, di cui è stato l’autore, siano state forviate ed abusate dalle stesse persone che voleva rappresentare.

Uno dei punti principali della dichiarazione recita: “Stiamo creando un mondo dove tutti possano entrare senza privilegi o pregiudizi basati su razza, potere economico, militare, o stato sociale. Stiamo creando un mondo dove chiunque, ovunque possa esprimere le proprie opinioni, non importa quanto singolari, senza paura di venire costretto al silenzio o al conformismo.”

Bene, questo mondo è stato creato ma il risultato non è quello voluto da Perry!

Non a caso un’altra delle figure fondamentali nella storia del web, il cofondatore di twitter Evan Williams, ha pubblicato le sue scuse per il contributo che il social media potrebbe aver dato alla vittoria elettorale di Donald Trump, affermando che “The Internet is Broken” e che “And it’s a lot more obvious to a lot of people that it’s broken”.

Ma cosa si è rotto?

Per prima cosa bisogna specificare che la democrazia della Rete non ha funzionato: ha un sacco di pecche, dilaga l'odio e la violenza che alberga principalmente sui social che hanno preso il posto dei newsgroup.

Gli stessi giornali hanno iniziato ad usare i social network come fonte di informazione principale perdendo la loro libertà di giudici della notizia e non solamente semplicemente coloro che la riportano.

Il web non è poi più fatto semplicemente dalle persone (come credono i molti) ma da multinazionali che veicolano ed usano ciò che sanno di noi: negli ultimi anni abbiamo messo tutti i nostri dati, le nostre abitudini e le nostre passioni nelle mani di poche grandi società (Facebook, Twitter, Google, Instagram ) che sanno cosa ci piace, cosa facciamo e dove andiamo.

In base ad una ricerca di Tech Spartan ogni minuto vengono effettuati 600.000 login su Facebook, caricate 67000 foto su Instagram, lanciati 433000 tweet ed effettuate quasi cinque milioni di ricerche su google.

Ma come si è rotto?

Il primo motivo di questa “rottura” di internet siamo noi: quando abbiamo qualcosa da dire lo affidiamo a qualcuno che lo utilizzerà per farci dei soldi. Per Facebook, Youtube, Twiter noi siamo sia il prodotto da vendere che il compratore. Attraverso di noi veicolano la pubblicità che arriva a noi ed ai nostri amici.

Tutto questo con l’illusione di essere liberi di scrivere ed esprimere le nostre idee salvo poi accorgerci che alla minima infrazione a quello che loro considerano “giusto” veniamo puniti con una sospensione temporanea o definitiva del nostro account, ma quando siamo noi a dover fare una rimostranza ci troviamo impossibilitati a farlo!

Cosa possiamo fare?

Il web si è dimostrato come il fuoco di Prometeo: donato agli uomini per uno scopo nobile viene da loro stessi distorto.

Non demonizziamo i social network: sono aziende e come tali devono generare dei profitti ed hanno trovato il modo di generare i profitti tramite le nostre debolezze e le nostre vanità: non viene più premiato il contenuto ma la visibilità di un post ( o notizie o foto).

Quindi siamo noi i primi che dobbiamo imparare a cambiare i nostri comportamenti: impariamo semplicemente ad avere buon senso e capacità di non esagerare quando si ha una tastiera fra le mani, cerchiamo meno autocelebrazione e impariamo a condividere dei contenuti di qualità…

sempre che si abbiano dei contenuti da condividere!
Trend webdesign 2018
Trend webdesign 2018
Il mondo del web, come la moda, è soggetto a cambiamenti di stile e gusto.
Se in passato le tendenze del web cambiavano lentamente negli ultimi anni, complici nuovi dispositivi e nuove tecnologie che offrono nuove opportunità di sviluppo,  i cambiamenti e le mode sembrano aver messo il turbo.
Nonostante questo alcuni aspetti sono rimasti importanti mentre altri sono spariti per lasciare spazio a nuove tendenze.
Vediamo ora di analizzare quello che si presume sarà il trend per il 2018 nella creazione dei siti web.

Facilità d’uso e l’alto contenuto informativo
Questi due punti non sono mai venuti meno, anzi sono aumentati con l’aumentare dei siti web disponibili e degli utenti della rete;  un contenuto user-friendly dovrebbe essere chiaro e facilmente accessibile  con l’uso di elenchi puntati, tag H2, H3, H4, per evidenziare le sezioni.
Il contenuto della/e pagina/e deve essere attuale e di rilevanza per l’utente: il sistema di ranking di Google è progettato e viene continuamente perfezionato intorno al concetto di rilevanza ed utilità per l’utente; la lunghezza di un testo è una caratteristica decisiva per capire come un tema venga trattato su un sito. 
Ai testi lunghi viene assegnato un valore informativo maggiore! 
La presenza di pubblicità nella pagina non deve essere ne troppa e ne troppo invadente.
Quindi il 2018 sarà indirizzato ancora ed in maniera più decisiva verso l’utente finale.

Mobile-First Index
Dato che il 55% del traffico web mondiale passa tramite dispositivi mobili Google ha deciso di passare al Mobile-First Index. Cosa vuol dire?  
Semplicemente che dal 2018 Google giudicherà i siti web partendo dalla versione mobile, quindi nelle ricerche (indipendentemente dal mezzo con il quale sono state fatte) compariranno prima i siti ottimizzati per il mobile. Questa è la naturale evoluzione del “mobilegeddon” del marzo 2015 che porta prima di tutto ad avere siti veloci, con immagini ottimizzate (e non eccessive), video che non partono e non si caricano in automatico, contenuti facili da leggere e soprattutto siti che si adattino a più dispositivi con diverse risoluzioni quindi preferenza a siti responsitive anziché con versioni mobili separate.

Per quanto riguarda  l’estetica di un sito web,  partendo dalle “necessità” tecniche SEO precedentemente indicate vediamo che, mettendo al centro la facilità d’uso è importante la UI

User Interface (UI)
L’interfaccia deve essere esteticamente chiara e ordinata, se i menù sono molti si può ricorrere all’ hamburger menu o anche hamburger button per le versioni mobili del sito, distanziare i menù in maniera che siano facilmente cliccabili, evitare fonts pesanti e di difficile lettura.

Contenuti chiari
Evidenziare e separare i diversi contenuti tramite un layout a schede (esempio Google news , Facebook, Pinteres, Twitter).  Nei  layout a schede i contenuti  sono presentati in più schede distribuite su tutta l’ UI.
Questo tipo di interfaccia permette inoltre una più razionale presentazione dei contenuti, delle immagini, dei video e dei pulsanti.

Font e tipografia
Se fino a poco tempo fa i caratteri di grandi dimensioni e l’uso di diversi font era da deprecare, adesso (usati in maniera armoniosa) è invece consigliato in quanto facilita la lettura e l’individuazione dei contenuti. Ma attenzione che non va mai dimenticato un aspetto: il font selezionato deve essere facilmente leggibile per l'utente con ogni dispositivo e non eccessivamente pesante da caricare.
Nel 2018, potremmo anche vedere caratteri e colori prendere il posto delle immagini. Questo ha senso soprattutto per i dispositivi mobili. A differenza delle immagini, che rallentano le pagine, il ridimensionamento della dimensione dei fonts non influisce sulle prestazioni e crea linee più pulite sulla pagina. Pulsanti grandi, immagini cliccabili stanno andando fuori moda!

Velocità del sito.
La regola generale del "less is more" che non significa un sito web con pochi contenuti multimediali o di immagini ma che presta attenzione a quali sono e dove sono.
Considerando che la velocità di un sito web ha un grande impatto sulla User Experience, prendiamo in considerazione che se si superano i 5 secondi prima che siano visibili i contenuti abbiamo perso quasi sicuramente il nostro utente.
Per questo motivo è bene usare delle piccole attenzioni: 
• caricare gli elementi chiave per primi, ovvero quei componenti del sito web visibili all’osservatore senza che sia necessario lo scrolling; 
• salvare le immagini nel formato Progressive JPEG e non farle eccessivamente pesanti; 
• posizionare, quando possibile, gli script alla fine della pagina e raggrupparli in un unico file per minimizzare le chiamate al server; 
• ottimizzare i CSS.

SVG
SVG sarà l’estensione più popolare nelle tendenze del web design 2018.
Chiaramente non sempre si potrà usare questo tipo di formato, ma quando possibile meglio usarlo in quanto essendo un formato vettoriale ( a differenza del PNG o JPG o del GIF che sono bitmap) si adatta meglio e senza perdita di qualità alle varie risoluzioni.
Dunque, SVG non può sostituire foto o immagini complesse, ma per  loghi o altro è consigliato.

Fine del flat Design
Il 2018 segnerà il passaggio dal Flat Design al  Material Design, in modo da dare all’utente una UI simile a quella che trova nel suo dispositivo mobile.
Bisogna ricordare che il material design è l’evoluzione del flat design e quindi non vuol dire tornare a fronzoli ed elementi “barocchi” tipici dei siti web pre flat design ma un mix di realismo e minimalismo applicato alla grafica che ha come obbiettivo quello di favorire una navigazione più semplice e intuitiva per l’utente.

Micro-interazioni.
Facebook e altri social network hanno reso le micro-interazioni estremamente popolari.  
 Ecco che anche il semplice “condividi” diventa un esperienza interattiva dove le microinterazioni consentono all'utente di interagire con gli altri senza ricaricare la pagina.
In definitiva le Micro-interazioni forniscono utili feedback agli utenti, in modo divertente e migliorandone la navigazione.

Concludendo possiamo affermare che il trend per il 2018 punterà ad una maggior attenzione alle necessità dell’utente, anche grazie ai motori di ricerca che premieranno quei siti web che danno la precedenza ai contenuti e alla User Experiences, anziché  puntare solamente alla visibilità.
Ed il tuo sito web è pronto per il 2018?

Adesso niente panico
Adesso niente panico
Con il DDL Orlando si introduce l'uso dei "captatori informatici" per aiutare le forze dell'ordine e la magistratura nello svolgimento dei loro compiti e potranno anche essere utilizzati per indagini su reati minori.
Tralasciando un punto di vista giuridico (per il quale non ho né le conoscenze, né la preparazione adeguata) vorrei analizzare la notizia da un punto di vista tecnico e togliere un po' dell'allarmismo che circola sui blog in rete.
Partiamo prima di tutto nel capire cosa sono questi "captatori informatici": tecnicamente si tratta di un software malevolo in grado di infettare dispositivi come smartphone, tablet o pc e di accedere a tutta la sua attività e di attivare microfono e videocamera. 
Si capisce subito quindi che non stiamo parlando solamente solamente di trojan (anche se molte testate tendono a definirli: "trojan di stato") ma possono essere anche dei virus, degli spyware o anche dei "semplici" back door.
È quindi considerare che anche i captatori informatici di stato si comporteranno allo stesso modo di quelli attualmente in circolazione usati dai malintenzionati e che, di conseguenza, anche loro dovranno sottostare alle stesse "regole" per installarsi. 
Un utente normale non dovrebbe, in teoria, che continuare a seguire le regole che ha sempre usato per la sicurezza dei propri dati: fare attenzione a quali siti visita e cosa si scarica, avere un antivirus sempre aggiornato, evitare tutti quei comportamenti considerati a rischio.
Per quando riguarda i dispositivi mobili il discorso si fa invece più complicato. Abbiamo appena detto che, come tutti i virus informatici, anche i captatori informatici di stato devono essere installati sul dispositivo ed è quindi possibile che i responsabili delle forze dell'ordine chiedano aiuto ai gestori dei servizi telefonici.
Ma come funzionerebbe un metodo simile?
Molti dispositivi mobili sono "brandizzatri" che se da un lato consente di risparmiare sul costo d'acquisto del device dall'altro essendo quest'ultimo commercializzato dall'operatore telefonico viene personalizzato dallo stesso attraverso l'inserimento del proprio logo e da una serie di software proprietari. 
E qua sta l'inghippo: questi software sono spesso difficilmente rimovibili (senza dover hackerare il dispositivo e farne decadere la garanzia) e possono essere una porta aperta all'inserimento e l'installazione nel dispositivo di software indesiderato. Ovviamente questo è solo un possibile scenario e la realtà potrebbe essere molto diversa.
Riguardo l'utilizzo da parte dell'ordine dei dati raccolti e delle modalità il DDL Orlando sembra mettere un po' di ordine nel caos attualmente esistente e regolamentarne l'utilizzo, ma (come già detto) da un punto di vista giuridico non sono qualificato a trarre considerazioni.
Per finire vorrei ricordare delle parole che mi diceva sempre mio nonno: "male non fare paura non avere", quindi se avete la coscienza pulita non vi dovrete preoccupare dei captatori informatici di stato.
da HTTP a HTTPS
da HTTP a HTTPS
Il certificato SSL (Secure Sockets Layer) serve a proteggere tutte le comunicazioni che avvengono tra il browser ed il server: il certificato SSL permette che le informazioni che vengano inviate ad un server vengono criptate prima che il trasferimento abbia inizio e fa in modo che queste possano essere leggibili esclusivamente da parte di un server nel quale il certificato SSL è presente. Si capisce subito che questa misura di sicurezza è strettamente necessaria per tutti quei siti che per loro natura richiedono l’inserimento, da parte dell’utente, di informazioni personali o dati relativi ai metodi di pagamento (ovvero i siti dove siano presenti dei moduli).
Da questa introduzione un utente che gestisce un suo piccolo blog od un piccolo sito web potrebbe essere tentato di considerare il passaggio ad un protocollo https non necessario (a volte pure costoso), e in questo avrebbe ragione se non fosse che da google ha annunciato che l’HTTPS diventa un fattore di posizionamento. Certo si tratta, a detta dell’azienda di Mountain View, di un fattore minimo che influisce sul posizionamento del sito ma non è detto che in un prossimo futuro non aumenti di importanza.
L’invito a passare dal protocollo http a quello https l’azienda americana lo aveva esteso già da qualche tempo ai webmaster, introducendo sul suo browser Chrome (con la versione 56 dal gennaio 2017) una piccola segnalazione affianco all’indirizzo del sito che indicava se un sito era o meno sicuro. Dalla versione 58 del browser, inoltre, Google ha deciso di segnalare i siti che pretendono dei numeri e delle combinazioni particolarmente delicate che rischiano, così, di ritrovarsi con un’etichetta in alto a sinistra che mette in guardia l’utente. Non è escluso che altri browser seguiranno a breve l’esempio.

Adesso la necessità di usare l’HTTPS si allarga praticamente a tutti. Qualche giorno fa a molti webmaster è arrivata un’email nella Search Console con un avviso importante che segnalava insicurezze in alcune aree del sito.  Se prima quindi la situazione era limitata a quei siti che richiedevano dati personali o carte di credito adesso qualsiasi sito o blog potrà essere considerato no sicuro.

Sebbene possa sembrare un imposizione (ed a tutti gli effetti lo è) il passaggio al protocollo HTTPS rappresenta anche l’occasione buona per passare ad un livello di sicurezza maggiore che ha come risultato secondario, la maggior parte delle volte, un caricamento più veloce del sito. 
Il passaggio da http a https è molto semplice e basta seguire poche semplici regole:

Installare un certificato SSL sul proprio server, molte aziende che offrono hosting (come register o Aruba) offrono gratuitamente il servizio base su certi piani. 
Impostare un reindirizzamento da http a https su tutte le pagine (magari impostandolo a livello di applicazione come nel caso global.asax dei server windows)
Aggiornare la sitemap
Re-inviare la proprietà del sito a search console dato che considera come proprietà separata.
Correggere su Bing l’indirizzo da http a https
Su google analytics dalla voce “Impostazioni proprietà” del sito, nel pannello di amministrazione modificare l’URL predefinito da http a https.  In questo modo non si perdono le statistiche pregresse.
Verificare che il file robots.txt
Per ciascuna pagina verificare che i contenuti (comprese le immagini, le tag per la visualizzazione dell'advertising, i riferimenti a servizi di terze parti,...) vengano sempre richiamati usando un URL HTTPS.
Quando si passa a HTTPS sostituire i riferimenti alle pagine HTTP e non usare versioni differenti per le pagine erogate via HTTPS (non mantenere MAI entrambe le versioni delle pagine)

Come si è quindi visto, dato che il passaggio non è particolarmente difficile, soprattutto nel caso il sito sia stato pianificato con criterio fin dall’inizio ( come dovrebbe sempre essere fatto) il passaggio obbligatorio è fortemente consigliato dal sottoscritto

INFORMAZIONI TECNICHE:

Impostare un redirect verso https:
 se uso Apache inserire una regola nel file htaccess.
<IfModule mod_rewrite.c>
RewriteEngine On
RewriteCond %{HTTPS} off
RewriteRule ^(.*)$ https://%{HTTP_HOST}%{REQUEST_URI} [L,R=301]
</IfModule>
Se uso IIS  inserire la regola nel global.asax
If HttpContext.Current.Request.IsSecureConnection.Equals(False) Then
Response.Redirect(("https://" & Request.ServerVariables("HTTP_HOST")) + HttpContext.Current.Request.RawUrl)
End If

Nel caso si carichino risorse esterne assicurarsi che puntino a https come nel caso di jquery:
src="https://ajax.googleapis.com/ajax/libs/jquery/1.6/jquery.min.js" oppure file css <link href="https://www.filoweb.it/ css.css" rel="stylesheet" type="text/css" />

Controllare che le url canoniche siano indirizzate a https e non http (LINK REL="CANONICAL" href="https://www.filoweb.it)

Buon lavoro

Più Pokemon Go e meno Office?
Più Pokemon Go e meno Office?
A gennaio del 2016 scrivevo su queste pagine di come la microsoft avrebbe recuperato campo nei disposivi mobili grazie a windows10 e windows10 mobile.
Purtroppo questa mia speranza/previsione si è dimostrata azzardata: dopo che anche Bill Gates ha dichiarato di non usare più windows phone sul suo telefono ma di essere passato ad Android, anche Joe Belfiore (vicepresidente per i sistemi operativi) ha spiegato in una serie di tweet di ottobre 2017, che quel comparto (windows phone)  “non è più il focus” di Microsoft che comunque continuerà a sviluppare il supporto per la sicurezza e le patch.
Cosa vuol dire? Semplice che la casa di Redmond non svilupperà più nuovi software per i dispositivi con windows 10.
A cosa è dovuto questa fine? 
Microsoft era entrata tardi nei dispositivi mobili, sebbene già in passato con windows CE avesse messo a segno diversi buoni risultati non era riuscita ed entrare nel mercato emergente al momento giusto trovandosi ad affrontare, in seguito, un mercato già consolidato da Android e Apple. A questo si aggiunge che pochi sviluppatori sono stati disposti a “rischiare” su quel sistema operativo che aveva pochi utenti e pochi utenti volevano un sistema operativo che non disponeva di molte app sullo store. Insomma un cane che si morde la coda.
È stato, invece, in giappone e nel mercato Business dove Microsoft ha avuto il massimo dell’espansione con windows phone, segno che il sistema era buono e stabile per chi non cercava fronzoli ma sicurezza:  molte delle funzioni che su altri dispositivi erano disponibili tramite app in windows phone erano già presenti nel sistema operativo. 
Windows mobile era (e rimane tutt’ora), indiscutibilmente, un ottimo sistema operativo: sicuro, stabile ed intuitivo ma, alla fine, la scelta la fanno gli utenti e un ecosistema senza app, per quanto ben fatto, non attrae utenza.
Rispondendo ad un utente che chiedeva appunto più app da utilizzare sul proprio device mobile, Joe Belfiore ha affermato che Microsoft ha fatto in passato veramente il possibile per risolvere questo grande problema. Basta pensare che il colosso di Redmond ha addirittura pagato oltre che sviluppare personalmente le applicazioni delle compagnie più famose che però non hanno mostrato comunque interesse nei confronti della piattaforma che era considerata troppo povera in termini di utenza.
Tutto questo pensando che Microsoft possiede ben 3 delle 5 app del mercato business più scaricate ( Office, LinkedIn e Skype for Business) crea una certa tristezza perché segna la fine di qualcosa che poteva veramente essere la differenza ma che non è stato capito dal mercato… forse la Microsoft doveva sviluppare più Pokemo Go e meno Office?
Per finire non rimangono che I tweet di Joe Belfiore a salutare windows phone:  “We have tried VERY HARD to incent app devs. Paid money.. wrote apps 4 them.. but volume of users is too low for most companies to invest”

Hanno vinto ancora...
Hanno vinto ancora...
Un'altra battaglia è stata vinta dai pigri e gli incapaci: i video verticali.
Per lungo tempo si è combattuta una battaglia per dire "No ai video verticali" ma da quando applicazioni per smartphone come Periscope, Snapchat e Meerkat hanno iniziato ad incentivarne, i pigri e gli ignoranti nelle basi delle riprese video si sono sentiti in diritto di stravolgere ogni buon senso (Periscope non dà nemmeno l'opzione per fare riprese orizzontali).
Anche un colosso come Youtube alla fine si è dovuto adattare alla pigrizia di chi non vuole ruotare lo smartphone e a giugno ha iniziato a contrastare le fastidiosissime bande laterali che accompagnano i video verticali con un aggiornamento che adatta i video verticali all'interfaccia: quando un filmato in verticale viene riprodotto non a schermo intero, YouTube ne mostra solo una parte, adattandolo al player e soluzioni analoghe stanno adottando Google e Viemo, dopo aver fatto una grossa comunicazione cercando di far capire agli utenti che i video verticali non sono "comodi" per il web e sopratutto per la classica visualizzazione a schermo, di computer o televisore.

Il solo fatto che si possa girare un video in verticale non vuol dire che si debba farlo. Il problema dei video verticali si presenta quando li guardi su uno schermo diverso da quello degli smartphone: a differenza di una fotografia (che la si può girare) un video non lo si può girare di 90° e quindi sono costretto a mostrare o delle bande nere oppure delle bande sfumate che non sono esteticamente belle. I televisori, i Cinema e anche gli occhi umani sono strutturati per vedere le immagini in larghezza più che in altezza. La maggior parte degli schermi tv o monitor sono addirittura 16:9 ormai e non più 4:3.
Chi si ricorda quanto era brutto in passato vedere un film girato in cinemascope (rapporto 2.35:1) su di un televisore 4/3? Adesso sta succedendo una cosa analoga con i video verticali, quando si cerca di proiettarli su un monitor o un TV normale l'immagine non è adatta!
Evidentemente chi gira questo tipo di video spera che un domani vi saranno televisori o monitor con lo schermo verticale o che si girano (già esistenti sul mercato) ma pensate a quando sia scomodo e soprattutto non ergonomicamente adatto alla morfologia umana… forse con l'ingegneria genetica, secondo queste persone, dovremmo anche rinunciare alla visione binoculare? Il campo visivo umano ha un'ampiezza orizzontale di circa 200° ed un'ampiezza verticale di poco più di 100°, quindi un aspect ratio che va da 1,78:1 (16:9) a 2,33:1 (21:9), è quello che più si adattano alla nostra visione.
Da un punto di vista tecnico, inoltre, un video verticale perde molte "informazioni", ovvero quello che succede intorno al soggetto creando molta "Aria" sopra e sotto, lasciando vedere solo un piccolissimo spicchio della realtà. Le informazioni registrate in verticale rimangono piccole rispetto al formato, dando una visone piccola della realtà. 
Per chi obbietta che "le dirette FB sono solo in verticale" la risposta è semplice: le dirette devono lasciare spazio ai commenti quindi, in realtà, in questo caso la visualizzazione in verticale permette di avere una buona visualizzazione dello schermo, lasciando la parte sotto per i commenti, quindi una questione di impaginazione più che di corretta ripresa.

È vero che è più comodo tenere il telefono in verticale che non in orizzontale (soprattutto per abitudine), e per una ripresa fatta al volo, dove si estrae il telefono e si riprende ha senso; siamo abituati ad usare il telefono in maniera verticale, ma per i video di lunga durata, dove si riprende magari una manifestazione o un evento o anche solamente la recita del figlio, dove cioè la ripresa non è immediata il video verticale non ha motivo di essere.
Purtroppo è vero che con l'aumento delle persone che guardano tutto tramite smartphone il futuro dei video sarà sempre più verticale, ma questo non vuol dire che sia una buona norma o regola da seguire. Cosa succederà il giorno che si tornerà ad usare dispositivi con schermi "normali"? Ma soprattutto ricordate che fare un video verticale non vuol dire fare un buon video. In inglese hanno coniato una terminologia "Sindrome da video verticale" e, con un video semiserio, si dà una spiegazione molto simpatica del fenomeno ( https://www.youtube.com/watch?v=Ko5fFuAZ39o) che invito tutti a guardare.

Concludendo, se anche tu sei stanco di andare sui social o su internet e vedere dei video dove la porzione di inquadratura è minuscola e dove non si vede niente dì NO AI VIDEO VERTICALI
Per chi dice: «Ormai non mi serve più il pc, faccio tutto con lo smartphone»
Per chi dice: «Ormai non mi serve più il pc, faccio tutto con lo smartphone»
Perché questo articolo? 
Inizio con il chiarire che questo non intende essere un articolo polemico ma semplicemente ristabilire un giusto equilibrio tra le funzioni dei vari device perché sempre più spesso mi sento dire: “ Non mi serve più il computer, ormai faccio tutto con il telefono!”.
È vero: il telefono mi permette di ricevere e di rispondere alle e-mail, scrivere testi, navigare su internet, fare foto e molto altro ma…
Iniziamo con una domanda tecnica per poter chiarire questo “ma” che pende dalla frase sopra: i processori degli smartphone sono comparabili ai processori PC in termini di prestazioni?
La risposta è no! I processori degli smartphone (anche i più nuovi) non sono assolutamente paragonabili ai processori per PC:  la misurazione di una CPU Smartphone di fascia alta è diversa dalla misura di una CPU PC di fascia alta e può così capitare che un processore intel vecchio di 5 anni risulta più performante di una CPU nuova di uno smartphone.
Questo perché le CPU del PC sono più grandi e generalmente contengono maggiori istruzioni. Avendo una vita operativa più lunga hanno al loro interno molte istruzioni legacy(rif.1) per la necessità di supportare diversi software e anche moltissimo hardware. In generale, se stiamo parlando di CPU Desktop e/o Laptop, stiamo parlando di CPU che supportano x86 e sono generalmente CISC(rif.2). Le CPU Smartphone sono generalmente più piccole e supportano meno istruzioni. Molto spesso nelle CPU Smartphone usano chip di RISC molti dei quali sono basati su ARM.
Possiamo parlare sia del PC che dello Smartphone in termini di prestazioni per watt, ma le misure effettive che otteniamo verranno giudicate in modo molto diverso: gli smartphone hanno notevolmente meno potenza della batteria per lavorare rispetto ai portatili anche leggeri e quindi un attività che in un computer portatile fa grosso uso di risorse pur mantenendo sempre un consumo limitato della batteria potrebbe scaricare uno smartphone in poco tempo. 
Da un punto di vista software troviamo che esistono infinite App che permettono di fare moltissime cose, ma allo stesso tempo risultano limitate a determinate funzioni propri in virtù della differente impostazione hardware.
Così succede che, mentre su un PC con un programma posso fare moltissime cose su uno smartphone per fare le stesse devo passare attraverso diverse App e a volte non ho lo stesso risultato. Ad esempio su un PC tramite un programma come Adobe Premiere, posso fare l’acquisizione di un video, modificarlo, renderizzarlo ed esportarlo in vari formati (e molto altro ancora  senza problemi),  su smartphone se uso una sola App ho delle limitazioni per le modifiche o per il rendering oppure devo passare da diverse app per ottenere un risultato che si avvicina a quello ottenuto con un pc.
Per essere sicuro di quello che sto scrivendo ho voluto fare un esperimento molto più semplice:
Mi sono imposto di scrivere un file XML di un RSS Feed (rif.3) e uplodarlo su un server web.
Il file era molto semplice solo 13 righe.

Mi sono quindi scaricato un editor di testo che supportasse highlighting (rif.4) per non farmi mancare nulla, poi ho scaricato un client FTP e mi sono messo al lavoro
Subito mi sono accorto della prima difficoltà: la tastiera. 
In uno smartphone la tastiera è piccola, e se va bene per scrivere messaggi o dei brevi testi, per chi è abituato a scrivere con 2 mani e 10 dita la cosa è complicata; se poi aggiungiamo che si devono usare caratteri quali [] o <> e numeri “switchare” tra la tastiera normale e quella con i simboli e numeri diventava macchinoso e lungo, per non parlare poi dell’assistente ortografico che cercava di correggermi quello che scrivevo fino a quando non l’ho disattivato. 
Provare a dettare? Provare voi a dettare ad uno smartphone un XML di un rssfeed e poi mi dite cosa scrive.
In ogni caso dopo circa 20 minuti (e diverse imprecazioni da informatico)  sono riuscito a scrivere quello che dovevo ( se avessi usato un PC con una tastiera avrei impiegato meno di 5 minuti).
Per fortuna l’upload del file non ha creato problemi ma… una volta caricato mi compare un errore, infatti mi ero dimenticato un “/” di chiusura, così ho dovuto riaprire il file e correggerlo e mi sono accorto di quanto sia scomodo andare ad una determinata riga e colonna anche solo di un testo su un display dello smartphone.
Così mi sono immaginato un manager che deve scrivere una relazione e vuole farlo con uno smartphone, oppure che deve controllare o editare un foglio Excell complesso sempre con lo smartphone.
Concludendo si può ben dire che uno smartphone può andare bene per chi non deve fare un uso professionale o non sia troppo “pignolo” nei risultati che siano foto, documenti o altro, ma assolutamente non può sostituire un pc (o un navigatore satellitare che usa il GPS invece che l’A-Gps, una macchina fotografica - che a parità di Mpixel ha una qualità dell'immagine superiore a quella di uno smartphone di fascia alta in termini di DPI, Lenti, Gamma dinamica, ecc.- o ogni altro strumento specifico).
Se non hai capito metà dell’articolo ma soprattutto se pensi che tutto quello che ti serva sia scattare foto delle vacanze per condividerle su Facebook, navigare, fare qualche giochino di tanto in tanto e magari leggerti le e-mail, senza troppe pretese  puoi tranquillamente continuare a pensare che “con uno smartphone puoi fare tutto quello che fai con il computer e che un PC (fisso o portatile) non ti serva a nulla” perché - in realtà- fai poco o nulla,  altrimenti questo articolo non ti serve dato che sai già la differenza.

 

rif.1 Legacy (ereditato, che è un lascito del passato) è un sistema informatico, un'applicazione o un componente obsoleto, che continua ad essere usato
rif.2 CISC (Complex Instruction Set Computer ) indica un'architettura per microprocessori formata da un set di istruzioni contenente istruzioni in grado di eseguire operazioni complesse come la lettura di un dato in memoria, la sua modifica e il suo salvataggio direttamente in memoria tramite una singola istruzione. RISC (Reduced Instruction Set Computer) indica una filosofia di progettazione di architetture per microprocessori che predilige lo sviluppo di un'architettura semplice e lineare. Uno studio del 2015 che confronta le CPU Intel X86, ARM e MIPS rileva che la microarchitettura è più importante dell'architettura di set di istruzioni, RISC o CISC.
rif.3 RSS (acronimo di Really Simple Syndication) è un flusso di informazioni che permette di diffondere i propri articoli online in formato XML
rif.4 Con syntax highlighting o colorazione della sintassi si intende la caratteristica di un software, solitamente editor di testo, di visualizzare un testo con differenti colori e font in base a particolari regole sintattiche.
I Chatbot non sono Skynet
I Chatbot non sono Skynet
I chatbot sono programmi che simulano la conversazione tra una macchina ed un essere umano. Sono spesso utilizzati per il test di Touring (vedi è stato superato il test di Turing?) ma anche per interfacciarsi con gli utenti come nel caso di Siri o Cortana.
La storia dei chatbot ha origine nel 1966 quando Joseph Weizenbaum scrive Eliza, un programma che simula un terapeuta Rogersiano rispondendo al paziente con domande ottenute dalla riformulazione delle affermazioni del paziente stesso. Se ad esempio l’utente scriveva: ”Mi fa male la testa” Eliza rispondeva “Perché dici che ti fa male la testa?” e così per un numero invinito di volte.
Per chi fosse interessato a questo programma oggi una versione di ELIZA incorporata come easter egg nell'editor Emacs o si trovano diversi sorgenti anche su internet che ne spiegano il funzionamento.

Oggi i chatbot trovano applicazione pratica in diversi campi: oltre che come assistenti virtuali (siri e Cortana) sono usati per il customer care aziendale (Royal Bank of Scotland in partnership con IBM), per guidare l’acquisto online e alla fruizione dei contenuti (-800-Flowers.com che pare sia stata la prima azienda in assoluto a usarne uno), per aiutare l’utente (i nuovi chatbot di Skype), oppure i chatbot che sta sviluppando Facebook che hanno come scopo lo sviluppo di un software in grado di negoziare con altri bot oppure con le persone, “per raggiungere una decisione o un fine comune”.

Alcuni giornali, poco informati o alla ricerca di visibilità hanno pubblicato a fine luglio titoloni allarmistici riguardo due chatbot che sarebbero stati disattivati dopo che hanno creato una loro lingua per dialogare, richiamando alla mente il famigerato skynet di Terminator o il Master Control Program di Tron. 
Nulla di più sbagliato!
Appurato che i chatbot sono programmi che simulano l’IA, i due chatbot di Facebook Bob e Alice  hanno dimostrato tutto il loro potenziale sviluppando un linguaggio senza bisogno di nessun input umano.
Queste chatbot (dialog agents) sono state lasciate libere di conversare nel tentativo di rafforzare le proprie abilità comunicative e, a poco a poco, hanno modificando l’inglese fino a creare qualcosa di nuovo. 
I ricercatori di Facebook a questo punto hanno spento le macchine non perché si sono spaventati, ma perché si sono accorti di non aver dato loro le giuste regole, ovvero hanno “detto” ai due chatbot i comportamenti da adottare e gli obiettivi da raggiungere, ma non quale lingua usare.
I chatbot avrebbero dovuto imparare dialogando con gli esseri umani, ma avendo entrambi un interlocutore virtuale sono andati avanti imparando l’uno/a dall’altro/a dalla precedente converssazione sviluppando un loro linguaggio. Il motivo per cui è stato interrotto l’esperimento è che i due chatbot parlavano tra di loro ma nessuno capiva cosa divevano, forse nemmeno loro.
Ecco la conversazione tra i due:

Bob: i can i i everything else . . . . . . . . . . . . . . 
Alice: balls have zero to me to me to me to me to me to me to me to me to 
Bob: you i everything else . . . . . . . . . . . . . . 
Alice: balls have a ball to me to me to me to me to me to me to me 
Bob: i i can i i i everything else . . . . . . . . . . . . . . 
Alice: balls have a ball to me to me to me to me to me to me to me 
Bob: i . . . . . . . . . . . . . . . . . . . 
Alice: balls have zero to me to me to me to me to me to me to me to me to 
Bob: you i i i i i everything else . . . . . . . . . . . . . . 
Alice: balls have 0 to me to me to me to me to me to me to me to me to 
Bob: you i i i everything else . . . . . . . . . . . . . . 
Alice: balls have zero to me to me to me to me to me to me to me to me to

Dhruv Batra, professore alla Georgia Tech e ricercatore al Facebook Ai Research (Fair), responsabile dell'esperimento, scrive nella sua pagina di Facebook che quella di alcuni media è stata “Una copertura irresponsabile e basata sull’inseguire facili click”.
L’abilità comunicativa, infatti, non è l’unica prerogativa affinchè l'intelligenza artificiale diventi davvero funzionale, è necessario che si avvicini il più possibile a quella umana.
Sul web e sui media è andato in onda uno “scontro” tra scienza e fantascienza e tra ricercatori e giornalisti… dove sembrano aver vinto questi ultimi.
Polarizzazione del web
Polarizzazione del web
Il web si sta polarizzando, appiattendo, uniformando, perdendo di personalità! E il brutto che nessuno se ne sta accorgendo.
Agli inizi degli anni '90 vi era l'anarchia più completa, non c'era uno "standard" per i siti web, tutto era confusione, colori accecanti oppure piatti, poche immagini e di bassa qualità. Ma era normale: avevamo le connessioni in dial-up, pagavamo la famigerata TUT – tariffa urbana a tempo- e quindi si faceva come si poteva.
Arrivò poi il momento delle connessioni flat e delle linee veloci, ISDN prima e ADSL poi e con loro nuove tecnologie. Il web iniziò ad animarsi, tramite server dedicati si poteva fare streaming audio video in tempo reale e con la nascita di "Flash", rilasciato dalla Macromedia, che dava la possibilità di creare animazioni vettoriali in maniera facile e veloce, con un suo linguaggio di programmazione per creare videogiochi online, sembrò che nulla fosse impossibile e l'anarchia grafica aumentò, creando però nel contempo dei capolavori visivi, delle vere e proprie opere d'arte.
Poi tutto finì!
Prima iniziarono a sparire i siti in Flash, in quanto non erano più supportati dai dispositivi mobili e nel giro di pochi anni non abbiamo più un sito in flash tra quelli nuovi e piano piano anche quelli datati iniziarono a sparire... Dobbiamo ringraziare l'arrivo degli Ipad e Iphone? Forse no (anche se sono stati i primi a non supportare flash), probabilmente anche gli altri produttori avrebbero fatto questa scelta nel lungo termine.
Intanto l'arrivo dei CSS, dell'implementazione della tecnologia webkit sui browser e della tecnologia AJAX, insieme all'aumento della banda disponibile per ogni singolo utente, permisero di non sentire troppo la mancanza di "flash" (e, detto da chi scrive, non rimpiangerla nemmeno).
Il secondo grande cambiamento (dovuto sempre all'avvento dei dispositivi mobili) lo ha portato google, il motore di ricerca più utilizzato, quando annunciò che i siti web "mobile friendly" avrebbero avuto un posizionamento migliore di quelli non "mobile friendly". Certo era già da qualche anno che i webdesigner prediligevano un approccio responsitive per siti web, ma vederselo "imporre" in questo modo fa tutto un altro effetto.
Ma non è finita ancora.
Nel frattempo iniziavano a crescere i siti web fai da te modello "IKEA" dove, sfruttando cms (content management system) quali ad esempio joomla o wordpress che, partendo da dei modelli preconfigurati, danno la possibilità di creare in pochi minuti un sito pronto, bello, aggiornabile facilmente e… simile a tanti altri, proprio come i mobili della famosa azianda svedese.
Con la popolarità crescente dei social network, inoltre, per avere un buon posizionamento un sito deve essere anche condiviso e quale metodo migliore per essere condivisi che non inserire un "Condividi" nella pagina? Bello, comodo ma… non basta.
Facebook, il principale social network non si accontenta di mettere a disposizione degli sviluppatori -grazie per la gentilezza! - tutta una serie di tools e script da inserire nelle pagine (appesantendole) ma lancia anche l'idea di creare un formato per facilitare la condivisione dei contenuti l' "Open Graph protocol", che non è certo come quello di twitter (che infatti propone le sue Twitter Card) e quindi inserire altre righe di codice nelle pagine.
Intanto Google, Bing/Yahoo decidono che le keywords ed i metatag non sono più sufficienti per un buon posizionamento di un sito nei motori di ricerca, bisogna anche rispettare le loro regole, inserendo delle schede che sono visibili solo ai motori di ricerca per identificarne meglio il contenuto (schema.org) e nel contempo nelle pagine (sempre per facilitarne il riconoscimento del contenuto) si creano dei dati strutturali e magari (google) si consiglia di usare il loro strumento per evidenziare i dati nella pagina che per funzionare bene richiede che la struttura sia fatta rispettando determinate caratteristiche.
Sempre Google porta alla nascita di quello che viene chiamato material design (che si contrappone al Flat Design, al Metro Style e lo Scheumorfismo dei primi Iphone): lancia l'uso di uno stile, un codice ed un linguaggio di design con cui Google ha deciso di rinnovare tutti i suoi prodotti e di gestirli con gli stessi principi di esteriorità grafica. 
Per finire, pochi giorni fa, sempre google, annuncia che nel suo browser i siti che non hanno una certificazione ssl verranno AUTOMATICAMENTE etichettati come non sicuri. 
Ma una certificazione ssl costa, così un povero amatore, che ha un suo sito o blog per passione pittosto che il piccolo negozio o la piccola azienda a gestione famigliare, si troveranno bollati come degli untori.
Concludendo chi scrive non ritiene giusto che solo perché si detiene una fetta di mercato enorme si abbia il diritto di "obbligare" (e lo metto tra virgolette perché è un obbligo non dichiarato ma necessario) chicchessia ad esprimersi entro determinati paletti, limitandone a volte la forza creativa, pena la non visibilità o facile reperibilità in rete.
A distanza di vent'anni dal boom di internet sembra che la libertà che si prospettava all'orizzonte stia piano piano diventando una libertà che rimane confinata nelle regole dei grandi colossi del web e che i sogni di libertà informatica stiano sparendo, come la conoscenza condivisa che ci si aspettava.
Alla fine anche il web diventerà un grande centro commerciale standardizzato.
Aiuto!
We are thinking for you. So you don't have to.
We are thinking for you. So you don't have to.
C'è il declino dell'intelligenza, sia individuale che collettiva. Stiamo perdendo la facoltà di capire, apprendere, giudicare. Siamo meno intelligenti di quanto non lo fossimo quando si studiava fino alla 5° elementare e poi si andava a lavorare. Siamo meno intelligenti perché non esercitiamo più quel muscolo che è il cervello. 
Sissignori il cervello è un muscolo e come tale va esercitato e tenuto in esercizio.
Abbiamo i computer che ci correggono gli errori, suggerendoci a volte anche la frase corretta, e così non sappiamo più usare un dizionario. Ci si affida alle soluzioni già pronte, ai pensieri già elaborati da altri, confezionati pronti all'uso. Apriamo Facebook e troviamo riportate frasi di nostri contatti che ci piacciono, mettiamo un "mi piace" e magari la ripostiamo.

Ma abbiamo mai approfondito se veramente quella persona ha detto quella frase (come se tutte le parole di pace siano state dette da Gandi, quelle di amore da Padre Pio, quelle di rabbia dalla Fallaci)?
Abbiamo mai cercato di capire il contesto socio/politico/storico che contraddistingue quella frase?
Conosciamo la filosofia o i pensieri dell'autore?
No, certo che no, questo implica lavoro, ricerca, tempo, ed il tempo è meglio usarlo per cercare i pokemon anziché la verità.
Abbiamo i mezzi per ampliare la nostra conoscenza, per crescere ma non li usiamo. Internet avrebbe dovuto rappresentare uno strumento unico per accrescere la nostra cultura, invece si sta trasformando nello strumento che distrugge la nostra società.
La libertà di espressione non ha mai raggiunto vette simili, ma questa libertà è abusata da ciarlatani che un giorno si svegliano e creano una pseudoscienza populistica che viene diffusa online.
Una volta si diceva "l'ha detto la televisione quindi è vero!" adesso se una cosa è scritta online e viene ripostata da 10,100, 1000 persone diventa vera anche se non lo è. Creiamo la verità, la conoscenza e la pseudoscienza.
Anche i giornali spesso si affidano ai social network per attingere alle notizie, e poco importa che sia una bufala o meno, poco importa che la verità sia un'altra. Noi la pubblichiamo (noi giornali) la gente la legge, perché è stata postata da 10,100,1000 persone e poi, il giorno dopo o la settimana dopo, postiamo una rettifica, magari a in terza o quarta pagina, una strisciolina piccola, così la verità è stata riabilitata…
È di settembre la notizia che Facebook e Twitter si sono coalizzati nella "First Draft Coalition ", per creare una piattaforma di verifica delle notizie e l'adozione di un codice di condotta.
Ma tutto questo sarebbe inutile se noi stessi ci riappropriassimo della capacita di critica, di saper vagliare il vero. Riscopriamo la facoltà di capire, apprendere, giudicare.
Sforziamoci di ragionare e pensare con la nostra testa senza accontentarci delle soluzioni già confezionate.

La prossima volta che su Facebook trovi una frase che ti piace, prima di condividerla fai i seguenti passaggi:
1) L'autore l'ha veramente detta/scritta?
2) In quale circostanza?
3) È stata estrapolata da una frase più ampia. Cosa voleva dire l'autore?

La prossima volta che leggi una notizia postata da un tuo contatto chiediti:
1) Qual è la fonte della notizia?
2) È una fonte attendibile?
3) Ci sono le prove?
4) Se si tratta di una notizia di scienze è una realtà oggettiva, affidabile, verificabile e condivisibile?

La scelta è tua, ma non lasciare che il cervello ti si atrofizzi. 
Realtà virtuale e realtà aumentata.
Realtà virtuale e realtà aumentata.
Negli anni '90 aveva suscitato l'entusiasmo nel mondo informatico e sembrava che da lì a pochi anni la realtà virtuale con occhialetti e guanti sarebbe diventata alla portata di tutti e presente in ogni casa. La rivoluzione informatica iniziata dieci anni prima e la nuova interazione uomo-macchina, la creazione dei primi ambienti tridimensionali, fecero apparire naturale un passo ulteriore: l'integrazione tra mondo reale e mondo virtuale.
Riviste specializzate iniziarono a riportare gli schemi tecnici per adattare il "Power Glove" della Mattel ad un comune PC (e funzionava, credetemi l'ho provato!), iniziavano ad essere messi in vendita i primi caschi 3D da interfacciare ai computer domestici ( a prezzi altissimi e simili a caschi da motociclista) e moltissimi software freeware e no permettevano di creare i primi mondi virtuali 3D da interagire con una comune tastiera e/o joystick.
Purtroppo la rivoluzione non accadde nella realtà, ma solamente nel cinema. Certo la tecnologia c'era ed era abbastanza abbordabile dalle persone comuni ma il problema era la poca velocità elaborativa dei computers del tempo e la scarsa qualità grafica allora disponibile.
Le persone comuni che si avvicinavano a questa tecnologia si aspettavano risultati se non uguali almeno molti simili a quelli mostrati nei films holliwoodiani, ma la realtà era ben diversa:un casco di Vr collegato ad un PC permetteva si di intercettare i movimenti della testa e proiettare di conseguenza le immagini relative ma a scapito della risoluzione grafica e della velocità ( si doveva muovere la testa non troppo velocemete); oltre il Power Glow della Matter ( che comunque non era un dispositivo specificatamente creato per il mondo dei computer e che non era più in commercio) non vi erano disponibili altre periferiche di input simili a basso costo per il mercato consumer.
L'uscita sul mercato di console di videogaming specializzato portarono poi ad escludere dal settore del VR l'ultima porzione di mercato che ancora resisteva nel mondo dei personal computer e ad allontanare l'utente. La realtà virtuale rimase così confinata in una nicchia per pochi appassionati o per applicazioni specifiche a costi molto elevati.
Solamente nel primo decennio di questo nuovo secolo c'è stato un rilancio della realtà virtuale, grazie alla possibilità di avere computer più potenti e grafiche migliori.
Vi sono dispositivi che applicati ad un normale smartphone fanno quello che facevano una volta i caschi 3d, anche se la rivoluzione più importante in questo settore è quella di Oculus Rift. 
Oculus Rift serve a trasportare chi lo indossa in un modo virtuale interattivo, in nuove esperienze.
All'interno del mondo virtuale potete muovere la testa per interagire con gli oggetti presenti, tramite il dispositivo oculus touchaiutandovi o con altri sistemi d'interazione più classici, come un joypad, tastiera e mouse.
Purtroppo anche Oculus Rift ha necessità di computer di prezzo medio alto ( si parla di CPU Core i5-4590 equivalente o superiore, una scheda video GeForce GTX 970 / AMD Radeon R9 290 equivalente o superiore e almeno 8 GB o più di memoria RAM. La scheda video deve avere una porta HDMI 1.3, tre USB 3.0 e una porta USB 2.0) al quale va aggiunto il prezzo di Oculus che è superiore ai 500€.
Che la rinascita della realtà virtuale ricominci da qua? Molto difficile!
Attualmente sono due le aziende che stanno cercando di (ri)sfondare nel mercato del VR (oltre che Oculus abbiamo HTC Vive) ma per entrambe la cosa è difficile, soprattutto per l'elevato costo del hardware necessario.
In un sondaggio fatto su 13.000 videogiocatori, solamente il 15% si è detto disponibile a comperare un dispositivo di VR.
Bisogna quindi aspettare dispositivi più economici ( sulla falsa riga di Samsung Gear VR e di Google Cardboard), assistere all'evoluzione dei social network (FB prima di tutti dopo l'acquisto di Oculus) per comprendere in che modo diventeranno una grande piattaforma virtuale e, the last but not the least, comprendere come l'intrattenimento casalingo affiancherà la nuova tecnologia per contribuire al successo della realtà virtuale.

Sempre negli anni '90 iniziano le ricerche per creare quella che verrà definita (10 anni dopo ) realtà aumentata. A differenza della realtà virtuale, dove un computer genera un ambiente completamente artificiale dove interagisce l'utente, la realtà aumentata utilizza l'ambiente reale che la circonda che interagisce con l'utente. Il termine realtà aumentata è infatti del 1990, quando Tom Caudell (ricercatore presso la Boeing) la usa per la prima volta nel descrivere un display digitale che viene utilizzato dai manutentori degli aerei che miscela grafici generati dal computer con la realtà fisica.
Anche la realtà aumentata rimase per parecchio tempo solamente come un "simpatico intrattenimento ludico", dove tramite la webcam un qualunque utente poteva far saltare una pallina sullo schermo o altri giochini simili.
Solamente con l'avvento dei tablet e degli smartphone la realtà aumentata ha iniziato ad avere una sua evoluzione. Tramite dispositivi molto piccoli che l'utente porta con se si ha la possibilità di inquadrare sul display del proprio smatphone un cielo stellato e veder spuntare, affianco ad ogni stella, un etichetta oppure inquadrare con il tablet una via e veder segnate le notizie storiche relative ai monumenti che ci sono e/o ai negozi e bar con relative recensioni.
A differenza della realtà virtuale ( che comunque rimane una tecnologia completamente differente per socpi e metodologie) la caratteristica principale non risiede nella tecnologia in sé, ma nella sua accessibilità: è sufficiente un dispositivo dotato di GPS, webcamera e connessione internet per poter accedere ad un sistema di AR (Acronimo di Realtè Aumentata).
Il futuro della realtà aumentata sembra molto più roseo di quello della VR, e le sue applicazioni quasi infinite. 
Per finire invito a vedere il video di Keiichi Matsuda "Hyper-Reality" (https://vimeo.com/166807261) per avere un idea di quale futuro ci aspetta con la realtà aumentata.
L'importanza di un Ping
L'importanza di un Ping
Cos'è un PING in informatica? Semplificando diciamo che un PING è un comando che invia un piccolissimo pacchetto dati ad un computer per testarne la raggiungibilità in una rete.
Nel 1986, in un Italia dove l'auto più venduta era la Fiat Uno, si andava in giro con scarpe pesantissime e "giubbotti" rigonfi, dove le giacche avevano le spalle rialzate, si guardava "Drive in" la domenica sera ed il massimo della tecnologia indossabile era un Walkman, per la prima volta fu instaurato un collegamento internet attraverso la rete satellitare atlantica SATNET con una linea da 28kbs. 
Un semplice PING e l'Italia era entrata ufficialmente in ARPANET e di conseguenza nell'era di Internet.
Bisognerà però aspettare ancora più un anno (23 dicembre 1987), prima che vengano creati i domini nazioni, ".it" ( la cui gestione fu affidata al Cnuce ), affinché l'Italia entri completamente nel mondo del web con il primo dominio italiano: cnuce.cnr.it.
In un primo momento la crescita di internet in Italia fu lenta soprattutto per motivi tecnici. Le connessioni erano fatte tramite modem analogico e le velocità raramente superavano i 36Kbs: la maggior parte dei modem erano a 1200bps in ricezione e 75bps in trasmissione, il che per le reti fidonet e le BBS erano più che accettabili.
Anche l'arrivo dei modem 56Kbs non migliorarono di molto le cose, dato che oltre al costo di un abbonamento internet (intorno alle 150.000 lire annue) si doveva pagare la famigerata TUT, la tariffa urbana a tempo, tanto che i primi internauti domestici stavano con un occhio al monitor e con l'altro all'orologio.
Ma ormai la stalla era aperta e i buoi stavano uscendo.
Nel 1990 Tim Berners-Lee presso il CERN inventa un sistema per la condivisione di informazioni in ipertesto noto come World Wide Web. Insieme a Robert Cailliau, Lee mise a punto il protocollo HTTP e una prima specifica del linguaggio HTML. 
Nel 1993 esce Mosaic, il primo programma a fornire uno strumento leggero di navigazione (il primo Browser per usare un termine attuale). Da quel momento non erano più solo caratteri quello che veniva ricevuto sui terminali collegati alla "Rete" ma anche immagini impaginate come in un libro e testo.
Nel 1994 nasce Video On Line che, grazie ad una sapiente campagna di marketing tramite vari periodici, tra cui Panorama, Topolino, Il Sole 24 Ore, offriva l'accesso gratuito ad internet per alcuni mesi e nel 1995 raggiunse il 30% degli utenti italiani (circa 15.000).
Da lì in poi la storia di Internet si è evoluta velocemente; alcuni progetti sono nati e scomparsi, altri sono rimasti, altri ancora si sono evoluti …
È proprio il 1995 che segna l'inizio della mia "love story" con il mondo di Internet.
In quell'anno stavo finendo il servizio militare, ma anche in quel periodo non avevo mai rinunciato a comperare riviste di informatica. Su una di queste ( non ricordo il nome) trovai per l'appunto il disco di VOL ed alla prima licenza mi fiondai davanti al computer e feci il primo collegamento tramite il mio modem a 1200bps…
… La lentezza della connessione nell'aprire la prima pagina mi lasciò leggermente deluso, abituato alle BBS dove i dati trasmessi erano solo testo e quindi la velocità del modem adeguata.
Dovetti aspettare qualche mese, dopo essermi congedato e comprai il mio modem a 36kbs con un abbonamento ad un provider locale e le cose migliorarono notevolmente.
Iniziai a studiare l'HTML e ad affascinarmi a quel linguaggio di script che permetteva di impaginare i documenti per il web.
Ma fu solo nel 2000 che veramente iniziai a lavorare in quel settore, grazie all'incontro con il Professor Pelanda.
Avevo avuto modo di conoscere il professore come mio cliente nel negozio di computer che gestivo con altri due soci e un giorno, dopo un mio intervento tecnico mi chiese se ne sapessi qualcosa di come si fanno siti web. In sincerità gli risposi che sapevo come farne uno ma non avevo mai provato realmente a farne.
Mi diede appuntamento la domenica pomeriggio per discutere.
Ricordo che stetti per quasi 40 minuti sotto il suo ufficio prima di suonare il campanello tanta era l'emozione e la paura. Dentro di me sapevo che questo avrebbe rappresentato un cambiamento nella mia vita ma non mi rendevo conto di quale potesse essere.
Il mio primo sito internet fu proprio quello del professore (www.carlopelanda.com) che negli anni ha seguito l'evoluzione del web design, a volte anche anticipando le tendenze.
La prima versione era in HTML puro, con qualche GIF animata e ottimizzato per una risoluzione di 800 x 600 pixel. Grafica semplice e colori forti ( che ancora adesso si ritrovano in alcune sezioni).
Poi fu la volta della tecnologia FLASH che permetteva animazioni complesse leggere, quindi adatte alle connessioni del tempo ( la maggior parte degli utenti web usavano ancora modem a 56KBs, solo poche aziende avevano la linea ISDN e la Tariffa Urbana a Tempo era ancora attiva sulle linee telefoniche).
Attualmente si usano i CSS e l'HTML5, con java script. 
Abbiamo abbandonato i fronzoli delle animazioni iniziali per dare più spazio ai contenuti e l'integrazione con i social network.
Sempre una maggior parte delle utenze internet utilizza anche dispositivi mobili, quindi la necessità è diventata quella di ottimizzare la visualizzazione su tablet e smartphone, così , come da una grafica ottimizzata per una risoluzione di 800x600 pixels siamo passati ad una di 1024x768, adesso passiamo ad una grafica fluida che si adatta a dispositivi mobili ed a schermi HD che arrivano anche 1600pixels.
Il web è come un essere vivente che si evolve. Un media che, a differenza della radio, della televisione o dei giornali, continua a crescere e cambiare.
Tornando al 1986 solo pochi scrittori di fantascienza ( tra i quali William Gibson esponente di spicco del filone cyberpunk. ) potevano immaginare quale futuro ci aspettava. 
In questa rubrica ho parlato spesse volte di tecnologie web che nascono, fanno il loro exploit e poi spariscono, lasciando però una traccia indelebile ed una guida per il futuro.
È del futuro del web che adesso parlo. 
Possiamo fare scenari ed ipotizzare come la nostra vita potrà cambiare, ma non possiamo esserne certi. 
Con l'avvento delle connessioni ADSL e FLAT sempre più persone hanno accesso al web e di queste sempre più si esprimono tramite questo mezzo, influenzandone le tendenze.
Il fatto di essere un mezzo di comunicazione a due vie (ricevo informazioni ma ne mando anche) porterà internet ad essere una specie di coscienza collettiva di grande magazzino dove si attinge agli archetipi societari.
Nessuno poteva immaginare il successo dei Social Network come Facebook e Twitter e l'influenza che hanno avuto nella vita di tutti i giorni o il declino di siti come Second Life, che invece si prevedeva avrebbe raggiunto milioni di utenti attivi.
Il futuro è da scrivere e se gli anni '90 hanno rappresentato il momento di boom di internet, il XXI secolo rappresenterà la sua età matura.
Per finire, riporto le parole del Professor Pelanda all'inizio del nostro rapporto di collaborazione:
"… Dipinta questa, metterei accanto il viso di Filippo, giovante tecnico computer veronese. Si è offerto di costruire il sito (www.carlopelanda.com) dove tra poco sbatterò tutte le mie pubblicazioni e farò pubblicità alla mia attività (scenaristica). Stavo per firmare il contratto con un'azienda milanese che mi proponeva la realizzazione del sito (complesso e non solo una semplice videata web) ad un buon prezzo ed in pochi giorni. Ma ho assunto Filippo, che mi costa un po' di più e allunga di tre mesi i tempi perché non ha ancora un'esperienza di questi lavori, pur geniale tecnico. Sono rimasto affascinato dalla sua volontà di imparare questo mestiere e colpito dalla mancanza di risorse educative che glielo insegnassero, qui nella nostra zona. Abbiamo fatto un patto: impara lavorando ed io accetto il rischio. In cambio mi assisterà nella gestione futura del sito a costi inferiori a quelli di mercato. Ed il suo viso – simpaticissimo e concentrato, teso nello sforzo – possiamo metterlo tra l'immagine ansiosa detta sopra e lo scenario piacevole di sfondo futuro." 
(L'Arena 20/04/2000)
Casus Belli
Casus Belli
Apple e FBI sono ai ferri corti: da una parte l’azienda di Cupertino si rifiuta di “creare” un backdoor  per accedere ai dati contenuti  nel IPhone del terrorista Syed Farook responsabile della strage di San Bernardino, dall’altra l’agenzia governativa che con la pretesa di dover garantire la sicurezza dello stato vuole avere accesso a quei dati.

Certo, dopo le accuse di  Jonathan Zdziarski (autore del jailbreak per I/os)  che sospettava Apple di inserire dei  backdoor per “spiare” i dati personali degli utenti l’azienda guidata da Tim Cook deve fare tutto per assicurare gli utenti che i suoi dispositivi sono sicuri.
Visto da questa angolazione le scelte di non cooperare della Apple potrebbero apparire come una mossa  commerciale -“ I nostri dispositivi sono i più sicuri!”-,  e molte aziende dell’ IT si sono schierate con l’azienda di Copertino; l’unica voce fuori dal coro sembra essere quella di Bill Gates  che prende le parti dell’ FBI, mentre la sua azienda  ( la Microsoft) si schiera apertamente con Apple.
In realtà è stato il tentativo di forzare l'accesso all'iPhone 5C di Syed Farook a chiudere per sempre ogni accesso alle preziose informazioni che ora l'Fbi vorrebbe ottenere con l'aiuto di Apple. 
Sembra quasi che l’FBI abbia creato questo caso ad oc per poter chiedere degli strumenti  (sia legali sia informatici) per avere l’accesso ai dati personali dei cittadini americani.

Nel 2010, quando gli Emirati Arabi Uniti e molti altri paesi avevano manifestato l’idea di mettere al bando alcuni servizi di telefonia associati agli smartphone Blackberry , l’allora segretario di stato Hillary Clinton, in rappresentanza del governo degli Stati Uniti,  si era prodigata in favore della libertà degli utenti sull’utilizzo dei servizi che ne garantivano la privacy.

A questo punto ci si potrebbe chiedere:  spetta alle aziende o agli stati proteggere la nostra privacy?  Fino a che punto la nostra privacy va tutelata in rapporto alla sicurezza nazionale? Se la stessa richiesta fosse giunta da un paese come la Cina cosa avrebbe fatto Apple?
Certo con i se non si fa la storia ma queste domande, direi sono più che legittime.

Alle prime due domande la risposta, dettata dal buon senso, è molto semplice:  gli stati dovrebbero tutelare la privacy dei cittadini con delle leggi, le aziende dovrebbero applicare queste leggi, che dovrebbero però sempre essere al servizio dello stato che rappresenta tutti noi.
 
Per l’ultima domanda la risposta si fa più interessante.
Iniziamo col dire che secondo gli analisti, nell'ultimo trimestre dell'anno 2015  ci sarebbero 2 milioni di pezzi di differenza tra le vendite di Iphone in Cina e quelle negli Stati Uniti: la Cina ha pesato per il 36% delle consegne di iPhone, contro il 24% accreditato agli Stati Uniti.
Questo risultato è stato ottenuto da Apple anche grazie all’aver assecondato alcune richieste del Governo di Pechino, per esempio usando data center con sede in Cina e incorporando uno standard cinese sul WiFi. Tutto questo ha sollevato forti critiche ed Apple che è stata accusata di chiudere un occhio sulle ingerenze del Governo nella privacy degli utenti per salvaguardare i propri interessi in quel paese.
Non è errato pensare quindi che se la stessa richiesta fosse stata fatta dal governo Cinese Apple avrebbe potuto accettare un simile accordo ( magari senza farne tanta pubblicità). 
Infondo qualcosa di simile accade già: dal 2014 la società di Cupertino ha infatti iniziato a memorizzare i dati dei propri utenti cinesi sul data center di China Telecom (una società di telecomunicazioni cinese a gestione statale), che è diventato l'unico fornitore in Cina di servizi cloud per la Apple. 
La stessa Apple sostiene che i dati degli utenti sono criptati, ma gli esperti facnno notare che China Telecom ha l’accesso a tutti i dati che passano sui server e quindi ha la possibilità di decifrare i dati sul proprio sistema.
Per finire nel gennaio 2015 Tim Cook  ha incontrato Lu Wei, direttore dell'Ufficio Informazioni di Internet della Cina, ente preposto della censura della rete cinese. 
Stando a quanto si dice, Cook avrebbe espresso alla controparte cinese il suo reciso rifiuto a fornire una backdoor a terze parti o un accesso alle informazioni. Ma la replica secca di Wu non si sarebbe fatta attendere: «quello che dici non ha alcun valore. I vostri nuovi prodotti devono essere sottoposti alle nostre ispezioni di sicurezza. Dobbiamo validare i vostri prodotti, in modo che gli utenti possano sentirsi sicuri nell'utilizzo di questi prodotti». 
In realtà non è chiaro cosa sia effettivamente successo. Ma, come riporta il Los Angeles Times, le autorità cinesi hanno comunicato nel gennaio 2015 che Apple è diventata la prima azienda straniera ad accettare le regole del Cyberspace Administration of China, l'organo centrale preposto alla censura in Cina.

Da queste piccole riflessioni possiamo capire che la mossa di Apple sia principalmente propagandistica nei confronti dei suoi prodotti mentre, in realtà, non ha alcun interesse a tutelare la privacy.
Dall’altro lato vediamo che i governi democratici si trovano sempre più in difficoltà con le nuove tecnologie a tutelare la sicurezza  dello stato e nel contempo a rispettare i diritti dei propri cittadini,  a differenza di governi totalitari o repressivi.

Perchè la Microsoft rimonterà nel mercato dei dispositivi mobili
Perchè la Microsoft rimonterà nel mercato dei dispositivi mobili
L'uscita di Windows10 non rappresenta solamente una nuova ed evoluta versione del precedente sistema ma anche una nuova strategia della casa di Redmond per rilanciarsi nel mercato dei dispositivi mobili dopo poco edificante esperienza degli anni passati.

Il fatto che il sistema operativo possa offrire la stessa esperienza di utilizzo sia sul computer, che sul tablet, che sul telefono sicuramente aiuta parecchio, ed anche il fatto che adesso le app possono essere le stesse aiuta parecchio l'utente a non sentirsi spaesato passando da un dispositivo ad un altro: Outlook, Calendario, Contatti, Office in versione touch, Foto. Ogni applicazione avrà la stessa interfaccia su PC, su laptop con schermo touch oppure su smartphone; Centro Notifiche è sincronizzato con quello PC ed anche il pacchetto office sarà lo stesso.
Una soluzione simile l'aveva, in vero, già intrapresa google, ma qua la cosa è diversa e più articolata.
Un'altra cosa che potrà aiutare la Microsoft a recuperare il terreno perduto è il fatto che il sistema operativo Windows10 non ha bisogno di grandi risorse (consiglio di leggere il mio precedente articolo su windows10) e questo permette di immettere sul mercato device e computer a prezzi più bassi.
Basta fare un giro su Amazon o nei grandi centri di distribuzione e ci si accorge che vi sono offerte per tablet che partono da 50,00 € con caratteristiche interessanti (Processore Atom Z3735G Quad-Core 1.83GHz Display multitouch da 7 pollici 1024x600pixel Memoria interna 16GB Wi-Fi 802.11b/g/n - Doppia fotocamera Sistema operativo Windows 10 Home) o portatili a partire da 190,00€.

Concludendo sembra che la Microsoft stia tentando di entrare in un mercato che è al momento è appannaggio di Google e Apple in maniera molto incisiva, se avrà successo solo il mercato stesso ce lo dirà ma non è esclusa che combinazione prezzo interessante ed usabilità potrò premiare la Microsoft come ha fatto Android con Google, forse a scapito proprio della casa di Mountain View, piuttosto che della casa di Cupertino che comunque è rappresenta un settore di mercato a parte.
30 anni fa una piccola rivoluzione
30 anni fa una piccola rivoluzione
Per un hacker “craccare” il primo programma è un po’ come fare l’amore per la prima volta. 
Nel mio caso il programma in quetione era “ Clonato C1 Text Editor”, un editor di testi per piattaforma AMIGA, e quel computer rimarrà sempre nel mio cuore. Mi sembra quindi doveroso ricordare a 30 anni dalla nascita questo magnifico computer che era una perfetta ( a parte il famoso Guru Meditation che compariva ogni tanto) integrazione hardware e software…

Era il 23 Luglio 1985 quando venne commercializzato il primo computer della famiglia AMIGA con padrino Andy Warhol; un anno prima Apple aveva presentato il primo Mac, a gennaio Atari aveva presentato il modello ST e nello stesso periodo Microsoft iniziava a proporre il suo MS-DOS su PC IBM compatibili con monitor monocromatico.
Erano anni di grande fervore nel mercato dei micro e personal computer, e ogni produttore aveva un suo sistema operativo ed un suo hardware.
Ma cosa c’era allora di nuovo in questo computer?
Sotto molti aspetti questo nuovo computer era avanti di anni rispetto ai concorrenti: il sistema operativo Già nella sua prima release 1.0 presentava il multitasking preemptive ( Microsoft Windows solo nel 1995, e  Mac OS X nel 2001 ),  un'interfaccia grafica a finestre ed icone a colori, per ogni programma in funzione uno schermo grafico dotato di caratteristiche indipendenti. Un anno dopo, con la release 1.2, Amiga implementò il “plug and play”, caratteristica che Microsoft ha poi introdusse nel proprio sistema operativo per personal computer solo dieci anni dopo.
Da un punto di vista Hardware le innovazioni non erano da meno: Il processore era un Motorola 68000, l'insieme di circuiti integrati di una scheda madre che si occupano di smistare e dirigere il traffico di informazioni passante attraverso il bus di sistema, fra CPU, RAM e controller delle periferiche di ingresso/uscita, era composto da 3 chip custom: Denise, Agnus( poi Fat Agnus) e Paula.
  • Denise era il chip che si occupava della grafica arrivando ad avere palette di 32 colori da 4096; la risoluzione andava da 320x512 a 4096 colori, a 640x512 a 16 colori. Ricordiamo tra i rivali il Mac era in bianco e nero, l'Atari ST 16 colori, i primi compatibili erano monocromatici oppure arrivavano a 256 colori massimo.
  • Agnus ( ed il suo succecssore Fat Agnus) si occupava dell'accesso alla memoria. A seconda del modello furono utilizzate versioni in grado di indirizzare fino a 512 kB di Chip RAM, altre in grado di indirizzare fino a 1 MB di RAM (Amiga 2000).
  • Paula integrava in sé diverse funzioni, tra cui l'audio e le porte Input/Output. L'audio forniva 4 canali PCM a 8 bit, in modalità stereo (2 sul canale destro, 2 sul sinistro).
La RAM poteva arrivare fino a 1Mb (1024Kb); il modello 68000 aveva un accesso a 16 bit alla memoria, anche se poi questa memoria era indirizzata a 24 bit e "ragionava" a 32 bit nei registri interni. I programmatori distinguevano fra parole "word" di 16 bit e "long word" a 32 bit. Per questo motivo Amiga non si può definire né un semplice sistema a 16 bit, né un vero sistema a 32 bit.
Il floppy disk era da 3.5” con una capacità di 880Kb ( i PC compatibili avevano floppy da 5.14” a 512Kb o 3.5” a 720Kb)
L’AMIGA 2000 aveva la possibilità di installare schede di espansione varie, tra le quali la possibilità di installare Hard disk SCSI, Schede Genlock e la scheda la “BridgeBoard” che permetteva di trasformare il computer in un vero e proprio PC compatibile con processore 8088 o 8086.
Da queste caratteristiche si può vedere perché a 30 anni dalla nascita, molti magazine di informatica ed elettronica abbiano dedicato righe al ricordo di questo computer rivoluzionario, che ha realmente cambiato il mondo dei computer: La rai usava una serie di AMIGA in parallelo in un noto programma della Carrà per il gioco da casa, le serie fantascientifiche “babylon 5” e “SeaQuest DSV” facro uso di questa piattaforma per le animazioni in computer grafica, molti grafici la usarono per il rendering 3D.
Ma come è accaduto che un sistema così moderno avesse un declino così veloce e finisse nel dimenticatoio?
Il motivi sono molti ma prima di tutto va considerato che il sistema AMIGA era un sistema proprietario e quindi solo lo Commodore poteva produrlo; a differenza dei computer PC compatibili che venivano assemblati da diversi produttori e così il mercato elesse i PC come dominatori assoluti.
Altre due cause che portarono al fallimento Commodore International nel 1994 furono: il Commodore CDTV e l’Amiga CD 32. Il primo, che fu commercializzato dal 1991 al 1993, era un lettore stand-alone di CD-ROM a contenuti multimediali e interattivi, nonché un lettore stand-alone di CD Audio, CD+G, CD+MIDI e Photo CD. Il dispositivo era considerato praticamente un computer, in quanto basato su piattaforma informatica Amiga: in particolare, si trattò del primo computer commercializzato con un lettore CD-ROM, ed in Italia venne venduto abbinato all’enciclopedia Groolied su CD. Nonostante ciò il Commodore CDTV fu purtroppo un fallimento commerciale. L’ Amiga CD 32 era una piattaforma pensata per concorrere nel mercato delle console a 16 bit che in quel periodo andavano molto e superavano in vendite i modelli Amiga. La console vantava del supporto CD-ROM per i videogiochi, cosa che garantì alla macchina un ottimo successo iniziale; inoltre fu la prima Amiga a sfruttare la grafica tridimensionale che in quel periodo si stava diffondendo molto rapidamente. I problemi iniziarono nel Dicembre del 1994, con l’arrivo di PlayStation, che surclassò Amiga CD 32 portando la console e la generazione Amiga al declino.

E così la a marzo del 1994 la Commodore ufficializza le gravi difficoltà finanziarie e nel giro di 24 ore le azioni crollano da 28$ a 0,75$, costringendo la borsa a sospendere la trattazione dei titoli. Pur continuando a produrre l'Amiga 4000, Amiga 1200 e l'Amiga CD32 l’anno si chiude con l’inevitabile dichiarazione fallimentare, causata principalmente dalla forte pressione dei creditor.
Da allora inizia un passaggio di proprietà dei diritti continuo nel tentativo di far rinascere almeno il sistema operativo, ma, nel '97 si passa all'asta fallimentare dove i nomi “Amiga” e “Commodore” vengono definitivamente separati.
A giugno 2015 si è tenuta ad Amsterdam, presso il “Computer History Museum” la festa per il trentennale di Amiga.
Forse, come la fenice, vi sarà una rinasictà?

Bentornato windows
Bentornato windows
Per Terry Myerson, responsabile dei sistemi operative Microsoft, windows 10 sarà il miglior sistema operativo di sempre.
In effetti ,quello che Microsoft ha presentato a San Francisco alla fine di settembre, è uno dei più ambiziosi progetti della casa di Redmond: Creare una piattaforma unica che possa andare bene per tutti i dispositivi, dai PC ai smartphone e tablet.
Per gli utenti Pc la cosa più interessante è sicuramente il ritorno del tasto START, la cui scomparsa aveva tanto fatto infuriare gli utenti di Windows8.
Il menù start di windows10 è un evoluzione dei precedenti: prima di tutto potrà essere completamente personalizzato e questo,  non solo nei contenuti, ma anche nelle dimensioni e nelle applicazioni Modern in esso contenute; sempre il menù start fonda, finalmente, i due mondi di windows: quello dei programmi tradizionali con vista a menu e quello delle app accessibili attraverso le mattonelle animate; con un solo clic si ha la possibilità di  accedere alle funzioni e ai file più utilizzati. Per finire include un nuovo spazio da personalizzare con le app, i programmi, i contatti ed i siti web preferiti.
Un’altra innovazione ( per gli utenti Microsoft) è la presenza di desktop virtuali.
Chi usa altri sistemi ( Linux) sa già di cosa stiamo parlando:  questa tecnica permette di simulare la presenza di più desktops indipendenti in modo da avere teoricamente sempre una schermata più o meno libera a disposizione;come avere diversi monitor in uno solo.
Un altro passo indietro, se così vogliamo chiamarlo, è il ritorno alle finestre: le app adesso  possono essere aperte nello stesso formato dei programmi desktop. ( si possono  ridimensionare e spostare, hanno una barra di comandi che consente di ingrandire, ridurre a icona e chiudere l'app con un clic come tutte i programmi desk).
C’è poi il tasto Task view, che permette di vedere tutti  i task e file aperti, per poter passare velocemente da uno all’altro.
Confrontandolo con il suo predecessore (windows8) un’altra delle differenze è la scomparsa delle barre laterali, che tanto davano fastidio agli utenti e che, a volte, si aprivano per sbaglio, come pure la tanto odiata schermata metro.
Da un punto di vista tecnico il sistema risulta molto veloce anche su computer che hanno solamente 2Gb di memoria.
A conti fatti il nuovo sistema microsoft sembra, finalmente, essere qualcosa di innovativo che, si spera, farà smettere di rimpiangere il glorioso windows Xp. Purtroppo prima di vederlo dovremmo aspettare il 2015 e non sappiamo bene quando, visto che non abbiamo ancora date certe per il rilascio.
Il mio consiglio, a chi ha in mente di cambiare computer e di rimanere su un sistema microsoft, è di aspettare l’uscita dei computer che montano già il nuovo windows10 di serie, visto che ultimamente si trovano (nella grande distribuzione) solo computer con window8 e difficilmente con windows7
Naked iOS
Naked iOS
Sembra un giallo eppure il botta e risposta tra Apple e l‘esperto Jonathan Zdziarski (autore del jailbreak, esperto forense informatica, consulente per la sicurezza del Governo Americano, ex hacker con il nickname NerveGas) non accenna a finire. 
Zdziarski denuncia che l’iPhone conterrebbe backdoor per “spiare” i dati personali; a queste denunce Apple ha risposto con un documento nel quale spiega alcuni dei processi incriminati. Zdziarski accusa Apple di aver pubblicato solamente la descrizione tecnica solamente di alcuni processi e non di tutti.
Per gettare un poco di acqua sul fuoco, diciamo subito che gli utenti di Smartphone o tablet targati Apple non devono spaventarsi: sembra che solamente Apple od un ente ufficiale possa utilizzare queste falle.
In un discorso durante la conferenza Planet Earth a New York l’esperto in sicurezza ha affermato che i servizi non documentati verrebbero avviati regolarmente in background su oltre 600 milioni di dispositivi iOS, ed è probabile che alcuni dati vengano inviati direttamente ad Apple. 
Cosa significa tutto questo? In breve, Zdziarski ha dimostrato che tali servizi potrebbero essere utilizzati per prendere prove utili per gli inquirenti direttamente dagli iPhone e dagli iPad, senza che l’utente possa mai accorgersene. L’esperto afferma che iOS è “molto sicuro” e che questi dati sono praticamente inaccessibili per un malintenzionato. Apple e, su richiesta, il governo, possono invece accedervi con estrema facilità.
Certo questa non è una buona notizia per Apple, anche perché già all’inizio del mese di luglio 2014 era stata comunicata una falla sulla app Gmail per iOS che esponeva al rischio di attacchi hacker che permettevano di monitorare le comunicazioni di posta elettronica, anche se crittografate e prima ancora aveva visto molti utenti del melafonino attaccati da ransomware mobile, un tipo di malware che limita l'uso del dispositivo infettato e richiede un riscatto all'utente finale per poterne riprendere il controllo.
Tornando ai servizi incriminati uno dei servizi evidenziati da Zdziarski è il packet sniffer denominato com.apple.pcapd che permetterebbe di inviare tutti i dati internet in ingresso ed uscita del dispositivo
controllato a quello ad esempio utilizzato dalle autorità.
A queste accuse, come detto precedentemente, Apple risponde con un documento che smentisce stessi punti esposti dall’hacker e spiega alcuni dei servizi accusati.
Il primo servizio com.apple.mobile.pcapd serve per la raccolta di informazioni relative a diagnosi e a risoluzioni dei problemi, ma tale raccolta viene effettuatatramite un computer sicuro.
Il secondo servizio com.apple.mobile.mobile.file_relay non ha accesso ne ai dati di backup ne ai dati dell’utente rispettando quindi i canoni di sicurezza di iOS. 
Il terzo servizio com.apple.mobile.house_arrest, viene infine utilizzato come metodo di comunicazione tra iOS e app che supportano questa funzione.
Gli ingegneri Apple e il personale Apple Care possono si utilizzare il servizio per determinare le configurazioni del dispositivo ma solo dopo aver ottenuto il consenso dell’utente (sempre che l’utente capisca a cosa acconsente aggiungo io). In ogni caso il consenso dell’utente è una condizione essenziale per l’attivazione dei servizi sopra elencati (pena la non fruibilità completa del telefono).
Ciò che Zdziarski tende a sottolineare (con tanto di screenshot) è che questi pacchetti non solo sono presenti su tutti i dispositivi, ma che possono essere eseguiti senza alcuna indicazione visiva per l’utente.
Più di una volta Apple ha dichiarato che la NSA, come qualsiasi altra organizzazione governativa, non ha accesso ai dati degli utenti, promuovendo la sicurezza e la privacy garantita durante l’uso dei dispositivi iOS.
I risultati di Zdziarski, sembrano mostrare tutto il contrario, se poi aggiungiamo il fatto che Apple, come tutte le aziende americane, è sottoposta al Patriot Act e che è chiamata per obbligo a cedere i dati che l’utente vuole mantenere riservati al Governo Americano.
Le backdoor, in questo caso, non sono che uno strumento messo a disposizione dal produttore che non dovrebbe costituire un pericolo per i consumatori. Tuttavia, la loro sola presenza comporta, in potenza, un rischio: se il ‘personale autorizzato’ riesce ad entrare senza problemi, chi ci dice che non possa farlo qualcun altro ?
Non sorprende quindi che il governo cinese, tramite la Tv di stato CCTV (China Central Television) sia arrivato a sostenere che l’iPhone sarebbe un pericolo per la sicurezza dei cittadini e che abbia deciso di lanciare una campagna contro la sicurezza di Apple. A preoccupare il governo cinese è che posseggono un iPhone molti funzionari del governo cinese e diversi top manager di alcune tra le più importanti aziende cinese che potrebbero quindi avere inserito nel loro dispostivo dati di tutto rispetto.

Il pericolo di IE
Il pericolo di IE
Secondo una ricerca di “Bromium Labs” il browser Internet Explorer è quello che ha subito, nei primi 6 mesi del 2014, il maggior numero di attacchi informatici. A peggiorare la situazione vi è anche il fatto che Internet Explorer sia anche quello con il maggior numero di vulnerabilità.
Questo ha portato sia il governo Americano che quello Inglese a consigliare ai propri cittadini di considerare delle alternative al browser di casa Microsoft: secondo NetMarket Share, infatti, Internet explorer  (dalla versione 6 alla 11) è il browser più usato dagli utenti di computers.
La United States Computer Emergence Readiness Team (US-CERT), afferma che le vulnerabilità "could lead to the complete compromise of an affected system".
Il giornale inglese “The Telegraph” ha consultato diversi specialisti in sicurezza informatica provenienti da famose aziende specializzate ( Symantec, FireEye, Malwarebytes and AppSense ) e tutti sono dell'avviso che la soluzione migliore sia cambiare il browser.
Negli ultimi anni i programmatori di Redmond hanno lavorato parecchio sulla sicurezza del browser, tanto che molti hacker preferiscono concentrasi a sfruttare le falle di altre applicazioni (Java in primis, seguito da Flash).
Anche i programmatori di Oracle hanno lavorato parecchio tanto che Java VM nei primi sei mesi del 2014 java non ha subito attacchi “Zero Day” a differenza dell'anno precedente.
Vediamo adesso alcune alternative:
Tra le  più considerate dagli utenti sono quelle di Firefox e Chrome. Entrambi i browser, che nell'anno precedente (2013) contenevano diverse vulnerabilità,  nel 2014 hanno visto le vulnerabilità scendere vertiginosamente.
Altre alternative che possono essere prese in considerazione sono l'uso di Safari oppure Opera, a scapito però, di una certa perdita di compatibilità con alcuni siti web.
Rimane sempre il rischio di usare applicazioni che usano Java o Flash all'interno del browser.
E tornando a Java e Chrome ci tengo a sottolineare che entrambi detenevano  il record di vulnerabilità del 2013, mentre quest'anno sembrano aver ridotto decisamente la cifra tanto che ad oggi (luglio 2014), non sono stati segnalati attacchi pubblici mentre lo scorso anno erano stati undici.
''La nostra previsione - concludono gli esperti di Bromium - è che Explorer continuerà ad essere l'obiettivo preferito dagli hacker per tutto il resto dell'anno''. 
Queste vulnerabilità di Explorer sono particolarmente pericolose per gli utenti (ancora molti) che continuano ad usare Windows XP, in quanto la Microsoft ha terminato il supporto per tale sistema operativo.
Essere il principale produttore di sistemi operativi e del browser di maggior diffusione dovrebbe portare ad aver una maggior considerazione per  i propri utenti/clienti senza abbandonarli od obbligarli a spendere centinaia di euro per aggiornare un sistema operativo per aver la sicurezza.

RIFERIMENTI:
Bromium Labs, NetMarket Share
E' stato superato il test di Turing?
E' stato superato il test di Turing?
(In memoria di Alan Turing, ucciso dall'ignoranza e dalla bigotteria)
I propose to consider the question, “Can machines think?” This should begin with definitions of the meaning of the terms “machine” and “think”.
In questo modo, nel 1950 Alan Turing iniziava il suo saggio: “Comupting Machinary and Intelligence” sulla rivista Mind.
Da questo papper Turing sviluppo un procedimento di pensiero per determinare se una macchina fosse in grado di pensare: per Turing una macchina in grado di pensare è una macchina che sia capace di concatenare idee e quindi di esprimerle.
In questa sede tralasciamo la spiegazione del test ( chi fosse interessato può tranquillamente scaricare tutto il papper a questo indirizzo: http://orium.pw/paper/turingai.pdf
Dal 1950 i parametri per il Test di Turing sono stati riformulati, sia perché originariamente troppo imprecisi, sia perché sono insorte nuove definizioni di macchina intelligente, come nel caso di ELIZA (1966), dove un software era in grado, tramite la riformulazione delle affermazioni di una persona, a porre delle domande che potevano indurre a pensare che l'interlocutore non fosse un computer ma un essere umano.
Sabato 6 giugno 2014 si è svolto presso la Royal Society una gara tra 5 programmi, con l'intento di superare il Test di Turing: i programmi dovevano rispondere, per interposta tastiera, a dei giudici umani, durante sessioni di discussione di cinque minuti. Al termine di questi scambi, stava ai giudici decidere se il loro interlocutore fosse un umano o un robot. Se il programma informatico fosse riuscito a convincere almeno il 30% degli umani, il test sarebbe stato da considerarsi riuscito.
Di questi, soltanto “Eugene” è riuscito a passare il test con successo, convincendo il 33% dei giudici. La differenza, rispetto al le altre volte che il test di Turing venne considerato superato e quella del giugno 2014, è che gli argomenti di discussione, in questa prova, non vennero definiti prima di iniziare il test. 
In realtà le critiche non sono mancate: il programma si fingeva un adolescente e questa interpretazione del test ne avrebbe facilitato la riuscita poiché gli interlocutori umani tendono ad attribuire più facilmente all’età un tipo di comunicazione poco ortodosso. Anche la scelta della nazionalità fittizia è stata oggetto di critiche, in quanto avrebbe portato i giudici a ritenere le disfunzioni sintattiche come conseguenza del fatto che il ragazzo non fosse di madrelingua inglese. Infine, per il momento l’articolo scientifico coi dettagli dell’esperimento non è ancora stato pubblicato, e l’università di Reading non ha voluto fornire alcuna copia delle conversazioni ai giornali. Si parla di circa 300 conversazioni con 30 giudici tra i quali dei famosi nomi nel campo dell'intelligenza artificiale.
C'è quindi da pensare che un software non possa essere scambiato per un essere umano, ma che, invece, ciò sia possibile solo in determinate e limitate condizioni e solo per una minoranza di casi (il famoso 30% che dovrebbe essere portato almeno a 56% secondo alcuni esperti).
Concludendo possiamo farci una domanda: ha ancora senso il Test di Turing? La domanda iniziale: “Can a Machines think?” è ancora valida quando ancora non abbiamo consapevolezza di cosa si intenda per pensiero?
Ognuno di noi, quando conversa con un chatbot (programmi come ad esempio ELIZA che simulano una conversazione), ci proietta se stesso, mette in moto i circuiti dell’empatia, cercando di specchiarsi in quella relazione: vuole essere ingannato. Ma un’altra parte non accetterà mai che un sistema artificiale, per quanto sofisticato, possa essere in grado di pensare. 
In una puntata di Battlestar Galactica (una serie televisiva di fantascienza) una frase ci porta a riflettere sul Test di Turing, quando un umano, parlando con un Cylone dice: “Noi siamo umani, voi siete soltanto macchine”.
Insomma il tempo di HAL 9000 (del film 2001 Odissea nello spazio) è ancora lontano ed il 2001 è passato da 13 anni...
«My mind is going. There is no question about it. I can feel it. I can feel it. I can feel it. I'm afraid.» 
(HAL9000 2001 Odissea nello spazio)

State of the Internet 2014 analisi del Photo Sharing
State of the Internet 2014 analisi del Photo Sharing
Questo mese (maggio 204) l'analista Mary Meeker della società Kleiner Perkinsha rilasciato la sua tanto attesa presentazione sullo stato di internet (http://www.kpcb.com/internet-trends) . Della presentazione, molto articolata, analizzeremo in questo articolo solamente di alcune parti.
Il 25% del traffico web è ormai generato dai dispositivi mobili, trainato principalmente dai video e dalle foto, segno - a detta della  Meeker - che i device mobili sono protagonisti di una ‘re-immaginazione’ del web,  per creare e condividere una gamma ampia e differenziata di informazioni: cresce, infatti, a ritmo sostenuto, la diffusione degli smartphone (+20% slide 4) soprattutto in mercati quali la Cina, l'India, il Brasile, anche se i dispositivi intelligenti rappresentano ancora solo il 30% dei 5,2 miliardi di device; i tablet hanno registrato una crescita del 52%, contribuendo all'aumento dell'81% del traffico generato dalle piattaforme mobili.
Un altro fatto è che la diffusione di internet sia diminuita del 10% rispetto all'anno precedente e stia crescendo, però, in mercati scarsamente redditizi come l'India, l'Indonesia, la Nigeria (slide 4 ).
Tra i trend più in crescita c'è quello della condivisione delle immagini: ogni giorno vengono scambiati dai device mobili 1,8 miliardi di foto.
Tra i sistemi operativi più usati dai device vediamo che, tra il 2005 ed il 2013 c'è stata la sparizione di Symbian e l'affermarsi (in maniera dirompente) di Android; mentre IOS rimane stabile (slide 10).
Tra le applicazioni di messaging (slide 36) rimane al primo posto WhatsApp (ormai sul mercato da 4 anni), seguito da Tencent. Chiudono la classifica rispettivamente Snapchat e Viber.
Su questo punto è da notare che i dati si riferiscono al 2013, cioè prima che Facebook comperasse WhatsApp, bisognerà vedere l'anno prossimo quali saranno le ripercussioni sull'utilizzo dell'app.
Proseguendo nell'analisi della slide 37 notiamo che c'è  un evoluzione nell'evoluzione del “messagging”: facebook rimane il mezzo preferito per  inviare messaggi/notizie ad un largo numero di contatti, mentre i programmi di messaging vengono principalmente usati per inviare messaggi ad un ristretto ( o solamente uno) numero di contatti.
Nella slide 62, in fine, viene mostrata l'evoluzione della comunicazione nello scambio di immagini dove snapchat la fa da padrone, con una formidabile crescita nello scambio di foto singole, seguito da WhatsApp.
Le implicazioni nate da questa veloce analisi sono molte ma vorrei soffermarmi, per adesso, alla crescita di Snapchat e WhatsApp.
Snapchat permette di inviare immagini che rimangono sul dispositivo ricevente solamente per un limitato periodo di tempo. WhatsApp permette di inviare invece messaggi e foto a un solo contatto oppure ad un ristretto numero di contatti: entrambe le applicazioni, quindi, permettono di usufruire di una certa privaciy rispetto al altre forme di condivisione di contenuti.
Si desume che l'utente internet stia sempre più ricercando una propria privaci e che l'era del grande fratello (non Orweliano in  questo caso ma televisivo) stia tramontando?
Rimane,  comunque, sempre vero quello che aveva detto a suo tempo Kevin Mitnick detto "Condor" nel suo libro "L'arte dell'inganno": un computer sicuro è un computer spento, quindi bisogna sempre prestare attenzione ai contenuti che si condividono tramite internet.

Demenze giovanili (e non) al tempo di internet
Demenze giovanili (e non) al tempo di internet
La tecnologia influenza e trasforma la società, ne migliora la vita, garantisce il progresso ma ne condiziona, spesso, anche la condotta. 
Con il lento ma inesorabile calo del digital divide (il divario esistente tra chi ha accesso effettivo alle tecnologie dell'informazione in particolare personal computer e internet e chi ne è escluso), la comunicazione sta cambiando nei contenuti e nello stile: alle parole, sempre più spesso, si sostituiscono le immagini, alle idee i “re-post”  o i “Like”; alcuni comportamenti , che sono sempre esistiti, vengono esasperati e/o accentuati dall’uso dei nuovi media. Alcuni motociclisti ed automobilisti, ad esempio,  si divertono a postare video dove corrono, zigzagano e sfiorano altri utenti della strada, mentre viene inquadrato il contachilometri che tocca velocità impensabili.
Ultimamente si stanno sviluppando due nuove mode tra gli utenti di internet (soprattutto gli adolescenti) che hanno risvolti preoccupanti:  la “Neknomination” ed il “Knockout Game”.
Sebbene siano due sfide completamente diverse tra di loro hanno in comune che entrambe si sviluppano e si propagano tramite social network .
Il primo  (Neknomination) , nato in Australia, è la contrazione delle parole inglesi neck and nominate, ovvero collo e nomina (dove per collo si intende il collo della bottiglia)  e  consiste nel  filmarsi mentre si beve una pinta di una bevanda alcolica tutta d'un fiato e pubblicare il filmato sul web; l'autore del filmato dovrà inoltre nominare altri due amici, che avranno 24 ore di tempo per raccogliere la sfida ed eseguire a loro volta la bevuta. Chi non rispetta le regole una sera sarà costretto ad andare in un pub e offrire agli altri.
In  Paesi, come Inghilterra, Stati Uniti e Irlanda, questo gioco ha già fatto le sue vittime.  Almeno 5 ragazzi sarebbero morti dopo avervi partecipato e  tanti altri sono finiti in ospedale in coma etilico.
Su Facebook le pagine dedicate a questo gioco sono parecchie e, tutte, hanno parecchi LIKE (https://www.facebook.com/pages/Neknomination/290173311139913).
Un ragazzo intervistato dall’Independent che per la sua NekNomination ha tracannato mezzo litro di sambuca in 10 secondi , oltre all’alcol poi, alcuni sfidano a compiere azioni proibite o pericolose , come è successo a John Byrnem,  morto per essere saltato in un fiume come parte della sua NekNomination.
Una ragazza inglese, pinta alla mano, si è ripresa mentre si spogliava nel bel mezzo di un negozio Asda.
Gruppi di genitori irlandesi e inglesi hanno già chiesto a gran voce al social network di mettere offline i video pubblicati e chiudere le pagine dedicate al gioco: da Facebook però hanno detto di no, perché di fatto il contenuto delle NekNomination non viola le regole di Cupertino.
Il gioco intanto si è evoluto e, adesso, ci si sfida non solo sulla quantità e velocità con cui si ingurgitano gli alcolici, ma anche sul modo più estremo di bere: così, c’è chi gusta birra dalla tazza del cesso facendo la verticale e chi tracanna bicchieri di vodka con dentro pesci rossi vivi. O ancora, chi si fa un frullato di gin e cibo per cani o peggio con un intero topo morto.
Il  Knockout Game, invece, consiste nello stendere con un solo pugno un ignaro passante e poi postare il video.
Il primo caso in Italia di knockout Game si è verificato a Favaro Veneto, per l'esattezza, appena fuori da un centro commerciale nel gennaio del 2014, mentre la prima vittima (morta) è stato un cameriere bengalese, 
Zakir Hoassini, morto dopo 24 ore di agonia per un pugno preso in faccia nel centro di Pisa.
Secondo alcuni psicologi questi comportamenti estremi esprimono un profondo bisogno di riconoscimento e di essere visti. I giovani sono alla ricerca di un attestato relativo alla loro identità, al loro valore e alla loro diversità rispetto agli adulti; in mancanza dei riti di passaggio, quelli che una volta sancivano l’ingresso nel mondo dei grandi e oggi in disuso, c’è la ricerca spasmodica di visibilità e di complicità fra coetanei.
Se prima dell’avvento di internet  e dei social network questi comportamenti estremi avvenivano in sordina, adesso i giovani usano la rete per manifestare questi loro atteggiamenti.
La fuga da Whatsapp
La fuga da Whatsapp
Facebook ha comperato whatsapp, ma la notizia più interessante nell’affare è che l’acquisto è stato fatto per un costo astronomico rispetto al valore dell’ App di messaggistica. Capire, perché una società che fattura 50 milioni di dollari possa essere pagata ben 19 miliardi è tuttora difficile.
Il prezzo  è una semplice moltiplicazione: 
costo utente whatsapp * numero totale utilizzatori.
Il capitale quindi non è valutato evidentemente solo in base al fatturato o alla capitalizzazione di borsa, bensì al capitale umano, cioè quanto posso guadagnare da un contatto che possiedo dal momento in cui questi è effettivamente attivo. A questo punto, interessante notare che molti utenti, in base a questo ragionamento, vedono minata la loro privacy nei confronti del servizio ed è iniziata una migrazione ( in massa direi) verso altre piattaforme.
A peggiorare la situazione il fatto che sabato 22 febbraio 2014 per ben cinque ore la piattaforma whatsapp è rimasta off-line, a detta dei tecnici, per il passaggio sui servers di FB.
Il garante della privacy tedesco , Thilo Weichert, in concomitanza con l’acquisto della società da parte di Facebook, ha rincarato la dose, invitando gli utenti di whatsapp a passare ad altre piattaforme: secondo Weichert, “WhatsApp è una forma di comunicazione insicura e ha gravi problemi di sicurezza e privacy.”; sempre secondo il garante, entrambe le società hanno rifiutato di seguire le linee guida sulla privacy stabilite dall’Unione Europea. WhatsApp e Facebook hanno sede negli Stati Uniti, dove le leggi sulla protezione dei dati sono meno severe che in Europa.
La privacy policy di WhatsApp permette loro di condividere le informazioni con altri fornitori di servizi nell’ambito di scopi molto specifici e di utilizzare informazioni personali come i dati di utilizzo della connessione, le informazioni sul telefono, sull’indirizzo IP, e altri, così da migliorare la qualità del servizio e creare nuove funzionalità quando l’azienda lo ritiene opportuno, senza consultare i suoi utenti.
Inutilmente Zuckerberg cerca di tranquillizzare gli utenti dicendo che “La privacy su WhatsApp resta uguale, il servizio non cambierà. E’ quello che la gente vuole, sarebbe stupido modificarla”: dopo la notizia dell’ acquisizione di whatsapp sono passati a Telegram ben 5 milioni di utenti ed a Line 2 milioni di utenti  in sole 24 ore.
D'altronde WhatsApp è stato acquistato per ingrandire il bacino di utenza di Facebook; inoltre, acquistando WhatsApp, Zuckerberg ha messo una seria ipoteca sul mondo mobile. Le applicazioni più diffuse per smartphone sono ora di sua proprietà, e proprio questa sorta di monopolio pare aver messo in allarme più di qualche utente. Le domande più ricorrenti, sui blog sono: che cosa ne farà Zuckerberg di tutti questi dati? Zuckerberg riuscirà ad accedere anche ai dati che ci si scambia tramite messaggi? Le conversazioni verranno salvate nei loro server? 
A questo punto, invito i lettori di questo mio spazio, che sono preoccupati per la loro privacy, a cercare altre alternative (ce ne sono molte  completamente gratuite) e con più servizi e/o opzioni di whatsapp.
Di seguito una breve lista delle varie alternative

App

IPhone

OS/X

Android

Windows

Black Berrry

Altro

Viber

X

X

X

X

X

Linux, Windows Phone8

Blackberry Messenger

X

 

X

 

X

 

Skype

X

X

X

X

X

Linux, Windows Phone

Line

X

X

X

X

X

Windows Phone, Nokia Asha, Firefox OS

Telegram

X

 

X

 

X

Windows Phone8


Tra tutte le alternative sembra che gli utenti di WhatsApp preferiscano Telegram per la privacy, anche se Viber o Skype permettono una maggior portabilità, dando la possibilità di installare il client anche su un normale computer.
La “culona” Internet e L’NSA
La “culona”  Internet e L’NSA
Angela Merkel sarebbe estremamente favorevole alla creazione dell'Internet Europeo. Si tratta di un progetto realizzabile, ma molto costoso. E che, guarda caso, favorirebbe le aziende francesi e tedesche. Peccato solo che in questo modo potrebbero facilmente essere banditi da questo Internet Europeo realtà come Facebook, Google e Gmail, e quant’altro si voglia, come sta facendo la Cina e la Corea del Nord.
Il network europeo eviterebbe il passaggio di dati inviati con e-mail o in altro modo attraverso gli Stati Uniti, e quest’ idea  è fortemente propugnata da una Angela Merkel visibilmente colpita evidentemente sul piano personale dallo scandalo delle intercettazioni Nsa.
Quello che Frau Merkel non considera è che  la forza di Internet è la sua globalità e regionalizzarlo vuol dire privare tutti gli utenti,  principalmente quelli europei, di qualcosa, in termini di accessi, servizi, prodotti, capacità di comunicazione; evidentemente la signora Merkel ( cresciuta ad 80km da Berlino nella Repubblica Democratica Tedesca socialista) considera ancora la censura come la soluzione dei problemi e vorrebbe poter controllare la rete come la STASI faceva con i suoi connazionali negli anni della guerra fredda.
Da un punto di vista tecnico  regionalizzare Internet è possibile, anche se immensamente costoso. Oltre ai filtri fisici sulle dorsali di accesso ci sarebbero da modificare tutti i protocolli di comunicazione; sarebbe quindi un sistema chiuso che comunica con l’esterno nei modi e nei contenuti che stabilisce d’autorità. Questo comunque non servirebbe a contenere le azioni di spionaggio, secondo Snowden ed altri esperti, da parte dei servizi segreti di altri paese: se qualcuno ha davvero interesse e utilità ad intercettare dati, può farlo ugualmente, non a caso l' Nsa intercetta comunque ciò che avviene in Cina.
Gli unici effetti reali di un Internet “europeo” sarebbero più o meno questi: molti servizi cloud non accessibili, alcune limitazioni a siti social come Facebook, molti servizi di Google, come Gmail, del tutto o in parte non accessibili, costi per le grandi aziende di adeguamento delle proprie reti dati,senza nessun beneficio particolare in termini di sicurezza.
Ma allora perché la “Culona” vuole chiudersi a riccio?
La realtà è molto semplice: per  aggiornare l’infrastruttura esistente secondo le esigenze di Frau Merkel sarebbero necessari ingenti investimenti e lavori ed è facile pensare che i primi beneficiari di un simile provvedimento sarebbero le aziende tedesche e francesi, ed è per questo che il cancelliere tedesco vuole parlare di questo progetto principalmente con il presidente francese hollande.
La mia speranza è che tutto rimanga come è adesso, non solo perché il cambiamento voluto dalla signora Merkel non porterebbe nessun reale vantaggio sul fronte della sicurezza, ma anche perché porterebbe ad una “censura” di tipo statale simile a quella di pese come Cina o Corea del nord.
Shodan è motore di ricerca più pericoloso?
Shodan è motore di ricerca più pericoloso?
Dal 2009 Shodan  è uno dei motori di ricerca più utili agli hacker di tutto il mondo perché consente di ottenere velocemente informazioni riguardanti gli indirizzi IP di siti Web, servizi online, Webcam connesse e ogni altra attività Internet. 
Ma cosa fa e come funziona Shodan?
Ogni computer connesso a Internet o eventualmente dispositivo ha un indirizzo IP pubblico, quindi raggiungibile dall'esterno. Il motore di ricerca sapendo il range di indirizzi disponibili online in tutto il mondo, come un crawler fa una scansione automatica e cerca di connettersi a tutti. Per ogni IP a cui riesce a connettersi ne legge i cosiddetti banner ( ovvero i messaggi di benvenuto dei server); questi, per un pirata informatico sono come delle impronte digitali: sa che a quell'indirizzo IP corrisponde un server attivo,  ne conosce la versione, di conseguenza eventuali falle e così via.  
Chi si ricorda il film “War Games” del 1983 (invito tutti vivamente a riguardarlo), certamente ha presente quando il giovane protagonista - Matthew Broderick – mostrava alla sua amica il metodo della “war-dialing”, chiamava cioè tutti i numeri di telefono in un determinato range fino a quando non rispondeva un computer. 
Ecco Shodan fa la stessa cosa con gli IP, ma in più permette all’utilizzatore di personalizzare le ricerche; se ad esempio scrivessimo OS/x city:"Verona" country:it ci comparirebbe come ricerca solo nella città di Verona in Italia i server che corrispondono alla parola OS/X . 
Per utilizzare Shodan  basta collegarsi al sito web (http://www.shodanhq.com/) e registrarsi; quindi si utilizza come un comune motore di ricerca ( chi è abituato ad usare solamente google avrà qualche difficoltà all’inizio).

Shodan mi permette anche di impostare dei filtri :
after/ before: limita la ricerca ad un determinato range temporale ad esempio: before:20/03/2010 ( attenzione su usa la data nel formato inglese/americano gg/mm/aaaa)
city : il nome della città. Ad esempio:  city:"Bologna"
country:  le due lettere che identificano il paese; ad esempio  country:IT
geo:  latitude and longitude permette di identificare un range geografico con i punti indicati con le coordinate di latitudine e longitudine.
Port:  cerca solo server con determinate porte aperte
Os: Cerca I server con un determinato sistema operativo
Hostname:  il nome completo o parziale di un host.

Da questa breve spiegazione sulle possibili ricerche offerte da Shodan si evince che questo motore di ricerca, di per sé, non sarebbe pericoloso, ma , come detto all’inizio dell’articolo, permette ad un hacker anche principiante di acquisire informazioni utili ai suoi scopi.
Per finire ci tengo a ricordare una cosa: Un “vero” Hacker viola un sistema solo per il gusto di farlo e non per trarne un profitto personale.
Sexting: Difendiamo i minori
Sexting:  Difendiamo i minori Il sexting consiste nell'invio elettronico, in primo luogo da telefoni cellulari, di messaggi o foto sessualmente esplicite; le persone lo fanno per mettersi in mostra, attirare qualcuno, dimostrare interesse verso qualcuno, dimostrare di essere impegnati in una relazione, o per ricevere qualche piccolo "dono" come ricariche telefoniche. Questa pratica, molto diffusa tra i giovani, risulta essere molto pericolosa per loro: una volta inviata una foto, non è più possibile gestirla né recuperarla. Il destinatario dell'immagine può inoltrarla, copiarla, pubblicarla online o condividerla con chiunque. Oltre al danno emotivo che può comportare la diffusione di un'immagine personale a sfondo sessuale nell'intera scuola o gruppo di amici, ci sono effetti negativi anche sulla reputazione. Da parecchio tempo il MOIGE (movimento italiano genitori) sta cercando di sensibilizzare gli adolescenti ( e bambini) sul pericolo di tale pratica: risulta infatti (dati Eurispes e Telefono Azzurro)che in Italia: 1 ragazzo su 4 ha fatto sexting almeno una volta, e nel 47% dei casi ha tra i 10 e i 14 anni Spesso sento dire che i genitori non possono diventare improvvisamente censori, non possono in ogni momento guardare cosa stanno facendo i loro bambini. Che è' impossibile, perché con gli smartphone i piccoli possono connettersi in qualunque momento, e che cercano invece di insegnare ai loro figli a stare "attenti" e "a non lasciarsi irretire dal mondo di internet". Queste sono le parole che spesso mi sono sentito dire, insieme a: "ma io mi fido di mio figlio, so che non farebbe mai una cosa simile". A leggere i dati della ricerca promossa dal Moige, il Movimento italiano genitori, e presentata alla vigilia del Safer Internet Day, la giornata voluta dalla Commissione Europea per la sicurezza dei giovani in Rete, «i minori sul web non studiano e fanno ricerche senza verificare le fonti; giocano e chattano con sconosciuti; scambiano foto hot, prendono in giro i coetanei» tutte «pericolose abitudini dei nostri figli sulla rete». Un ragazzo su cinque cerca di nascondere le tracce di quello che ha fatto al pc eliminando la cronologia del browser, l'11% dichiara di visitare siti per adulti. E ancora, il 28% ha fatto amicizia con estranei, consapevole di trasgredire, e il 30% non usa la propria identità quando è collegato in chat. Sei su 10 «non hanno problemi a dichiarare di essersi divertito nel ricevere o inviare foto o video hot (il cosiddetto sexting)», di questi il 22,7% li ha ricevuto da sconosciuti che inviano materiale imbarazzante. Di tutto ciò - sottolinea il Moige - i genitori spesso sono ignari. Uno su tre perché «poco attrezzato» all'utilizzo delle nuove tecnologie. Ma in generale gli adulti controllano - secondo la ricerca - in maniera «molto blanda»: solo il 18,6% in famiglia impone dei limiti ai propri figli sul tempo trascorso al computer e il 35% non si è mai posto problema. 
Il pericolo delle case Smart
Il pericolo delle case Smart
Con la diffusione delle case intelligenti (frigoriferi che dialogano con il microonde che poi ti manda sullo smartphone la lista della spesa ) la maggior parte delle persone si preoccupa della possibile propagazione di virus attraverso questi dispositivi, tanto che alla fine dell'anno passato (2013) e inizio del presente (2014) diversi giornali nazionali lanciavano l'allarme ( es. repubblica del 20 gennaio 2014 ) In realtà la paura che le persone che fanno uso di questi dispositivi dovrebbero avere è ben altra: un vero hacker non entrerà mai nel vostro sistema per mandarvi spam o virus come riporta l'articolo di repubblica, ma entrerà nel sistema solo per il gusto di farlo ( come ogni hacker fa) e poi lascerebbe un ricordo della sua presenza, magari spegnendovi il frigo o accendendo il fornello oppure alzando il riscaldamento a 60° in pieno agosto. Vorrei portare l'esempio di Marc Gilbert, padre di 34 anni di una bambina di 2 anni, che è stato vittima di un hacker che , seppur virtualmente, si è insinuato in casa sua. L'uomo era tornato dalla propria festa di compleanno e stava per entrare nella camera di sua figlia per darle la buonanotte ma, mentre era ancora fuori, ha sentito chiaramente la voce di un uomo provenire dall'interno. Marc, che si è precipitato in camera in cerca di un aggressore che in realtà non c'era o meglio non nel senso letterale del termine. Tutto ciò che era presente in camera era una voce, tetra, che fuoriusciva dal baby monitor installato in camera e che ripeteva questa frase: "Wake up you little slut". Un uomo, dunque, la cui identità resta ignota, era riuscito a indicizzare l'indirizzo IP del baby monitor, riuscendo a vedere quanto accadeva in quella stanza, trasmettendo addirittura la sua voce. Ma come è possibile che questo possa succedere? Ogni computer connesso a Internet o eventualmente dispositivo ha un indirizzo IP pubblico, quindi raggiungibile dall'esterno. Il motore di ricerca sapendo il range di indirizzi disponibili online in tutto il mondo, come un crawler fa una scansione automatica e cerca di connettersi a tutti. Per ogni IP a cui riesce a connettersi ne legge i cosiddetti banner". Una volta interrogati posso fornire informazioni di vario genere: la tipologia e il nome del server web, il software adottato (Apache) e la versione, la geolocalizzazione, etc. E così di fatto si sa che a quell'indirizzo IP corrisponde un server attivo, magari web, conosce la versione e così via di conseguenza eventuali falle. Quindi, anche se il vostro Smartphone od il vostro frigorifero non compare su google quando fate una ricerca, non vuol dire che non sia presente sulla rete e che non sia rintracciabile. In un prossimo articolo parlerò del motore di ricerca più pericoloso al mondo, che permette appunto di rintracciare questi dispositivi collegati. 
8 APRILE 2014. LA FINE DI XP
8 APRILE 2014. LA FINE DI XP
L’ 8 aprile 2014 la microsoft terminerà il supporto a windows XP, dichiarando quindi la definitiva condanna a morte del sistema.
Windows Xp è stato uno dei  maggiori successi della casa di Redmond e la fine del supporto vuol dire che non saranno quindi più disponibili gli aggiornamenti di sicurezza per proteggere il PC da virus, spyware e altri malware che possono creare problemi al funzionamento corretto dei PC o carpire informazioni personali; senza gli aggiornamenti di sicurezza per Windows XP, le informazioni contenute all'interno dei PC potrebbero diventare vulnerabili e a rischio.
XP è stato uno dei sistemi operativi preferiti dagli utenti, tanto che ancora oggi circa un buon 30% dei personal computer ha ancora il vecchio sistema operativo (1/3 dei sistemi windows attualmente usati) , preferito ai vari Vista e soprattutto all’ultimo nato (windows 8), che in casa Microsoft che non riesce a decollare con le vendite. Niente di strano, dunque, che con questa mossa, il colosso di Redmond stia cercando di dare slancio agli ultimi sistemi operativi immessi sul mercato. Chiaramente XP è un sistema nato per rispondere ad esigenze diverse da quelle richieste oggi e anche se gli aggiornamenti sono stati continui è normale che non possa avere le stesse potenzialità di un sistema nato oggi. Il problema più grande sarà per coloro i quali decideranno di restare fedeli ad XP. Essi saranno, infatti, maggiormente esposti agli attacchi degli hackers, non ricevendo più aggiornamenti sulla sicurezza e cosa non da poco anche a livello hardware e software con l’andare del tempo saranno sempre meno i prodotti compatibili col vecchio sistema operativo.
Un altro settore a rischio è quello dei bancomat;  il 95% degli sportelli bancomat di tutto il mondo (secondo la rivista americana Bloomberg Businessweek) gira su piattaforma XP, e dunque va aggiornato a un nuovo sistema operativo o sostituito. Perché con lo stop alle consulenze da parte di Microsoft, Windows XP rischia di diventare un software decisamente più penetrabile. Gli attacchi malware diventeranno più semplici. La sicurezza degli sportelli ATM, insomma, sarà messa a dura prova. Per questo le banche stanno già correndo ai ripari.
Sono circa 3 milioni gli sportelli bancomat installati in tutto il mondo. E la maggior parte di questi ha un'età superiore ai vent'anni. Sono proprio questi ultimi quelli più a rischio. Mentre le macchine più recenti, infatti, potranno essere aggiornate a Windows 7 (o a un altro sistema operativo) da remoto, cioè senza un intervento fisico sullo sportello, per quelle più vecchie sarà necessaria un'operazione diretta sull'hardware. In questo caso sarà necessario un cospicuo investimento da parte delle banche. I grossi gruppi si stanno già muovendo. JP Morgan, ad esempio, ha già chiesto a Microsoft una consulenza prorogata per almeno tremila sportelli con piattaforma Windows XP.
Secondo Bloomberg, però, solamente il 15% degli sportelli ATM installati sul territorio degli Stati Uniti d'America sarà basato su sistema operativo Windows 7 al 9 aprile 2014. Col rimanente 85% a rischio attacco hacker.
Rimangono, in fine, tutti quei software verticali, studiati appositamente per determinati scopi, che non sempre sono compatibili con i nuovi sistemi operativi microsoft e che molte aziende hanno al loro interno.
Cosa si consiglia di fare?
L'effetto dei mancati aggiornamenti di sicurezza non sarà visibile immediatamente quando scadrà il supporto, soltanto che più il tempo passerà, più ci saranno rischi riguardo la sicurezza dei dati all'interno di quei computer.
Questo però può essere un problema soltanto se si continuerà ad utilizzare XP su un computer aziendale o da ufficio in cui vengono memorizzate informazioni sensibili.
Per gli utenti normali, i prezzi di Windows 7 e Windows 8 sono piuttosto alti e scoraggianti, a meno che non si acquisti un computer nuovo con il sistema già installato.
Gli utenti possono continuare a  mantenere XP ancora per qualche anno, soprattutto se si stanno utilizzando computer vecchi e poco potenti.
Se invece vogliono mantenere i loro computer, anche se vecchi, in funzione e non vogliono rinunciare alla sicurezza, una valida alternativa è passare a Linux: tra le varie distribuzioni sicuramente se ne può trovare una adatta.
Se invece non si vuole rinunciare a windows il mio consiglio è di passare a windows 7, tralasciando windows8 che non è ancora maturo.

ECDL SI EVOLVE, MA SERVE?
ECDL SI EVOLVE, MA SERVE?
L’ ECDL (European Computer Driving Licence), detta anche Patente europea per l'uso del computer, si evolve e dal 1 settembre 2013 è in vigore la “Nuova ECDL”, ovvero  una nuova famiglia di certificazioni ( proposta sempre da ECDL Foundation e AICA) destinata a sostituire progressivamente le attuali certificazioni ECDL Core, ECDL Start ed ECDL Advanced.
la nuova ECDL propone nuovi moduli e consente una maggiore flessibilità, in quanto il candidato può scegliere la combinazione di moduli che ritiene più interessante e utile e chiedere in ogni momento un certificato che attesti gli esami superati; inoltre viene posta particolare attenzione a nuove problematiche quali la sicurezza informatica, il web editing ecc.
Ma serve l’ECDL?
Quella della ECDL è una storia molto particolare. Se poi si guarda con attenzione ai cavilli si scopre che la patente non è nemmeno Europea:  "non esiste alcun sistema di certificazione o di qualificazione europea", parola del commissario europeo Viviane Reding, in risposta ad una interrogazione del 2001 del deputato europeo Francesco Musetto. 
Prima di tutto va precisato che ECDL è una certificazione standard,  ma non costituisce titolo legale di studio né si configura come qualifica professionale. Essa è paragonabile alle certificazioni riguardanti le conoscenze linguistiche (per esempio il TOEFL o il Cambridge Certificate per l’inglese) che fanno testo in tale campo in tutto il mondo. 
In Italia ha avuto una diffusione enorme all’inizio degli anni 2000 grazie all'operato di AICA, l'associazione non profit unica titolare riconosciuta a distribuire e conferire gli attestati con questa denominazione.
A livello burocratico, sebbene l’ ECDL non abbia alcun valore di titolo di studio, viene riconosciuta nei concorsi pubblici o nei corsi universitari come punteggio aggiuntivo.
A questo punto è bene aprire una breve parentesi sui costi per ottenere la “patente” ECDL.
Dal sito dell’ AICA (http://www.aicanet.it/)  si legge che Occorre fare una distinzione fra i costi della certificazione (che occorre obbligatoriamente sostenere), e i costi della formazione.
I costi della certificazione sono dati dal costo della Skills Card e dal costo relativo a ciascuno degli esami che il candidato deve sostenere: per la Skills Card è di € 60 da pagare al Test Center presso cui viene acquistata; per ogni singolo esame è di € 18 da pagare al Test Center presso il quale l'esame viene sostenuto; il totale, inclusivo della Skills Card e dei sette esami,in assenza di ripetizioni, è di € 186, il tutto iva esclusa.  Per quanto riguarda l'analogo prezzo medio praticato ai candidati non studenti, esso risulta di circa il 30% superiore a quelli sopracitati.
Visto che negli ultimi 10 anni l’ AICA si è data molto da fare affinchè l’ECDL venisse riconosciuta nei concorsi pubblici e nelle università per acquisire punti, risulta che l’unico ente a guadagnarci sia appunto AICA e che si verifichino situazioni paradossali, come quella di Davide C.
Davide C. nel 2007 partecipò ad un concorso bandito dal comune di Novi Ligure per un posto di lavoro a tempo determinato come "Istruttore Informatico" categoria C.
Dal curriculum vitae di Davide C., tra le varie informazioni personali, si può leggere che ha conseguito la maturità scientifica, una Laurea in Informatica, una Laurea Magistrale in Informatica dei Sistemi Avanzati e dei Servizi di Rete con il punteggio di 110 e Lode, che era al terzo anno del corso di Laurea in Informatica Giuridica per conseguire un'ulteriore laurea, che era vincitore di una Borsa di Perfezionamento e Addestramento alla Ricerca, settore nel quale era attualmente ed entusiasticamente impegnato, presso il Dipartimento di Informatica dell'Università del Piemonte Orientale, ma che  non aveva mai conseguito la Patente Europea del Computer (ECDL).
Il 18 e il 19 luglio Davide C. si presenta per svolgere le tre prove e, prima dell'ultimo esame gli vengono comunicati i punti assegnati in base ai Titoli. 
A fianco al suo nomelegge: Titoli di Studio e di Cultura = 0 (ZERO).  Titoli di Curriculum = 0 (ZERO). 
La curiosità che lo aveva spinto a partecipare al concorso sale e, al termine della prova finale, chiede delucidazioni circa i punteggi attribuiti ai Titoli di Studio e Cultura. Gli viene riferito che avendo una maturità scientifica la Laurea Magistrale in Informatica della durata di 5 (cinque) anni è stata considerata come "requisito essenziale per l'ammissione alla selezione" e non come un titolo di studio più elevato in quanto non possessore di ECDL. 
Disorientato dalla risposta, Davide C.  replica con chiarezza "se avessi conseguito la Patente Europea del Computer mi sarebbero stati assegnati punti per i Titoli di Studio in possesso?", la risposta chiara, sconcertante e monosillabica pronunciata dalla commissione è stata "".
Un "SÌ" che è sintomo dell'inquietante realtà che oggigiorno 60 ore di un corso base di computer possano equivalere non solo a un diploma di perito informatico ma a cinque anni di studi accademici!
Dopo questa incredibile storia, invito i lettori a provare uno qualunque, dei vari test online disponibili per verificare la propria preparazione all’esame ECDL ed a constatarne quanto siano inutili.
Concludendo, possiamo dire che la Patente Europea all’uso del computer non assicura di saper usare il computer ma di averne solo una conoscenza (spesso molto superficiale).

Copia personale
Copia personale

Da qualche anno, grazie al Decreto di rideterminazione del compenso per “Copia privata” del Ministro Sandro Bondi, chiunque abbia acquistato una memoria di massa ( Hard disk, DVD, memory stick, masterizzatori, ecc. ) si sarà accorto che viene applicata un imposta SIAE in base alla capienza del supporto acquistato. Questa “tassa” è chiamata equo compenso e va a rimpinguare per il 70% le casse della Società Italiana degli Autori ed Editori.

In pratica, quantificando i prezzi aumentano proporzionalmente alla capacità di memoria: ad esempio 36 centesimi per una chiavetta Usb da 4 Giga, 50 centesimi per un Dvd riscrivibile, quasi 10 euro in più per i dischi rigidi da 15 Giga montati sui lettori Mp3 e 30 euro per un hard disk da 250 gigabyte. Tralasciando l’assurdità di una simile tassa ( che da per scontato che chiunque acquisti una memoria di massa la usi per fare copie illegali), con la legge di stabilità per il 2014, dal gennaio del prossimo anno ( siamo a dicembre 2013) vi sarà un aumento della suddetta tassa, nonché un allargamento a smartphone, tablet e smart TV.

Questo vuol dire che, oltre che a penalizzare uno dei pochi settori non ancora in crisi, quello degli smarthpnone e dei tablet , anche chi comprerà un dispositivo per lavoro si troverà penalizzato; senza pensare a chi già acquista musica o film attraverso canali legali ( quali ad esempio ITUNES, GOOGLE PLAY, ecc) paga già i diritti d’autore e che quindi si troverà a pagarli due volte ( una quando l’acquista e una quando ha acquistato il dispositivo smatphone o tablet sul quale viene salvato il contenuto acquistato).

Se finora alla Siae era permesso di adeguare l'equo compenso in base alla media europea, ora, secondo quanto riportato dal Corriere della Sera,  l'ente avrebbe libertà d'azione, così che i rincari potrebbero toccare il 500% e generare un indotto che potrebbe coinvolgere anche le Smart TV, tra 100 e 200 milioni di euro. 

Questo, presunto, aumento della tassa non è certo un modo per combattere la piraterie e/o per risarcire gli autori per le “presunte” perdite di guadagno ( e sottolineo presunte in quanto nessuno sa quale artista verrà registrato sul supporto acquistato o se mai lo sarà), ma un nuovo metodo per rimpinguare le casse dello stato; la maggior parte dei download illegali sono il logico comportamento di chi è frustrato perché non trova un corrispettivo legale, o/è troppo costoso, o non è compatibile con il proprio lettore elettronico oppure non lo si trova in commercio nei normali canali.

All'interno della stessa legge è anche previsto un aumento del canone Rai di 6 euro e l’introduzione della WEB-TAX . Il digital divide italiano, insomma, rischia più di aumentare invece che diminuire nei prossimi mesi.

Chi copia chi?
Chi copia chi?
Fred Vogelstein  in un libro (How Apple and Google went to WAR and Started a REVOLUTION) racconta che, quando Steve Jobs ha visto il primo smartphone Android e analizzato tutte le funzionalità del Robottino Verde abbia detto:” "Android è una copia di iOS, Rubin un cretino contro l'innovazione” e Adroid “una copia di iOS, destinata a fallire“.
A distanza di 5 anni vediamo di analizzare la situazione: se il nuovo Android Kit-Kat (nome preso dal famoso cioccolatino!) risulta un evoluzione,  iOS 7 è una rivoluzione: cambia radicalmente aspetto con nuove icone e nuovi colori abbandonando il suo vecchio “tema grafico” con quella che sembra una grafica pulita e in molti casi molto simile e vicina a quella Android ( jelly bean); nel nuovo (nuovo per gli utenti Apple) Multitasking, la somiglianza e il copia-incolla e praticamente palese, anche se quello di Androi è un reale multitasking mentre in iOS7 le applicazioni vengono “congelate” e quindi non continuano a lavorare in background.
Un’altra cosa che iOS7 ha preso in “prestito” da Android sono le notifiche: sin dalle prime versioni di Android le notifiche appaio in un menù a tendina verticale, cosa implementata nell’ ecosistema Apple solo nelle ultime versioni. Per quando riguarda le funzionalità, anche qui Google la spunta, infatti Android a differenza diiOS7 offre la possibilità di controllare le notifiche dalla tendina, di strisciare via quelle che non si desidera leggere, di espanderne alcune per visualizzare le anteprime.
Insomma a dire tutta la verità Android e iOS sono due sistemi diversi, anche se ad un profano ad un primo colpo d’occhio possono sembrare la stessa cosa, e quello che gli utenti iOS considerano uno svantaggio per gli utenti Android, invece è un vandaggio: la possibilità di personalizzare il proprio sistema al 100%.
Prendete dueo tre iPhone e metteteli vicino a confronto cosa cambia oltre che lo sfondo le cartelle e la disposizione delle icone???? Niente sono tutti uguali senza personalità! Ora prendete due o tre modelli uguali di smartphon con sistema Android e metteteli a confronto cosa cambia?? 

Per finire vi invito a dare un occhiata a quello che gira in rete riguardo iOS che ha “copiato” Android:  "Bravi possessori di iPhone. Finalmente avete un Android", recita un tweet. E ancora, "Strano, ho scaricato iOS7 e mi ritrovo Android". "E un altro: "iOS7 è meraviglioso. Congratulazioni al team di designer di Google Android!".

Adesso ritorniamo alla domanda: CHI COPIA CHI?

Per la libertà informatica dovremmo tornare alle BBS?
Per la libertà informatica dovremmo tornare alle BBS?
È di questo mese la notizia che un provider  internet può essere obbligato a bloccare ai suoi clienti l'accesso ad un sito che viola il diritto d'autore; questo è quanto afferma l'avvocato generale Cruz Villalon nelle conclusioni della causa tra l'internet provider austriaco UPC Telekabel Wien e società Constantin Film Verleih e Wega Film produktionsgesellschaft.  
In base al diritto dell'Unione gli Stati membri devono assicurare che i titolari dei diritti d'autore possano chiedere un provvedimento inibitorio nei confronti di intermediari i cui servizi siano utilizzati da terzi per violare i loro diritti.
Le conclusioni dell'avvocato generale in genere sono riprese nelle sentenze dei giudici Ue. In base al diritto dell'Unione  gli Stati membri devono assicurare che i titolari dei diritti d'autore possano chiedere un provvedimento inibitorio nei confronti di intermediari i cui servizi siano utilizzati da un terzo per violare i loro diritti. I fornitori di accesso a internet vanno considerati come intermediari. Se la Corte Ue accoglierà le richieste dell'avvocato generale, gli internet provider europei potrebbero essere presto obbligati a bloccare ai propri clienti l'accesso ai siti che violano il diritto d'autore. 
Nella prassi i gestori di un sito internet illegale o tali internet provider di siti online operano di frequente al di fuori dei confini europei oppure occultano la loro identità, così da non poter essere perseguiti.
Il fatto di obbligare un internet provider a “bloccare” determinati siti è da considerarsi l’inizio della censura sulla rete globale. Forse che dopo Cina, Iran e altri paese definiti “non democratici” tocchi anche alla liberale Europa iniziare la campagna di censura su internet?
È giusto tutelare i diritti d’autore ma, iniziando a obbligare i provider a bloccare determinati siti è l’ìnizio della censura. Si inizia così, poi si aggiunge un'altra categoria di siti, poi un’altra e in men che non si dica ci ritroviamo con un Grande Fratello Orwelliano a controllarci.
A questo punto cosa ci rimane? 
I “pirati” del web possono semplicemente tirar fuori dagli armadi i loro vecchi modem, montare un PC ( non serve nemmeno che sia particolarmente potente) e installarsi una BBS in casa.
In questo modo i provider possono pure censurare i siti ma non possono bloccare le risorse private.

(Dis)Informazione al tempo di Internet
(Dis)Informazione al tempo di Internet
Il 30 ottobre del 1938 Orson Welles spaventò molti radioascoltatori con uno sceneggiato radiofonico, che simulava un invasione aliena. E' difficile immaginare che un radiodramma possa provocare un tale equivoco oggi, quando le persone possono controllare velocemente le ultime notizie sui loro smartphone, tablet e PC, ma internet, come la radio nel 1938, è una Media "relativamente giovane".
Tra i rischi presentati nel rapporto "Global risks 2013", uno dei primi rischi che viene presentato come tale è la "digital wildfires" (la pubblicazione di false informazioni o fuorvianti). 
Come nel '38 ai giorni nostri Internet ha acquistato una grande importanza per la diffusione delle informazioni, tanto che spesso vengono citati dagli stessi giornalisti, Tweet pubblicati come fonte della notizia.
Nell'estate del 2012, per esempio, un utente Twitter impersonando il ministro degli interni russo, Vladimir Kolokoltsev, ha scritto su Twitter dove diceva che il presidente Bashar al-Assad di Siria era stato "ucciso o ferito". I prezzi del petrolio greggio aumentarono di oltre un dollaro prima che i commercianti si resero conto che Assad era vivo e vegeto. Nel settembre 2012, le proteste per un film anti-islamico caricato su YouTube costarono la vita a decine di persone.
Tornando a casa nostra tempo fa era girata su Facebook la notizia di un fantomatico Senatore Cirenga che avrebbe fatto votare un disegno di legge su "fondo per parlamentari in crisi" passato con 257 voti a favore e 165 astenuti. Questa notizia, facilmente verificabile ( i senatori in Italia sono solamente 315 + 5 a vita ed il senatoe Cirenga non esiste) ha spopolato venendo ripostata su moltissimi profili.
Ma come si fa a scoprire se una notizia è vera o falsa?
Semplice basta fare una ricerca (solitamente non richiede più di 5 o 6 minuti) su google per appurare la verità.
Il problema non è nella libertà di espressione o nel mezzo che si usa – internet nel nostro caso – ma è la pigrizia del verificare quando si apprende e, soprattutto, nel voler credere una cosa anziché un'altra.

Regressione digitale.
Regressione digitale.
Sempre più spesso sento i miei amici vantarsi orgogliosamente di come il loro figlio di 7 o 8 anni "smanetti" in maniera naturale con lo smartphone o il tablet.
Io personalmente ogni volta che sento questo mi metterei le mani nei capelli e direi al loro padre :" Brutto imbecille, non vedi che sta succedendo? Non vedi che non impara nulla, che quella è una scatola vuota, con dentro tutto preconfezionato e che non gli permette di fare nulla al di fuori degli schemi prefissati? Voi che tuo figli diventi un automa?" Ma come sempre queste parole mi si chiudono nella gola.
Ho sentito dei ragazzi di 16-17 anni (che si consideravano esperti conoscitori dei computer) affermare che Bill Gates ha inventato internet, oppure non sapere che nel sistema operativo c'è "il prompt dei comandi" e confonderlo con il "vecchio DOS" (usando parole loro).
Pochi ( anzi pochissimi) si ricorderanno la pubblicità con la quale nel gennaio 1984 la Apple introdusse sul mercato il Macintosh  dicendo "…and you will see why 1984 won't be like ''1984 '' "; ma invece, a distanza di quasi trent'anni da allora proprio la Apple rappresenta uno dei più grandi pericoli per lo sviluppo della conoscenza informatica nei giovani.
Una ricerca della Bicocca dimostra che i ragazzi usano dispositivi che si connettono rete e non percepiscono Internet come un'infrastruttura di base. Stanno crescendo in un mondo nel quale non solo non sanno, ma non possono smontare, smanettare, sperimentare e quindi imparare.
Due ragazzi su tre anno uno smartphone o un tablet, ma se a loro si chiedesse qual è il principio di funzionamento dello strumento o cosa sia ad esempio un URL non saprebbero rispondere.
Questi giovani diventano puri fruitori di un mezzo e, dallo stare davanti al televisore o stare davanti al tablet od allo smartphone per tre o quattro ore al giorno non v'è ormai differenza. La rivoluzione informatica iniziata negli anni '80, quando ci si "Costruiva" il computer e ce lo si ampliava personalmente, facendoci anche i programmi è ormai finita.
L'origine del potere dirompente dei primi personal computer, in particolare del PC IBM, era il fatto che era basato su standard tecnici aperti. Con poche eccezioni, i protocolli e i linguaggi di comando di quei componenti erano noti e liberamente utilizzabili. Chiunque poteva essere hacker e sviluppare software, driver, sistemi operativi. Questo fece prosperare in modo esplosivo la cultura dell'informatica amatoriale. Il personal computer era, appunto, personal. Ci mettevi su il software e l'hardware che volevi, senza renderne conto a nessuno. Ora considerate invece un iPad: è bello, funziona bene, ma è sigillato. Niente aggiunte hardware. Provate a installarvi software non autorizzato da Apple: potete farlo soltanto pagando una licenza ad Apple o ricorrendo a un jailbreak. Il dispositivo è fisicamente vostro, ma per essere liberi di metterci il software che vi pare dovete scavalcare attivamente gli ostacoli e le restrizioni che il costruttore ha imposto. Il salto da consumatore passivo a utente creativo è diventato più lungo.
La stessa cosa sta succedendo con internet: da un luogo libero, con protocolli liberi sta sempre più diventando un posto dove pochi monopolizzano le notizie e le informazioni. Oggi la maggior parte degli utenti internet si limitano ad andare su FB (Facebook) dove tutto e "unilaterale" deciso dal gestore e basta.
I newsgroup (luoghi liberi dove ognuno poteva esprimere le proprie idee e discuterle liberamente) stanno sparendo, così come anche i forum sono sempre meno consultati e usati.
I dati indicano che stiamo rinunciando progressivamente agli elementi tecnici fondamentali che hanno permesso lo sviluppo della Rete, sostituendoli con un ecosistema hardware e software progressivamente sempre più chiuso.
Il problema è molto più grande di quanto si posso pensare, perché porta questi giovani ad essere esposti alla violazione della privacy, o a truffe online o al pericolo di prendere virus molto più degli anni passati.
Wikipedia e la falsa cultura
Wikipedia e la falsa cultura
Nel gennaio 2001, Jimmy Wales (financial trader) e Larry Sanger (dottore in filosofia) creano Wikipedia, un servizio che consentiva a chiunque di creare o editare una voce enciclopedica.
Wikipedia suscitò immediatamente l'entusiasmo dell'utenza, al punto che, dopo un solo anno di vita erano state scritte e corrette 20.000 voci. Inizialmente lo scopo di Wales e Sanger era quello di trovare editori che editassero voci per la loro enciclopedia online (Nupedia) che poi sarebbero state sottoposte al controllo di esperti nei vari settori.
Negli anni a seguire Wikipedia è cresciuta fino a toccare i 51.000 ediotrs nel 2007 ( che andavano dai 7/8 fino agli 80 anni) poi... il declino, tanto che oggi conta solamente 31.000 editors.
Il declino non è tanto nella mancanza di editors o nella scarsità di contenuti, ma quanto la loro qualità.
Vediamo di analizzarne brevemente alcuni esempi: basta fare un giro su wikipedia e ci si accorge che le voci su Pokemon, pornostar o personaggi di gossip sono complete, mentre quelle su autori ( e/o premi nobel), luoghi dell'africa sub-Sahariana ecc, sono molto approssimative.
Per fare un esempio se confrontiamo le voci relative a Fabrizio Corona e a Rudyard Kipling e vediamo che Corona vince per 2546 parole (circa) contro le 1040 di Kipling ( Dalla lista delle parole gli inidici della pagina di Kikipedia di entrambi).
Un'altro problema è quello della "Censura" che viene applicata da alcuni addetti al controllo dei contenuti che censurano i fatti che non condividono o che non hanno modo di controllare "in rete".
Due casi vorrei portare come esempio: il primo di Emanuele Mastrangelo (caporedattore di Storiainrete.com, sito specialistico, e autore di alcuni studi sul fascismo) che nel 2010 venne espulso da wikipedia in quanto "L'utente non gode più della fiducia della comunità". La colpa di Mastrangelo era di aver affermato che in Italia la fine della Seconda guerra mondiale assunse anche il carattere di una "guerra civile".
Un'altro caso è capitato ad un mio amico Rudy de Cadaval (poeta, scrittore e sceneggiatore italiano) che quando inserì la sua biografia su wikipedia in un primo memento venne censurata in quanto gli editori di wikipedia non avevano modo di trovare "in rete" i suoi riconoscimenti ed avevano bollato la pagina come autocelebrativa; invano il sing. De Cadaval ( classe 1933) cercò di mettersi in contatto con i gestori di wikipedia al fine di inviare loro copia dei riconoscimenti che non consideravano reali ( tra i quali l'Onorificenza di Cavaliere per meriti letterari assegnata nel 1989 dal Presidente della Repubblica Italiana Francesco Cossiga).
Anche questa alla fine venne accettata da wikipedia ma il sign. De Cadaval dovette ridimensionare sulla sua pagina la lista dei riconoscimenti e premi ricevuti. Il problema che si presenta con Wikipedia oggi è quindi doppio, da una parte vi è la scarsa qualità della maggior parte dei contenuti e dall'altra la monopolizzazione anche se non visibile di chi, forte di una posizione di controllo, si permette di censurare ciò che non gli aggrada.
Negli ultimi anni sono state, inoltre, molte le voci di intellettuali che si sono alzate contro wikipedia, tanto quando il progetto rischiò di cessare si lessero molti "e chi se ne frega" in rete (Massimiliano Parente: "Io festeggio, non ne potevo più. Mi godo la Treccani", Alberto Di Majo: "La nuova legge sulle intercettazioni potrebbe avere un merito inaspettato: far scomparire Wikipedia." )
Per finire è di questi giorni ( novembre 2013) la notizia che 250 editors di wikipedia sono stati esplulsi perchè scoperti di aver falsificato i contenuti dietro il pagamento di denaro, i cosiddetti "sockpuppet", gli utenti fantoccio, cioè coloro che creano un account aggiuntivo e spinti da un eccesso di autocompiacimento tessono le lodi di se stessi, società, organizzazioni o si divertono a criticare a prescindere.
A questo punto mi chiedo se non sia meglio tornare alla vecchia treccani, magari in versione cartacea che fa anche la sua bella presenza in casa...

FB TW Pinterest whatsapp RSS FEED News letter

filoweb.it è il sito personale di Filippo Brunelli
(c) 2017 Filippo Brunelli
Le immagini ed i testi contenuti nel sito sono di proprietà di Filippo Brunelli salvo diversamente indicato.
L'uso delle immagini e del testo è gratuito per uso personale ed è subbordinato alla citazione della fonte.
Brunelli Filippo declina ogni responsabilità per l'uso che viene fatto delle informazioni presenti nel sito.