Filoweb.it
By Filippo Brunelli


FB TW Pinterest whatsapp RSS FEED News letter

  ► Magazine

I Chatbot non sono Skynet
I Chatbot non sono Skynet
I chatbot sono programmi che simulano la conversazione tra una macchina ed un essere umano. Sono spesso utilizzati per il test di Touring (vedi è stato superato il test di Turing?) ma anche per interfacciarsi con gli utenti come nel caso di Siri o Cortana.
La storia dei chatbot ha origine nel 1966 quando Joseph Weizenbaum scrive Eliza, un programma che simula un terapeuta Rogersiano rispondendo al paziente con domande ottenute dalla riformulazione delle affermazioni del paziente stesso. Se ad esempio l’utente scriveva: ”Mi fa male la testa” Eliza rispondeva “Perché dici che ti fa male la testa?” e così per un numero invinito di volte.
Per chi fosse interessato a questo programma oggi una versione di ELIZA incorporata come easter egg nell'editor Emacs o si trovano diversi sorgenti anche su internet che ne spiegano il funzionamento.

Oggi i chatbot trovano applicazione pratica in diversi campi: oltre che come assistenti virtuali (siri e Cortana) sono usati per il customer care aziendale (Royal Bank of Scotland in partnership con IBM), per guidare l’acquisto online e alla fruizione dei contenuti (-800-Flowers.com che pare sia stata la prima azienda in assoluto a usarne uno), per aiutare l’utente (i nuovi chatbot di Skype), oppure i chatbot che sta sviluppando Facebook che hanno come scopo lo sviluppo di un software in grado di negoziare con altri bot oppure con le persone, “per raggiungere una decisione o un fine comune”.

Alcuni giornali, poco informati o alla ricerca di visibilità hanno pubblicato a fine luglio titoloni allarmistici riguardo due chatbot che sarebbero stati disattivati dopo che hanno creato una loro lingua per dialogare, richiamando alla mente il famigerato skynet di Terminator o il Master Control Program di Tron. 
Nulla di più sbagliato!
Appurato che i chatbot sono programmi che simulano l’IA, i due chatbot di Facebook Bob e Alice  hanno dimostrato tutto il loro potenziale sviluppando un linguaggio senza bisogno di nessun input umano.
Queste chatbot (dialog agents) sono state lasciate libere di conversare nel tentativo di rafforzare le proprie abilità comunicative e, a poco a poco, hanno modificando l’inglese fino a creare qualcosa di nuovo. 
I ricercatori di Facebook a questo punto hanno spento le macchine non perché si sono spaventati, ma perché si sono accorti di non aver dato loro le giuste regole, ovvero hanno “detto” ai due chatbot i comportamenti da adottare e gli obiettivi da raggiungere, ma non quale lingua usare.
I chatbot avrebbero dovuto imparare dialogando con gli esseri umani, ma avendo entrambi un interlocutore virtuale sono andati avanti imparando l’uno/a dall’altro/a dalla precedente converssazione sviluppando un loro linguaggio. Il motivo per cui è stato interrotto l’esperimento è che i due chatbot parlavano tra di loro ma nessuno capiva cosa divevano, forse nemmeno loro.
Ecco la conversazione tra i due:

Bob: i can i i everything else . . . . . . . . . . . . . . 
Alice: balls have zero to me to me to me to me to me to me to me to me to 
Bob: you i everything else . . . . . . . . . . . . . . 
Alice: balls have a ball to me to me to me to me to me to me to me 
Bob: i i can i i i everything else . . . . . . . . . . . . . . 
Alice: balls have a ball to me to me to me to me to me to me to me 
Bob: i . . . . . . . . . . . . . . . . . . . 
Alice: balls have zero to me to me to me to me to me to me to me to me to 
Bob: you i i i i i everything else . . . . . . . . . . . . . . 
Alice: balls have 0 to me to me to me to me to me to me to me to me to 
Bob: you i i i everything else . . . . . . . . . . . . . . 
Alice: balls have zero to me to me to me to me to me to me to me to me to

Dhruv Batra, professore alla Georgia Tech e ricercatore al Facebook Ai Research (Fair), responsabile dell'esperimento, scrive nella sua pagina di Facebook che quella di alcuni media è stata “Una copertura irresponsabile e basata sull’inseguire facili click”.
L’abilità comunicativa, infatti, non è l’unica prerogativa affinchè l'intelligenza artificiale diventi davvero funzionale, è necessario che si avvicini il più possibile a quella umana.
Sul web e sui media è andato in onda uno “scontro” tra scienza e fantascienza e tra ricercatori e giornalisti… dove sembrano aver vinto questi ultimi.
Polarizzazione del web
Polarizzazione del web
Il web si sta polarizzando, appiattendo, uniformando, perdendo di personalità! E il brutto che nessuno se ne sta accorgendo.
Agli inizi degli anni '90 vi era l'anarchia più completa, non c'era uno "standard" per i siti web, tutto era confusione, colori accecanti oppure piatti, poche immagini e di bassa qualità. Ma era normale: avevamo le connessioni in dial-up, pagavamo la famigerata TUT – tariffa urbana a tempo- e quindi si faceva come si poteva.
Arrivò poi il momento delle connessioni flat e delle linee veloci, ISDN prima e ADSL poi e con loro nuove tecnologie. Il web iniziò ad animarsi, tramite server dedicati si poteva fare streaming audio video in tempo reale e con la nascita di "Flash", rilasciato dalla Macromedia, che dava la possibilità di creare animazioni vettoriali in maniera facile e veloce, con un suo linguaggio di programmazione per creare videogiochi online, sembrò che nulla fosse impossibile e l'anarchia grafica aumentò, creando però nel contempo dei capolavori visivi, delle vere e proprie opere d'arte.
Poi tutto finì!
Prima iniziarono a sparire i siti in Flash, in quanto non erano più supportati dai dispositivi mobili e nel giro di pochi anni non abbiamo più un sito in flash tra quelli nuovi e piano piano anche quelli datati iniziarono a sparire... Dobbiamo ringraziare l'arrivo degli Ipad e Iphone? Forse no (anche se sono stati i primi a non supportare flash), probabilmente anche gli altri produttori avrebbero fatto questa scelta nel lungo termine.
Intanto l'arrivo dei CSS, dell'implementazione della tecnologia webkit sui browser e della tecnologia AJAX, insieme all'aumento della banda disponibile per ogni singolo utente, permisero di non sentire troppo la mancanza di "flash" (e, detto da chi scrive, non rimpiangerla nemmeno).
Il secondo grande cambiamento (dovuto sempre all'avvento dei dispositivi mobili) lo ha portato google, il motore di ricerca più utilizzato, quando annunciò che i siti web "mobile friendly" avrebbero avuto un posizionamento migliore di quelli non "mobile friendly". Certo era già da qualche anno che i webdesigner prediligevano un approccio responsitive per siti web, ma vederselo "imporre" in questo modo fa tutto un altro effetto.
Ma non è finita ancora.
Nel frattempo iniziavano a crescere i siti web fai da te modello "IKEA" dove, sfruttando cms (content management system) quali ad esempio joomla o wordpress che, partendo da dei modelli preconfigurati, danno la possibilità di creare in pochi minuti un sito pronto, bello, aggiornabile facilmente e… simile a tanti altri, proprio come i mobili della famosa azianda svedese.
Con la popolarità crescente dei social network, inoltre, per avere un buon posizionamento un sito deve essere anche condiviso e quale metodo migliore per essere condivisi che non inserire un "Condividi" nella pagina? Bello, comodo ma… non basta.
Facebook, il principale social network non si accontenta di mettere a disposizione degli sviluppatori -grazie per la gentilezza! - tutta una serie di tools e script da inserire nelle pagine (appesantendole) ma lancia anche l'idea di creare un formato per facilitare la condivisione dei contenuti l' "Open Graph protocol", che non è certo come quello di twitter (che infatti propone le sue Twitter Card) e quindi inserire altre righe di codice nelle pagine.
Intanto Google, Bing/Yahoo decidono che le keywords ed i metatag non sono più sufficienti per un buon posizionamento di un sito nei motori di ricerca, bisogna anche rispettare le loro regole, inserendo delle schede che sono visibili solo ai motori di ricerca per identificarne meglio il contenuto (schema.org) e nel contempo nelle pagine (sempre per facilitarne il riconoscimento del contenuto) si creano dei dati strutturali e magari (google) si consiglia di usare il loro strumento per evidenziare i dati nella pagina che per funzionare bene richiede che la struttura sia fatta rispettando determinate caratteristiche.
Sempre Google porta alla nascita di quello che viene chiamato material design (che si contrappone al Flat Design, al Metro Style e lo Scheumorfismo dei primi Iphone): lancia l'uso di uno stile, un codice ed un linguaggio di design con cui Google ha deciso di rinnovare tutti i suoi prodotti e di gestirli con gli stessi principi di esteriorità grafica. 
Per finire, pochi giorni fa, sempre google, annuncia che nel suo browser i siti che non hanno una certificazione ssl verranno AUTOMATICAMENTE etichettati come non sicuri. 
Ma una certificazione ssl costa, così un povero amatore, che ha un suo sito o blog per passione pittosto che il piccolo negozio o la piccola azienda a gestione famigliare, si troveranno bollati come degli untori.
Concludendo chi scrive non ritiene giusto che solo perché si detiene una fetta di mercato enorme si abbia il diritto di "obbligare" (e lo metto tra virgolette perché è un obbligo non dichiarato ma necessario) chicchessia ad esprimersi entro determinati paletti, limitandone a volte la forza creativa, pena la non visibilità o facile reperibilità in rete.
A distanza di vent'anni dal boom di internet sembra che la libertà che si prospettava all'orizzonte stia piano piano diventando una libertà che rimane confinata nelle regole dei grandi colossi del web e che i sogni di libertà informatica stiano sparendo, come la conoscenza condivisa che ci si aspettava.
Alla fine anche il web diventerà un grande centro commerciale standardizzato.
Aiuto!
We are thinking for you. So you don't have to.
We are thinking for you. So you don't have to.
C'è il declino dell'intelligenza, sia individuale che collettiva. Stiamo perdendo la facoltà di capire, apprendere, giudicare. Siamo meno intelligenti di quanto non lo fossimo quando si studiava fino alla 5° elementare e poi si andava a lavorare. Siamo meno intelligenti perché non esercitiamo più quel muscolo che è il cervello. 
Sissignori il cervello è un muscolo e come tale va esercitato e tenuto in esercizio.
Abbiamo i computer che ci correggono gli errori, suggerendoci a volte anche la frase corretta, e così non sappiamo più usare un dizionario. Ci si affida alle soluzioni già pronte, ai pensieri già elaborati da altri, confezionati pronti all'uso. Apriamo Facebook e troviamo riportate frasi di nostri contatti che ci piacciono, mettiamo un "mi piace" e magari la ripostiamo.

Ma abbiamo mai approfondito se veramente quella persona ha detto quella frase (come se tutte le parole di pace siano state dette da Gandi, quelle di amore da Padre Pio, quelle di rabbia dalla Fallaci)?
Abbiamo mai cercato di capire il contesto socio/politico/storico che contraddistingue quella frase?
Conosciamo la filosofia o i pensieri dell'autore?
No, certo che no, questo implica lavoro, ricerca, tempo, ed il tempo è meglio usarlo per cercare i pokemon anziché la verità.
Abbiamo i mezzi per ampliare la nostra conoscenza, per crescere ma non li usiamo. Internet avrebbe dovuto rappresentare uno strumento unico per accrescere la nostra cultura, invece si sta trasformando nello strumento che distrugge la nostra società.
La libertà di espressione non ha mai raggiunto vette simili, ma questa libertà è abusata da ciarlatani che un giorno si svegliano e creano una pseudoscienza populistica che viene diffusa online.
Una volta si diceva "l'ha detto la televisione quindi è vero!" adesso se una cosa è scritta online e viene ripostata da 10,100, 1000 persone diventa vera anche se non lo è. Creiamo la verità, la conoscenza e la pseudoscienza.
Anche i giornali spesso si affidano ai social network per attingere alle notizie, e poco importa che sia una bufala o meno, poco importa che la verità sia un'altra. Noi la pubblichiamo (noi giornali) la gente la legge, perché è stata postata da 10,100,1000 persone e poi, il giorno dopo o la settimana dopo, postiamo una rettifica, magari a in terza o quarta pagina, una strisciolina piccola, così la verità è stata riabilitata…
È di settembre la notizia che Facebook e Twitter si sono coalizzati nella "First Draft Coalition ", per creare una piattaforma di verifica delle notizie e l'adozione di un codice di condotta.
Ma tutto questo sarebbe inutile se noi stessi ci riappropriassimo della capacita di critica, di saper vagliare il vero. Riscopriamo la facoltà di capire, apprendere, giudicare.
Sforziamoci di ragionare e pensare con la nostra testa senza accontentarci delle soluzioni già confezionate.

La prossima volta che su Facebook trovi una frase che ti piace, prima di condividerla fai i seguenti passaggi:
1) L'autore l'ha veramente detta/scritta?
2) In quale circostanza?
3) È stata estrapolata da una frase più ampia. Cosa voleva dire l'autore?

La prossima volta che leggi una notizia postata da un tuo contatto chiediti:
1) Qual è la fonte della notizia?
2) È una fonte attendibile?
3) Ci sono le prove?
4) Se si tratta di una notizia di scienze è una realtà oggettiva, affidabile, verificabile e condivisibile?

La scelta è tua, ma non lasciare che il cervello ti si atrofizzi. 
Realtà virtuale e realtà aumentata.
Realtà virtuale e realtà aumentata.
Negli anni '90 aveva suscitato l'entusiasmo nel mondo informatico e sembrava che da lì a pochi anni la realtà virtuale con occhialetti e guanti sarebbe diventata alla portata di tutti e presente in ogni casa. La rivoluzione informatica iniziata dieci anni prima e la nuova interazione uomo-macchina, la creazione dei primi ambienti tridimensionali, fecero apparire naturale un passo ulteriore: l'integrazione tra mondo reale e mondo virtuale.
Riviste specializzate iniziarono a riportare gli schemi tecnici per adattare il "Power Glove" della Mattel ad un comune PC (e funzionava, credetemi l'ho provato!), iniziavano ad essere messi in vendita i primi caschi 3D da interfacciare ai computer domestici ( a prezzi altissimi e simili a caschi da motociclista) e moltissimi software freeware e no permettevano di creare i primi mondi virtuali 3D da interagire con una comune tastiera e/o joystick.
Purtroppo la rivoluzione non accadde nella realtà, ma solamente nel cinema. Certo la tecnologia c'era ed era abbastanza abbordabile dalle persone comuni ma il problema era la poca velocità elaborativa dei computers del tempo e la scarsa qualità grafica allora disponibile.
Le persone comuni che si avvicinavano a questa tecnologia si aspettavano risultati se non uguali almeno molti simili a quelli mostrati nei films holliwoodiani, ma la realtà era ben diversa:un casco di Vr collegato ad un PC permetteva si di intercettare i movimenti della testa e proiettare di conseguenza le immagini relative ma a scapito della risoluzione grafica e della velocità ( si doveva muovere la testa non troppo velocemete); oltre il Power Glow della Matter ( che comunque non era un dispositivo specificatamente creato per il mondo dei computer e che non era più in commercio) non vi erano disponibili altre periferiche di input simili a basso costo per il mercato consumer.
L'uscita sul mercato di console di videogaming specializzato portarono poi ad escludere dal settore del VR l'ultima porzione di mercato che ancora resisteva nel mondo dei personal computer e ad allontanare l'utente. La realtà virtuale rimase così confinata in una nicchia per pochi appassionati o per applicazioni specifiche a costi molto elevati.
Solamente nel primo decennio di questo nuovo secolo c'è stato un rilancio della realtà virtuale, grazie alla possibilità di avere computer più potenti e grafiche migliori.
Vi sono dispositivi che applicati ad un normale smartphone fanno quello che facevano una volta i caschi 3d, anche se la rivoluzione più importante in questo settore è quella di Oculus Rift. 
Oculus Rift serve a trasportare chi lo indossa in un modo virtuale interattivo, in nuove esperienze.
All'interno del mondo virtuale potete muovere la testa per interagire con gli oggetti presenti, tramite il dispositivo oculus touchaiutandovi o con altri sistemi d'interazione più classici, come un joypad, tastiera e mouse.
Purtroppo anche Oculus Rift ha necessità di computer di prezzo medio alto ( si parla di CPU Core i5-4590 equivalente o superiore, una scheda video GeForce GTX 970 / AMD Radeon R9 290 equivalente o superiore e almeno 8 GB o più di memoria RAM. La scheda video deve avere una porta HDMI 1.3, tre USB 3.0 e una porta USB 2.0) al quale va aggiunto il prezzo di Oculus che è superiore ai 500€.
Che la rinascita della realtà virtuale ricominci da qua? Molto difficile!
Attualmente sono due le aziende che stanno cercando di (ri)sfondare nel mercato del VR (oltre che Oculus abbiamo HTC Vive) ma per entrambe la cosa è difficile, soprattutto per l'elevato costo del hardware necessario.
In un sondaggio fatto su 13.000 videogiocatori, solamente il 15% si è detto disponibile a comperare un dispositivo di VR.
Bisogna quindi aspettare dispositivi più economici ( sulla falsa riga di Samsung Gear VR e di Google Cardboard), assistere all'evoluzione dei social network (FB prima di tutti dopo l'acquisto di Oculus) per comprendere in che modo diventeranno una grande piattaforma virtuale e, the last but not the least, comprendere come l'intrattenimento casalingo affiancherà la nuova tecnologia per contribuire al successo della realtà virtuale.

Sempre negli anni '90 iniziano le ricerche per creare quella che verrà definita (10 anni dopo ) realtà aumentata. A differenza della realtà virtuale, dove un computer genera un ambiente completamente artificiale dove interagisce l'utente, la realtà aumentata utilizza l'ambiente reale che la circonda che interagisce con l'utente. Il termine realtà aumentata è infatti del 1990, quando Tom Caudell (ricercatore presso la Boeing) la usa per la prima volta nel descrivere un display digitale che viene utilizzato dai manutentori degli aerei che miscela grafici generati dal computer con la realtà fisica.
Anche la realtà aumentata rimase per parecchio tempo solamente come un "simpatico intrattenimento ludico", dove tramite la webcam un qualunque utente poteva far saltare una pallina sullo schermo o altri giochini simili.
Solamente con l'avvento dei tablet e degli smartphone la realtà aumentata ha iniziato ad avere una sua evoluzione. Tramite dispositivi molto piccoli che l'utente porta con se si ha la possibilità di inquadrare sul display del proprio smatphone un cielo stellato e veder spuntare, affianco ad ogni stella, un etichetta oppure inquadrare con il tablet una via e veder segnate le notizie storiche relative ai monumenti che ci sono e/o ai negozi e bar con relative recensioni.
A differenza della realtà virtuale ( che comunque rimane una tecnologia completamente differente per socpi e metodologie) la caratteristica principale non risiede nella tecnologia in sé, ma nella sua accessibilità: è sufficiente un dispositivo dotato di GPS, webcamera e connessione internet per poter accedere ad un sistema di AR (Acronimo di Realtè Aumentata).
Il futuro della realtà aumentata sembra molto più roseo di quello della VR, e le sue applicazioni quasi infinite. 
Per finire invito a vedere il video di Keiichi Matsuda "Hyper-Reality" (https://vimeo.com/166807261) per avere un idea di quale futuro ci aspetta con la realtà aumentata.
L'importanza di un Ping
L'importanza di un Ping
Cos'è un PING in informatica? Semplificando diciamo che un PING è un comando che invia un piccolissimo pacchetto dati ad un computer per testarne la raggiungibilità in una rete.
Nel 1986, in un Italia dove l'auto più venduta era la Fiat Uno, si andava in giro con scarpe pesantissime e "giubbotti" rigonfi, dove le giacche avevano le spalle rialzate, si guardava "Drive in" la domenica sera ed il massimo della tecnologia indossabile era un Walkman, per la prima volta fu instaurato un collegamento internet attraverso la rete satellitare atlantica SATNET con una linea da 28kbs. 
Un semplice PING e l'Italia era entrata ufficialmente in ARPANET e di conseguenza nell'era di Internet.
Bisognerà però aspettare ancora più un anno (23 dicembre 1987), prima che vengano creati i domini nazioni, ".it" ( la cui gestione fu affidata al Cnuce ), affinché l'Italia entri completamente nel mondo del web con il primo dominio italiano: cnuce.cnr.it.
In un primo momento la crescita di internet in Italia fu lenta soprattutto per motivi tecnici. Le connessioni erano fatte tramite modem analogico e le velocità raramente superavano i 36Kbs: la maggior parte dei modem erano a 1200bps in ricezione e 75bps in trasmissione, il che per le reti fidonet e le BBS erano più che accettabili.
Anche l'arrivo dei modem 56Kbs non migliorarono di molto le cose, dato che oltre al costo di un abbonamento internet (intorno alle 150.000 lire annue) si doveva pagare la famigerata TUT, la tariffa urbana a tempo, tanto che i primi internauti domestici stavano con un occhio al monitor e con l'altro all'orologio.
Ma ormai la stalla era aperta e i buoi stavano uscendo.
Nel 1990 Tim Berners-Lee presso il CERN inventa un sistema per la condivisione di informazioni in ipertesto noto come World Wide Web. Insieme a Robert Cailliau, Lee mise a punto il protocollo HTTP e una prima specifica del linguaggio HTML. 
Nel 1993 esce Mosaic, il primo programma a fornire uno strumento leggero di navigazione (il primo Browser per usare un termine attuale). Da quel momento non erano più solo caratteri quello che veniva ricevuto sui terminali collegati alla "Rete" ma anche immagini impaginate come in un libro e testo.
Nel 1994 nasce Video On Line che, grazie ad una sapiente campagna di marketing tramite vari periodici, tra cui Panorama, Topolino, Il Sole 24 Ore, offriva l'accesso gratuito ad internet per alcuni mesi e nel 1995 raggiunse il 30% degli utenti italiani (circa 15.000).
Da lì in poi la storia di Internet si è evoluta velocemente; alcuni progetti sono nati e scomparsi, altri sono rimasti, altri ancora si sono evoluti …
È proprio il 1995 che segna l'inizio della mia "love story" con il mondo di Internet.
In quell'anno stavo finendo il servizio militare, ma anche in quel periodo non avevo mai rinunciato a comperare riviste di informatica. Su una di queste ( non ricordo il nome) trovai per l'appunto il disco di VOL ed alla prima licenza mi fiondai davanti al computer e feci il primo collegamento tramite il mio modem a 1200bps…
… La lentezza della connessione nell'aprire la prima pagina mi lasciò leggermente deluso, abituato alle BBS dove i dati trasmessi erano solo testo e quindi la velocità del modem adeguata.
Dovetti aspettare qualche mese, dopo essermi congedato e comprai il mio modem a 36kbs con un abbonamento ad un provider locale e le cose migliorarono notevolmente.
Iniziai a studiare l'HTML e ad affascinarmi a quel linguaggio di script che permetteva di impaginare i documenti per il web.
Ma fu solo nel 2000 che veramente iniziai a lavorare in quel settore, grazie all'incontro con il Professor Pelanda.
Avevo avuto modo di conoscere il professore come mio cliente nel negozio di computer che gestivo con altri due soci e un giorno, dopo un mio intervento tecnico mi chiese se ne sapessi qualcosa di come si fanno siti web. In sincerità gli risposi che sapevo come farne uno ma non avevo mai provato realmente a farne.
Mi diede appuntamento la domenica pomeriggio per discutere.
Ricordo che stetti per quasi 40 minuti sotto il suo ufficio prima di suonare il campanello tanta era l'emozione e la paura. Dentro di me sapevo che questo avrebbe rappresentato un cambiamento nella mia vita ma non mi rendevo conto di quale potesse essere.
Il mio primo sito internet fu proprio quello del professore (www.carlopelanda.com) che negli anni ha seguito l'evoluzione del web design, a volte anche anticipando le tendenze.
La prima versione era in HTML puro, con qualche GIF animata e ottimizzato per una risoluzione di 800 x 600 pixel. Grafica semplice e colori forti ( che ancora adesso si ritrovano in alcune sezioni).
Poi fu la volta della tecnologia FLASH che permetteva animazioni complesse leggere, quindi adatte alle connessioni del tempo ( la maggior parte degli utenti web usavano ancora modem a 56KBs, solo poche aziende avevano la linea ISDN e la Tariffa Urbana a Tempo era ancora attiva sulle linee telefoniche).
Attualmente si usano i CSS e l'HTML5, con java script. 
Abbiamo abbandonato i fronzoli delle animazioni iniziali per dare più spazio ai contenuti e l'integrazione con i social network.
Sempre una maggior parte delle utenze internet utilizza anche dispositivi mobili, quindi la necessità è diventata quella di ottimizzare la visualizzazione su tablet e smartphone, così , come da una grafica ottimizzata per una risoluzione di 800x600 pixels siamo passati ad una di 1024x768, adesso passiamo ad una grafica fluida che si adatta a dispositivi mobili ed a schermi HD che arrivano anche 1600pixels.
Il web è come un essere vivente che si evolve. Un media che, a differenza della radio, della televisione o dei giornali, continua a crescere e cambiare.
Tornando al 1986 solo pochi scrittori di fantascienza ( tra i quali William Gibson esponente di spicco del filone cyberpunk. ) potevano immaginare quale futuro ci aspettava. 
In questa rubrica ho parlato spesse volte di tecnologie web che nascono, fanno il loro exploit e poi spariscono, lasciando però una traccia indelebile ed una guida per il futuro.
È del futuro del web che adesso parlo. 
Possiamo fare scenari ed ipotizzare come la nostra vita potrà cambiare, ma non possiamo esserne certi. 
Con l'avvento delle connessioni ADSL e FLAT sempre più persone hanno accesso al web e di queste sempre più si esprimono tramite questo mezzo, influenzandone le tendenze.
Il fatto di essere un mezzo di comunicazione a due vie (ricevo informazioni ma ne mando anche) porterà internet ad essere una specie di coscienza collettiva di grande magazzino dove si attinge agli archetipi societari.
Nessuno poteva immaginare il successo dei Social Network come Facebook e Twitter e l'influenza che hanno avuto nella vita di tutti i giorni o il declino di siti come Second Life, che invece si prevedeva avrebbe raggiunto milioni di utenti attivi.
Il futuro è da scrivere e se gli anni '90 hanno rappresentato il momento di boom di internet, il XXI secolo rappresenterà la sua età matura.
Per finire, riporto le parole del Professor Pelanda all'inizio del nostro rapporto di collaborazione:
"… Dipinta questa, metterei accanto il viso di Filippo, giovante tecnico computer veronese. Si è offerto di costruire il sito (www.carlopelanda.com) dove tra poco sbatterò tutte le mie pubblicazioni e farò pubblicità alla mia attività (scenaristica). Stavo per firmare il contratto con un'azienda milanese che mi proponeva la realizzazione del sito (complesso e non solo una semplice videata web) ad un buon prezzo ed in pochi giorni. Ma ho assunto Filippo, che mi costa un po' di più e allunga di tre mesi i tempi perché non ha ancora un'esperienza di questi lavori, pur geniale tecnico. Sono rimasto affascinato dalla sua volontà di imparare questo mestiere e colpito dalla mancanza di risorse educative che glielo insegnassero, qui nella nostra zona. Abbiamo fatto un patto: impara lavorando ed io accetto il rischio. In cambio mi assisterà nella gestione futura del sito a costi inferiori a quelli di mercato. Ed il suo viso – simpaticissimo e concentrato, teso nello sforzo – possiamo metterlo tra l'immagine ansiosa detta sopra e lo scenario piacevole di sfondo futuro." 
(L'Arena 20/04/2000)
Casus Belli
Casus Belli
Apple e FBI sono ai ferri corti: da una parte l’azienda di Cupertino si rifiuta di “creare” un backdoor  per accedere ai dati contenuti  nel IPhone del terrorista Syed Farook responsabile della strage di San Bernardino, dall’altra l’agenzia governativa che con la pretesa di dover garantire la sicurezza dello stato vuole avere accesso a quei dati.

Certo, dopo le accuse di  Jonathan Zdziarski (autore del jailbreak per I/os)  che sospettava Apple di inserire dei  backdoor per “spiare” i dati personali degli utenti l’azienda guidata da Tim Cook deve fare tutto per assicurare gli utenti che i suoi dispositivi sono sicuri.
Visto da questa angolazione le scelte di non cooperare della Apple potrebbero apparire come una mossa  commerciale -“ I nostri dispositivi sono i più sicuri!”-,  e molte aziende dell’ IT si sono schierate con l’azienda di Copertino; l’unica voce fuori dal coro sembra essere quella di Bill Gates  che prende le parti dell’ FBI, mentre la sua azienda  ( la Microsoft) si schiera apertamente con Apple.
In realtà è stato il tentativo di forzare l'accesso all'iPhone 5C di Syed Farook a chiudere per sempre ogni accesso alle preziose informazioni che ora l'Fbi vorrebbe ottenere con l'aiuto di Apple. 
Sembra quasi che l’FBI abbia creato questo caso ad oc per poter chiedere degli strumenti  (sia legali sia informatici) per avere l’accesso ai dati personali dei cittadini americani.

Nel 2010, quando gli Emirati Arabi Uniti e molti altri paesi avevano manifestato l’idea di mettere al bando alcuni servizi di telefonia associati agli smartphone Blackberry , l’allora segretario di stato Hillary Clinton, in rappresentanza del governo degli Stati Uniti,  si era prodigata in favore della libertà degli utenti sull’utilizzo dei servizi che ne garantivano la privacy.

A questo punto ci si potrebbe chiedere:  spetta alle aziende o agli stati proteggere la nostra privacy?  Fino a che punto la nostra privacy va tutelata in rapporto alla sicurezza nazionale? Se la stessa richiesta fosse giunta da un paese come la Cina cosa avrebbe fatto Apple?
Certo con i se non si fa la storia ma queste domande, direi sono più che legittime.

Alle prime due domande la risposta, dettata dal buon senso, è molto semplice:  gli stati dovrebbero tutelare la privacy dei cittadini con delle leggi, le aziende dovrebbero applicare queste leggi, che dovrebbero però sempre essere al servizio dello stato che rappresenta tutti noi.
 
Per l’ultima domanda la risposta si fa più interessante.
Iniziamo col dire che secondo gli analisti, nell'ultimo trimestre dell'anno 2015  ci sarebbero 2 milioni di pezzi di differenza tra le vendite di Iphone in Cina e quelle negli Stati Uniti: la Cina ha pesato per il 36% delle consegne di iPhone, contro il 24% accreditato agli Stati Uniti.
Questo risultato è stato ottenuto da Apple anche grazie all’aver assecondato alcune richieste del Governo di Pechino, per esempio usando data center con sede in Cina e incorporando uno standard cinese sul WiFi. Tutto questo ha sollevato forti critiche ed Apple che è stata accusata di chiudere un occhio sulle ingerenze del Governo nella privacy degli utenti per salvaguardare i propri interessi in quel paese.
Non è errato pensare quindi che se la stessa richiesta fosse stata fatta dal governo Cinese Apple avrebbe potuto accettare un simile accordo ( magari senza farne tanta pubblicità). 
Infondo qualcosa di simile accade già: dal 2014 la società di Cupertino ha infatti iniziato a memorizzare i dati dei propri utenti cinesi sul data center di China Telecom (una società di telecomunicazioni cinese a gestione statale), che è diventato l'unico fornitore in Cina di servizi cloud per la Apple. 
La stessa Apple sostiene che i dati degli utenti sono criptati, ma gli esperti facnno notare che China Telecom ha l’accesso a tutti i dati che passano sui server e quindi ha la possibilità di decifrare i dati sul proprio sistema.
Per finire nel gennaio 2015 Tim Cook  ha incontrato Lu Wei, direttore dell'Ufficio Informazioni di Internet della Cina, ente preposto della censura della rete cinese. 
Stando a quanto si dice, Cook avrebbe espresso alla controparte cinese il suo reciso rifiuto a fornire una backdoor a terze parti o un accesso alle informazioni. Ma la replica secca di Wu non si sarebbe fatta attendere: «quello che dici non ha alcun valore. I vostri nuovi prodotti devono essere sottoposti alle nostre ispezioni di sicurezza. Dobbiamo validare i vostri prodotti, in modo che gli utenti possano sentirsi sicuri nell'utilizzo di questi prodotti». 
In realtà non è chiaro cosa sia effettivamente successo. Ma, come riporta il Los Angeles Times, le autorità cinesi hanno comunicato nel gennaio 2015 che Apple è diventata la prima azienda straniera ad accettare le regole del Cyberspace Administration of China, l'organo centrale preposto alla censura in Cina.

Da queste piccole riflessioni possiamo capire che la mossa di Apple sia principalmente propagandistica nei confronti dei suoi prodotti mentre, in realtà, non ha alcun interesse a tutelare la privacy.
Dall’altro lato vediamo che i governi democratici si trovano sempre più in difficoltà con le nuove tecnologie a tutelare la sicurezza  dello stato e nel contempo a rispettare i diritti dei propri cittadini,  a differenza di governi totalitari o repressivi.

← Back
Foward →
FB TW Pinterest whatsapp RSS FEED News letter

filoweb.it è il sito personale di Filippo Brunelli
(c) 2017 Filippo Brunelli
Le immagini ed i testi contenuti nel sito filoweb.it sono di proprietà di Filippo Brunelli salvo diversamente indicato.
L'uso delle immagini e del testo è gratuito per uso personale ed è subbordinato alla citazione della fonte.
Brunelli Filippo declina ogni responsabilità per l'uso che viene fatto delle informazioni presenti nel sito filoweb.it.
X
La tua privacy è importante
Utilizziamo, senza il tuo consenso, SOLO cookies necessari alla elaborazione di analisi statistiche e tecnici per l'utilizzo del sito. Chiudendo il Cookie Banner, mediante il simbolo "X" o negando il consenso, continuerai a navigare in assenza di cookie di profilazione. More info

Tutti
Cookie tecnici
I cookie tecnici sono necessari al fine di "effettuare la trasmissione di una comunicazione su una rete di comunicazione elettronica, o nella misura strettamente necessaria al fornitore di un servizio della società dell'informazione esplicitamente richiesto dal contraente o dall'utente a erogare tale servizio" (art. 122, comma 1 del Codice privacy).
Cookie analitici di terze parti
I cookie analytics sono utilizzati al fine di valutare l'efficacia di un servizio della società dell'informazione fornito da un titolare di un sito, per progettare un sito web o contribuire a misurare il "traffico" di un sito web, ovvero il numero di visitatori ripartiti per area geografica, fascia oraria della connessione o altre caratteristiche.
Cookie di profilazione
Sono cookie che creano profili personalizzati relativi all'utente per finalità di marketing, ad esempio il retargeting o advertising sui social network.

FILOWEB.it by Filippo Brunelli. FILOWEB.it by Filippo Brunelli. FILOWEB.it by Filippo Brunelli. Il sito web FILOWEB.it di Filippo Brunelli è attivo dal 2001. Negli anni il sito web FILOWEB.it by Filippo Brunelli ha avuto molte modifiche e rivisitazioni. Iniziato come un sito web html standart, il sito web FILOWEB.it by Filippo Brunelli è passato alla tecnoloiga Flash per finire con ASPX e CSS e HTML nuovamente. FILOWEB.it by Filippo Brunelli è opera di Filippo Brunelli. Filoweb contiente molte informazioni che potranno piacerti. Continua a visitare filoweb