Filoweb.it
By Filippo Brunelli


FB TW Pinterest whatsapp RSS FEED News letter

  ► Magazine

Il web che verrà
Il web che verrà

Siamo alle soglie del web 3.0 che non è solo il metaverso, che del futuro web rappresenta una visione dall’impatto molto forte, ma il web che verrà, seppur ancora molto nebuloso oggi, sarà molto di più.

Fino al 1993 internet era utilizzato quasi esclusivamente da scienziati, università, centri di ricerca e militari, l’utilizzo e la consultazione era fatto quasi esclusivamente tramite riga di comando. Con “l’apertura” della rete a tutti quanti inizia quello che verrà definito web 1.0.
All’inizio il web non era altro che un’evoluzione delle vecchie BBS, dove gli utenti si collegavano a delle pagine, ospitate da server ed usufruivano dei contenuti in maniera passiva. Chi si collegava ad un sito poteva solo navigare, sfogliare un catalogo virtuale di prodotti, approfondire delle conoscenze o fare acquisti online.
Le possibilità di interazione con i siti è molto limitata e, solitamente, avveniva tramite e-mail, fax, telefono e pochissimi siti permettevano di uplodare contenuti personali tramite Common Gateway Interface1 sviluppati in C/C++ o Pearl che spesso erano complicate da sviluppare e costose.
Il flusso di comunicazione era quindi unidirezionale da parte del sito web aziendale o personale che dava informazioni a utenti passivi.
Da un punto di vista economico il modello che presenta il web 1.0 non discosta molto dai media comuni quali la televisione o i giornali: su una pagina o un sito internet vengono pubblicati banner pubblicitari a pagamento o tramite il metodo PPC (Pay Per Click).

Il web 2.0 si evolve dando l’opportunità agli utenti di interagire con i siti e diventando loro stessi creatori di contenuti. All’inizio sono solo piccoli blog personali e qualche social network come Myspace o Twitter, in particolare, è quest’ultimo che dà la prima innovazione permettendo ai suoi iscritti di pubblicare brevi messaggi, anche tramite SMS e la possibilità di “ri-twittare” questi ultimi quindi condividerli; un anno dopo la sua nascita, nel 2007, nascono con twitter gli hashtag che permettono di aggregare le notizie e così dalle bombe a Boston del 2013, alla guerra in Siria, chi è testimone di eventi importanti ha la possibilità di informare il resto del mondo.
Allo stesso modo i nascono i social network che permettono di creare reti di utenti che scambiano idee ed opinioni (naturale evoluzione dei newsgroup e dei forum del web 1.0) e creano la nascita di nuove aziende e giganti del web che raccolgono sui loro server i dati degli utenti oltre che i contenuti che vengono pubblicati. Siti come Youtube, Facebook, Instagram, “vivono” grazie ai contenuti che gli iscritti generano e non forniscono nulla all’infuori dell’infrastruttura necessaria molto semplice da utilizzare e molta pubblicità.
Ed ecco la prima grande differenza tra il web 1.0 ed il 2.0: le centralità. Esistono poche aziende che offrono servizi che le persone utilizzano e i dati ed i contenuti che gli utenti producono sono conservati sui server di poche aziende. Prima chi pubblicava qualcosa online, sia che fosse su un sito personale o su un blog era il proprietario dello spazio che utilizzava, in quanto veniva affittato da un provider e i dati personali così come i contenuti che vi erano pubblicati rimanevano di sua proprietà mentre con l’utilizzo di social o di siti che permettono di condividere idee, foto e quant’altro possibile l’utente “cede” i propri dati personali così come i contenuti che genera ad un’azienda terza che ne può usufruire liberamente.
Con il web 2.0 viene generato un nuovo tipo di interconnessione tra utenti e servizi che genera una convergenza digitale dove poche interfacce tendono ad aggregare più servizi: tramite l’account social possiamo iscriverci a servizi di streaming o di mail, sui social possiamo leggere le ultime notizie di un giornale senza dover andare sul sito del medesimo, tramite i social possiamo mandare un messaggio ad un amico o più amici ed organizzare uscite o riunioni. Tutti questi servizi sono accentrati in un unico posto, sia fisico che virtuale, di proprietà di poche Holding internazionali.
Il modello economico del web 2.0 è anch’esso un’evoluzione del precedente, non solamente si basa sulla pubblicità che viene presentata agli utenti, ma anche tramite la condivisione dei dati personali che questi memorizzano sui server dei quali sono fruitori. Ed ecco perché c’è la necessità di centralizzare i dati raccolti.
Questo non vuol dire che l’attuale versione del web sia completamente negativa. Basti pensare cosa sarebbe successo all’economia mondiale durante la pandemia di Covid-19 se non vi fosse stata la possibilità di fare Smart Working elastico e flessibile, reso possibile proprio grazie alle innovazioni tecniche scaturite a seguito dell’evolversi del web, come ad esempio l’utilizzo di tecniche WebRTC2 o di file Sharing3.

Il web 3.0 rappresenterà, si spera, un’evoluzione dell’attuale concetto di web eliminando per prima cosa la centralità ed in questo modo garantire una miglior privacy e sicurezza dei dati. Come per il web 2.0 quando nacque anche per il 3.0 non sono ancora definite delle regole e delle linee guida tanto che si parla ancora di “possibili” evoluzioni e non di certezze, anche se possiamo descrivere quello che probabilmente sarà.
I social rimarranno e si evolveranno dando la possibilità di utilizzare realtà aumentata o virtuale (come nel caso del Metaverso) e nasceranno sempre più spazi virtuali 3D simili a “Second Life”.
L’aumento di contenuti generati dagli utenti trasformerà il web in un enorme Database dove per poter accedere in maniera costruttiva alle informazioni si farà sempre maggior uso del web semantico4  e dell’intelligenza artificiale che imparerà a conoscerci e conoscere i nostri gusti e abitudini. Per poter utilizzare al meglio l’intelligenza artificiale sul web e garantire nel contempo la privacy bisogna però che  venga decentralizzata (oggi Alexa, Google, Siri, Cortana, ecc. accedono via web ai server centrali delle rispettive aziende per poter funzionare) e dovrà essere controllata da una grande rete aperta, riducendo i rischi di monopolio.
Per poter attuare un web più decentrato si utilizzerà sicuramente la tecnologia blockchain che, per sua natura, si presenta come un’ architettura decentralizzata. La stessa tecnologia che sta alla base delle criptovalute e che, utilizzata per la sicurezza del passaggio dati nelle filiere, sarà la base dalla quale partirà il web 3.0. La blockchain è una struttura dati condivisa e immutabile, assimilabile a un database distribuito, gestito da una rete di nodi ognuno dei quali ne possiede una copia privata. Tutto questo permetterà di eliminare i webserver centralizzati in quanto i singoli utenti diventano loro stessi dei “miniserver”.
Come l’internet dell’inizio questo metodo garantirà che se anche un nodo va in crash o il server centrale (come ad esempio quello che gestisce Whatsapp, o Youtube o Facebook) il nostro sistema continuerà a funzionare ed i dati continueranno ad essere disponibili tra gli utenti. Questo permetterà anche un passaggio della governance del servizio dove i singoli utenti avranno maggior potere rispetto all’azienda principale; anche le informazioni saranno rivoluzionate e verranno riunite da diverse fonti tramite tecnologie tipo XML, WSDL o simili in un unico database che non esiste realmente ma è semplicemente un raccoglitore, ma al quale si potrà attingere come fosse un normale database.

Il cambiamento non sarà veloce ma assisteremo ad una transizione più “dolce” rispetto a quella dal web 1.0 al 2.0. Per molto tempo i due differenti web (2.0 e 3.0) convivranno ma il cambiamento, anche se lento sarà molto più profondo perché non sarà tanto un cambiamento di come “vediamo” il web ma riguarderà i suoi più profondi paradigmi. Quando arriveranno il metaverso e i  su suoi simili saranno ancora sistemi che si basano sul concetto del web 2.0 dove tutto è ancora centralizzato ma dietro a questi compariranno sempre più servizi che si basano su strutture decentralizzate e, per chi fosse incuriosito, segnalo due esempi già esistenti: dtube (https://d.tube/)  e OpenBazaar (https://github.com/OpenBazaar/openbazaar-desktop/releases) rispettivamente l’equivalente di Youtube ed e-Bay ma… decentralizzati.


 

 

 

1La Common Gateway Interface (CGI) è un’interfaccia di server web che consente lo scambio di dati standardizzato tra applicazioni esterne e server. Appartiene alle prime tecnologie di interfaccia di Internet. Le CGI sono dei programmi residenti sul server che ricevono in input un “GET” dal client che viene elaborato e come risultato generano una pagina internet standard.

2Con WebRTC si possono aggiungere funzionalità di comunicazione in tempo reale alle applicazioni web, che altrimenti impossibile, a causa della tecnologia di comunicazione utilizzata sul protocollo internet. WebRTC  si basa su uno standard aperto. Supporta i dati video, vocali e generici nello scambio di dati, consentendo agli sviluppatori di creare soluzioni efficaci per voce e video. La tecnologia è disponibile su tutti i browser moderni e sui client nativi per tutte le principali piattaforme. Le tecnologie su cui si basa WebRTC vengono implementate come standard web aperti e disponibili come normali API JavaScript in tutti i principali browser. Per i client nativi, come le applicazioni Android e iOS è disponibile una libreria che fornisce la stessa funzionalità. Il progetto WebRTC è open source ed è supportato da Apple, Google, Microsoft, Mozilla e molti altri.

3 Il termine file sharing si riferisce ad un apposito sistema che consente agli utenti di condividere file e documenti sul web o all’interno della medesima rete. Grazie ai programmi e siti di file sharing è infatti possibile trasferire dei documenti da un device all’altro.

4  Nel Web semantico ad ogni documento (un file, un’immagine, un test, etc.) sono associate informazioni e metadati che, fornendo un contesto semantico, ne rendono più facile l’interrogazione e l’interpretazione automatica da parte di un motore di ricerca. L’idea viene ipotizzata alla fine degli anni ’90 da Tim Berners-Lee dove ipotizzava un futuro dove  “..il commercio, la burocrazia e le nostre stesse vite quotidiane saranno gestite da macchine che parlano con altre macchine” .

 

 

BIBLIOGRAFIA:

Berners-Lee, M. Fischetti, “Weaving the Web“, 1999
Dev, maggio 2006, “Meta Content Frameworks e Rsource Decripti on Frameworks”, pp.61-66

Il metaverso evoluzione della realtà virtuale e di internet.
Il metaverso evoluzione della realtà virtuale e di internet.

Molti utenti whatsapp si saranno accorti che da qualche tempo il celebre programma di istant messaging non reca più la scritta “From Facebook” ma bensì “From Meta”. Le male lingue hanno insinuato che questo cambiamento è dovuto al recente scandalo - il secondo per gravità dopo quello di Cambridge Analytica – emerso dalle dichiarazioni della whistleblower Frances Haugen riguardo diverse pratiche dannose di cui Facebook era consapevole e, di conseguenza, ad un tentativo da parte della società di rilanciare la propria immagine uscita acciaccata dai “facebook pappers”.
Così, dopo mesi di anticipazioni, smentite e retroscena, è arrivato l’annuncio ufficiale: il “gruppo Facebook” cambierà nome e si chiamerà “Meta” che in greco vuol dire oltre e l’intenzione (a parole) di business model dall’azienda di Menlo Park  fin qui seguito è quella di andare “oltre” l’utilizzo di app  tra loro interconnesse come Facebook, Instagram, Messenger, Whatsapp, ecc.
Questo non vuol dire che le nostre app che tutti i giorni guardiamo e utilizziamo cambieranno nome, Facebook continuerà a chiamarsi Facebook, Whatsapp con il suo nome e così tutte le altre.
No, l’idea di Zuckerberg & Co. È quella di creare una nuova realtà virtuale, totalmente immersiva che ci dovrebbe accompagnare nella vita di tutti i giorni dal lavoro alla socialità.

Quella proposta da Zuckerberg non è una novità nel mondo dell’informatica né tanto meno dell’intrattenimento.
L’idea di una realtà immersiva si può far risalire alla metà del secolo scorso, quando un giovane cineasta, Mort Heiling vide a Brodway il film “This is Cinerama” proiettato su schermo gigante e ricurvo, che prende il nome appunto di Cinerama.
Da quell’esperienza Heiling ebbe l’idea di creare un dispositivo che permetteva a chi lo utilizzava di provare vere sensazioni e che chiamò “Sensorama”. Si trattava di una cabina in grado di ospitare una persona e che combinava effetti tridimensionali tramite un visore stereoscopico sul modello del View-Master 1, suono stereofonico, vibrazioni per mezzo di un manubrio che veniva afferrato e soffi di profumi. Quello che sensorama permetteva di fare era di creare nello spettatore un’esperienza il più realistica possibile di una corsa in un mercato dei fiori, su di una spiaggia e sulle strade di Brooklyn. Brevettato nel 1962 non ebbe successo tra le grandi case cinamatografiche e divenne famosa come macchina a gettoni nei luna park.
Qualche anno dopo (1965) un giovane ingegnere di nome Ivan Sutherlan ebbe l’idea che si potessero utilizzare i computer per il lavoro di progettazione; secondo Sutherlan un monitor collegato ad un computer offriva la possibilità di acquisire familiarità con concetti impossibili da realizzare nel mondo reale. Con quest’idea nel 1968, mentre era ancora professore all’università di Harvard, insieme ad alcuni suoi studenti tra i quali Bob Sproull, Quintin Foster, Danny Cohen creò il primo casco per la realtà virtuale.
Ma i mondi virtuali non devono solo essere percepiti ma c’è bisogno che si possa interagire con loro, così nel 1970 Myron Krueger, pioniere della computer art, interessandosi “agli ambienti sensibili controllati dal computer” coniò il termine realtà artificiale. Secondo Krueger la tastiera teneva lontani tanti utenti nell’accostarsi al computer per creare espressioni artistiche e così ideo “Videoplace”: un sistema  composto da una telecamera controllata da un computer e da un grande schermo. Quando un utente si metteva davanti alla telecamera la sua immagine veniva catturata dal computer, proiettata sullo schermo e combinata con le immagini ivi presenti. L’immagine della persona era rappresentata come una silhouette e interagiva con gli oggetti presenti sullo schermo spingendoli, afferrandoli, alzandoli, ecc.
Il progetto di Krueger morì perché non ottenne finanziamenti per il suo sviluppo mentre nello stesso periodo il Governo Federale degli Stati Uniti investiva ingenti somme nello sviluppo della tecnologia “Moviemap” del MIT che consentiva all’utente di muoversi attraverso una versione video di Aspen toccando semplicemente alcune parti dello schermo. Da lì, nel 1981, nacque il progetto “SuperCockpit” dell’aereonautica militare sotto la direzione di Tom Furnes: una finta cabina di pilotaggio che utilizzava alcuni computer e un casco virtuale per addestrare i piloti al combattimento.
Il SuperCockpit aveva però costi altissimi e la Nasa nel 1990 sviluppò “VIEW” (Virtual Interface Environment Workstation), il primo sistema a combinare grafica computerizzata, immagini video, riconoscimento vocale, un casco per la realtà virtuale ed un guanto tattile (inventato nel 1982 da Tom Zimmermann e Jaron Lainer quando lavoravano alla Atari).
L’idea della Nasa di utilizzare tecnologie già presenti e relativamente economiche per creare simulazioni realistiche per le future missioni spaziali fece capire che era possibile creare une realtà artificiale senza dover investire milioni di dollari.
Gli inizi degli anni ’90 videro un fiorire di idee per la realizzazione di realtà virtuale con progetti fai da te come gli schemi per poter collegare il “Power Golve”2 della mattel (creato per la piattaforma videoludica della Nintendo) ad un normale computer tramite porta parallela3 nonché  i relativi codici per programmarlo tramite linguaggio C, la nascita di diversi software a pagamento o freeware per la creazione di mondi ed in fine, la commercializzazione dei primi caschi di realtà immersiva a prezzi relativamente bassi ( qualche centinaia di migliaia di lire).
Qualche anno più tardi le prime webcam che venivano commercializzate spesso erano accompagnate da programmi che permettevano (come nel caso della webcam LG LPCU30) di interagire con immagini generate al computer come nel videoplace di Krueger.

Nella letteratura fantascientifica l’idea di mondi virtuali ha preso piede, soprattutto nella cultura Cyber Punk in romanzi come “Neuromante” o “Aidoru” di William Gibson dove il reale ed il virtuale si fondono in un’unica realtà soggettiva. Ed è proprio dalla cultura Cyber Punk che nasce il termine “Metaverso” utilizzato da Zuckerberg per la sua nuova creatura, in particolare dal romanzo “Snow Crash” del 1992 di Neal Stephenson. Nella cultura mainstream, l’idea di un mondo virtuale dove le persone interagiscono lo si trova in film come “Il 13° piano” tratto dal romanzo “Simulacron 3” di Galouye o la trilogia di “Matrix” (sempre ispirata dallo stesso romanzo).
Sulla scia di questi successi cinematografici, dell’interesse per la realtà virtuale, la massificazione di internet, nonché la nascita dei primi social network, nel 2003 nasce “Second Life”: un mondo virtuale dove gli utenti (chiamati anche residenti) accedono al mondo virtuale attraverso un loro avatar e dove possono muoversi liberamente, interagire con altri utenti e acquistare beni e servizi virtuali o reali pagando con tanto di moneta virtuale convertibile in dollari o euro.
Dopo un inizio un po’ difficile (le risorse chieste ai computer erano impegnative ed inoltre in Italia le connessioni internet erano ancora lente), Second Live ha raggiunto il massimo di utenti nel 2013 con un milione di abbonati per poi assestarsi tra gli 800.000 ed i 900.000. Negli ultimi anni diverse piattaforme sono nate, soprattutto a livello video ludico, per permettere agli utenti di interagire con mondi virtuali, come “Minecraft”, “Fortnite” o “The Sandbox” molto simile al metaverso di Meta.

Cosa fa allora pensare a “Meta” che il suo “Metaverso” sia diverso da tutte le realtà già presenti?
Innanzi tutto bisogna considerare che il metaverso farà largo delle tecnologie di realtà virtuale sviluppate negli ultimi anni come i visori sitle Hololens alle quali affiancherà hardware sviluppato autonomamente già in progettazione (ad esempio i guanti tattili). In aggiunta a ciò Facebook/Meta può vantare un vasto background di utenza e una vasta esperienza nel coinvolgere gli internauti a diventare sempre più dipendenti dai propri prodotti.  Un’altra freccia all’arco di Zuckerberg è l’idea di presentare il metaverso come un mondo alternativo che però interagirà con quello reale e non sarà solamente un luogo di svago o di fuga, ma una piattaforma per poter anche lavorare, creare riunioni virtuali, lezioni virtuali il tutto tramite un avatar.
Certo la concorrenza non mancherà visto che Microsoft, a pochi giorni dall’annuncio di Meta ha presentato il suo metaverso durante Ignite 2021 (la principale conferenza Microsoft dedicata al mondo Enterprise) al quale si potrà accedere tramite la piattaforma Microsoft Mesh per Teams e che farà uso di visori a realtà aumentata. Come per il metaverso di Menlo Park anche quello di Redmond punta soprattutto agli utenti che professionisti che lavorano e lavoreranno (si presume in un futuro prossimo sempre di più) in smartworking.

Ma abbiamo davvero bisogno di un metaverso?
A usufruire della nascita dei metaversi saranno principalmente le aziende produttrici di accessori per realtà aumentata o virtuale che ad oggi hanno avuto un mercato molto limitato visto il costo dell’hardware e i settori di applicazioni molto di nicchia, mentre per l’utente consumer, invece, il vantaggio sarà un graduale abbassamento del prezzo del sopracitato hardware.
Come tutte le tecnologie anche il metaverso può essere sia un bene che un male, dipende dagli usi che ne verranno fatti e dalla consapevolezza e maturità degli utenti.
Purtroppo abbiamo visto come, negli ultimi 15-20 anni internet, che è una tecnologia che permette di ampliare le proprie conoscenze e migliorare la vita dei singoli utenti, sia diventato monopolio di grandi multinazionali e ricettacolo di pseudo-verità e futili intrattenimenti, quando non anche per creare disinformazione (non ultimi i famosi Facebook pappers).
Il metaverso è la naturale evoluzione dell’internet che conosciamo, ci vorranno anni per vederlo sviluppato alla massima potenza, per adesso abbiamo solo aziende come Microsoft, Roblox, Epic Games, Tencent, Alibaba e ByteDance che stanno investendo ma quello che sarà non è ancora definito; saremo noi, come è accaduto con lo sviluppo di internet, che decideremo cosa nascerà, facendo scelte che a noi sembreranno insignificanti ma che le grandi multinazionali usano per fare soldi. Lo scandalo Facebook, dove venivano evidenziati i post che creavano il maggior numero di interazioni al solo scopo di creare traffico, indipendentemente dalla verità o meno dei post stessi, ne è un esempio. Quindi quando inizieremo ad usare il metaverso, stavolta, ricordiamoci fin dall’inizio che saremo noi a creare il nostro futuro mondo virutale. Sarà diverso il metaverso o diventerà l’ennesimo spazio dove si rifugeranno le persone per scappare alla realtà? A noi la scelta!

 

BIBLIOIGRAFIA
Linda Jacobson, “Realtà Virtuale con il personal Computer”, Apogeo, 1994.
Ron Wodaski e Donna Brown, “Realtà virtuale attualità e futuro”, Tecniche Nuove, 1995
https://www.nasa.gov/ames/spinoff/new_continent_of_ideas/
Ultima consultazione dicembre 2021
https://news.microsoft.com/it-it/2021/11/02/il-microsoft-cloud-protagonista-a-ignite-2021-metaverso-ai-e-iperconnettivita-in-un-mondo-ibrido/
Ultima consultazione dicembre 2021

 

1 View-Master è stato un sistema di visione stereoscopica inventato da William Gruber e commercializzato per prima dalla Sawyer's nel 1938. Il sistema comprende: un visore stereoscopico, dischetti montanti 7 coppie di diapositive stereo, proiettori, fotocamere (Personal e MKII) e altri dispositivi per la visione o la ripresa di immagini stereoscopiche.
2 Il Power Glove è un controller nato per il NES del 1989. Fu sviluppato dalla Mattel, ma il progetto si ispirò a un’invenzione di Tomm Zimmerman, che realizzò una periferica per l’interfacciamento a gesti manuali basata su un guanto cablato a fibre ottiche. L’idea di Zimmerman venne addirittura finanziata dalla NASA. La Mattel sviluppò questa periferica ma utilizzando tecnologie molto meno recenti, per rendere il Power Glove economico e più robusto.
3 L’interfaccia per collegare il power glove al PC tramite interfaccia parallela venne sviluppata da Mark Pflaging

Internet Gaming Disorder: L’esagerazione cinese e la non considerazione occidentale
Internet Gaming Disorder: L’esagerazione cinese e la non considerazione occidentale

Quando alla fine dell’agosto 2021 il Governo Cinese, tramite gli organi di informazione ufficiali, annunciò l’introduzione di nuove misure restrittive nel campo dei videogiochi online nel tentativo di fermarne la dipendenza, tutti i giornali riportarono la notizia con molta enfasi dimenticando che, che già alla fine del 2017, l'Organizzazione mondiale della sanità (OMS) aveva annunciato che nell’ undicesima revisione dell’ edizione  della Classificazione internazionale delle malattie (ICD-11) che entrerà in vigore il primo gennaio 2022, il disturbo da gioco sarebbe stato identificato come un nuovo disturbo e che la stretta del Governo Cinese era già iniziata nel 2019 quando aveva vietato l’utilizzo agli utenti di età inferiore ai 18 anni di giocare ai videogiochi tra le 22 e le 8 del mattino e, comunque, per non più di 90 minuti nei giorni feriali. Quello che Pechino chiede alle aziende che offrono videogiochi online è però adesso qualcosa di più drastico, ovvero di attuare controlli più accurati su chi utilizza le loro piattaforme attraverso delle verifiche più rigorose che prevedono l’utilizzo di dati reali degli utenti e del riconoscimento facciale per poter accedere e utilizzare i servizi di queste ultime.
Secondo alcuni analisti la decisione del Governo Cinese è vista come una nuova fase della guerra “Hi-Tech” tra Pechino e Washington, (dato che la maggior parte dei giochi online sono creati da software house USA) mentre per altri rappresenta un nuovo modo che il regime cinese ha per controllare i propri cittadini.

Ma i video giochi ed in special modo quelli online portano davvero alla dipendenza?
A memoria di chi scrive questa diatriba tra chi sostiene la dipendenza e chi no è sempre esistita, tanto da ricordare che alla fine degli anni ’80 avevo letto un articolo che difendeva i videogiochi (purtroppo non  ricordo il nome della rivista) dove l’autore sosteneva che giocare ai videogiochi – n.d.r. delle sale giochi – non solo non era pericoloso ma addirittura aiutava la coordinazione tra occhio e mani.
Da allora sono passati ormai quasi quarant’anni ma regolarmente quest’idea della dipendenza da gioco continua a comparire.
Uno studio pubblicato sull'American Journal of Psychiatry nel marzo 2017(1) ha cercato di esaminare la validità e l'affidabilità dei criteri per il disturbo da gioco su Internet, confrontarlo con la ricerca sulla dipendenza dal gioco online e stimarne l'impatto sulla salute fisica, sociale e mentale. Lo studio ha rilevato che tra coloro che hanno giocato ai videogame, la maggior parte non ha riportato alcun sintomo del disturbo da gioco online e la percentuale di persone che potrebbero qualificarsi per l’Internet Gaming Disorder è estremamente piccola.
La ricerca che ha coinvolto diversi studi su adulti negli Stati Uniti, nel Regno Unito, in Canada e in Germania ha evidenziato che tra gli individui che hanno manifestato il disturbo da gioco su Internet tutti avevano una salute emotiva, fisica e mentale indebolita rispetto a quelli che non l’ hanno manifestato.
Scrivendo in un commento sullo studio sull'American Journal of Psychiatry, Patrick M. Markey (professore del Dipartimento di Psicologia di Villanova University College of Liberal Arts and Sciences)  , e Christopher J. Ferguson (dottore in psicologia clinica presso l'University of Central Florida MS, psicologia dello sviluppo, Florida International University BA, psicologia presso Stetson University), hanno concluso che lo studio suggerisce che "la dipendenza da videogiochi potrebbe essere una cosa reale, ma non è l'epidemia che alcuni hanno immaginato essere".


Sicuramente i videogiochi di oggi, che fanno uso di internet per creare coinvolgimenti con altri utenti, sono fatti per creare situazioni nelle quali chi gioca è invogliato a continuare a giocare tramite l’acquisizione di crediti in base ai livelli che superano oppure comprandoli direttamente. Molte volte (soprattutto per i giochi che si svolgono sui dispositivi mobili) tra un livello e l’altro compaiono schermate pubblicitarie che invitano a comperare crediti o bonus per agevolare il superamento del livello successivo o dello stesso.
Una simile struttura di gioco se risulta pericolosa per un adulto sicuramente per un minore può essere distruttiva. Consideriamo poi che il recente periodo di Lockdown dovuto al Covid-19 ha portato molte persone a rimanere chiuse in casa ed a usufruire di servizi di intrattenimento online alternativi come i giochi.

Ma come si manifesta disturbo da videogioco? Secondo quanto riportato dall’ OMS nell’ IDC-112, con una serie di comportamenti persistenti o ricorrenti legati al gioco, sia online che offline, consistenti in: un controllo alterato sul gioco; una sempre maggiore priorità data al gioco tale che quest’ultimo diventa attività prioritaria nella vita rispetto ad altre attività quotidiane e rispetto agli interessi; una continua escalation del giocare a scapito di relazioni personali, familiari, sociali, educazionali, occupazionali. Per finire affinché venga considerato patologico il comportamento si deve reiterare per 12 mesi.
Da quanto riporta l’OMS sembra che non vi siano moltissime differenze tra la dipendenza da videogiochi e altre dipendenze e l’aggiunta dei videogiochi all'elenco delle dipendenze comportamentali riconosciute potrebbe aiutare milioni di persone bisognose, ma, allo stesso tempo, potrebbe anche “patologizzare”  un comportamento normale e creare un nuovo stigma, un marchio, da apporre a chiunque passi troppo tempo a giocare per il puro divertimento.


Le misure che prende il governo cinese, seppur eccessive vanno viste nell’ottica di un governo che ha comunque una struttura di regime che, vorrebbe “moralizzare” i suoi cittadini. I governi liberali occidentali dovrebbero comunque considerare di varare a breve delle misure che impongano delle misure di contenimento per quanto riguarda il tempo che minori e pre-adolescenti passano a giocare online.
Il mondo cambia velocemente e la società gli va a ruota ma non sempre la politica si muove alla stessa velocità!

 

 


1Internet Gaming Disorder: Investigating the Clinical Relevance of a New Phenomenon, 4 novembre 2016
WHO, Addictive 2018 behaviours: Gaming disorder, 14 settembre

 

Bibliografia:
https://ajp.psychiatryonline.org/doi/full/10.1176/appi.ajp.2016.16020224
(Ultima consultazione settembre 2021)

https://www.who.int/news-room/q-a-detail/addictive-behaviours-gaming-disorder
(Ultima consultazione settembre 2021)

Microsoft Vuole Ridisegnare Il Futuro Dei Sistemi Operativi?
Microsoft Vuole Ridisegnare Il Futuro Dei Sistemi Operativi?

Dopo l’insuccesso di Windows 8.0 nel luglio 2015 Microsoft, alla presentazione del nuovo sistema operativo Windows 10, dichiarava molto decisa che quello che usciva in quei giorni sarebbe stato l’ultimo sistema operativo rilasciato dalla casa di Redmond, e che "Non ci sarà nessun Windows 11", ma solamente aggiornamenti gratis di Windows 10.
Il traguardo che  Satya Nadella (CEO Microsoft) puntava a realizzare sei anni fa non era un semplice sistema operativo ma un servizio, un sistema che sarebbe stato integrato e che avrebbe dovuto destreggiarsi fra più categorie di prodotti che passavano da software e servizi (come Azure), fino ad arrivare all'hardware, con smartphone, tablet e dispositivi 2-in-1.
Quello che è successo poi è abbastanza chiaro agli occhi di tutti, l’uscita dal mercato degli smartphone (che la stessa Microsoft aveva iniziato a creare prima di Apple e di Google già dal 1996 con Windows Ce) e la crescita invece dei suoi servizi in Cloud come Azure o Office 365, ha  portato l’azienda a rivedere le proprie idee così, a metà del 2021, delle grandi novità vengono presentate da Microsoft nell’ambito dei sistemi operativi.

La prima di queste novità è stata annunciata il 24 giugno 2021 e riguarda il successore di Windows 10 che si chiamerà, perlappunto Windows 11!
Da un punto di vista tecnico, stando a quanto dichiarato, le richieste Hardware non sono molto diverse da quelle del suo predecessore a parte il fatto che richiede obbligatoriamente un account Microsoft, una connessione a internet e la presenza di un BIOS UEFI e del chip TMP21 per il Secure Boot 2 .
La scelta di utilizzare questo tipo di BIOS e la presenza del chip è dovuta principalmente  per impedire ai malware (in special modo ai rootkit) di modificare la procedura di avvio del sistema ed eseguirsi automaticamente prima del caricamento di Windows costituendo un grave rischio per la riservatezza e l'integrità dei dati. I vecchi computer che utilizzavano il BIOS Legacy, anche se hanno una sufficiente quantità di Ram e un processore adeguato non saranno quindi in grado di utilizzare il nuovo sistema operativo. Microsoft dichiara di aver sviluppato Windows 11 attenendosi a tre principi: sicurezza, affidabilità e compatibilità.
Per quanto riguarda l’utilizzo di un account Microsoft, questo è necessario solamente per la versione Home del sistema operativo, per la versione Pro o successive si può anche utilizzare un account locale.
Da un punto di vista grafico la novità più sorprendente è il nuovo layout del  desktop e la riconfigurazione della barra delle applicazioni e del menù di start, molto simile a Mac O/S o a certe distribuzioni Linux quali Elementary OS o Deepin Os.
Se questa scelta premierà Microsoft o la penalizzerà, come successe con windows 8.0 che aveva abbandonato il classico menù di start (vedi articolo su questo sito “Start è tornato” del 2015) lo vedremo nei prossimi mesi.

La seconda grande novità nel settore dei sistemi operativi riguarda il rilascio della prima distribuzione3 Linux targata Microsoft e chiamata: CBL-Mariner .
Prima dell’avvento dell’era di Satya Nadella alla guida dell’azienda di Redmond Linux era considerato un rivale, ma con l’esborso di 500 mila dollari annui l’azienda di Redmond dal 2016 è entrata a far parte del consiglio d’amministrazione della Linux Foundation e si è aperta al mondo dell’Open Source che, non è più visto come un rivale, ma come un’opportunità. Ad oggi il 40% delle macchine virtuali su Azure (il cloud Microsoft) girano su sistemi Linux e in uno degli aggiornamenti di windows 10 è stato introdotto Power Shell tipico del mondo linux.
CBL-Mariner era utilizzata fino ad ora  solamente come strumento di test interni di Microsoft e pensata per l’utilizzo dei server.  La versione 1.0 di questa distribuzione Linux è diventata stabile a novembre e utilizzabile sui server avendo come caratteristica la leggerezza del sistema dato che, come idea base per la distribuzione,  serve solo un core di pacchetti per gestire i servizi cloud ed edge.
Da un punto di viste puramente tecnico la distribuzione Microsoft di Linux usa Ubuntu come build4 ma per la gestione dei pacchetti utilizza  i procedimenti di Fedora (un’altra distribuzione linux).
Siamo quindi passati da Steve Ballmer (predecessore di Nadella) che diceva che “Linux è un cancro da estirpare” ai ringraziamenti pubblici al Photon OS Project, al  Fedora Project, al Linux from Scratch, a OpenMamba distro, a GNU e alla Free Software Foundation (FSF). Qualcosa di impensabile.

L’ultima grande novità riguarda comunque la presentazione di Windows 360.
Seguendo la linea di Office 365 che offriva la possibilità di utilizzare il programma Office in cloud Microsoft decide di provare a creare un sistema operativo che si utilizza in Cloud, svincolato quindi dall’Hardware e estremamente configurabile. Vi sono due versioni del sistema operativo in streaming “Enterprise” e “Business” e si parte da una configurazione base che comprende una vCpu con 2Gb di Ram e 64 Gb di archiviazione con un prezzo di 21,90 euro al mese ad una configurazione massima che comprende  8 vCpu con 32Gb di Ram e 512Gb di archiviazione per un prezzo di 147,50 euro al mese anche se la Microsoft lascia intendere che si può trattare per configurazioni personalizzate.
Sicuramente i prezzi sono molto più alti di quanto possa essere l’acquisto di un sistema operativo windows normale, ma bisogna considerare che questa soluzione, per ora, è offerta principalmente ad aziende organizzazioni con un massimo di 300 dipendenti ed a grandi imprese che Microsoft considera compagnie con più di 300 dipendenti e non all’utente finale.
La scelta di Microsoft sembra quando mai adatta in questo periodo in quanto parliamo di  un’innovazione che facilita i modelli di lavoro basati sulla flessibilità e lo smart working, divenuti ormai la nuova normalità come conseguenza della pandemia. Molte aziende già adesso utilizzano soluzioni simili tramite la connessione a Desktop remoto ed un server Windows che permette di connettersi da un computer remoto ed utilizzarne le risorse come si fosse in locale.
Il concetto di Sistema Operativo remoto non è certo nuova: fino all’inizio degli anni ‘90 del secolo scorso moltissime università ed organizzazioni utilizzavano questo approccio (su sistemi Unix) dove gli utenti si collegavano in remoto ad un server sul quale giravano i software necessari ma, la limitazione hardware dei tempi sia per quanto riguardava la potenza delle CPU e la Ram disponibile sui server, sia i costi e le velocità di connessione (stiamo parlando di modem digitali/analogici/digitali da 300 a 2400 bps5) ne limitavano il tempo/macchina disponibile per ogni utente fino a quando, grazie alla massificazione dei personal computer, questo approccio venne quasi ovunque abbandonato.

Microsoft, con le sue ultime due ultime novità (CBL-Mariner e Windows 365) sembra voler abbandonare il suo classico approccio al mondo dei Sistemi Operativi e gettarsi in nuove esperienze: da una parte abbiamo l’entrata nel mondo Open Source per i sistemi Server e dall’altra un ritorno alla centralizzazione dei servizi.
Se queste scelte verranno premiate dal mercato solamente il futuro lo potrà dire ma, di sicuro, rappresentano due grandi novità anche per il futuro che si sta disegnando.

 

 

 

 

1 Il Trusted Platform Module è un Chip che consente di proteggere a livello hardware informazioni riservate e dati sensibili oltre che permettere di gestire le chiavi di Secure Boot, per memorizzare dati di autenticazione.
2 Secure Boot è una funzionalità che fa parte dei BIOS UEFI e che permette di bloccare tutti i componenti caricati all'avvio del sistema che non sono approvati perché sprovvisti di una chiave crittografica autorizzata e memorizzata a livello di firmware
3 La natura di sistema operativo open source e completamente riadattabile ha permesso, con gli anni, che si sviluppassero versioni sempre nuove e differenti che però si basano sullo stesso Kernel (nocciolo). Queste versioni che vengono rilasciate da vari produttori e comprendono differenti pacchetti di applicazioni prendono il nome di distribuzioni.
4 Una build è un insieme di pacchetti e le istruzioni per compilarli.
5 Bps = Bit per second

Conservare i propri dati
Conservare i propri dati

Nel 1086 Guglielmo il Conquistatore diede origine a quello che viene definito il più antico catasto inglese ed il primo di tutto il medioevo: il “Domesday Book”. Il manoscritto originale, scritto in latino su pergamena , è tutt’ora esistente e conservato negli archivi nazionali britannici, nel distretto londinese di Kew.
Nel 1983, durante il governo Thatcher, si decise di fare un “Domesday Book” nuovo che utilizzasse le più moderne tecnologie allora disponibili: il videodisco ed il microcomputer. Quindici anni più tardi tutto il lavoro fatto rischiava di essere inutilizzabile in quanto, anche se il supporto era ben conservato era diventato quasi impossibile trovare un lettore per il videodisco ed un microcomputer in grado di decodificare i dati.
Per fortuna si riuscì a trovare un lettore ed un computer adatti, a recuperare tutto e mettere online i contenuti.
La scelta nel 1983 di utilizzare come supporto un videodisco non sembrava strana: negli anni ’80 la tecnologia laser per la lettura dei dati era al suo inizio e rappresentava il futuro. Il metodo per creare questi supporti, inoltre, era molto simile a quello dei normali CD (nati solamente da pochi anni) e, come loro, anche il videodisco era considerato il supporto perfetto in quanto era robusto, e destinato a durare a lungo.
Purtroppo gli inizi degli anni ’80 hanno rappresentato non solo l’inizio della massificazione dell’informatica ma anche il suo “brodo primordiale” nel quale vi era una quantità enorme di sistemi operativi, formati e standard diversi che nascevano e morivano. Per fare un esempio il DOS 1.2 che sarebbe diventato il sistema operativo di riferimento per le macchine XT compatibili era stato commercializzato da appena un anno ed in breve tempo la “lingua” nel quale erano stati memorizzati i dati del nuovo “Domesday Book” digitale era diventata sconosciuta e anche i mezzi erano spariti.
Fin dall’inizio dell’invenzione della scrittura, l’uomo ha conservato i documenti pensando che si potessero consultare per sempre purché non si rovinasse il supporto sul quale erano “memorizzati”: una vecchia pergamena sarà sempre leggibile (a patto di conoscere la lingua nella quale è stata scritta) semplicemente aprendola, così come un libro o una tavoletta cuneiforme. Il passaggio al digitale ha dimostrato che questo non è più possibile e che, oltre all’informazione, è importante avere anche lo strumento per leggerla. Nel 1965 Gordon Moore, cofondatore dei Intel, elaborò quella che passerà alla storia come legge di Moore: “La complessità di un microcircuito, misurata ad esempio tramite il numero di transistor per chip, raddoppia ogni 18 mesi (e quadruplica quindi ogni 3 anni).”  Questa affermazione, basata su osservazioni empiriche, si rivelò esatta e divenne l’obbiettivo che tutte le aziende produttrici di microprocessori si pongono come obbiettivo.
Come diretta conseguenza di questo abbiamo una costante accelerazione della tecnologia e una conseguente evoluzione dei sistemi informatici. Prendiamo ad esempio il classico floppy disk: si è passati dal primo floppy ad 8 pollici a quello da 5 ¼ per finire con quelli da 3 ½ negli anni ’90 e primi anni del nuovo secolo per poi sparire completamente. Se oggi è ancora possibile trovare un lettore per “dischetti” da 3.5 pollici è molto difficile trovarne di quelli che leggono quelli precedenti da 5 ¼ e quasi impossibile quelli da 8” e chi trovasse in soffitta dei vecchi floppy quasi certamente si troverebbe nella condizione di non sapere cosa farsene o come leggerli.
Pensare che questo problema riguardi solamente i mondo dei computer è sbagliato.
Anche le cassette musicali o i vecchi video su VHS o Video 8 hanno subito lo stesso destino: gli strumenti per leggere questi supporti sono gradualmente spariti dagli scaffali dei negozi di elettronica e chi ha ancora delle vecchie video cassette, magari con le vacanze fatte con la famiglia una ventina d’anni addietro, rischia di non poterle più rivedere tra qualche decade.

Ma a creare problemi nel passaggio dall’analogico al digitale non è solamente l’utilizzo di un supporto anziché un altro ma anche, come abbiamo visto, la “lingua” nella quale le informazioni sono memorizzate, in particolare se la tecnologia ed il metodo di codificarle utilizza un formato proprietario.
I formati proprietari sono, in genere, dei metodi di codifica delle informazioni che utilizzano algoritmi che appartengono a qualche azienda o organizzazione che ne dispone i metodi di utilizzo. Se un domani chi detiene il brevetto per questo tipo di codifica decidesse di non renderlo più disponibile nei suoi programmi o in quello di altri si perde la possibilità di poter accedere nuovamente ai propri dati. Vice versa l’utilizzo di quelli che vengono chiamati formati aperti, permette di memorizzare le informazioni in formato digitale utilizzando dei metodi che sono di dominio pubblico e liberamente utilizzabili.
Un esempio di quanto l’utilizzo di un formato aperto sia importante lo si trova negli ebook.
Alla fine degli anni ’90 l’azienda statunitense Microsoft lanciò sul mercato un suo formato per leggere gli e-book; un formato che offriva la possibilità di avere file leggeri e una buona leggibilità su schermi piccoli. In particolare Microsoft stava entrando a gamba tesa nel mercato dei dispositivi mobili come PDA, Palmari, Pocket PC e smartphone con il suo sistema operativo Windows CE ed il formato .lit era perfetto per poter sviluppare un mercato di editoria digitale su questo tipo di dispositivi che utilizzavano questo il sistema operativo. Per circa una decina d’anni (fino al 2011)  il formato Microsoft visse una parabola: prima una crescita e poi una discesa fino a non venir più aggiornato e supportato, così che tutti i libri distribuiti in quel formato sono ora leggibili solo tramite il sistema operativo Windows che supportano l’ultima versione del programma Microsoft Reader, in quanto i moderni lettori di e-book non hanno più la compatibilità con questo formato. Al suo posto, invece, il formato .ePub, nato nel 2007 come formato aperto, è diventato lo standard preferenziale per quasi tutti i lettori di e-book (fanno eccezione i Kindle che supportano il formato proprietario .mobi),  tanto che esistono migliaia di app e programmi che possono supportare questo formato.
È quindi importante, quando si decide di memorizzare delle informazioni per essere conservate fare attenzione al formato che si vuole utilizzare: se memorizzo del testo formattato è sempre meglio optare per il formato .ODT anziché .DOC o DOCX di word, così per le pagine web è sempre meglio preferire il formato HTML al posto del .WebArchive che è leggibile solamente dal browser Safari di Apple.
Il passaggio dai dati analogici a quelli digitali (dalle cassette ai CD, dai VHS ai DVD, eccetera) è comunque un passaggio inevitabile e, malgrado quanto detto fino ad ora, la possibilità di salvare qualcosa in una sequenza di 0 e 1 offre una serie di vantaggi che non si possono ignorare.
Rispetto ad un’informazione analogica, quella digitale può essere riprodotta infinite volte anche dalle sue stesse copie, rimanendo sempre fedele all’originale (a meno che non venga deliberatamente modificata). Un manoscritto, se è copiato con un errore, quest’errore verrà ripetuto anche nelle copie successive; una cassetta, musicale o video che sia, tenderà a perdere di qualità con il tempo e quest’informazione errata sarà amplificata nelle copie successive, così come una serie di fotocopie fatta da altre fotocopie tenderà ad essere sempre più chiare e quindi differire dall’originale.
Per chi si preoccupa che anche nel copiare un dato in digitale possa generarsi un errore di trascrizione bisogna sottolineare quanto questo sia improbabile: si può trasmettere un’informazione che contiene al suo interno i dati necessari per la correzione degli errori (come ad esempio il codice Reed-Solomo del 1960) che permettono, anche nel caso una parte di dei bit che compongono il messaggio memorizzato o inviato siano rovinati, di poter ricostruire la sequenza digitale originale per quel bit in modo da avere l’informazione completa. Ogni giorno, quando guardiamo la televisione digitale (per chi come me ha anche visto i vecchi tv analogici) ci accorgiamo che l’immagine è sempre o chiara e pulita oppure assente completamente, e non più come nelle vecchie trasmissioni in analogico dove spesso i programmi erano disturbati. Questo perché un’informazione in digitale, come abbiamo detto è in grado di auto correggersi ed eliminare il “rumore”.

Da un punto di vista economico, salvare i propri dati in formato digitale offre dei grandi risparmi. Stampare una foto analogica, ad esempio, ha un costo di circa 8,50 € per un rullino da 25 pose di pellicola negativa in bianco e nero, 7,50 € per i negativi a colori (procedimento C41) e 11 € per le diapositive (procedimento E6) più 2 € per l’intelaiatura per queste ultime. Al costo della stampa va poi aggiunto il prezzo del rullino che è di circa 6,00€ per 24 pose come nel caso del Kodak Gold 200. Facendo due conti veloci il costo di una foto in analogica è di circa 0,50€.
Utilizzare invece il formato digitale permette di visualizzare la foto su molti dispositivi, dagli smartphone alle televisioni senza costi di sviluppo. Considerando il prezzo di una scheda SD di buona qualità con una capacità di 64Gb è di circa 25,00€ e che si possono memorizzare più di 9.000 foto1, mentre per stamparle il costo è di circa 0.05€ a foto. Se poi si volesse memorizzare le foto anziché su di una scheda SD su di un Hard Disk il prezzo per Mb è ancora più basso.
Per finire, salvare i dati in formato digitale non solo è  più conveniente, ma aiuta ad avere un impatto ambientale, sul breve periodo, molto basso.

I dispositivi non sono però tutti uguali e quando parliamo di Hard disk, memorie USB o schede SD bisogna sempre tenere presente che questi supporti hanno un numero massimo di scritture possibili e che Hard Disk e memorie allo stato solido come SSD, anche se possono sembrare simili, memorizzano i dati in maniera diversa: se per un tradizionale hard disk possiamo considerare una vita media di almeno 10 anni per una memoria allo stato solido come und disco SSD i dati si possono scrivere su una cella di memoria all'interno dei chip NAND Flash, un numero di volte compreso tra circa 3.000 e 100.000 nel corso del loro ciclo di vita. Questo ciclo di vita scende ulteriormente se si parla di schede SD o di chiavette USB.
Certo si può pensare di salvare tutti i dati su un supporto ottico come ad esempio un CD o un DVD ma anche in questo caso il nostro disco, anche se conservato con attenzione, non è detto che sia sicuro: negli ultimi anni si sono verificati casi di CD (spesso di fascia economica) dove lo strato protettivo di plastica si sfaldava lasciando esposta la parte interna che contiene i dati dopo solo 10 anni.
Per risolvere questi problemi nell’ultimo decennio si è iniziato ad utilizzare sempre di più il “Cloud” per salvare i dati importanti;  alcune aziende mettono, addirittura, automaticamente a disposizione un servizio di cloud dove salvare i dati e le foto presenti nei propri telefoni cellulari come Apple o Google.
Ma anche in questo caso i dati non sono propriamente al sicuro, anzi forse lo sono ancora meno di altri supporti perché il vero proprietario è chi amministra il servizio di Cloud e non l’utente che salva i dati in quel posto e se l’azienda che è proprietaria dei server, per un qualunque motivo, decidesse di interdire l’accesso ai dati o di cancellarne il contenuto, l’utente non potrebbe fare nulla. L’utilizzo di un servizio remoto per salvare i propri dati è quindi da considerare come una copia della copia e non come la soluzione principale.
A questo punto viene da chiedersi: “se siamo passati dai 2000 anni circa di durata di un papiro ai 20 scarsi di un CD conviene passare i propri dati, le proprie memorie, la propria vita in un formato digitale?”
Malgrado quello che si può pensare la risposta è Si!
Un sì dato che i vantaggi superano di molto gli svantaggi; un sì che richiede l’uso attento di poche e semplici regole per preservare le nostre memorie,  come l’utilizzo di supporti di qualità (soprattutto nel caso si utilizzino chiavette USB o CD piuttosto che DVD), avere sempre una copia della copia dei dati importanti e, ultimo ma non per questo di minor considerazione, utilizzare dei formati che siano il più aperti possibili come .JPG o .PNG per le foto, .ODT o .TXT per i testi, .XML o .HTML per il web, eccetera.

 


1Dati indicativi per difetto considerando foto a 16MPx e 72DPI.


BIBLIOGRAFIA:

    • “Flash SSD vs HDD: High performance oriented modern embedded and multimedia storage systems”
      Dr. Sanam Shahla Rizvi, Preston University, Conference: Computer Engineering and Technology (ICCET), 2010 2nd International Conference onVolume: 7, maggio 2020.
    • “Micron white papper: Comparing SSD and HDD Endurance in the Age of QLC SSDs”
      https://www.micron.com/-/media/client/global/documents/products/white-paper/5210_ssd_vs_hdd_endurance_white_paper.pdf
    • https://www.nationalarchives.gov.uk/domesday/
    • https://www.cmpod.net/all-transcripts/a-domesday-failure-digital-info-preservation-text/
    •  http://idpf.org/
    •  https://w3c.github.io/publishing/
    • https://www.cs.cmu.edu/~guyb/realworld/reedsolomon/reed_solomon_codes.html

 

      Ultima consultazione siti web maggio 2021.

 

Apple il Futuro ripercorrendo il passato
Apple il Futuro ripercorrendo il passato

Quest’estate l’azienda di Cupertino ha annunciato che passerà dai processori Intel a processori ARM e che quindi passerà dalla tecnologia CISC a quella RISC. A novembre 2020 Apple ha poi presentato M1, il primo processore ARM di Apple per MacBook Air, MacBook Pro e Mac Mini. Ma cosa implica tutto questo?

La sigla CISC sta per “Complex Instruction Set Computer” (computer con istruzioni complesse), mentre RISC per “Reduced Instruction Set Computer” ( computer con numero di istruzioni ridotto) e rappresentano due modi diversi di affrontare uno stesso problema.
Supponiamo di voler trovare il prodotto di due numeri: uno memorizzato nella posizione 2:3 e un altro nella posizione 5:2 della memoria e di voler poi scrivere il risultato nuovamente nella posizione 2:3.
In un processore CISC vi è un’istruzione apposita (che a titolo esemplificativo chiameremo MOLTIPLICA) che permette di effettuare l’operazione; quando viene eseguita, questa istruzione carica i due valori in registri separati, moltiplica gli operandi nell'unità di esecuzione e quindi memorizza il prodotto nel registro appropriato (MOLTIPLICA 2:3, 5:2). MOLTIPLICA è quindi la nostra funzione complessa che agisce direttamente sui banchi di memoria del computer e non obbliga chi scrive il programma a chiamare esplicitamente alcuna funzione di caricamento o memorizzazione dei dati nei registri o nella memoria. Poiché la lunghezza del codice è molto breve questo ha come principale conseguenza che viene utilizzata pochissima RAM per memorizzare le istruzioni.
In un processore RISC, invece, vengono utilizzate solo semplici istruzioni che possono essere eseguite all'interno di un ciclo di clock. La stessa operazione di moltiplicazione che in un processore CISC veniva eseguita in un unico comando, viene suddivisa in quattro differenti operazioni che possono essere, ad esempio CARICO nel registro A il valore della cella di memoria 2:3, CARICO nel registro B il valore della cella di memoria 5:2, MOLTIPLICO A e B, SCRIVO il risultato in 2:3 e che vengono eseguite ognuna in un differente ciclo di Clock.
Anche se il sistema RISC sembra più macchinoso porta anche alcuni vantaggi molto importanti: queste "istruzioni ridotte" richiedono meno transistor di spazio hardware rispetto alle istruzioni complesse, lasciando più spazio per i registri di uso generale e di conseguenza hanno meno bisogno di energia e producono meno calore. Poiché tutte le istruzioni vengono eseguite in un periodo di tempo uniforme (CLOCK), è possibile il pipelining (una tecnica che consiste nel suddividere il lavoro svolto da un processore in passi, che richiedono una frazione del tempo necessario all’esecuzione dell’intera istruzione) il che rende le operazioni eseguite su processori RISC veloci quanto quelle su processori CISC.
Il fatto che poi i processori RISC utilizzino meno energia per eseguire le operazioni e scaldino di conseguenza meno li ha resi i processori ideali per i computer portatili e per i dispositivi mobili.
Ad onor del vero è da segnalare che negli ultimi anni nei processori CISC sono state introdotte alcune funzioni tipiche dei processori RISC e AMD (maggior produttore i processori RISC per computer desktop e notebook) così che nei sistemi desktop e server le differenze non sono più così marcate.
I processori CISC, che sono utilizzati principalmente sui computer e sui server, sono prodotti da una sola azienda, l’Intel, ed utilizzano un proprio set di istruzioni X86 (a 32 bit) e X86-64 (a 64 bit), mentre i processori che fanno uso di della tecnologia RISC sono utilizzati principalmente sui dispositivi mobili quali smartphone o tablet, e si basano su architettura ARM e sono prodotti da diverse aziende. ARM, è un’azienda fondata a Cambridge nel 1990 nata da una collaborazione tra Apple e Acorn Computers che non produce direttamente i suoi processori e, nella maggior parte dei casi, non li progetta, ma concede in licenza la proprietà intellettuale che serve ad altre aziende come Samsung, Qualcomm, Apple, eccetera per progettare e costruire microchip con la sua architettura.
La differenza tra RISC e CISC meriterebbe da sola una trattazione a parte e non essendo lo scopo di questo articolo possiamo fermarci qua una volta chiarite le principali differenze.
Abbiamo detto che Apple quest’estate ha annunciato che passerà a produrre computer non più con processori Intel ma con ARM che produrrà lei stessa, ma non è la prima volta che l’azienda di Cupertino fa un cambiamento così radicale: a parte i computer basati sul leggendario MOS 6502 che utilizzava un set di istruzioni proprio, i primi processori importanti utilizzati da Apple appartenevano alla famiglia del Motorola 68000, che andavano a caratterizzare la famiglia di Macintosh dal 1984 (chi si ricorda il famoso spot ispirato a Orwell?) e che erano bassati su tecnologia CISC. Nel 1994 Apple decide di utilizzare i processori IBM Power PC, che utilizzano la tecnologia RISC ed un set di istruzioni proprietarie e questa sinergia tra Apple e IBM proseguì fino al 2006 quando con l’introduzione sul mercato del iMac oltre che presentare un look nuovo ai suoi prodotti l’azienda di Cupertino inizia ad utilizzare i processori CISC di Intel.
Vista la differenza di programmazione utilizzata a livello macchina tra processori CISC e RISC il passaggio tra PowerPc e iMac non fu completamente indolore e nel sistema operativo Mac Os 10 che accompagnava le nuove macchine venne inserito un emulatore che permetteva di utilizzare i software precedenti.
Il problema del software disponibile infatti, oggi giorno, è uno dei fattori determinanti per il buon successo di un computer o di un sistema operativo come nel caso dell’azienda canadese BlackBerry o del sistema operativo per dispositivi mobili Windows Phone.
Per ovviare a questo, anche questa volta, Apple ha predisposto una sorta di macchina virtuale chiamata Rosetta2 che permetterà di far funzionare i software precedentemente sviluppati, mentre per i programmatori mette a disposizione un kit di sviluppo che consiste in un Mac mini speciale, dotato dello stesso processore A12Z degli ultimi iPad e 16GB di RAM.
Tuttavia è da sottolineare che l’utilizzo di Rosetta2 è solamente una “pezza virtuale” in quanto non permetterà mai di sfruttare al massimo le caratteristiche del nuovo processore di Apple anzi, molto probabilmente, i software che gireranno tramite Rosetta2 saranno meno performanti che non se lavorassero su di un vecchio computer. Rimane poi il problema di tutti quei software specifici che non hanno un grande mercato e che non conviene convertire.
La transizione, secondo Apple, per i suoi prodotti da processori Intel a processori ARM durerà circa due anni e nel frattempo Intel (per la quale Apple rappresenta il 10% del mercato) ha assicurato di continuare a fornire i suoi prodotti; ma questo lasso di tempo indica probabilmente il periodo che passerà tra il lancio del primo Mac con processore ARM e il pensionamento commerciale dell’ultimo Mac ancora dotato di processore Intel, mentre la sua transizione completa che si concluderà con la dichiarazione di obsolescenza dell’ultimo Mac Intel disponibile si prevede possa durare fino al 2030.
Ma cosa spinge Apple a voler fare un passaggio così radicale?
I motivi sono molti. Per prima cosa è interessante osservare che mentre i dispositivi mobili apple come Ipad o Iphone utilizzano processori ARM i suoi computer utilizzano invece processori Intel; come abbiamo visto all’inizio non vi è compatibilità tra software creati per un Iphone ad esempio e un iMac. Utilizzare un unico processore per tutti i dispositivi permetterà di creare una ecosistema virtuale dove un’utente Apple avrà la stessa applicazione sia sul telefono che sul computer con gli stessi dati e lo stesso utilizzo.
Per gli sviluppatori di software sarà possibile sviluppare un’ App che funzionerà sia su smartphone che su computer senza dover apportare alcuna modifica.
Ma le migliorie non si fermano qua, i processori ARM di Apple avranno delle customizzazioni specifiche che ne migliorano sensibilmente le performace e poter scrivere un software specifico per un sistema che integra sia l’hardware che il software a livello così profondo non è certo da trascurare.
Un altro motivo che ha portato l’azienda di Cupertino a passare a processori che lei stessa sviluppa è quella di affrancarsi da Intel e potrà così riprendere il totale controllo dei piani di sviluppo e aggiornamento dei suoi computer, mentre l’aver sviluppato un proprio processore ha permesso a Apple di integrare in un unico chip di 5nm (come nel caso del M1) 16 miliardi di transistor che comprendono: una CPU a 8 core, motore neurale (leggi I.A.) a 16 core, GPU a 8 core, controller I/O, controller Thunderbolt e USB, nonché la memoria RAM. Per finire l’utilizzo della tecnologia RISC abbiamo visto necessita meno energia e porta quindi a poter creare computer che consumano molto meno e che non necessitano di grandi dissipatori o ventole di raffreddamento.

Ma alla fine Apple ha veramente sviluppato un nuovo processore per personal computer che surclasserà tutti i precedenti?
La risposta non è facile. In realtà quello che ha fatto Apple è di sviluppare un processore che a parità di consumi è più performante e veloce di processori per PC esistenti. Se noi prendessimo, ad esempio, un processore Intel I7 di nona generazione a 8 Core e 16 Thread (processi che vengono eseguiti contemporaneamente) ma che arriva a picchi di 235 - 255 Watt e lo abbiniamo ad una buona scheda madre e video, questo non ha nulla da invidiare alle performance di un computer basato su di un unico processore M1; la vera novità sta nel fatto che Apple ha integrato le stesse caratteristiche in un unico processore di minor consumo.
Sembra di tornare un po’ agli albori dei PC, quando ogni computer aveva un suo processore specifico (o famiglia di processori) e un suo hardware specifico che si programmava e permetteva di sfruttare al massimo ogni singolo Hz del clock e bit di memoria.

Conviene quindi comprare il nuovo Mac con processore ARM?
La risposta non è anche qua facile. Certo per un amante dei prodotti Apple il lancio di un nuovo computer è come il lancio di un nuovo Iphone o Ipad e, indipendentemente dal fatto che serva o meno, lo si compra. Diverso per chi lo utilizza per lavoro. Fino a che non vi sarà un parco software appositamente scritto per queste macchine non conviene, anzi meglio tenersi il proprio vecchio computer e aspettare nel caso si voglia acquistare un Apple.
Per chi invece è appassionato di Gaming non è certo uno degli acquisti consigliati (ad oggi) visto che normalmente su Mac i giochi non sono mai stati uno dei motori di sviluppo del computer e che oggi esiste la possibilità di noleggiare in remoto un computer da Gaming.

← Back
Foward →
FB TW Pinterest whatsapp RSS FEED News letter

filoweb.it è il sito personale di Filippo Brunelli
(c) 2017 Filippo Brunelli
Le immagini ed i testi contenuti nel sito filoweb.it sono di proprietà di Filippo Brunelli salvo diversamente indicato.
L'uso delle immagini e del testo è gratuito per uso personale ed è subbordinato alla citazione della fonte.
Brunelli Filippo declina ogni responsabilità per l'uso che viene fatto delle informazioni presenti nel sito filoweb.it.
X
La tua privacy è importante
Utilizziamo, senza il tuo consenso, SOLO cookies necessari alla elaborazione di analisi statistiche e tecnici per l'utilizzo del sito. Chiudendo il Cookie Banner, mediante il simbolo "X" o negando il consenso, continuerai a navigare in assenza di cookie di profilazione. More info

Tutti
Cookie tecnici
I cookie tecnici sono necessari al fine di "effettuare la trasmissione di una comunicazione su una rete di comunicazione elettronica, o nella misura strettamente necessaria al fornitore di un servizio della società dell'informazione esplicitamente richiesto dal contraente o dall'utente a erogare tale servizio" (art. 122, comma 1 del Codice privacy).
Cookie analitici di terze parti
I cookie analytics sono utilizzati al fine di valutare l'efficacia di un servizio della società dell'informazione fornito da un titolare di un sito, per progettare un sito web o contribuire a misurare il "traffico" di un sito web, ovvero il numero di visitatori ripartiti per area geografica, fascia oraria della connessione o altre caratteristiche.
Cookie di profilazione
Sono cookie che creano profili personalizzati relativi all'utente per finalità di marketing, ad esempio il retargeting o advertising sui social network.

FILOWEB.it by Filippo Brunelli. FILOWEB.it by Filippo Brunelli. FILOWEB.it by Filippo Brunelli. Il sito web FILOWEB.it di Filippo Brunelli è attivo dal 2001. Negli anni il sito web FILOWEB.it by Filippo Brunelli ha avuto molte modifiche e rivisitazioni. Iniziato come un sito web html standart, il sito web FILOWEB.it by Filippo Brunelli è passato alla tecnoloiga Flash per finire con ASPX e CSS e HTML nuovamente. FILOWEB.it by Filippo Brunelli è opera di Filippo Brunelli. Filoweb contiente molte informazioni che potranno piacerti. Continua a visitare filoweb