Filoweb.it
By Filippo Brunelli


FB TW whatsapp RSS FEED News letter

  ► Magazine

Conservare i propri dati
Conservare i propri dati

Nel 1086 Guglielmo il Conquistatore diede origine a quello che viene definito il più antico catasto inglese ed il primo di tutto il medioevo: il “Domesday Book”. Il manoscritto originale, scritto in latino su pergamena , è tutt’ora esistente e conservato negli archivi nazionali britannici, nel distretto londinese di Kew.
Nel 1983, durante il governo Thatcher, si decise di fare un “Domesday Book” nuovo che utilizzasse le più moderne tecnologie allora disponibili: il videodisco ed il microcomputer. Quindici anni più tardi tutto il lavoro fatto rischiava di essere inutilizzabile in quanto, anche se il supporto era ben conservato era diventato quasi impossibile trovare un lettore per il videodisco ed un microcomputer in grado di decodificare i dati.
Per fortuna si riuscì a trovare un lettore ed un computer adatti, a recuperare tutto e mettere online i contenuti.
La scelta nel 1983 di utilizzare come supporto un videodisco non sembrava strana: negli anni ’80 la tecnologia laser per la lettura dei dati era al suo inizio e rappresentava il futuro. Il metodo per creare questi supporti, inoltre, era molto simile a quello dei normali CD (nati solamente da pochi anni) e, come loro, anche il videodisco era considerato il supporto perfetto in quanto era robusto, e destinato a durare a lungo.
Purtroppo gli inizi degli anni ’80 hanno rappresentato non solo l’inizio della massificazione dell’informatica ma anche il suo “brodo primordiale” nel quale vi era una quantità enorme di sistemi operativi, formati e standard diversi che nascevano e morivano. Per fare un esempio il DOS 1.2 che sarebbe diventato il sistema operativo di riferimento per le macchine XT compatibili era stato commercializzato da appena un anno ed in breve tempo la “lingua” nel quale erano stati memorizzati i dati del nuovo “Domesday Book” digitale era diventata sconosciuta e anche i mezzi erano spariti.
Fin dall’inizio dell’invenzione della scrittura, l’uomo ha conservato i documenti pensando che si potessero consultare per sempre purché non si rovinasse il supporto sul quale erano “memorizzati”: una vecchia pergamena sarà sempre leggibile (a patto di conoscere la lingua nella quale è stata scritta) semplicemente aprendola, così come un libro o una tavoletta cuneiforme. Il passaggio al digitale ha dimostrato che questo non è più possibile e che, oltre all’informazione, è importante avere anche lo strumento per leggerla. Nel 1965 Gordon Moore, cofondatore dei Intel, elaborò quella che passerà alla storia come legge di Moore: “La complessità di un microcircuito, misurata ad esempio tramite il numero di transistor per chip, raddoppia ogni 18 mesi (e quadruplica quindi ogni 3 anni).”  Questa affermazione, basata su osservazioni empiriche, si rivelò esatta e divenne l’obbiettivo che tutte le aziende produttrici di microprocessori si pongono come obbiettivo.
Come diretta conseguenza di questo abbiamo una costante accelerazione della tecnologia e una conseguente evoluzione dei sistemi informatici. Prendiamo ad esempio il classico floppy disk: si è passati dal primo floppy ad 8 pollici a quello da 5 ¼ per finire con quelli da 3 ½ negli anni ’90 e primi anni del nuovo secolo per poi sparire completamente. Se oggi è ancora possibile trovare un lettore per “dischetti” da 3.5 pollici è molto difficile trovarne di quelli che leggono quelli precedenti da 5 ¼ e quasi impossibile quelli da 8” e chi trovasse in soffitta dei vecchi floppy quasi certamente si troverebbe nella condizione di non sapere cosa farsene o come leggerli.
Pensare che questo problema riguardi solamente i mondo dei computer è sbagliato.
Anche le cassette musicali o i vecchi video su VHS o Video 8 hanno subito lo stesso destino: gli strumenti per leggere questi supporti sono gradualmente spariti dagli scaffali dei negozi di elettronica e chi ha ancora delle vecchie video cassette, magari con le vacanze fatte con la famiglia una ventina d’anni addietro, rischia di non poterle più rivedere tra qualche decade.

Ma a creare problemi nel passaggio dall’analogico al digitale non è solamente l’utilizzo di un supporto anziché un altro ma anche, come abbiamo visto, la “lingua” nella quale le informazioni sono memorizzate, in particolare se la tecnologia ed il metodo di codificarle utilizza un formato proprietario.
I formati proprietari sono, in genere, dei metodi di codifica delle informazioni che utilizzano algoritmi che appartengono a qualche azienda o organizzazione che ne dispone i metodi di utilizzo. Se un domani chi detiene il brevetto per questo tipo di codifica decidesse di non renderlo più disponibile nei suoi programmi o in quello di altri si perde la possibilità di poter accedere nuovamente ai propri dati. Vice versa l’utilizzo di quelli che vengono chiamati formati aperti, permette di memorizzare le informazioni in formato digitale utilizzando dei metodi che sono di dominio pubblico e liberamente utilizzabili.
Un esempio di quanto l’utilizzo di un formato aperto sia importante lo si trova negli ebook.
Alla fine degli anni ’90 l’azienda statunitense Microsoft lanciò sul mercato un suo formato per leggere gli e-book; un formato che offriva la possibilità di avere file leggeri e una buona leggibilità su schermi piccoli. In particolare Microsoft stava entrando a gamba tesa nel mercato dei dispositivi mobili come PDA, Palmari, Pocket PC e smartphone con il suo sistema operativo Windows CE ed il formato .lit era perfetto per poter sviluppare un mercato di editoria digitale su questo tipo di dispositivi che utilizzavano questo il sistema operativo. Per circa una decina d’anni (fino al 2011)  il formato Microsoft visse una parabola: prima una crescita e poi una discesa fino a non venir più aggiornato e supportato, così che tutti i libri distribuiti in quel formato sono ora leggibili solo tramite il sistema operativo Windows che supportano l’ultima versione del programma Microsoft Reader, in quanto i moderni lettori di e-book non hanno più la compatibilità con questo formato. Al suo posto, invece, il formato .ePub, nato nel 2007 come formato aperto, è diventato lo standard preferenziale per quasi tutti i lettori di e-book (fanno eccezione i Kindle che supportano il formato proprietario .mobi),  tanto che esistono migliaia di app e programmi che possono supportare questo formato.
È quindi importante, quando si decide di memorizzare delle informazioni per essere conservate fare attenzione al formato che si vuole utilizzare: se memorizzo del testo formattato è sempre meglio optare per il formato .ODT anziché .DOC o DOCX di word, così per le pagine web è sempre meglio preferire il formato HTML al posto del .WebArchive che è leggibile solamente dal browser Safari di Apple.
Il passaggio dai dati analogici a quelli digitali (dalle cassette ai CD, dai VHS ai DVD, eccetera) è comunque un passaggio inevitabile e, malgrado quanto detto fino ad ora, la possibilità di salvare qualcosa in una sequenza di 0 e 1 offre una serie di vantaggi che non si possono ignorare.
Rispetto ad un’informazione analogica, quella digitale può essere riprodotta infinite volte anche dalle sue stesse copie, rimanendo sempre fedele all’originale (a meno che non venga deliberatamente modificata). Un manoscritto, se è copiato con un errore, quest’errore verrà ripetuto anche nelle copie successive; una cassetta, musicale o video che sia, tenderà a perdere di qualità con il tempo e quest’informazione errata sarà amplificata nelle copie successive, così come una serie di fotocopie fatta da altre fotocopie tenderà ad essere sempre più chiare e quindi differire dall’originale.
Per chi si preoccupa che anche nel copiare un dato in digitale possa generarsi un errore di trascrizione bisogna sottolineare quanto questo sia improbabile: si può trasmettere un’informazione che contiene al suo interno i dati necessari per la correzione degli errori (come ad esempio il codice Reed-Solomo del 1960) che permettono, anche nel caso una parte di dei bit che compongono il messaggio memorizzato o inviato siano rovinati, di poter ricostruire la sequenza digitale originale per quel bit in modo da avere l’informazione completa. Ogni giorno, quando guardiamo la televisione digitale (per chi come me ha anche visto i vecchi tv analogici) ci accorgiamo che l’immagine è sempre o chiara e pulita oppure assente completamente, e non più come nelle vecchie trasmissioni in analogico dove spesso i programmi erano disturbati. Questo perché un’informazione in digitale, come abbiamo detto è in grado di auto correggersi ed eliminare il “rumore”.

Da un punto di vista economico, salvare i propri dati in formato digitale offre dei grandi risparmi. Stampare una foto analogica, ad esempio, ha un costo di circa 8,50 € per un rullino da 25 pose di pellicola negativa in bianco e nero, 7,50 € per i negativi a colori (procedimento C41) e 11 € per le diapositive (procedimento E6) più 2 € per l’intelaiatura per queste ultime. Al costo della stampa va poi aggiunto il prezzo del rullino che è di circa 6,00€ per 24 pose come nel caso del Kodak Gold 200. Facendo due conti veloci il costo di una foto in analogica è di circa 0,50€.
Utilizzare invece il formato digitale permette di visualizzare la foto su molti dispositivi, dagli smartphone alle televisioni senza costi di sviluppo. Considerando il prezzo di una scheda SD di buona qualità con una capacità di 64Gb è di circa 25,00€ e che si possono memorizzare più di 9.000 foto1, mentre per stamparle il costo è di circa 0.05€ a foto. Se poi si volesse memorizzare le foto anziché su di una scheda SD su di un Hard Disk il prezzo per Mb è ancora più basso.
Per finire, salvare i dati in formato digitale non solo è  più conveniente, ma aiuta ad avere un impatto ambientale, sul breve periodo, molto basso.

I dispositivi non sono però tutti uguali e quando parliamo di Hard disk, memorie USB o schede SD bisogna sempre tenere presente che questi supporti hanno un numero massimo di scritture possibili e che Hard Disk e memorie allo stato solido come SSD, anche se possono sembrare simili, memorizzano i dati in maniera diversa: se per un tradizionale hard disk possiamo considerare una vita media di almeno 10 anni per una memoria allo stato solido come und disco SSD i dati si possono scrivere su una cella di memoria all'interno dei chip NAND Flash, un numero di volte compreso tra circa 3.000 e 100.000 nel corso del loro ciclo di vita. Questo ciclo di vita scende ulteriormente se si parla di schede SD o di chiavette USB.
Certo si può pensare di salvare tutti i dati su un supporto ottico come ad esempio un CD o un DVD ma anche in questo caso il nostro disco, anche se conservato con attenzione, non è detto che sia sicuro: negli ultimi anni si sono verificati casi di CD (spesso di fascia economica) dove lo strato protettivo di plastica si sfaldava lasciando esposta la parte interna che contiene i dati dopo solo 10 anni.
Per risolvere questi problemi nell’ultimo decennio si è iniziato ad utilizzare sempre di più il “Cloud” per salvare i dati importanti;  alcune aziende mettono, addirittura, automaticamente a disposizione un servizio di cloud dove salvare i dati e le foto presenti nei propri telefoni cellulari come Apple o Google.
Ma anche in questo caso i dati non sono propriamente al sicuro, anzi forse lo sono ancora meno di altri supporti perché il vero proprietario è chi amministra il servizio di Cloud e non l’utente che salva i dati in quel posto e se l’azienda che è proprietaria dei server, per un qualunque motivo, decidesse di interdire l’accesso ai dati o di cancellarne il contenuto, l’utente non potrebbe fare nulla. L’utilizzo di un servizio remoto per salvare i propri dati è quindi da considerare come una copia della copia e non come la soluzione principale.
A questo punto viene da chiedersi: “se siamo passati dai 2000 anni circa di durata di un papiro ai 20 scarsi di un CD conviene passare i propri dati, le proprie memorie, la propria vita in un formato digitale?”
Malgrado quello che si può pensare la risposta è Si!
Un sì dato che i vantaggi superano di molto gli svantaggi; un sì che richiede l’uso attento di poche e semplici regole per preservare le nostre memorie,  come l’utilizzo di supporti di qualità (soprattutto nel caso si utilizzino chiavette USB o CD piuttosto che DVD), avere sempre una copia della copia dei dati importanti e, ultimo ma non per questo di minor considerazione, utilizzare dei formati che siano il più aperti possibili come .JPG o .PNG per le foto, .ODT o .TXT per i testi, .XML o .HTML per il web, eccetera.

 


1Dati indicativi per difetto considerando foto a 16MPx e 72DPI.


BIBLIOGRAFIA:

    • “Flash SSD vs HDD: High performance oriented modern embedded and multimedia storage systems”
      Dr. Sanam Shahla Rizvi, Preston University, Conference: Computer Engineering and Technology (ICCET), 2010 2nd International Conference onVolume: 7, maggio 2020.
    • “Micron white papper: Comparing SSD and HDD Endurance in the Age of QLC SSDs”
      https://www.micron.com/-/media/client/global/documents/products/white-paper/5210_ssd_vs_hdd_endurance_white_paper.pdf
    • https://www.nationalarchives.gov.uk/domesday/
    • https://www.cmpod.net/all-transcripts/a-domesday-failure-digital-info-preservation-text/
    •  http://idpf.org/
    •  https://w3c.github.io/publishing/
    • https://www.cs.cmu.edu/~guyb/realworld/reedsolomon/reed_solomon_codes.html

 

      Ultima consultazione siti web maggio 2021.

 

Apple il Futuro ripercorrendo il passato
Apple il Futuro ripercorrendo il passato

Quest’estate l’azienda di Cupertino ha annunciato che passerà dai processori Intel a processori ARM e che quindi passerà dalla tecnologia CISC a quella RISC. A novembre 2020 Apple ha poi presentato M1, il primo processore ARM di Apple per MacBook Air, MacBook Pro e Mac Mini. Ma cosa implica tutto questo?

La sigla CISC sta per “Complex Instruction Set Computer” (computer con istruzioni complesse), mentre RISC per “Reduced Instruction Set Computer” ( computer con numero di istruzioni ridotto) e rappresentano due modi diversi di affrontare uno stesso problema.
Supponiamo di voler trovare il prodotto di due numeri: uno memorizzato nella posizione 2:3 e un altro nella posizione 5:2 della memoria e di voler poi scrivere il risultato nuovamente nella posizione 2:3.
In un processore CISC vi è un’istruzione apposita (che a titolo esemplificativo chiameremo MOLTIPLICA) che permette di effettuare l’operazione; quando viene eseguita, questa istruzione carica i due valori in registri separati, moltiplica gli operandi nell'unità di esecuzione e quindi memorizza il prodotto nel registro appropriato (MOLTIPLICA 2:3, 5:2). MOLTIPLICA è quindi la nostra funzione complessa che agisce direttamente sui banchi di memoria del computer e non obbliga chi scrive il programma a chiamare esplicitamente alcuna funzione di caricamento o memorizzazione dei dati nei registri o nella memoria. Poiché la lunghezza del codice è molto breve questo ha come principale conseguenza che viene utilizzata pochissima RAM per memorizzare le istruzioni.
In un processore RISC, invece, vengono utilizzate solo semplici istruzioni che possono essere eseguite all'interno di un ciclo di clock. La stessa operazione di moltiplicazione che in un processore CISC veniva eseguita in un unico comando, viene suddivisa in quattro differenti operazioni che possono essere, ad esempio CARICO nel registro A il valore della cella di memoria 2:3, CARICO nel registro B il valore della cella di memoria 5:2, MOLTIPLICO A e B, SCRIVO il risultato in 2:3 e che vengono eseguite ognuna in un differente ciclo di Clock.
Anche se il sistema RISC sembra più macchinoso porta anche alcuni vantaggi molto importanti: queste "istruzioni ridotte" richiedono meno transistor di spazio hardware rispetto alle istruzioni complesse, lasciando più spazio per i registri di uso generale e di conseguenza hanno meno bisogno di energia e producono meno calore. Poiché tutte le istruzioni vengono eseguite in un periodo di tempo uniforme (CLOCK), è possibile il pipelining (una tecnica che consiste nel suddividere il lavoro svolto da un processore in passi, che richiedono una frazione del tempo necessario all’esecuzione dell’intera istruzione) il che rende le operazioni eseguite su processori RISC veloci quanto quelle su processori CISC.
Il fatto che poi i processori RISC utilizzino meno energia per eseguire le operazioni e scaldino di conseguenza meno li ha resi i processori ideali per i computer portatili e per i dispositivi mobili.
Ad onor del vero è da segnalare che negli ultimi anni nei processori CISC sono state introdotte alcune funzioni tipiche dei processori RISC e AMD (maggior produttore i processori RISC per computer desktop e notebook) così che nei sistemi desktop e server le differenze non sono più così marcate.
I processori CISC, che sono utilizzati principalmente sui computer e sui server, sono prodotti da una sola azienda, l’Intel, ed utilizzano un proprio set di istruzioni X86 (a 32 bit) e X86-64 (a 64 bit), mentre i processori che fanno uso di della tecnologia RISC sono utilizzati principalmente sui dispositivi mobili quali smartphone o tablet, e si basano su architettura ARM e sono prodotti da diverse aziende. ARM, è un’azienda fondata a Cambridge nel 1990 nata da una collaborazione tra Apple e Acorn Computers che non produce direttamente i suoi processori e, nella maggior parte dei casi, non li progetta, ma concede in licenza la proprietà intellettuale che serve ad altre aziende come Samsung, Qualcomm, Apple, eccetera per progettare e costruire microchip con la sua architettura.
La differenza tra RISC e CISC meriterebbe da sola una trattazione a parte e non essendo lo scopo di questo articolo possiamo fermarci qua una volta chiarite le principali differenze.
Abbiamo detto che Apple quest’estate ha annunciato che passerà a produrre computer non più con processori Intel ma con ARM che produrrà lei stessa, ma non è la prima volta che l’azienda di Cupertino fa un cambiamento così radicale: a parte i computer basati sul leggendario MOS 6502 che utilizzava un set di istruzioni proprio, i primi processori importanti utilizzati da Apple appartenevano alla famiglia del Motorola 68000, che andavano a caratterizzare la famiglia di Macintosh dal 1984 (chi si ricorda il famoso spot ispirato a Orwell?) e che erano bassati su tecnologia CISC. Nel 1994 Apple decide di utilizzare i processori IBM Power PC, che utilizzano la tecnologia RISC ed un set di istruzioni proprietarie e questa sinergia tra Apple e IBM proseguì fino al 2006 quando con l’introduzione sul mercato del iMac oltre che presentare un look nuovo ai suoi prodotti l’azienda di Cupertino inizia ad utilizzare i processori CISC di Intel.
Vista la differenza di programmazione utilizzata a livello macchina tra processori CISC e RISC il passaggio tra PowerPc e iMac non fu completamente indolore e nel sistema operativo Mac Os 10 che accompagnava le nuove macchine venne inserito un emulatore che permetteva di utilizzare i software precedenti.
Il problema del software disponibile infatti, oggi giorno, è uno dei fattori determinanti per il buon successo di un computer o di un sistema operativo come nel caso dell’azienda canadese BlackBerry o del sistema operativo per dispositivi mobili Windows Phone.
Per ovviare a questo, anche questa volta, Apple ha predisposto una sorta di macchina virtuale chiamata Rosetta2 che permetterà di far funzionare i software precedentemente sviluppati, mentre per i programmatori mette a disposizione un kit di sviluppo che consiste in un Mac mini speciale, dotato dello stesso processore A12Z degli ultimi iPad e 16GB di RAM.
Tuttavia è da sottolineare che l’utilizzo di Rosetta2 è solamente una “pezza virtuale” in quanto non permetterà mai di sfruttare al massimo le caratteristiche del nuovo processore di Apple anzi, molto probabilmente, i software che gireranno tramite Rosetta2 saranno meno performanti che non se lavorassero su di un vecchio computer. Rimane poi il problema di tutti quei software specifici che non hanno un grande mercato e che non conviene convertire.
La transizione, secondo Apple, per i suoi prodotti da processori Intel a processori ARM durerà circa due anni e nel frattempo Intel (per la quale Apple rappresenta il 10% del mercato) ha assicurato di continuare a fornire i suoi prodotti; ma questo lasso di tempo indica probabilmente il periodo che passerà tra il lancio del primo Mac con processore ARM e il pensionamento commerciale dell’ultimo Mac ancora dotato di processore Intel, mentre la sua transizione completa che si concluderà con la dichiarazione di obsolescenza dell’ultimo Mac Intel disponibile si prevede possa durare fino al 2030.
Ma cosa spinge Apple a voler fare un passaggio così radicale?
I motivi sono molti. Per prima cosa è interessante osservare che mentre i dispositivi mobili apple come Ipad o Iphone utilizzano processori ARM i suoi computer utilizzano invece processori Intel; come abbiamo visto all’inizio non vi è compatibilità tra software creati per un Iphone ad esempio e un iMac. Utilizzare un unico processore per tutti i dispositivi permetterà di creare una ecosistema virtuale dove un’utente Apple avrà la stessa applicazione sia sul telefono che sul computer con gli stessi dati e lo stesso utilizzo.
Per gli sviluppatori di software sarà possibile sviluppare un’ App che funzionerà sia su smartphone che su computer senza dover apportare alcuna modifica.
Ma le migliorie non si fermano qua, i processori ARM di Apple avranno delle customizzazioni specifiche che ne migliorano sensibilmente le performace e poter scrivere un software specifico per un sistema che integra sia l’hardware che il software a livello così profondo non è certo da trascurare.
Un altro motivo che ha portato l’azienda di Cupertino a passare a processori che lei stessa sviluppa è quella di affrancarsi da Intel e potrà così riprendere il totale controllo dei piani di sviluppo e aggiornamento dei suoi computer, mentre l’aver sviluppato un proprio processore ha permesso a Apple di integrare in un unico chip di 5nm (come nel caso del M1) 16 miliardi di transistor che comprendono: una CPU a 8 core, motore neurale (leggi I.A.) a 16 core, GPU a 8 core, controller I/O, controller Thunderbolt e USB, nonché la memoria RAM. Per finire l’utilizzo della tecnologia RISC abbiamo visto necessita meno energia e porta quindi a poter creare computer che consumano molto meno e che non necessitano di grandi dissipatori o ventole di raffreddamento.

Ma alla fine Apple ha veramente sviluppato un nuovo processore per personal computer che surclasserà tutti i precedenti?
La risposta non è facile. In realtà quello che ha fatto Apple è di sviluppare un processore che a parità di consumi è più performante e veloce di processori per PC esistenti. Se noi prendessimo, ad esempio, un processore Intel I7 di nona generazione a 8 Core e 16 Thread (processi che vengono eseguiti contemporaneamente) ma che arriva a picchi di 235 - 255 Watt e lo abbiniamo ad una buona scheda madre e video, questo non ha nulla da invidiare alle performance di un computer basato su di un unico processore M1; la vera novità sta nel fatto che Apple ha integrato le stesse caratteristiche in un unico processore di minor consumo.
Sembra di tornare un po’ agli albori dei PC, quando ogni computer aveva un suo processore specifico (o famiglia di processori) e un suo hardware specifico che si programmava e permetteva di sfruttare al massimo ogni singolo Hz del clock e bit di memoria.

Conviene quindi comprare il nuovo Mac con processore ARM?
La risposta non è anche qua facile. Certo per un amante dei prodotti Apple il lancio di un nuovo computer è come il lancio di un nuovo Iphone o Ipad e, indipendentemente dal fatto che serva o meno, lo si compra. Diverso per chi lo utilizza per lavoro. Fino a che non vi sarà un parco software appositamente scritto per queste macchine non conviene, anzi meglio tenersi il proprio vecchio computer e aspettare nel caso si voglia acquistare un Apple.
Per chi invece è appassionato di Gaming non è certo uno degli acquisti consigliati (ad oggi) visto che normalmente su Mac i giochi non sono mai stati uno dei motori di sviluppo del computer e che oggi esiste la possibilità di noleggiare in remoto un computer da Gaming.

I Nuovi Divulgatori
I Nuovi Divulgatori

Affianco ai vari influencer come Ferragni o Vacchi, senza arte ne parte, il mondo del web si sta aprendo sempre di più ai divulgatori online. La digitalizzazione dei contenuti ha infatti trasformato i tradizionali canali di informazione permettendo ad un sempre maggior numero di persone competenti di poter condividere le proprie conoscenze. Fino a poco meno di una quindicina d’anni fa la divulgazione di massa era appalto esclusivo della televisione e delle radio partendo da “Quark” di Piero Angela per arrivare a “La Grande Bellezza” di Cesare Bocci senza dimenticare la “La macchina del tempo” di Alessandro Cecchi Paone o i vari canali tematici come “Marco Polo” o “Rai Storia”.

Proprio come i media tradizionali hanno iniziato a perdere sempre più audience nei confronti del web anche i programmi di divulgazione devono affrontare la concorrenza dei divulgatori sul web che stanno diventando delle vere star ma che, a differenza dei più conosciuti influencer, diffondono contenuti di qualità.
Attenzione non vogliamo parlare in queste poche righe dei finti divulgatori che spacciano per vere bufale come la terra piatta, gli UFO o le cure omeopatiche, ma di persone che non solo hanno titoli accademici per parlare di determinati argomenti ma anche le capacità di farlo: la divulgazione riguarda innanzitutto ciò che chi ha una certa competenza vorrebbe far comprendere a chi non ha le sue stesse conoscenze, utilizzando un linguaggio il più semplice possibile senza togliere qualità all’informazione che si trasmette.
È poi bene chiarire fin da subito la differenza che esiste tra divulgazione  e didattica online (che non vuol dire solamente la famigerata DAD): quando si parla di didattica online ci si riferisce a dei video che hanno come target quei fruitori di contenuti che vogliono imparare o ripassare determinate conoscenze come ad esempio il “teorema di Pitagora”, come si fa il calcolo vettoriale o una lezione di storia simile a quella che viene fatta nelle aule scolastiche o universitarie. Ne segue necessariamente che un video di didattica ha un pubblico più limitato di quanto lo possa avere uno di divulgazione che si rivolge ad un pubblico più ampio e con un linguaggio meno specifico. La differenza si può quindi riassumere tra il far sapere e il come far sapere.

Il mondo dei divulgatori online utilizza principalmente due canali, Youtube e Instagram e si articola in una miriade eterogenea di contenuti; il fatto che questi due canali di comunicazione siano anche i più apprezzati dagli influencer (in particolar modo Instagram) non deve trarci in inganno ma farci riflettere che non vi sono metodi più o meno adatti per trasmettere un determinato messaggio ma solo l’utilizzo che se ne fa e che siamo noi utenti a doverne cogliere le opportunità e sfruttarli al meglio.
Ma come si riconosce un buon divulgatore online da uno improvvisato che vuole solo guadagnare visite o, peggio ancora, da uno in mala fede?
La prima cosa da tenere in considerazione –ma non la più importante-, quando si segue un video su un canale di divulgazione, è la “reputazione” di chi parla; bisogna poi considerare che fare un video divulgativo richiede non solo conoscenze ma anche tempo ed è importante che vengano citate le fonti quando si parla di un argomento, soprattutto se controverso. Infine un buon divulgatore online, parla principalmente di un solo argomento o di argomenti che sono ad esso collegato, creando eventualmente diverse playlist a seconda degli argomenti.

Tra i divulgatori italiani più attivi sia su Youtube che su Instagram sicuramente è da citare Dario Bressanini.
Chimico, fisico teorico, docente universitario, ricercatore, il professor Bressanini ha al suo attivo diversi libri di divulgazione e articoli su riviste specializzate, sempre sul tema dell’alimentazione analizzata da un punto di vista scientifico.  Ha iniziato la sua attività di divulgazione sui media tradizionali (Tv e Radio) ed ha una rubrica fissa sul mensile “Le Scienze” da parecchi anni. Ma non basta che il curriculum sia corposo e, conscio di questo, il professor Bressanini quando pubblica un video divulgativo cita sempre le fonti alle quali attinge.
Non bisogna infatti scordare che, soprattutto nella scienza, non vale il principio di autorevolezza ma di dimostrabilità.
Un altro divulgatore che mette a disposizione le sue conoscenze è Amedeo Balbi. Astrofisico e ricercatore, professore di astronomia e astrofisica all'Università di Roma "Tor Vergata", autore di diversi libri e autore di articoli scientifici pubblicati regolarmente su “Le Scienze”, “La Stampa”, “Repubblica” ed “Il Manifesto”, racconta come funziona l’universo e la scienza in maniera semplice e diretta, con un linguaggio che non risulta mai artificiosamente complesso.
 
Ma alle frontiere della divulgazione online non approdano solamente persone competenti ma anche organizzazioni come il “CICAP”, fondato da Piero Angela che dal 1989 si occupa di promuovere un'indagine scientifica e critica nei confronti delle pseudoscienze, del paranormale, dei misteri e dell'insolito, con l'obiettivo di diffondere la mentalità scientifica e lo spirito.
Anche un’organizzazione senza scopo di lucro come TED che è dedita alla diffusione di idee, attraverso un suo canale TEDx permette, a chi fosse interessato ad ampliare le proprie conoscenze, di vedere gli incontri che vengono organizzati nelle varie parti del mondo in diverse lingue (Italiano compreso!) con relatori di diverse discipline.
Nemmeno le istituzioni non si sono lasciate sfuggire l’opportunità che i nuovi media permettono e così il Canale YouTube ufficiale dei Laboratori Nazionali di Frascati (LNF) e dell'Istituto Nazionale di Fisica Nucleare (INFN) risulta uno dei più completi con playlist che vanno dalle conferenze alle letture pubbliche, con una sezione molto bella per i bambini chiamata “Summer Camp” le mie giga-nano vacanze estive, in collaborazione con Rai Kids.
Se l’INFN ha un suo canale non poteva certo essere da meno l’Istituto nazionale di astrofisica (INAF),  il principale ente di ricerca italiano per lo studio dell’universo, che sul suo canale propone un video al giorno sulle scoperte più interessanti di astronomia e fisica, sulle notizie di maggior rilievo dallo spazio e in campo tecnologico e sugli eventi rivolti agli appassionati del cielo, nonché interviste, approfondimenti e dirette con alcuni fra i maggiori esperti italiani e internazionali.

Fino ad ora abbiamo parlato solo di divulgazione scientifica online ma anche gli appassionati di materie umanistiche possono trovare approfondimenti o nuove conoscenze. Il canale del Festival della Mente, dedicato alla creatività e alla nascita delle idee che si svolge a Sarzana ogni anno, mette a disposizione i video degli incontri con i vari relatori, mentre tra i divulgatori non scientifici sono sicuramente da ricordare il canale Youtube di Roberto Trizio, che ci racconta aneddoti della vita quotidiana o eventi storici relativi al periodo della Roma Antica o il canale “Vivi everyday” che sempre di storia parla ma da un punto di vista più leggero “raccontando usi, costumi e credenze di altre epoche, il mondo quotidiano di chi ha vissuto prima di noi... tutto questo intervallato da momenti di discussione e video leggeri e comici” (Cit.).
Se si è appassionati di letteratura un canale interessante è quello di “Ima AndtheBooks”, un’insegnante di lettere, che ogni settimana crea un video.  Personalmente trovo molto interessante la playlist sulle biografie  dei grandi scrittori italiani, “con aneddoti, curiosità e segreti che i libri di scuola non ci raccontano” (Cit.).

Ma per fare divulgazione online seriamente bisogna essere obbligatoriamente laureati nell’argomento del quale vogliamo parlare?
Non necessariamente! Uno dei più grandi divulgatori di matematica e scienze, Martin Gardner, ad esempio era laureato in filosofia ma questo non gli impedì di essere, per molti anni, il curatore della rubrica "Mathematical Games" sulla rivista “Scientific American” (la versione italiana è "Giochi Matematici", su “Le Scienze”), nella quale ha divulgato molti argomenti di carattere matematico, come i frattali, la crittografia e molto altro ancora.
Un divulgatore (come insegna Dario Bressanini) quando decide di approfondire un argomento va a cercarsi tutti gli articoli e le ricerche che riesce a trovare, fino ai più recenti, li legge e li mette nel giusto contesto. Li valuta e verifica le fonti, se ci sono studi in contraddizione cerca di approfondirli per trovare quello che è più giusto, e alla fine fa un riassunto il più possibile onesto senza sensazionalismi, esponendo il pensiero generale della comunità (scientifica o di studiosi del settore) senza soffermarsi troppo su di una singola idea o concetto che magari è più simile al suo pensiero. Quando cerca di esporre quando ha appreso lo fa con parole semplici, senza entrare in tecnicismi inutili, tralasciando i dettagli e citando sempre le fonti.
Chiaramente non si può parlare di un argomento senza avere le basi solide di ciò che è il soggetto della trattazione: se si decide di fare un video sulla relatività generale sicuramente bisogna sapere almeno a livello descrittivo cos’è un tensore metrico, se si vuole parlare di storia della Seconda Guerra mondiale, avere la consapevolezza di quello che era l’Europa ed il mondo nel periodo antecedente il  settembre del 1939 e così via.

Troppo spesso si parla dell’aspetto negativo che la rapida diffusione delle notizie e dei contenuti grazie all’utilizzo dei nuovi media permette, dimenticandoci che in un mare pieno di fango si possono trovare le perle. Il periodo di confinamento forzato dovuto al covid-19 e il fatto che molti genitori si sono trovati a casa con i figli e a doverli aiutare nel fare i compiti ha permesso a molti utenti del web di scoprire il mondo dei divulgatori online che spesso sono costretti a battersi con armi impari contro i grandi influencer che non di rado fomentano fake news.
Grazie a internet informarsi è più semplice e i divulgatori (quelli seri!) sono un pezzo essenziale del processo di arricchimento personale che tutti dovremmo fare. Se leggere un saggio, per molte persone, può essere noioso non lo è guardare un video che risulta anche meno “impegnativo” e aiuta ad avvicinarsi ad una materia o ad un argomento. Se poi il video è ben fatto ed invoglia chi lo ha visto ad approfondire ciò che si è appena sentito allora lo scopo della divulgazione è raggiunto.
Viviamo in un’era che ci permette di accedere a conoscenze vere e condivise in maniera semplice e diretta è un peccato se non ne approfittiamo. La prossima volta che su youtube guardate un video clip musicale o una presentazione di qualche influencer pensate ad ampliare le vostre conoscenze e cercate un canale di divulgazione seria, arricchirete voi stessi ed anche le persone che vi circondano.

  ► Luoghi

Pale (Pg)
Pale Cascate del Menotre e Grotte dell’ Abbadessa
Il fiume Menotre è un piccolo fiume umbro che ha una grande portata e che, giunto all’altezza del borgo di Pale compie un salto di circa 200 metri nella gola sottostante, creando una serie di cascate che è possibile ammirare lungo un facile percorso che si perde nei verdi boschi dei monti umbri. 
Insieme alle cascate, l’infiltrazione delle cascate nelle rocce della zona ha anche generato un fenomeno carsico ipogeo, conosciuto come “Le grotte della Badessa”.

Le cascate del Menotre
Chiamate anche “Cascatelle di Pale”, sono parte del Parco dell’Altolina che dalla frazione di Belfiore arriva fino al borgo di Pale, ex castello durante il periodo medioevale.
Il percorso lungo il fiume alla scoperta delle cascate non risulta particolarmente difficile anche se potrebbe essere impegnativo per persone non allenate o con problemi motori, visto il dislivello della strada tra i diversi salti tra le cascate e l’ambiente nel quale si sviluppa. Vi si trovano diversi punti dove potersi riposare attrezzati con panchine e la rigogliosità della natura ivi presente permette di non soffrire particolarmente il caldo e l’ava anche in estate inoltrata.
L’ultima cascata (se si scende dal borgo di Pale, altrimenti è la prima) rappresenta il più suggestivo dei salti del fiume Menotre: l’acqua scorrere lungo la parete roccioso formando una specie di “penisola” attorno ad un albero dove il comune ha allestito una panca ed un tavolo per potersi riposare. Un posto fiabesco dove è possibile arrivare ai piedi della cascata e toccarne l’acqua fresca e dove si può notare una piccola grotta

Le grotte dell’Abbadessa
L’acqua del fiume Menotre, nei secoli, ha dato origine a quelle che sono conosciute come “Grotte dell’Abbadessa”.
Per poterle visitare è necessario prenotare. Una volta entrati si accede ad una serie di cavità lungo un piccolo percorso (il tour dura circa una mezz’ora) e si scopre che le grotte sono suddivise in “stanze”.
La prima prende il nome di “Camera del laghetto”, ed ha una forma circolare; dalla volta a forma di cupola pendono stalattiti e al centro sono presenti pilastri stalagmitici che bisogna stare attenti a non toccare per non rovinarne la crescita. A seguire vi è la “sala delle colonne a terra”, dove troneggia una stalagmite che ricorda la forma di un Leone.
Tradizione vuole che in passato sino state visitate da personaggi famosi come Cristina Regina di Svezia e Cosimo III Serenissimo gran Duca di Toscana; in particolare un aneddoto racconta che la Regina di Svezia fu talmente colpita da queste grotte da voler chiedere come ricordo un “pezzetto” della stalagmite a forma di leone che da allora è priva di un pezzo di quella che doveva essere la coda.
Leggenda o realtà le grotte meritano veramente una visita in particolare potrà essere apprezzata da famiglie con bambini in quanto la visita non è per nulla impegnativa e viene fornito tutto il necessario per l’esplorazione, dalle torce ai caschi. Ottima la spiegazione della nostra guida Cristina.

Cuma (Na)
Cuma Il Parco Archeologico di Cuma

Chi non conosce il più famoso oracolo del monto antico la Sibilla Cumana, resa famosa dall’ “Eneide” di Vigilio? Credo nessuno.
Conosciuta fin dall’antichità la città di Cuma è la più antica colonia greca d’Occidente che portò la cultura greca a diffondersi lungo tutta la penisola italiana tanto da far adottare una versione modificata dell'alfabeto euboico-calcidese, tipico di Cuma e Pithekoussas, secondo i loro fonemi agli Etruschi e ai Latini.
Fin dalla sua fondazione la città conobbe una grande crescita, fino all’arrivo di Roma, di cui Cuma divene una fedele alleata tanto da divenire Municipio romano nel 215 a.C. ed essere una delle roccaforti di Ottaviano durante la guerra civile. Con l’arrivo delle invasioni barbariche iniziò il declino di Cuma che, pur riuscendo a sopravvivere alla dominazione Bizzantina nulla poté contro le ripetute scorrerie dei pirati saraceni che costrinsero i suoi abitanti ad abbandonarla.

Quello che rimane oggi è uno spettacolare parco archeologico che ogni anno attrae migliaia di visitatori e dove la principale attrazione è l’Antro della Sibilla Cumana. Ma passeggiare per il parco archeologico di Cuma vuol dire perdersi in un mondo surreale, che sembra fermato nel tempo; un mondo dove si intravedono le vestigia di un’antica civiltà, dove si ammirano i resti del Tempio di Giove, della Cripta romana. Dalla terrazza del belvedere  si può ammirare una vista sul mare e la campagna circostante, mentre nelle immediate vicinanze si staglia l'Arco Felice si possono ammirare i numerosi sepolcri di età greca e romana.
L'Antro della Sibilia è una lunga galleria rettilinea e a sezione trapezoidale, alta circa 5 metri che fu scoperta da Amedeo Maiuri il quale riconobbe in essa il luogo dove la profetessa del dio Apollo prediceva il futuro ai suoi discepoli: si narra che re, grandi eroi o semplici paesani si recassero in questo luogo per ottenere risposte a grandi e piccoli dilemmi o semplicemente per conoscere il volere degli Dèi. Le profezie della Sibilla Cumana erano infatti considerate verità assoluta. La galleria rettilinea, lunga 131 metri ed è interamente scavata nella roccia tufacea, presenta una base di 2,50 metri e termina in un vestibolo contenente un paio di sedili scavati nella roccia. È  dotata di numerose aperture laterali da cui entra la luce mentre nei bracci trasversali sono ricavate alcune cisterne, che raccoglievano le acque piovane attraverso un sistema di canalizzazione.
Il Tempio di Apollo sorge dove probabilmente prima era stato edificato un precedente tempio dedicato a Hera.
Il maggiore santuario dell'Acropoli rimane comunque il Tempio di Giove (anch'esso si presume precedentemente consacrato ad un'altra divinità: Demetra) che durante l'epoca bizantina fu convertito in basilica; a testimonianza di questo utilizzo del tempio è ancora visibile la vasca profonda 70 cm e larga 3 che utilizzata per il rito del battesimo.

Solferino (Mn)
Solferino Solferino, dall’Unità d’Italia alla nascita della Croce rossa

Il 24 giugno 1859 fu combattuta una delle battaglie più cruente del Risorgimento Italiano che costò la vita a 30.000 uomini; lo scontro fu così feroce e cruento che gli eserciti vincitrici non ebbero nemmeno la forza di inseguire quello sconfitto (Austriaco) in fuga.
Il giorno successivo alla battaglia giunse in quei luoghi Jean Henry Dunant, che rimase profondamente impressionato dal numero enorme di feriti che venivano assistiti dalle popolazioni del luogo (soprattutto dalle donne) che non si curavano della divisa che indossavano gli infermi. Dunant si unì ai soccorritori e da quell’esperienza pubblicò un libro a sue spese “Un Souvenir de Solférino” e successivamente fondò la Croce Rossa Internazionale. Per questo suo gesto fu premiato con il “Premio Nobel per la Pace” nel 1901, il primo anno nel quale venne assegnato tale riconoscimento.

Solferino è un piccolo comune dell’alto mantovano abitato fin dall’età del bronzo. Vista la sua posizione strategica durante il medioevo, sul colle più alto, venne costruita una rocca (più tardi definita la “Spia d’Italia”) dalla cui sommità è possibile osservare gran parte della Pianura Padana. Alla base della rocca, nel 1959 nel centenario della sua nascita, fu eretto il Memoriale della Croce Rossa.
Il memoriale si raggiunge attraverso un lungo viale di cipressi che porta ad uno spiazzo rettangolare pavimentato con lastre di pietra e circondato anch’esso da cipressi; sul lato destro il monumento è composto da una parete con formelle in marmi policromi provenienti da ogni parte del mondo, sui quali sono impressi i nomi di centoquarantotto Paesi aderenti alla Croce Rossa Internazionale.

La rocca di Solferino è alta 23 metri e al suo interno sono esposti cimeli e documenti risorgimentali. Tramite una scala lignea si può salire fino alla sommità sulla quale una grande terrazza permette (nei giorni di bel tempo) di spaziare lo sguardo sulla pianura sottostante dal Lago di Garda fino agli appennini. Prima di raggiungere la terrazza si passa per la “Sala dei Sovrani” dove sono conservati i ritratti di Napoleone III e Vittorio Emanuele II.

Solferino è sicuramente un piccolissimo paese ma che racchiude molto più storia di quanto possa sembrare e che, indubbiamente, merita una visita.

  ► Ricette

Spaghetti burrata pomodorini basilico
Spaghetti-burrata-pomodorini-basilico Ricetta per 2 persone

Arriva l’estate e quest’anno (2021) gli Europei di Calcio, quale miglior occasione per una pasta dai colori della bandiera nazionale?
Il verde del basilico, il bianco della burrata ed il rosso dei pomodorini si mescolano in un piatto semplice, veloce e saporito.
Per Preparare la crema mettere la burrata nel mixer con sale, pepe, e olio quindi mixare il tutto.

In una padella far soffriggere i pomodorini con l’aglio, quindi riporli da parte lasciando la padella al scaldare con un po’ di acqua di cottura.

Cuocere gli spaghetti.
Quando la pasta sarà cotta trasferirla nella padella calda e mantecarla con metà della crema di burrata, quindi aggiungere i pomodorini (lasciarne alcuni per guarnire la pasta dopo)
Spostare gli spaghetti nei piatti e ricoprire con la crema rimasta le porzioni, infine aggiungere le foglie di basilico e i pomodorini da decorazione.



Mangiare il piatto mentre è caldo.

Noodles con verdure e capesante
Noodles-con-verdure-e-capesante
Preparare i noodles per tempo.
In un contenitore mettere la farina, il sale,  l’acqua e  mescolare bene il tutto  e lavorare la pasta per almeno 10 minuti fino ad ottenere una pagnotta omogenea. Avvolgerla nella pellicola e lasciar riposare per 30 minuti.
Trascorso questo tempo togliere la pasta dalla pellicola, lavorarla per altri 10 minuti e creare un disco dell’altezza di circa 5 mm, spennellarlo bene con olio di oliva su tutti i lati e riporlo nuovamente a riposare per almeno 2 ore avvolto ancora nella pellicola.
Quando la pasta avrà finito di riposare dovrà risultare elastica e compatta; per ottenere i noodels, dopo aver tolto la pasta dalla carta che l’avvolge, si dovranno tagliare delle striscioline che andranno lavorate con le mani facendo scorrere la striscia di pasta tra il palmo delle mani ed il piano d’appoggio in modo da ottenere dei noodles dello spessore di 3 o 4 mm.
Scaldiamo una pentola d’acqua con il sale e un filo d’olio.
A questo punto possiamo preparare il condimento dei nostri noodles: tritiamo la cipolla finisima e tagliamo sia la zucchina che la carota a la julienne. Le cappesante, invece, andranno tagliate a rondelle.
Saliamo e pepiamo le cappesante, quindi in un Wok mettiamo un filo d’olio e facciamolo scaldare, aggiungiamo poi le cappesante, rigiriamole e sfumiamole con il brandy ed il vino. Dopo qualche minuto rimuoverle dalla padella conservando un po' del liquido di cottura e gettando il rimanente.
Nella stessa padella mettere a soffriggere la cipolla con un filo d‘olio, quindi aggiungere le carote. Cuocere per qualche minuto ed aggiungere le zucchine. Saltare le verdure per un paio di minuti, in modo che rimangano croccanti il più possibile, per finire aggiungere le cappesante. Infine sfumare con 1 cucchiaio di salsa di soia.
Quando l’acqua bolle immergere i noodels e cuocerli per almeno 4-5 minuti (in base allo spessore dei nooodles, potrebbero volerci anche 8-10 minuti!).
Quando sono pronti scolarli e metterli nel wok con le verdure e le cappesante.
Servire
Barchette di cipolla rossa in salsa d’arancia.
Barchette-di-cipolla-rossa-in-salsa-d-arancia-

Per prima cosa, Dopo averle pulite cuocere le code di gambero in abbondante acqua salata, quindi scolarle e farle raffreddare.

Preparare le barchette in anticipo.
Pulire le cipolle e poi tagliarle a metà nel verso della lunghezza, separando i singoli strati, evitando di romperli, e eliminare la pellicina bianca trasparente che li separa in modo da ottenere dei gusci (mantenere solo i più grandi).
In un pentolino mettere l'acqua, l'aceto, lo zucchero, il sale e scaldare il tutto fino a quando non raggiunge un leggero bollore, quindi immergervi i gusci di cipolla, facendoli cuocere per non più di tre minuti, in modo che rimangano croccanti e non diventino morbidi. Trascorso il tempo, scolare le cipolle usando un mestolo bucato e farle asciugare, se possibile, in un luogo arieggiato per qualche ora, in modo che tutta la loro umidità possa evaporare.

Preparare la salsa d'arancia.
Per prima cosa spremere il limone, l'arancia e grattugiare un po' di scorza di quest'ultima. Assicurarsi che le uova siano a temperatura ambiente e metterle nel contenitore del mixer stando attenti a non rompere il tuorlo. Mettere poi l'olio, 1 cucchiaino d'aceto, il succo di limone e d'arancia ed il sale (è molto importante rispettare quest'ordine).
Immergere completamente il minipimer nel contenitore con gli ingredienti fino a toccare il fondo, quindi azionare alla massima velocità e restare immobili finché il composto diventa chiaro ed inizia ad addensarsi; a questo punto cominciare a sollevare e abbassare il minipimer fino a che l'emulsione sarà montata e si sarà addensata. Metterla a riposare in frigorifero per almeno un paio d'ore.

Comporre il piatto
Disporre le "barchette" di cipolla sul piatto e riempirle con l'emulsione all'arancio, quindi disporre 1 coda di gambero dentro ogni cipolla e servire.
Si può arricchire il piatto con una qualche goccia di aceto balsamico.

  ► Gallery

2020 -2021 (113)
2020 -2021
Primavera Estate 2020 (83)
Primavera Estate 2020
Inverno2019-20 (25)
Inverno2019-20

  ► Curiosità

Cos'è un ologramma
Cos'è un ologramma
Semplificando si può dire che un ologramma non è altro che un' immagine tridimensionale di un oggetto su lastra fotografica ottenuta sfruttandol'interferenza di due fasci di luce di un'unica sorgente laser: viene creato con la tecnica dell'olografia mediante impressione di una lastra o pellicola olografica utilizzando una sorgente luminosa coerente come è ad esempio un raggio laser.
Il fronte d’onda, a seguito di divisione, dà origine a due fronti d’onda, il fascio di riferimento e il fascio oggetto, che sono inizialmente completamente correlati e che seguono due strade diverse. Il fascio oggetto viene sovrapposto in quello che si definisce “piano immagine” al fascio di riferimento. L’interazione presenta una modulazione di intensità sul piano immagine.
Una delle caratteristiche degli ologrammi è che lastra olografica conserva il contenuto informativo in ogni sua parte quindi se si rompe in più parti la lastra è possibile ottenere la stessa immagine tridimensionale completa in ogni pezzo che risulta
Chi ha inventato l' F-16?
Chi ha inventato l' F-16?
Innanzitutto l’F-16 e’ nato da un TEAM, e ripeto TEAM di ingegneri.
Alla guida del team c’era Robert H. Widmer (1916-2011).Nato nel New Jersey, Widmer si laurea al Rensselaer Polytechnic Institute e ottiene un master’s degree al California Institute of Technology (il Cal Tech). Non riuscì ad arrivare al Ph.D perchè nel 1939 venne reclutato dalla Consolidated di San Diego, dove si occupo’ di PBY, PB2Y e B-24, l’aereo da combattimento americano maggiormente prodotto durante la Seconda Guerra Mondiale. Presso la Convair, Widmer fu responsabile dei test in galleria del vento del B-36 Peacemaker e come dello sviluppo del B-58 e F-111. Nel 1970 fu promosso vice-presidente per la ricerca e sviluppo degli impianti di San Diego e Fort Worth.
Widmer inizio’ a lavorare all’embrione dell’F-16 in gran segreto e senza informare i vertici della General Dynamics in quanto questi ultimi ritenevano che un aereo del genere non avrebbe avuto mercato.
Harry Hillaker, conosciuto anche come il “Padre dell’F-16”. Come Widmer, anche Hillaker all’epoca lavorava alla Convair con la qualifica di vice-capo ingegnere del programma Lightweight Fighter. Praticamente era il numero due subito dopo Widmer. Verso la fine degli anni sessanta Hillaker entro’ a far parte della Fighter Mafia.
Pierre Sprey non ha inventato l'f-16 (come spesso si sente dire) e non è da considerare il padre ti tale aereo (come affermato dalla trasimissione RAI “Presa Diretta” del febbraio 2013). Sprey era semplicemente un’analista di sistemi presso l’Office of Secretary of Defense (OSD), nonche’ membro della famigerata "Fighter Mafia" (un ristretto gruppo di ufficiali USAF e civili noto negli anni settanta per ssere stato uno dei piu’ influenti think tank militari in campo aeronautico)
Il Piano Bernadotte
Il Piano Bernadotte Nell'estate del 1948, il Conte Folke Bernardotte fu inviato dalle Nazioni Unite in Palestina per mediare una tregua e tentare di negoziare un compromesso. Il piano di Bernardotte chiedeva allo Stato ebraico di consegnare il Negev e Gerusalemme alla Transgiordania in cambio della Galilea occidentale. Questo piano era simile ai confini che erano stati proposti prima del voto sulla spartizione, e che tutte le parti avevano rifiutato. Ora la proposta veniva offerta dopo che gli Arabi erano andati in guerra per impedire la spartizione ed era stato dichiarato uno stato ebraico. Sia gli Ebrei che gli Arabi rifiutarono il piano.
Ironicamente, Bernardotte trovo' tra gli Arabi poco entusiasmo per l'indipendenza. Egli scrisse nel suo diario:
"Gli Arabi palestinesi al momento non hanno una volontà loro.
Ne' hanno mai sviluppato un nazionalismo palestinese specifico. La domanda di uno stato arabo separato in Palestina e' pertanto relativamente debole. Semberebbe proprio che nelle circostanze attuali gran parte degli Arabi palestinesi sarebbe alquanto contenta di essere incorporata nella Transgiordania" 
Il fallimento del piano Bernardotte giunse quando gli Ebrei cominciarono ad avere maggior successo nel respingere le forze arabe d'invasione e nell'espansione del loro controllo sui territori esterni ai confini della spartizione.

  ► Aerei del giorno

Aeritalia AM 3
Aeritalia AM 3 Tipo: Aereo da ricognizione specializzato e controguerriglia
Ruolo: Ricognizione, Contro Guerriglia
Nazione di Origine: Italia
Armamento: 2 mitragliatrici. 340 Kg di Bombe. Missili fumogeni da segnalazione obiettivo

Prestazioni: Velocità massima 278 km/h. Autonomia 990 km
Aeritalia G-91Y
Aeritalia G-91Y Tipo: cacciabombardiere
Ruolo: Caccia, Appoggio, Attacco
Nazione di Origine: Italia
Armamento: Cannoni 2 DEFA 552 da 30 mm. Bombe caduta libera: fino a 1800 kg. Razzi

Prestazioni: Velocità massima 0,8 Mac (1 140 km/h in quota), Autonomia 3500 km, Tangenza 12500m
Aermacchi MB-339
Aermacchi MB-339 Tipo: Aereo da addestramento avanzato e da appoggio tattico leggero
Ruolo: Appoggio, Attacco, Ricognizione, Addestramento, Contro Guerriglia, Antinave
Nazione di Origine: Italia
Armamento: In 6 piloni sub-alari può contenere una combinazione di razzi, gondole per mitragliatori, bombe a caduta libera e missili aria aria a giuda infrarosso (Matra R550 Magic)

Prestazioni: Velocità massima 0.80 Mach (898 km/h in quota), Velocità di salita 33,5 m/s, Autonomia 1760km, 3600km in trasferimento, Tangenza 14630m

  ► Tutorials

Simulare Carica Altro con Jquery

I siti web moderni preferiscono all’impaginazione dei risultati delle query il caricare sulla stessa pagina altri risultati (il famoso Carica altro) tramite la pressione di un tasto/link o tramite il raggiungimento della fine pagina.
Tra i vari metodi disponibili il più semplice lo si ottiene tramite jquery e si può adattare a molti script e linguaggi.
Per fare questo usiamo due metodi che ci offre il frameworks jquery: .append e .load.
Il metodo .append serve per poter accodare un contenuto all’interno dell’elemento al quale è associato.
Il metodo .load carica, invece, il contenuto di un file all’interno di un div.
Per quanto riguarda l’html sarà sufficiente creare un div al quale assegnamo l’id “contenuto” all’interno del quale carichiamo la nostra pagina con i dati aggiuntivi.

<div id="contenuto"></div>

Per quanto riguarda lo script ci limitiamo a scrivere la funzione che carica la pagina dentro contenuto:

<script>
function aggiungi (pag) {
$('#contenuto').append($("<div>").load("caricaaltro2.aspx?id="+pag));
}
</script>

Nello script abbiamo aggiunto una variabile che passa il numero di pagina nel caso dovessi caricare più pagine.
Posso anche aggiungere la funzione che nasconde il div che mi mostra “carica altri”:


$("#linnk").click(function() {$(this).hide();});

Nella pagina caricata mi limiterò a inserire lo stesso script e lo stesso div.


 

Script completo prima pagina 

<%@ Page Language="VB" ContentType="text/html" ResponseEncoding="utf-8" %>

<!doctype html>
<head>
<meta http-equiv="Content-Type" content="text/html; charset=utf-8" />
<title>Documento senza titolo</title>


<style type="text/css">
body { color: #000; text-align:center; background-color: #FFF; }
.quadrati { width:200px; height:200px; margin:2px 2px 2px 2px; display:inline-block; border:#354D46 1px solid; }
img { height:100%; width:auto; max-width:190px; }
</style>
<%dim pag = 2%>
</head>

<body>
<p>CARICA ALTRO ESEMPIO</p>

<div class="quadrati">
<img src="https://www.filoweb.it/galleria2015/foto/R06939V9BEM0AWYTUVM5VOQMEP0Q9O.jpg" >
</div>

<div class="quadrati">
<img src="https://www.filoweb.it/galleria2015/foto/LN6VNQDBH_NH77SWWRRBP6YJX7BDMQ.jpg" >
</div>

<div class="quadrati">
<img src="https://www.filoweb.it/galleria2015/foto/LVXNE6SIG86TAO8YBPBK3Q6A9D5VAF.jpg" >
</div>

<div id="contenitore" style="width:100%;">
<div id="contenuto" style="width:100%;"></div>
</div>

<div id="blinnk"><a href="javascript:aggiungi(<%response.write(pag)%>);" id="linnk" style="width:100%; background-color:#354D46; text-align:center; color:#FFF;" title="Carica tutti" >CARICA ALTRI</a></div>

<script src="https://ajax.googleapis.com/ajax/libs/jquery/3.2.1/jquery.min.js"></script>
<script>
$("#linnk").click(function() {$("#blinnk").hide();});

function aggiungi (pag) {
$('#contenuto').append($("<div>").load("caricaaltro2.aspx?id="+<%response.write(pag)%>));
}
</script>

</body>
</html>


 

 

Script completo 2° pagina

<%@ Page Language="VB" ContentType="text/html" ResponseEncoding="utf-8" %>

<!doctype html>
<html >
<style type="text/css">
body { text-align:center; }
.quadrati { width:200px; height:200px; margin:2px 2px 2px 2px; display:inline-block; border:#354D46 1px solid; }
img { height:100%; width:auto; max-width:190px; }
</style>

</head>
<body>
<%
dim pag
pag=request.QueryString("id")
pag=pag+1
%>

 

 

<div id="contenitore">
<h3> questa è la pagina <%response.write(pag)%></h3>
<div class="quadrati">
<img src="https://www.filoweb.it/galleria2015/foto/YLAUXHFWF52IBFJC7TJAZ_Z9ESH799.jpg" >
</div>

<div class="quadrati">
<img src="https://www.filoweb.it/galleria2015/foto/PA8I4_C_J8GFA808JSS4QVQT9NK2FH.jpg" >
</div>

<div class="quadrati">
<img src="https://www.filoweb.it/galleria2015/foto/YLAUXHFWF52IBFJC7TJAZ_Z9ESH799.jpg" >
</div>

<div id="blink<%response.write(pag)%>" style="width:100%; background-color:#293343;"><a href="javascript:aggiungi(<%response.write(pag)%>);" id="linnk<%response.write(pag)%>" style="width:100%; background-color:#354D46; text-align:center; color:#FFF;" title="Carica tutti" >CARICA ALTRI</a></div>

<div id="contenitore" style="width:100%;">
<div id="contenuto" style="width:100%;"></div>
</div>

</div>

<div id="contenitore" style="width:100%;">
<div id="contenuto" style="width:100%;"></div>
</div>

<script src="https://ajax.googleapis.com/ajax/libs/jquery/3.2.1/jquery.min.js"></script>
<script>
$("#linnk<%response.write(pag)%>").click(function() {$("#blinnk<%response.write(pag)%>").hide();});
function aggiungi (pag) {
$('#contenuto').append($("<div>").load("caricaaltro2.aspx?id="+<%response.write(pag)%>));
}
</script>
</body>
</html>

Installazione offline di Visual Studio 2017

Visual Studio è un ambiente di sviluppo integrato sviluppato da Microsoft, che supporta attualmente (2018) diversi tipi di linguaggi come il C, il C++, il C#, il Visual Basic .Net, l’ Html, il JavaScript e molti altri. Visual Studio permette la realizzazione sia di applicazioni che di siti web, web application e servizi web di varia natura.
L'attuale distribuzione di Visual Studio (la 2017), che rappresenta l’ultima versione dopo 20 anni di evoluzione, è disponibile in 3 versioni:



• Community
• Professional
• Enterprise


Una delle novità più importanti riguarda la versione Community che è disponibile completamente gratuita e può essere scaricata e utilizzata liberamente.


Per installare la versione community (come anche le altre) è sufficiente scaricare il file di installazione, lanciarlo e decidere quali componenti installare. Il processo può risultare molto lungo, a seconda della lingua; un’altra soluzione consiste nello scaricare sempre il file di installazione e scaricare tramite uno script i file di setup da conservare per eventuali nuove installazioni.
Il processo risulta sempre lungo, ma una volta fatto ho i file sempre pronti.
Per fare questo per prima cosa devo scaricare il file di installazione da:
https://www.visualstudio.com/it/ e quindi salvarlo in una cartella.

Apro quindi il prompt dei comandi (cmd.exe) e mi posiziono nella cartella dove ho copiato il mio file di installazione (vs2017.exe) e scrivo il comando:



vs2017.exe --layout c:\vs2017setup --lang it-IT


In questo modo creo una cartella chiamata vs2017setup dove verranno scaricati tutti i file per l’installazione offline della versione in italiano (lang it-IT) di visual studio 2017.
Visto che in totale verranno scaricati più di 30Gb ci vorrà tempo ed una connessione veloce ( non obbligatoria ma consigliata).


Una volta terminato sarà sufficiente andare nella cartella di installazione ed eseguire il file di setup.

Note: Posso anche scaricare la versione non localizzata in italiano, ma con tutte le lingue disponibile, in questo caso devo prepararmi a scaricare più di 65Gb!!.

Iframe ad altezza variabile

Premetto che non sono un amante degli iframe (non più almeno) perché oltre ad essere deprecati nell’HTML5 fanno sembrare il sito più vecchio di almeno 6-7 anni dando un’idea di poca professionalità. Inoltre gli iframe sono stati creati per visualizzare pagine esterne al proprio sito web, all'interno dello stesso anche se spesso sono stati usati in maniera errata. Quindi si se si vogliono usare per includere pagine esterne, no per quelle interne meglio usare altri metodi come include, o jquery).

Dopo questa lunga e doverosa premessa passiamo ai fatti. Chi usa il tag iframe spesso ha la necessità di adattarne l’altezza in base al contenuto che viene caricato. I metodi che si trovano in rete sono molti ed io voglio qua proporre la mia personale soluzione in pochissime righe di codice: leggo l’altezza dell tagdel contenuto che carico e tramite jquery assegno l’altezza all’ iframe.
Certo posso scegliere anche il tago altro ma in questo mio esempio preferisco usarevisto che tutto il contenuto visibile in una pagina è racchiuso lì dentro.



Definiamo lo stile per il nostro iframe tramite css:
#mioiframe { width:100%; border:#293343 1px solid; height:300px; }



Scriviamo il nostro iframe.



<iframe src="pg.html" id="mioiframe" class="mioiframe" scrolling="no" frameborder="0" name="contenuto" onload="caricato()"></iframe>

Definiamo il nostro script che verrà chiamato al caricamento del contenuto dell’iframe:
function caricato() {
var mioif = $("#mioiframe").contents().find("body");
var h = mioif.height();
$("#mioiframe").height(80+h+"px");
};


Infine la chiamata alle pagine:


 <a href="pg1.html" target="contenuto" class="menu"> pagina 1 </a>
<a href="pg2.html" target="contenuto" class="menu"> pagina 2 </a>


Come si vede è tutto molto semplice, veloce e leggero…

  ► Varie

Appunti: Photoshop CC v.14 con esempi
Photoshop CC v.14 con esempi
Pamphlet: Bufale online
Bufale Online
Templates
Templates
FB TW whatsapp RSS FEED News letter

filoweb.it è il sito personale di Filippo Brunelli
(c) 2017 Filippo Brunelli
Le immagini ed i testi contenuti nel sito filoweb.it sono di proprietà di Filippo Brunelli salvo diversamente indicato.
L'uso delle immagini e del testo è gratuito per uso personale ed è subbordinato alla citazione della fonte.
Brunelli Filippo declina ogni responsabilità per l'uso che viene fatto delle informazioni presenti nel sito filoweb.it.