Filoweb.it
By Filippo Brunelli


FB TW whatsapp RSS FEED News letter

  ► Gallery

Primavera Estate 2020 (83)
Primavera Estate 2020
Inverno2019-20 (25)
Inverno2019-20
Autunno 2019 (29)
Autunno 2019

  ► Ricette

Gnocchi gratinai ai formaggi
Gnocchi-gratinai-ai-formaggi
Bollire 450gr di Patate. Quando si saranno cotte ed ammorbidite sbucciarle e metterle in un contenitore, quindi schiacciarle fino a farne una purea.
A questo punto aggiungiamo l’uovo, la farina, il sale e mescoliamo tutto bene, stendiamo l’impasto su di un piano di legno infarinato e lavoriamolo con le mani fino ad ottenere un composto morbido ed omogeneo ma ben amalgamato.
A questo punto otteniamo dall’impasto delle striscioline del diametro di circa 1cm e tagliarle in modo da ottenere degli gnocchi di circa 3 o 4 cm.

A questo punto grattugiare il parmigiano e la scamorza affumicata, tagliare la mozzarella a pezzettini e spezzettare le sottilette. E preriscaldare il forno a 180°.

Mettere a scaldare l’acqua salata e quando inizia a bollire immergervi gli gnocchi. Quando vengono a galla, con l’aiuto di una schimarola e depositarli delicatamente in una pirofila da forno.
Mescolare i formaggi (tranne il parmigiano) agli gnocchi mescolando con delicatezza.
Spolverare in fine con il parmigiano reggiano e aggiungere 2 riccioli di burro, quindi infornare e cuocere fino a quando i formaggi non saranno sciolti. In fine gratinare per un paio di minuti.


Caramelle di pasta al formaggio
Caramelle-di-pasta-al-formaggio
Mettere l’acqua in un contenitore e aggiungere del sale mescolando per farlo sciogliere completamente, poi disporre la farina di semola sul piano di lavoro a fontana e realizzare un buco nel centro della farina.
Versare l'acqua nel centro della farina mescolando per farla assorbire completamente.
Quando l'acqua sarà completamente assorbita, continuate a impastare fino a quando l’impasto no risulterà omogeneo e liscio.
Fare una palla con l’impasto e mettere a riposare avvolta nella pellicola per almeno 30 minuti, nel mentre tagliare il formaggio a cubetti di circa 4 o 5 mm.
Stendere la pasta e creare dei rettangolini all’interno dei quali si depositeranno i cubetti di formaggio. Chiuderli bene (aiutandosi con dell’acqua sui bordi della pasta) e schiacciare in prossimità del formaggio i lati più lunghi in modo da dare una forma a “caramella”.
Stendere su di un tagliere di legno infarinato e lascia asciugare per almeno un paio di ore la pasta.

Preparare la pasta ed il sugo
In una padella mettere a soffriggere i funghi con l’aglio ed il prezzemolo. Spruzzarli con il vino. 
Dopo un paio di minuti aggiungere il bacon tagliato a pezzettini e far cuocere a fuoco lento per 10 minuti; a metà cottura aggiungere i pomodorini tagliati a metà. Se il sugo dovesse asciugarsi troppo si può aggiungere un po’ d’acqua.
Nel mentre scaldare una pentola d’acqua ed aggiungere il sale. Quando l’acqua inizia a bollire immergere le caramelle di pasta. Dopo un minuto che sono venute a galla rimuoverle dalla pentola con l’aiuto di una ramina (non scolarle) e depositarle nella padella con il sugo. Quindi saltarle a fuoco vivo.
Servire calde


Tortellini alla crema di formaggio
Tortellini-alla-crema-di-formaggio Le dosi sono per 2 porzioni abbondanti.

Per questa ricetta è importante che i tortellini siano pronti quando anche il condimento lo è!
Per prima cosa grattugiare i formaggi con una grattugia a fori larghi.
Mettere a bollire l'acqua con il sale grosso e quando bolle immergervi i tortellini.
Nel mentre si versa il burro in una pentola e lo si fa sciogliere a fuoco basso; si aggiunge poi il latte e lo si porta lentamente a bollore. Quando sarà caldo, si versano nella pentola i formaggi, e si gira in continuazione sino a sciogliere completamente i formaggi stando attenti che non si formino dei grumi.
Quando i tortellini saranno pronti metterli nella pentola con il condimento e farli mantecare qualche istante a fuoco basso.
Impiattare e grattuggiare la noce moscata ed il pepe sopra i singoli piatti.
Servire caldi e non aspettare altrimenti il formaggio tenderà a raggrumarsi


  ► Magazine

L’opportunità Dei Big Data
L’opportunità Dei Big Data

Nel 1997 esce il secondo libro della "Trilogia del Ponte" di William Gibson, Aidoru, dove è presente il personaggio di Colin Laney, un netrunner che ha la capacità di individuare i punti nodali in un insieme di dati casuali di informazioni. Apparentemente controcorrente in un momento nel quale i media davano internet per finito (nel 1997 avevano chiuso quasi 5 milioni di siti web) il libro di Gibson anticipava il futuro e, soprattutto, anticipava il concetto di Big Data e del poter estrapolare dati ordinati da un insieme di questi che appare caotico.

Cosa si intende per Big Data.
Ad oggi, ogni sessanta secondi, vengono generati più di 350.000 tweet, su facebook vengono caricate circa 243.000 immagini e 70.000 ore di video, su google sono fatte quasi 4 milioni di ricerche e 500 mila sono le app scaricate dai vari store. Tutto questo insieme di dati non va mai perso ma viene immagazzinato dai fornitori di servizi per essere analizzato e utilizzato; la combinazione del volume di dati e della velocità con la quale è generato prende il nome di Big Data.
Ma parlare di big data solo per trattare dei dati internet generati dagli utenti è limitativo, anche i navigatori satellitari generano dati che vengono inviati ad aziende private che li elaborano, i sensori delle automobili o delle case sempre più smart generano dati che vengono inviati ed analizzati dalle aziende. Abbiamo quindi, oltre che una grande quantità di dati inviati a grande velocità anche una grande varietà di essi che sono apparentemente disomogenei.
Non bisogna quindi confondere il concetto di Big Data con quello di database. Se un database tradizionale, infatti, può gestire tabelle magari composte di milioni di righe, ma al massimo su poche centinaia di colonne, quando parliamo di Big Data ci riferiamo a strumenti in grado di gestire lo stesso numero di record, ma con migliaia di colonne, dove i dati non sono strutturati in maniera omogenea come ad esempio meta dati, posizioni geografiche, valori rilevati da sensori e quasi sempre destrutturate.
Possiamo dire quindi che la definizione di Big Data è composta da tre "V": Volume di dati, Velocità con la quale sono generati e Varietà, di informazioni che apparentemente non vogliono dire nulla e che, soprattutto per la loro disomogeneità non sembrano avere correlazioni logiche nel modo di pensare classico ma la somma di queste tre V, come risultato, dà un'altra V: il Valore che è considerato l'aspetto più importante dei big data e che si riferisce al processo di individuazione di un elevato valore nascosto all'interno di un gran numero di dati (chiamato peso). Nell'analisi di questo tipo di dati è quindi fondamentale valutarne la veridicità e la qualità affinché possano effettivamente generare valore.

Quale utilizzo viene fatto dei dati?
Iniziamo subito a dire che questa grande quantità di informazioni in così poco tempo (parliamo solitamente di almeno un petabyte per arrivare a diversi yottabyte di dati) viene analizzata ed utilizzata in maniera differente a seconda dell'azienda o ente che se ne occupa. Tutti noi sappiamo l'uso che ne viene fatto nell'ambito del marketing da aziende quali Amazon o Google per il così detto "metodo della raccomandazione" per fare proposte di acquisto sulla base degli interessi di un cliente rispetto a quelli di milioni di altri: tutti i dati di un cliente, navigazione, ricerche, acquisti, eccetera, vengono analizzati e messi in relazione con quelli di milioni di altri utenti per cercare un modello di comportamento comune e suggerire un acquisto che solletichi l'interesse di chi sta navigando nel sito. Ma gli algoritmi non si limitano solo a questo: in base alle ricerche riescono a scoprire se, ad esempio, la persona che sta navigando in quel momento sia uomo o donna, se ha figli, animali domestici, nel caso, ad esempio, di una donna se è incinta e suggerirle, in questo caso, anche possibili acquisti per il futuro e/o coupon; il tutto apparentemente in maniera casuale. Anche le agenzie di carte di credito possono sfruttare le informazioni sugli acquisti che vengono fatti online per predire se un acquirente sia affidabile o meno: secondo alcune analisi, ad esempio, le persone che comprano i feltrini per i mobili rappresentano i clienti migliori per gli istituti di credito, perché più attenti e propensi a colmare i propri debiti nei tempi giusti. Quindi da un punto di vista del marketing puro l'analisi interpretativa dei dati è quella metodologia che dà valore ai big data tramite la quale le aziende possono trovare benefici come aumento delle vendite, miglior soddisfazione del cliente, maggiore efficienza, eccetera.
L'ambito di utilizzo dei Big Data, per fortuna, non si limita solamente al settore commerciale, ma può espandersi in una grandissima varietà di campi.
Un primo esempio che possiamo considerare è Ireact, il risultato di un progetto europeo triennale che ha sviluppato la prima piattaforma europea per integrare i dati di gestione delle emergenze provenienti da più fonti, tra cui quelli forniti dai cittadini attraverso i social media e il crowdsourcing1 .
Il sistema, come abbiamo detto, processa diverse fonti di informazioni come le immagini satellitari, le foto pubblicate dagli utenti sui social media, lo storico degli eventi accaduti in un determinato territorio, dati rilevati dai sensori dell'Internet of things, per poter aiutare a decidere quale strategia attuare in caso di calamità o di un evento catastrofico su un territorio e guidare in tempo reale le persone che prestano soccorso, creando nuove mappe mentre la situazione cambia, indicare quale azione operare in un determinato contesto, eccetera.
Nell'ambito della lotta alla criminalità l'utilizzo dei Big Data trova la sua attuazione nel programma Sirio al quale partecipano UNICRI, la Direzione Nazionale Antimafia ed il CERN e del quale l'Italia rappresenta uno dei principali partner per quanto riguarda l'elaborazione e la fornitura dei dati. Su Sidna, la piattaforma digitale del D.N.A., infatti, vengono memorizzati tutti i procedimenti antimafia e antiterrorismo italiani formando un database che contiene oltre due milioni di nominativi. Per fare un esempio Europol ne contiene solo 90.000 e Interpol 250.000. Ma a fare la differenza non è solo la quantità di dati presenti ma anche la qualità in quanto tutte le informazioni inserite provengono dalle direzioni distrettuali antimafia e quindi hanno un altissimo livello di attendibilità; le ultime 180 operazioni contro la criminalità organizzata nel nostro paese (dati relativi a marzo 2020) hanno avuto origine dall'analisi e l'incrocio dei Big Data. Alla base del processo che permette di trovare delle correlazioni tra i dati presenti in questo database vi sono gli strumenti di visual analytics ideati dal professor Daniel Kime dell'Università di Costanza; questi procedimenti combinano le informazioni semantiche specifiche del dominio di appartenenza con concetti astratti dei dati estratti e di visualizzarne i risultati sotto forma di reti. In questo modo possono emergere relazioni tra un mafioso ed un prestanome oppure tra un criminale ed il tipo di bene confiscato. Lo strumento che permette tutto questo si chiama Colaboration Spotting e, inizialmente, era nato per scopi scientifici mentre il suo uso, in questo campo, è quello di permettere alla Direzione Nazionale Antimafia di prevedere le future strategie criminali attraverso lo studio dei modelli organizzativi dei loro protagonisti.

Dagli algoritmi al deep learning
Nell'ambito scientifico l'utilizzo dei big data sta creando delle nuove opportunità ed anche degli scontri.
Secondo il fisico Chris Anderson la grande quantità di dati, combinata adeguatamente ad appropriate tecniche statistico-matematiche sarebbe in grado di soppiantare ogni altro strumento analitico, rendendo il metodo scientifico obsoleto. Anderson sostiene che nell'era del petabyte la correlazione possa sostituire la causalità e quindi dare la possibilità alla scienza di proseguire senza bisogno di modelli coerenti, teorie unificate o altre spiegazioni meccanicistiche: in pratica le congetture e le confutazioni saranno sostituite da "risposte" che emergeranno da sole dall'insieme di dati.
Se questo si realizzasse avremmo una nuova metodologia di ricerca che andrebbe ad aggiungersi a quelle già esistenti: il metodo sperimentale in vigore dai tempi di Galileo, il metodo matematico che ha permesso di analizzare la fisica quantistica e relativistica ed il metodo computazionale, che fa largo uso di simulazioni numeriche.
Affinché questa nuova metodologia possa svilupparsi i ricercatori fanno largo uso dell'apprendimento automatico, un metodo che utilizziamo normalmente tutti i giorni senza saperlo: gli assistenti vocali di Google, Amazon ed Apple, che hanno raggiunto livelli quasi umani di accuratezza, non fanno più uso di regole impartite da un programmatore, ma costruiscono in autonomia un modello del sistema che devono emulare attraverso l'analisi statistica di un ampio insieme di dati.
Anche se non utilizziamo gli assistenti vocali avremmo sicuramente utilizzato un chatbot che non è altro che un algoritmo capace di interloquire con una persona in modo sensato senza conoscere il significato delle parole o non capendo il significato del discorso ma solamente utilizzando milioni di conversazioni come esempi.
Gli algoritmi di deep learning, che si stanno facendo sempre più sofisticati, fanno viaggiare le informazioni verso una rete composta da milioni di nodi. Ogni nodo si accende in base a dei segnali che riceve dai vicini ed i segnali sono analizzati in base al "peso" (importanza) che hanno nella connessione dove viaggiano: una connessione con peso maggiore ha una probabilità maggiore di far cambiare lo stato del nodo dove arriva. Una volta identificati milioni di numeri viene creato un modello del problema (ad esempio in medicina permette di identificare un tumore in un insieme di pixel) e un programma è in grado di risolverlo, pur non sapendo nulla dell'ambito di sviluppo del problema (come i chatbot), il tutto tramite il deep learning e l'analisi dei Big Data.
Non tutti sono però d'accordo con queste idee. Il fisico Poincaré diceva "La scienza è fatta di dati come una casa è fatta di pietre. Ma un ammasso di dati non è scienza più di quanto un mucchio di pietre sia una casa". I dati, infatti, sono sì in grado di trasmettere contenuti ma i risultati possono essere influenzati dalla lettura che se ne dà e da come vengono correlati tra di loro. I modelli di apprendimento, ad oggi, indipendentemente dalla loro complessità, sono in grado di interpolazioni efficaci tra i dati analizzati ma l'estrapolazione di questi ultimi non supererà mai il loro livello di addestramento; secondo il matematico Edward R. Dougherty questi algoritmi non sono in grado di spiegare le correlazioni che trovano e distinguere tra falsi positivi e non, come la famosa ricerca che correlava i divorzi nel Maine ed il consumo di margarina tra il 2000 ed il 2009. Come esempio delle sue teorie Dougherty porta sempre la teoria generale della relatività, la quale non sarebbe mai potuta essere prodotta dall'estrapolazione dei Big Data solamente.

Quale presente e quale futuro?
Il nostro futuro passa anche dai big data e probabilmente i detrattori hanno in mente solamente l'utilizzo che ne viene fatto da parte delle grandi agenzie che lo utilizzano per il marketing, mentre pochi pensano che stanno nascendo delle nuove figure professionali specializzate nel settore come i Data Scientist, il Data Engineer o il Data Analyst e si prevede un mercato di 5 milioni di posti di lavoro in crescita.
Da un punto di vista puramente scientifico la possibilità di elaborare sempre più dati e sempre più velocemente creando associazioni porterà a "intelligenze artificiali" sempre più sofisticate che troveranno la loro collocazione nella vita di tutti i giorni. Pensiamo ad esempio alla difficoltà di un'auto a guida autonoma che deve decidere se un pupazzo di neve possa o meno attraversare la strada: la possibilità di comparare migliaia di informazioni che provengono dai sensori delle altre auto, compararli con migliaia di immagini presenti in rete e decidere che il pupazzo di neve non può attraversare la strada perché non è un uomo sarà possibile grazie ai Big Data.
Nel 2008 un progetto di Google permise di prevedere l'avanzamento dei focolari di influenza negli USA solamente analizzando i gruppi di termini cercati sul suo motore di ricerca più velocemente di quanto poté fare il ministero della salute analizzando i dati di immissione ospedaliera. Pensiamo a come potrebbe essere stato utile un utilizzo appropriato dei dati nell'analizzare l'evoluzione del COVID-19 nel mondo.
Certo rimane il problema di quanta privacy perdiamo ma a pensarci stiamo già rinunciando alla nostra privacy ogni volta che postiamo una foto o condividiamo un pensiero, quindi meglio perderla per avere dei vantaggi che perderla solo per avere della pubblicità in più.

 


Bibliografia:
Prisma N.17, marzo 2020, "I Big Data, contro il crimine organizzato", pp.38-41
Prisma N.3, dicembre 2018, "Big Data, come costruire modelli teorici in automatico?", pp.32-37
I-React, http://project.i-react.eu/
Youtube, 14 marzo 2018, conferenza "Elena Baralis, La nuova scienza dei dati: la sfida dei big data"
Youtube, Novembre 2014, "Analyzing and modeling complex and big data, Professor Maria Fasli, TEDxUniversityofEssex"

1 crowdsourcing è la richiesta di idee, suggerimenti, opinioni, rivolta agli utenti di Internet da un'azienda o da un privato in vista della realizzazione di un progetto o della soluzione di un problema.

Dal Bit A Qbit
Dal Bit A Qbit

All’inizio degli anni ’80 il premio Nobel per la fisica Richard Feynman si pone la domanda se fosse stato possibile, attraverso un computer classico, simulare la meccanica quantistica. La risposta che lo stesso Feynmann si dà è che no, attraverso un computer classico non è possibile simulare la meccanica quantistica.
Infatti, sebbene sia possibile attraverso i computer classici , elaborare calcoli di meccanica quantistica e quindi emularne il comportamento non è possibile ricreare in un computer classico un comportamento analogo a quello della meccanica quantistica.
Da qua la necessità di iniziare la ricerca per sviluppare un computer quantistico.
Certo, dire che in un computer classico non è possibile emulare il comportamento della meccanica quantistica, può lasciare spiazzati e la domanda che sorge spontanea è: ma se si può emularne il comportamento perché non è possibile anche simularlo?
Per capire questo bisogna avere delle idee basilari sulla meccanica quantistica, in particolare poche e per niente intuitive regole che sembrano uscite dal cappello di un mago.


Le regole basilari
Sebbene la Fisica quantistica sia alla base dei computer quantistici, come la fisica classica è alla base dei computer classici, non è necessario conoscerla per poter capirne il principio di funzionamento e la stessa matematica (solo quella che è alla base dei computer quantistici non della fisica quantistica) non è particolarmente impegnativa.
Diciamo subito che (per quanto contro intuitivo possa sembrare) dobbiamo considerare la possibilità che un sistema fisico nella meccanica quantistica può trovarsi contemporaneamente in tutti gli stati possibili (sovrapposizione coerente di stati). Per semplificare il concetto possiamo dire che se un elettrone può passare da due fenditure, una a destra e una a sinistra, passerà contemporaneamente per entrambe.
In realtà il concetto è molto astratto e riuscire a darne una rappresentazione mentale avulsa dalla matematica che ne sta alla base è veramente difficile.
L’altro concetto da sapere è chiamato entanglement e consiste nella possibilità che due particelle che hanno precedentemente interagito in qualche modo, se separate e messe a distanze elevate, possono ancora interagire nello stesso istante: se modifico la prima la seconda subirà la stessa modifica istantaneamente.
Com’è possibile tutto questo? Per capirlo bisogna sapere che esiste un confine tra la fisica classica e la fisica quantistica, e questo confine prende il nome di lunghezza di Planck: al di sotto di questa misura tutte le regole della fisica classica non funzionano più ma si utilizza la “funzione d’onda” che è l’incognita dell’equazione di Schrödinger e che rappresenta l’ampiezza di probabilità di trovare la particella in un preciso istante; bisogna però considerare che, sebbene l’evoluzione della funzione d’onda è determinata dall’equazione di Schrödinger, il suo risultato è deterministico.
Finiamo con un esempio per confondere ancora di più le idee: se io considero un sistema composto da un’auto che si muove lungo una strada diritta con un’accelerazione costante potrò sapere in qualunque istante dove si trova ed a quale velocità; in meccanica quantistica, se misuro una particella che si muove in una determinata direzione, non potrò sapere, contemporaneamente, la posizione ed il momento.
Se si capiscono questi concetti che possono sembrare contro intuitivi capire il principio di funzionamento di un computer quantistico diventa abbastanza semplice.


I Qbit
Alla base dei computer quantistici ci sono i Qbit, che come i classici bit possono avere valore 1 e 0.
Mentre nei computer classici il bit corrisponde alla presenza o assenza di un segnale, non è così per i qbit che possono essere rappresentati come un vettore a due dimensioni di modulo (lunghezza) pari a 1.
I Qbit hanno due valori di base |0> e |1>  (il simbolo | > è la notazione di Dirac ed indica uno stato quanto-meccanico); ogni valore può assumere lo stato di Ground:

Stato Ground Qbit


E lo stato eccitato

Stato Excited Qbit

Ma, come abbiamo visto precedentemente, può trovarsi anche in una situazione di sovrapposizione e quindi essere in entrambi gli stati, in questo caso viene rappresentato dalla funzione:

|ψ> =α|o>+β|1>

Con α e β che rappresentano la possibilità che il nostro Qbit si trovi in un determinato stato. È importante sottolineare che |ψ> non rappresenta un’ulteriore stato come 0 e 1 altrimenti non sarebbe più un sistema binario ma ternario!
Dunque |ψ> alla fine è un vettore in uno spazio che però non è facilmente disegnabile o immaginare in quanto α e β sono numeri complessi. La rappresentazione più utilizzata è quella della sfera di Bloch che ci permette anche di fare chiarezza su quanto detto fino ad ora:

Sfera Bloch

 

Nella sfera di Bloch abbiamo rappresentato il nostro vettore |ψ> in un punto qualsiasi della sfera che ha un angolo φ con l’asse X e θ con l’asse Z e, visto che la sfera ha infiniti punti, può – teoricamente-  trovarsi in infinite posizioni
Per chi ha un po’ di dimestichezza con gli operatori logici classici possiamo immaginare che se un Qbit si trova nello stato |0> e applichiamo una rotazione lungo l’asse delle X cambia stato e diventa |1> e quindi questa operazione può essere considerata al pari di un NOT nella logica binaria classica.

Not Qbit

 

 

Differenza tra computer classico e quantistico
Nei computer classici, abbiamo detto nell’introduzione, si utilizzano i bit che hanno valore 0 oppure 1. Da solo un bit vuol dire poco ed è per questo che vengono raggruppati insieme per trasformarsi in operazioni e prendono il nome di registri all’interno della CPU di un computer.
Quando, ad esempio di parla di processori a 64 bit ci si riferisce alla dimensione dei registri della CPU. All’inizio i registri erano costituiti da 8bit (che è ancora l’unità di misura del Byte). La capacità di immagazzinare ed elaborare l’informazione è 2 (il numero di stati disponibili in un bit) elevato al valore del registro. Quindi se si parla di 8bit ci si riferisce al valore di 255, se si parla di 16bit 65535, e così via. Se volessimo fare due conti vediamo che con gli attuali computer a 64 bit parliamo di un valore intorno a 18.446.744.073.709.551.615!
Tutte le operazioni che un computer può eseguire sono solo 7 che si combinano tra di loro e sono quelle della logica booleana (OR, NOT, AND, NAND, XOR, NOR, XNOR); quando un computer classico deve fare un’operazione lavora in maniera “simile” al nostro cervello: quando noi facciamo, ad esempio la somma 19+12 calcoliamo prima 9+2 (la somma delle unità) e riportiamo 1, poi ripetiamo l’operazione e sommiamo 1+1 (le decine) ed il valore riportato dall’operazione precedente utilizzando sempre le operazioni.
I computer funzionano grosso modo allo stesso modo, ripetendo l’operazione N volte in base a quanti bit sono implicati nell’operazione stessa. Quindi avrò una serie di passaggi alla fine di ognuno dei quali avrò uno stato definito dei miei registri fino a quando i bit non saranno esauriti; nel caso della somma di due o più valori, ad esempio un computer utilizzerà le operazioni OR per fare la somma e AND per il riporto.
Anche i computer quantistici utilizzano dei registri e, anche loro le operazioni che possono fare non sono moltissime ma, a differenza dei loro predecessori, grazie alla sovrapposizione di stati, dopo ogni passaggio il Qbit si troverà in tutte le possibili combinazioni contemporaneamente. I registri che contengo i Qbit, invece non saranno mai in tutte le combinazioni possibili ma solamente a 2n possibili combinazioni dove N è il numero di Qbit che compone il registro; inoltre può capitare che si voglia utilizzare un Qbit come Qbit di controllo e quindi le combinazioni saranno 2n-1 in quanto 1 Qbit mi darà sempre lo stesso risultato.
Un’altra differenza appare nel momento in cui si va a misurare il valore del registro del Qbit: non avrò più il valore 1 o il valore 0, ma grazie sempre alla sovrapposizione avrò una certa probabilità che risulti uno dei due valori, e questa probabilità è legata ai coefficienti α e β dell’equazione vista precedentemente, in particolare il |α|2  avrà una certa probabilità di avere come risultato |0> e il |β|2 di essere |1> .
Un’altra di particolarità dei Qbit è dovuta all’ entanglement: se prendo 2 Qbit che faccio “interagire” insieme creando uno stato, appunto, di entanglement, quando li separo, se il primo mi restituirà |1> quando misurato, anche il secondo (indipendentemente da quanto sia distante dal primo e dal suo stato) mi restituirà|1>, mentre se misurato separatamente mi potrà restituire, tranquillamente un altro risultato.
Le porte logiche dei computer quantistici poi si occupano di “manipolare” lo stato di sovrapposizione quantistica del Qbit e restituisce in output uno stato diverso di sovrapposizione quantistica “alterandone” le probabilità. Quando si misurerà il risultato tutte le possibilità collasseranno in uno stato di 0 o 1, ovvero il risultato con la relativa probabilità.
Ecco perché i computer quantistici processano tutte le combinazioni possibili in un unico processo e perché risultano più veloci dei computer normali. Non importa se la mia è solo una probabilità, se questa probabilità esce 10.000 volte vuol dire che può tranquillamente essere considerato il risultato esatto e chi pensa che questo sia un modo “lento” di operare perché la stessa operazione deve essere ripetuta più volte deve considerare che la velocità di elaborazione di un computer quantistico della stessa operazione è molto maggiore di quello di un computer classico per la stessa operazione ripetuta una sola volta. Le uniche volte nelle quali le operazioni non sono ripetute, ovviamente, sono nel caso che la probabilità sia del 100% ovvero il risultato sia|1>.
Fino ad ora abbiamo parlato di probabilità ma è importante avere in mente il concetto che quando si parla di probabilità nei computer quantistici ci si riferisce ad un’ampiezza di probabilità esprimibile tramite la campana gaussiana e non dobbiamo confonderci con la casualità di un risultato.


A chi serve un computer quantistico?
Per far funzionare un computer si utilizzano quelli che vengono chiamati algoritmi, ovvero una serie di istruzioni che eseguono una serie di operazioni per arrivare ad un risultato, e poco importa che si utilizzi la programmazione strutturata o ad oggetti, il concetto di algoritmo non cambia: sempre operazioni ed istruzioni serializzate sono.
Nei computer quantistici, invece abbiamo appena visto, le operazioni tendono ad essere elaborate in parallelo ed è lì che la maggior velocità di elaborazione entra in gioco.
Risulta quindi evidente che utilizzare un computer quantistico per vedere un film in full HD, navigare in internet, progettare un grattacielo o qualsiasi altro tipo di programma classico non ha molto senso, anzi potrebbe risultare più lento nell’elaborazione di un computer classico. Dove invece l’elaborazione quantistica, dà il massimo di sé, è (oltre che per i problemi di fisica quantistica) appunto nelle operazioni che devono essere parallelizzate e per le quali gli algoritmi devono essere scritti appositamente.
Gli esempi dove l’utilizzo di un computer quantistico e che più colpiscono l’immaginazione sono la fattorizzazione dei numeri primi, della decrittazione dei codici segreti come quelli che stanno alla base della RSA, e l’analisi dei Big Data.
Non stupisce quindi che tra i maggiori investitori nella ricerca sui computer quantistici, e tra i primi ad aver creato un vero computer quantistico funzionante, vi sia Google, leader nel trattamento di dati tramite i suoi servizi di ricerca nel web e di cloud.
Anche IBM ha sviluppato un suo computer quantistico e, a differenza di Big G, ha rilasciato anche parecchie specifiche, dando la possibilità a chiunque, tramite un servizio di cloud, di provare a programmare il proprio computer quantistico.


Quale futuro?
Indubbiamente il futuro è anche dei computer quantistici che però non sono un sostituto dei classici computer e non lo saranno ancora per parecchio tempo.
Questo però non esclude che negli ultimi anni l’interesse per i computer quantistici è notevolmente aumentata; Microsoft, ad esempio,  ha mostrato il suo interesse per la programmazione dei quantum computer rilasciando Q# per il frameworks .Net che permette di creare programmi per i computer quantistici, mentre il fatto che ancora non esista uno standard, lascia aperto un buco che sarà riempito da chi riuscirà ad imporsi per primo come leader (come è accaduto per il computer PC IBM a metà degli anni ’80 del secolo scorso).
Le dimensioni e le peculiarità necessarie nello sviluppo dei computer quantistici (bassissima temperatura e/o campi elettromagnetici particolarmente intensi per poter modificare gli stati degli atomi di idrogeno ad esempio) sono un altro impedimento per la massificazione di questa tecnologia come invece è successo con i computer classici che, potendo disporre di prezzi sempre più bassi e dimensioni ridotte, sono diventati uno strumento  presente in ogni casa.
Facilmente il futuro dei computer quantistici sarà simile a quello che già IBM sta testando, ovvero il Cloud.
Mentre adesso si può accedere al computer IBM tramite Cloud solamente per provare a programmare, in futuro utilizzeremo algoritmi quantistici direttamente dal nostro smartphone per accedere ai servizi che necessitano di computer quantistici per essere eseguiti e che saranno ospitati su server remoti, trasformando il nostro dispositivo in un semplice terminale intelligente.

 

NOTE ALL’ARTICOLO: alcuni concetti sono stati semplificati allo scopo di renderli comprensibili dato che potevano essere difficili da capire; allo stesso modo sono tate utilizzate parole che non sono i termini esatti ma che aiutano a comprendere l’articolo ad un numero maggiore di utenti

Cyber Educazione Al Tempo Del Covid-19
Cyber Educazione Al Tempo Del Covid-19

In Italia si è iniziato a discutere della possibilità di modificare gli ambienti di apprendimento e promuovere l’innovazione digitale nella scuola già nel 2007. Nel 2015 il governo Renzi promosse la riforma della scuola chiamata “La Buona Scuola” della quale il Piano Nazionale Scuola Digitale ne era un pilastro fondamentale.
All’inizio l’idea di “svecchiare” la scuola ed i metodi di insegnamento venne accolta con entusiasmo e l’introduzione di più di 35.000 LIM (Lavagna Interattiva Multimediale) nelle scuole già dal 2008 sembrò il primo passo di un percorso che avrebbe migliorato l’insegnamento.
In realtà, a distanza di più di 10 anni, la situazione non è così rosea come avrebbe dovuto essere nelle previsioni dei vari governi che si sono succeduti.
Il divario tra le varie regioni è ancora molto elevato e solamente il 70% degli istituti è connesso alla rete internet in modalità cablata o wireless ma, la maggior parte delle volte, con una connessione inadatta alla didattica digitale;solamente il 41,9% delle classi è dotata di LIM e il 6,1% di proiettore interattivo.
Per finire l’indagine sull’insegnamento e l’apprendimento OCSE TALIS 2018 in Italia segnalava che il 31% dei dirigenti scolastici riportava che la qualità dell’istruzione nella propria scuola era frenata dall’inadeguatezza della tecnologia digitale per la didattica.
In verità quello che all’apparenza è un mezzo flop della scuola digitale non è altro che il riproporsi del modo di fare tipicamente italiano dove abbiamo uno stato che stanzia fondi per dei programmi, senza però assicurarsi che vi siano le infrastrutture necessarie a supportare i cambiamenti in corso, insegnanti che non sono preparati a sufficienza o sono pieni di preconcetti e studenti che spesso sono più preparati degli insegnanti nell’uso della tecnologia e se ne approfittano.
Se la vita fosse continuata normalmente questi problemi di scuola digitale non avrebbero influenzato particolarmente lo svolgimento delle lezioni, e la scuola e gli studenti avrebbero continuato normalmente, ma nella primavera del 2020 l’arrivo del Covid-19 e la chiusura delle scuole ha portato alla luce l’inadeguatezza e l’impreparazione del sistema digitale scolastico italiano.


Il problema degli insegnanti e delle scuole
La prima impreparazione, è quella degli insegnati, che spesso ignorano gli strumenti disponibili per poter fare lezione online o/e molto più spesso hanno atteggiamenti prevenuti verso le tecnologie, come nel caso dell’Istituto comprensivo Chiodi di Roma dove il 58% degli insegnati della scuola media (in base ad un questionario a loro rivolto dalla dirigenza scolastica) non hanno voluto fare lezione online per non apparire in video. In un’intervista rilasciata al Corriere della Sera il 29 marzo 2020, la preside cerca di difendere gli insegnanti “…Sono insegnanti non giovanissimi, poco abituati alle tecnologie anche se usano il registro elettronico”, e prosegue “…C’è un po’ di diffidenza per il mezzo, temono che le loro lezioni possano venire registrate e usate dagli studenti in modo inappropriato. Forse c’è una presa di posizione, un pregiudizio, il desiderio di conservare le proprie prerogative. Su come fare lezione, il professore è sovrano.
Fortunatamente per gli studenti di quella scuola c’è sempre un 42% di insegnanti che non la vede in questo modo e si è adoperata con l’aiuto della scuola a fare lezione online. Ma quello dell’istituto Romano non è un caso isolato, e molti sono stati gli insegnanti che si sono dimostrati non in grado di utilizzare le tecnologie che la rete ha messo a disposizione per fare lezione.
A fronte di insegnanti che si sono dimostrati non in grado di affrontare una simile situazione vi sono stati anche casi di insegnanti e scuole che, anche se impreparati ad affrontare un simile scenario si sono attivati, spesso in modo autonomo, per poter garantire agli studenti un minimo di lezioni giornaliere utilizzando diversi strumenti. Alcuni hanno, ad esempio, approfittato dell’occasione per mettere online le lezioni che hanno registrato, così l’offerta di formazione su siti quali youtube è cresciuta enormemente, anche a vantaggio di chi non è più studente e vuole approfittare della quarantena per ripassare le proprie conoscenze.
Il Miur, dal canto suo, ha prontamente aperto una pagina sul suo sito dove è possibile reperire informazioni e strumenti utili per l’insegnamento a distanza che, grazie a specifici Protocolli siglati dal Ministero dell'Istruzione e dell'Università, sono disponibili a titolo completamente gratuito.
Malgrado ciò, alla fine, ogni istituto si è organizzato come meglio ha potuto, soprattutto basandosi sulle competenze tecnologiche dei docenti e alla dotazione di dispositivi per connettersi online degli studenti.
Accade così che molti insegnanti, anziché utilizzare piattaforme quali Google Suite for Education, Office 365 Education A1 o Weschoo, che offrono un alto grado di funzionalità e di sicurezza hanno optato per strumenti quali Zoom, con tutti i problemi e le limitazioni che li accompagnano (Zoom, ad esempio, non permette nella versione gratuita sessioni superiori ai 40 minuti e ha riscontrato problemi di sicurezza sui dati personali).


Le famiglie e gli studenti
Gli strumenti che permettono l’insegnamento online, sebbene siano in grado di funzionare sui dispositivi mobili quali smartphone e tablet sono principalmente studiati per poter dare il meglio tramite l’uso di personal computer. Vi sono però molti casi di famiglie dove non è presente un computer, ma lo sono, invece smartphone (alcuni dei quali costano più di un computer di medie prestazioni) e tablet, così questi studenti sono penalizzati.
Nuovamente nell’offerta di lezione online i ragazzi più penalizzati sono quelli che hanno meno accesso alla rete perché vivono in aree rurali o non raggiunte e quegli studenti che vengono da situazioni famigliari e/o economiche più disagiate. In un articolo comparso sul “Il Gazzettino” del 21 marzo Barbara Sardella, dirigente del VI ufficio scolastico di Treviso, fa notare che vi sono molte famiglie straniere e italiane che sono in difficoltà economica che non dispongono né di un pc né di un tablet ma, al massimo, di un telefono che spesso deve essere condiviso con tutti i membri della famiglia. In particolare tramite un questionario fatto tra le famiglie è risultato che in 2 scuole primarie su 3 più del 50% delle famiglie non ha pc e non ha tablet.
Le situazioni sono migliori nei licei o negli istituti tecnici, dove studenti e famiglie hanno almeno un computer in casa.
Se pensiamo che i dati sopra riportati riguardano una provincia di una delle regioni considerate “ricche” in Italia è facile immaginare quale può essere l’impatto sull’istruzione degli studenti in realtà regionali meno fortunate.


Verso una scuola esclusiva e non inclusiva?
L’ articolo 34 della Costituzione Italiana recita: “La scuola è aperta a tutti. L'istruzione inferiore, impartita per almeno otto anni, è obbligatoria e gratuita. I capaci e meritevoli, anche se privi di mezzi, hanno diritto di raggiungere i gradi più alti degli studi”.
Purtroppo al tempo del Covid-19 l’accesso all’istruzione è diventato sempre più elitario ed esclusivo.
La prima causa è, abbiamo visto, l’incapacità (o la voglia) di alcuni insegnanti di adattarsi alle nuove tecnologie, ma il problema più grande riguarda l’impossibilità di chi non ha le disponibilità economiche per poter utilizzare gli strumenti messi a disposizione, ed è un problema che non è da considerarsi confinato solamente nel periodo della quarantena ma, con il passare del tempo, rappresenterà sempre di più una barriera tra l’istruzione di sere A e quella di serie B.
Quello che ha mostrato il Covid-19 riguardo la scuola digitale è che, se non verranno presi provvedimenti per garantire l’accesso agli strumenti per tutti gli studenti, avremo una scuola sempre meno inclusiva e più esclusiva e discriminatoria.
Non c’è dubbio che usciremo da quest’esperienza cambiati come società ma è ora che le istituzioni riflettano sulle scelte che stanno facendo e che iniziano a considerare la realtà: è bello creare una scuola informatizzata e digitale, che fa uso di strumenti moderni per l’insegnamento, ma bisogna GARANTIRE a tutti l’accesso a questi strumenti, mentre negli ultimi anni abbiamo assistito ad un continuo taglio delle risorse che lo stato destinava alla scuola.




Bibliografia:
https://www.miur.gov.it/scuola-digitale
https://miur.gov.it/web/guest/-/scuola-pubblicati-i-risultati-dell-indagine-sull-insegnamento-e-l-apprendimento-ocse-talis-2018
https://www.istruzione.it/scuola_digitale/allegati/Materiali/pnsd-layout-30.10-WEB.pdf

  ► Luoghi

Villa Lagarina (tn)
Villa Lagarina Il lago di Cei
Se si risale la Valdadige in direzione Trento, dopo aver passato la Valvenosta si giunge alla Vallagarina che si sviluppa a sud di Trento, nei pressi della città di Rovereto, e idealmente separa le Prealpi Bresciane da quelle Venete.
In questa valle, all’interno dell’ area protetta di Pran dell’Albi e ad un’altitudine di circa  900 metri, si trova il lago di Cei, circondato da boschi di abeti e faggi, con una variegata vegetazione acquatica dove predominano su tutte le altre piante ninfee e ranuncoli.
L'origine del Lago è dovuta ad una frana staccatasi probabilmente dal Monte Bondone intorno al 200 E.V. e   che nel corso di circa otto secoli ha favorito la formazione del lago. 

Il Lago di Cei presenta un biotopo caratterizzato da  una eccezionale varietà di essenze vegetali e molti animali tipici delle paludi: in effetti, se non fosse per le dimensioni, il lago ricorda molto una palude con le sue ninfee e piante acquatiche. Un percorso pianeggiante (lungo circa 1,5 km e molto semplice da percorrere) circonda il lago. Una volta completato il perimetro si aprono al turista curioso una serie di varie escursioni, più o meno impegnative, che si dipanano tra i boschi della zona.

In queste escursioni si possono ammirare una grandissima varietà di fiori (se la stagione è quella giusta), e i sentieri nei boschi sono ben segnati tanto che risulta molto difficile il perdersi. 
Per chi si sentisse più avventuroso,  è presente il “Nordic Walking Park”, composto da tre percorsi con diversa difficoltà e lunghezze che variano dai 7 ai 10 km con dislivelli da 0 a 100 metri.
Il bosco riserva anche diverse sorprese e curiosità sulla vita delle genti di montagna nei tempi passati come, ad esempio, le calchere, antichi forni che avevano lo scopo di creare la calce. Questi forni erano strutture di sassi squadrati e resistenti al calore; una volta riempiti di legname e rocce calcaree li si accendeva e si continuava ad alimentarli fino al raggiungimento di una temperatura di 800°-1000° C, quando la roccia calcarea perde l’anidride carbonica e si trasforma in calce viva. Visto che una volta raffreddata la calce doveva essere trattata con l’acqua questa zona ( ricordiamo che le Prealpi sono formate principalmente da rocce calcaree) si prestava alla presenza di questo tipo di attività.
Un'altra escursione permette di raggiungere la Malga Cimana e da qua proseguire fino alla chiesa di romanica di San Martin in Trasiél risalente all’anno 1000.
Nei vari sentieri tra i boschi è facile imbattersi in diversi capitelli e croci, segno tangente della religiosità che da sempre accomuna le genti di questi luoghi.
Sempre nei pressi del lago si può visitare la “Chiesetta de Probizer”, una piccola chiesetta dedicata a S. Maria Assunta che venne fatta costruire in stile neogotico da Francesco de Probizer negli anni tra il 1890-1891.

Per chi si trovi nei pressi di Trento e non lo abbia mia visto, una gita al lago di Cei è consigliata: questo piccolo e silenzioso specchio lacustre, incastrato in un fitto bosco, non fatica a svelare il suo fascino.
Caserta (na)
Caserta La Versailles italiana: La Reggia di Caserta
La Reggia di Caserta è capolavoro di architettura barocca voluto da Carlo III di Borbone, re di Napoli, la cui costruzione iniziò nel 1752. Nel 1767 Ferdinando IV la elesse a residenza reale (anche se solamente dal 1780 fu abitata) ma i lavori continuarono e l’edificio, fu completato solamente nel 1845.

Carlo III pensò di spostare la sede del governo al fine di preservarla da eventuali attacchi. La scelta cadde su Caserta, una località lontana dal mare e quindi meno soggetta agli attacchi ed alle cannonate delle navi e più facilmente difendibile dell’allora capitale Napoli. Visto che c’era Carlo III pensò bene di realizzare una reggia che potesse reggere il paragone con le altre residenze reali dell’epoca (in particolare Verrsailles e Schönbrunn) e, se possibile, superarne lo splendore. Il progetto fu affidato all’architetto Luigi Vanvitelli che si ispirò alla reggia di francese. Nacque così un edificio che è quasi il doppio di Versailles (1200 stanze contro le 700 di Versailles) e che, pur traendo ispirazione se ne discosta. Questo fu possibile anche perché il Vanvitelli poté operare patendo da zero, mentre la residenza d’oltralpe venne edificata su di un preesistente edificio in mattoni e pietra; in questo modo la Reggia di Caserta risulta, sebbene ispirata alla corte francese, un edificio con le sue caratteristiche uniche e peculiari che mescola due stili architettonici: il Barocco (come nella reggia di Versailles) e lo stile Neoclassico. Inoltre, mentre la reggia francese era adibita esclusivamente a ospitare il sovrano e la sua corte, quella partenopea aveva lo scopo di ospitare il governo e quindi numerose stanze erano adibite alle truppe o agli uffici amministrativi. 
La reggia di Caserta è una delle più belle residenze reali attualmente esistenti tanto da essere la sede di numerosi films, i più famosi dei quali “Star Wars: Episodio 1- La minaccia fantasma” ed il suo seguito “Star Wars: Episodio II- L’attacco dei cloni” dove il settecentesco edificio divenne la sede e la residenza della principessa Padmé Amidala e del governo del pianeta Naboo.  Ma quello di Lucas non è il solo film di successo internazionale che holliwood ha voluto girare nel monumento patenopeo: “Mission Impossible III”, “Angeli e Demoni” sono alcuni dei titoli più famosi, mentre per le pellicole nostrane vale la pena ricordare “Ferdinando e Carolina” di Lina Wertmuller, la fiction Rai “Giovanni Paolo II”, alcune scene della seconda stagione della serie “Elisa di Rivombrosa”, “Il Pap’occhio”.

Esternamente la reggia copre più di 61.000 mq di cui 45.000 circa sono occupati dell’edificio ed i rimanenti dal parco; si alza per cinque piani raggiungendo i 36 metri ed è comprende quattro cortili interni racchiusi in un rettangolo di 250 metri quadri per 200. Per realizzare questo immenso edificio, abbiamo visto ci volle più di un secolo ed il cantiere era immenso: all’apice lavoravano 2700 operai, 300 capomastri, 250 pirati turchi catturati in mare, 330 tra forzati e condannati. Per il trasporto del materiale si utilizzarono persino cammelli ed elefanti.
Superato l’ingresso si accede ad una lunga galleria che attraversa tutto l’asse centrale della reggia e sbuca nel vasto parco, pieno di fontane e vasche. Dalla galleria si accede anche alla visita interna dell’edificio al quale si accede tramite un’imponente scalone a guardia del quale stanno due state leonine. 
La reggia, appare oggi ben conservata ed i mobili (a differenza di quelli di Versailles) sono ancora quelli originali; l’interno è un susseguirsi di immense sale impreziosite da sculture, stucchi, bassorilievi ed affreschi curati in ogni dettaglio e perfettamente conservate. La sala del trono si trova a circa 200 metri dalle scale, in una stanza immensa, dove (viste anche le non notevoli dimensioni della seduta reale) sembra quasi irraggiungibile e distante tanto si perde nella vastità della sala. La stanza del trono è infatti larga 25 metri e lunga 40, con il tetto a volta che si innalza per 15 metri ed è ricoperto di decorazioni con solo due colori predominanti: l’oro ed il bianco.
Nella reggia è presente anche un teatro, voluto dal re dopo che i lavori erano già iniziati e, questo, portò a stravolgimenti nel progetto originale del Vanvitelli che riuscì comunque a realizzare un vero gioiello: una copia in miniatura del teatro San Carlo di Napoli, ed è composto da 42 palchi messi su 5 livelli diversi ed ogni palco è diverso da quello che lo precede. Una caratteristica del teatro sta nel palco che, dietro la scenografia, tramite due portali da accesso al parco che veniva utilizzato per ampliare le scenografie e renderle più spettacolari con incendi o fuochi d’artificio.

Esternamente la reggia è circondata da un parco di circa 120 ettari, anch’esso progettato dall’architetto Luigi Vanvitelli, e che impressiona il visitatore con la sua “via d’acqua”, ovvero una serie di cascate e vasche di hanno una lunghezza di 3 chilometri affiancati da due viali che raggiungono la sommità della collina antistante il palazzo. L’acqua arriva alle fontane tramite “l’Acquedotto Carolino”, anch’esso fatto costruire da Vanvitelli che raccogli l’acqua di sorgenti lontane 38 chilometri e la cui costruzione richiese sedici anni.
La cascata da qui parte l’acqua dalla sommità della collina rappresenta anche una novità ideata da Luigi Vanvitelli e chiamato “effetto cannocchiale” che consiste nella realizzazione di un enorme viale, completamente diritto, che partendo da Napoli termina, per l'appunto nella parte finale del parco della reggia sulla sommità della collina. Purtroppo la morte dell’architetto Vanvitelli, ideatore del progetto, i lavori si fermarono per 4 anni e, alla loro ripartenza, il parco venne terminato non come era nei suoi disegni originali ma come lo vediamo oggi che è una versione (seppur magnifica) ridotta del progetto originale. Nel 1777 il figlio di Luigi Vanvitelli, Carlo, che succedette il padre nella realizzazione dei lavori, presentò al nuovo re Ferdinando IV, una versione ridotta del progetto di suo padre. Infatti, le difficoltà economiche e l'esigenza di completare i lavori più rapidamente, costrinsero a ridurre il numero di fontane nella seconda parte del Parco.

La visita alla reggia è consigliata a tutti, ma bisogna essere disposti a camminare, non solo per la vastità dell’edificio, ma anche per i giardini. Il tempo è un’altra cosa che il visitatore alla reggia deve essere sicuro di avere, visto che ci vuole un’intera giornata.

San Benedetto Val di Sambro (bo)
 San Benedetto Val di Sambro Il lago di Castel dell'Alpi
Il Lago di Castel dell’Alpi si trova nel contesto dell’Appennino Tosco Emiliano all’interno del comune di San Benedetto Val di Sambro. Nel 1951 dal crinale nord-orientale del Monte di Cucchi si staccò una imponente frana che sconvolse un'ampia fascia di versante sino a raggiungere l'alveo del Savena e creando l’unico lago della provincia di Bologna formatosi naturalmente, ma che comportò la distruzione quasi completa dell’antico Borgo di Castel dell’Alpi di cui oggi rimangono solamente l’antica chiesa ed il campanile.
La forma dell’invaso è simile a un imbuto, dove la parte superiore è profonda poco più di 50 centimetri ed è sovrastata da due ponti, oltre il secondo dei quali il lago inizia ad allargarsi variando la sua profondità da tre metri e mezzo fino a tredici metri nella parte più centrale. Il lato dove si trovano i canneti e le legnaie proseguono fino ad un'ansa che è una delle zone di maggior interesse per i carpisti.
Il lago prosegue poi facendo una curva verso destra dove  sorgono numerosi alberi sommersi e profondi canneti che caratterizzano le sue sponde sempre meno accessibili.
Oggi il lago offre ai turisti piacevoli passeggiate nei boschi di castagni e querce che lo circondano e nel periodo estivo diventa una piacevole meta turistica, mentre la pesca è sempre abbondante: il lago è adatto a questo tipo di sport e vi si trovano carpe, tinche e lucci.

A soli 30 minuti da Bologna Castel dell’Alpi rappresenta un angolo meraviglioso di Appennino da non perdere; la camminata intorno al lago si può fare in circa 1h ed è adatta a tutti, anche ai bambini ed anziani:
lungo il percorso si trovano infatti panchine ed aree di sosta, mentre le salite, mai troppo impegnative, sono spesso aiutate da gradini. Nell'ultimo tratto del lungolago (quello vicino a via dei molini) c'è un capitello con una targa a ricordo del 50° anniversario della frana.

  ► Curiosità

Cos'è un ologramma
Cos'è un ologramma
Semplificando si può dire che un ologramma non è altro che un' immagine tridimensionale di un oggetto su lastra fotografica ottenuta sfruttandol'interferenza di due fasci di luce di un'unica sorgente laser: viene creato con la tecnica dell'olografia mediante impressione di una lastra o pellicola olografica utilizzando una sorgente luminosa coerente come è ad esempio un raggio laser.
Il fronte d’onda, a seguito di divisione, dà origine a due fronti d’onda, il fascio di riferimento e il fascio oggetto, che sono inizialmente completamente correlati e che seguono due strade diverse. Il fascio oggetto viene sovrapposto in quello che si definisce “piano immagine” al fascio di riferimento. L’interazione presenta una modulazione di intensità sul piano immagine.
Una delle caratteristiche degli ologrammi è che lastra olografica conserva il contenuto informativo in ogni sua parte quindi se si rompe in più parti la lastra è possibile ottenere la stessa immagine tridimensionale completa in ogni pezzo che risulta
Chi ha inventato l' F-16?
Chi ha inventato l' F-16?
Innanzitutto l’F-16 e’ nato da un TEAM, e ripeto TEAM di ingegneri.
Alla guida del team c’era Robert H. Widmer (1916-2011).Nato nel New Jersey, Widmer si laurea al Rensselaer Polytechnic Institute e ottiene un master’s degree al California Institute of Technology (il Cal Tech). Non riuscì ad arrivare al Ph.D perchè nel 1939 venne reclutato dalla Consolidated di San Diego, dove si occupo’ di PBY, PB2Y e B-24, l’aereo da combattimento americano maggiormente prodotto durante la Seconda Guerra Mondiale. Presso la Convair, Widmer fu responsabile dei test in galleria del vento del B-36 Peacemaker e come dello sviluppo del B-58 e F-111. Nel 1970 fu promosso vice-presidente per la ricerca e sviluppo degli impianti di San Diego e Fort Worth.
Widmer inizio’ a lavorare all’embrione dell’F-16 in gran segreto e senza informare i vertici della General Dynamics in quanto questi ultimi ritenevano che un aereo del genere non avrebbe avuto mercato.
Harry Hillaker, conosciuto anche come il “Padre dell’F-16”. Come Widmer, anche Hillaker all’epoca lavorava alla Convair con la qualifica di vice-capo ingegnere del programma Lightweight Fighter. Praticamente era il numero due subito dopo Widmer. Verso la fine degli anni sessanta Hillaker entro’ a far parte della Fighter Mafia.
Pierre Sprey non ha inventato l'f-16 (come spesso si sente dire) e non è da considerare il padre ti tale aereo (come affermato dalla trasimissione RAI “Presa Diretta” del febbraio 2013). Sprey era semplicemente un’analista di sistemi presso l’Office of Secretary of Defense (OSD), nonche’ membro della famigerata "Fighter Mafia" (un ristretto gruppo di ufficiali USAF e civili noto negli anni settanta per ssere stato uno dei piu’ influenti think tank militari in campo aeronautico)
Il Piano Bernadotte
Il Piano Bernadotte Nell'estate del 1948, il Conte Folke Bernardotte fu inviato dalle Nazioni Unite in Palestina per mediare una tregua e tentare di negoziare un compromesso. Il piano di Bernardotte chiedeva allo Stato ebraico di consegnare il Negev e Gerusalemme alla Transgiordania in cambio della Galilea occidentale. Questo piano era simile ai confini che erano stati proposti prima del voto sulla spartizione, e che tutte le parti avevano rifiutato. Ora la proposta veniva offerta dopo che gli Arabi erano andati in guerra per impedire la spartizione ed era stato dichiarato uno stato ebraico. Sia gli Ebrei che gli Arabi rifiutarono il piano.
Ironicamente, Bernardotte trovo' tra gli Arabi poco entusiasmo per l'indipendenza. Egli scrisse nel suo diario:
"Gli Arabi palestinesi al momento non hanno una volontà loro.
Ne' hanno mai sviluppato un nazionalismo palestinese specifico. La domanda di uno stato arabo separato in Palestina e' pertanto relativamente debole. Semberebbe proprio che nelle circostanze attuali gran parte degli Arabi palestinesi sarebbe alquanto contenta di essere incorporata nella Transgiordania" 
Il fallimento del piano Bernardotte giunse quando gli Ebrei cominciarono ad avere maggior successo nel respingere le forze arabe d'invasione e nell'espansione del loro controllo sui territori esterni ai confini della spartizione.

  ► Aerei

Tupolev Tu-28 - Tupolev Tu-128
Tupolev Tu-28 - Tupolev Tu-128 Tipo: Caccia intercettore
Ruolo: Caccia
Nazione di Origine: URSS
Armamento: Missili AAM Bisnovat R-4RM (2), AAM Bisnovat R-4TM (2)

Prestazioni: Velocità massima Mach 1,65. Autonomia 2565 km. Tangenza 15600 m
Dassault Rafale
Dassault Rafale Tipo: Aereo da caccia multiruolo
Ruolo: Caccia, Appoggio, Attacco, Bombardamento , Specializzato, Antinave
Nazione di Origine: Francia
Armamento: 1 cannone Giat 30 da 30 mm Bombe Paveway: GBU-12 Paveway II, GBU-24 Paveway III, missili _x000d_ aria-aria: MICA Meteor, R550 Magic, missili aria-superficie: Storm Shadow, Apache, missili _x000d_ antinave: Exocet. Armamento nucleare: ASMP (missile da crociera nucleare francese pre-_x000d_ strategico a medio raggio.)

Prestazioni: Velocità massima 2 Mac (2390 km/h in quota), Velocità di salita 304 m/s, Autonomia 3700 km, Raggio di azione 1850 km, Tangenza 16800 m
AIDC IDF Ching Kuo
AIDC IDF Ching Kuo Tipo: Caccia da superiorità aerea con ruolo secondario di attacco
Ruolo: Caccia, Attacco
Nazione di Origine: Taiwan ( su assistenza USA)
Armamento: missili Sidewinder, Sky Sword I e II. Bombe a guida laser GBU-12. Missili aria-_x000d_ superficie Maverick. Missili antinave.

Prestazioni: Velocità massima 1275 km/h. Tangenza 16760 m_x000d_

  ► Tutorials

Simulare Carica Altro con Jquery

I siti web moderni preferiscono all’impaginazione dei risultati delle query il caricare sulla stessa pagina altri risultati (il famoso Carica altro) tramite la pressione di un tasto/link o tramite il raggiungimento della fine pagina.
Tra i vari metodi disponibili il più semplice lo si ottiene tramite jquery e si può adattare a molti script e linguaggi.
Per fare questo usiamo due metodi che ci offre il frameworks jquery: .append e .load.
Il metodo .append serve per poter accodare un contenuto all’interno dell’elemento al quale è associato.
Il metodo .load carica, invece, il contenuto di un file all’interno di un div.
Per quanto riguarda l’html sarà sufficiente creare un div al quale assegnamo l’id “contenuto” all’interno del quale carichiamo la nostra pagina con i dati aggiuntivi.

<div id="contenuto"></div>

Per quanto riguarda lo script ci limitiamo a scrivere la funzione che carica la pagina dentro contenuto:

<script>
function aggiungi (pag) {
$('#contenuto').append($("<div>").load("caricaaltro2.aspx?id="+pag));
}
</script>

Nello script abbiamo aggiunto una variabile che passa il numero di pagina nel caso dovessi caricare più pagine.
Posso anche aggiungere la funzione che nasconde il div che mi mostra “carica altri”:


$("#linnk").click(function() {$(this).hide();});

Nella pagina caricata mi limiterò a inserire lo stesso script e lo stesso div.


 

Script completo prima pagina 

<%@ Page Language="VB" ContentType="text/html" ResponseEncoding="utf-8" %>

<!doctype html>
<head>
<meta http-equiv="Content-Type" content="text/html; charset=utf-8" />
<title>Documento senza titolo</title>


<style type="text/css">
body { color: #000; text-align:center; background-color: #FFF; }
.quadrati { width:200px; height:200px; margin:2px 2px 2px 2px; display:inline-block; border:#354D46 1px solid; }
img { height:100%; width:auto; max-width:190px; }
</style>
<%dim pag = 2%>
</head>

<body>
<p>CARICA ALTRO ESEMPIO</p>

<div class="quadrati">
<img src="https://www.filoweb.it/galleria2015/foto/R06939V9BEM0AWYTUVM5VOQMEP0Q9O.jpg" >
</div>

<div class="quadrati">
<img src="https://www.filoweb.it/galleria2015/foto/LN6VNQDBH_NH77SWWRRBP6YJX7BDMQ.jpg" >
</div>

<div class="quadrati">
<img src="https://www.filoweb.it/galleria2015/foto/LVXNE6SIG86TAO8YBPBK3Q6A9D5VAF.jpg" >
</div>

<div id="contenitore" style="width:100%;">
<div id="contenuto" style="width:100%;"></div>
</div>

<div id="blinnk"><a href="javascript:aggiungi(<%response.write(pag)%>);" id="linnk" style="width:100%; background-color:#354D46; text-align:center; color:#FFF;" title="Carica tutti" >CARICA ALTRI</a></div>

<script src="https://ajax.googleapis.com/ajax/libs/jquery/3.2.1/jquery.min.js"></script>
<script>
$("#linnk").click(function() {$("#blinnk").hide();});

function aggiungi (pag) {
$('#contenuto').append($("<div>").load("caricaaltro2.aspx?id="+<%response.write(pag)%>));
}
</script>

</body>
</html>


 

 

Script completo 2° pagina

<%@ Page Language="VB" ContentType="text/html" ResponseEncoding="utf-8" %>

<!doctype html>
<html >
<style type="text/css">
body { text-align:center; }
.quadrati { width:200px; height:200px; margin:2px 2px 2px 2px; display:inline-block; border:#354D46 1px solid; }
img { height:100%; width:auto; max-width:190px; }
</style>

</head>
<body>
<%
dim pag
pag=request.QueryString("id")
pag=pag+1
%>

 

 

<div id="contenitore">
<h3> questa è la pagina <%response.write(pag)%></h3>
<div class="quadrati">
<img src="https://www.filoweb.it/galleria2015/foto/YLAUXHFWF52IBFJC7TJAZ_Z9ESH799.jpg" >
</div>

<div class="quadrati">
<img src="https://www.filoweb.it/galleria2015/foto/PA8I4_C_J8GFA808JSS4QVQT9NK2FH.jpg" >
</div>

<div class="quadrati">
<img src="https://www.filoweb.it/galleria2015/foto/YLAUXHFWF52IBFJC7TJAZ_Z9ESH799.jpg" >
</div>

<div id="blink<%response.write(pag)%>" style="width:100%; background-color:#293343;"><a href="javascript:aggiungi(<%response.write(pag)%>);" id="linnk<%response.write(pag)%>" style="width:100%; background-color:#354D46; text-align:center; color:#FFF;" title="Carica tutti" >CARICA ALTRI</a></div>

<div id="contenitore" style="width:100%;">
<div id="contenuto" style="width:100%;"></div>
</div>

</div>

<div id="contenitore" style="width:100%;">
<div id="contenuto" style="width:100%;"></div>
</div>

<script src="https://ajax.googleapis.com/ajax/libs/jquery/3.2.1/jquery.min.js"></script>
<script>
$("#linnk<%response.write(pag)%>").click(function() {$("#blinnk<%response.write(pag)%>").hide();});
function aggiungi (pag) {
$('#contenuto').append($("<div>").load("caricaaltro2.aspx?id="+<%response.write(pag)%>));
}
</script>
</body>
</html>

Installazione offline di Visual Studio 2017

Visual Studio è un ambiente di sviluppo integrato sviluppato da Microsoft, che supporta attualmente (2018) diversi tipi di linguaggi come il C, il C++, il C#, il Visual Basic .Net, l’ Html, il JavaScript e molti altri. Visual Studio permette la realizzazione sia di applicazioni che di siti web, web application e servizi web di varia natura.
L'attuale distribuzione di Visual Studio (la 2017), che rappresenta l’ultima versione dopo 20 anni di evoluzione, è disponibile in 3 versioni:



• Community
• Professional
• Enterprise


Una delle novità più importanti riguarda la versione Community che è disponibile completamente gratuita e può essere scaricata e utilizzata liberamente.


Per installare la versione community (come anche le altre) è sufficiente scaricare il file di installazione, lanciarlo e decidere quali componenti installare. Il processo può risultare molto lungo, a seconda della lingua; un’altra soluzione consiste nello scaricare sempre il file di installazione e scaricare tramite uno script i file di setup da conservare per eventuali nuove installazioni.
Il processo risulta sempre lungo, ma una volta fatto ho i file sempre pronti.
Per fare questo per prima cosa devo scaricare il file di installazione da:
https://www.visualstudio.com/it/ e quindi salvarlo in una cartella.

Apro quindi il prompt dei comandi (cmd.exe) e mi posiziono nella cartella dove ho copiato il mio file di installazione (vs2017.exe) e scrivo il comando:



vs2017.exe --layout c:\vs2017setup --lang it-IT


In questo modo creo una cartella chiamata vs2017setup dove verranno scaricati tutti i file per l’installazione offline della versione in italiano (lang it-IT) di visual studio 2017.
Visto che in totale verranno scaricati più di 30Gb ci vorrà tempo ed una connessione veloce ( non obbligatoria ma consigliata).


Una volta terminato sarà sufficiente andare nella cartella di installazione ed eseguire il file di setup.

Note: Posso anche scaricare la versione non localizzata in italiano, ma con tutte le lingue disponibile, in questo caso devo prepararmi a scaricare più di 65Gb!!.

Iframe ad altezza variabile

Premetto che non sono un amante degli iframe (non più almeno) perché oltre ad essere deprecati nell’HTML5 fanno sembrare il sito più vecchio di almeno 6-7 anni dando un’idea di poca professionalità. Inoltre gli iframe sono stati creati per visualizzare pagine esterne al proprio sito web, all'interno dello stesso anche se spesso sono stati usati in maniera errata. Quindi si se si vogliono usare per includere pagine esterne, no per quelle interne meglio usare altri metodi come include, o jquery).

Dopo questa lunga e doverosa premessa passiamo ai fatti. Chi usa il tag iframe spesso ha la necessità di adattarne l’altezza in base al contenuto che viene caricato. I metodi che si trovano in rete sono molti ed io voglio qua proporre la mia personale soluzione in pochissime righe di codice: leggo l’altezza dell tagdel contenuto che carico e tramite jquery assegno l’altezza all’ iframe.
Certo posso scegliere anche il tago altro ma in questo mio esempio preferisco usarevisto che tutto il contenuto visibile in una pagina è racchiuso lì dentro.



Definiamo lo stile per il nostro iframe tramite css:
#mioiframe { width:100%; border:#293343 1px solid; height:300px; }



Scriviamo il nostro iframe.



<iframe src="pg.html" id="mioiframe" class="mioiframe" scrolling="no" frameborder="0" name="contenuto" onload="caricato()"></iframe>

Definiamo il nostro script che verrà chiamato al caricamento del contenuto dell’iframe:
function caricato() {
var mioif = $("#mioiframe").contents().find("body");
var h = mioif.height();
$("#mioiframe").height(80+h+"px");
};


Infine la chiamata alle pagine:


 <a href="pg1.html" target="contenuto" class="menu"> pagina 1 </a>
<a href="pg2.html" target="contenuto" class="menu"> pagina 2 </a>


Come si vede è tutto molto semplice, veloce e leggero…

  ► Varie

Appunti: Photoshop CC v.14 con esempi
Photoshop CC v.14 con esempi
Pamphlet: Bufale online
Bufale Online
Templates
Templates
FB TW whatsapp RSS FEED News letter

filoweb.it è il sito personale di Filippo Brunelli
(c) 2017 Filippo Brunelli
Le immagini ed i testi contenuti nel sito filoweb.it sono di proprietà di Filippo Brunelli salvo diversamente indicato.
L'uso delle immagini e del testo è gratuito per uso personale ed è subbordinato alla citazione della fonte.
Brunelli Filippo declina ogni responsabilità per l'uso che viene fatto delle informazioni presenti nel sito filoweb.it.