Filoweb.it
By Filippo Brunelli


FB TW Pinterest whatsapp RSS FEED News letter

  ► Magazine

L’Illusione Della Navigazione Anonima
L’Illusione Della Navigazione Anonima
A luglio 2019 Microsoft ha pubblicato un report che elenca le principali aziende che si occupano del tracking dei comportamenti dell’utente sui siti per adulti. Dalla ricerca emerge che Facebook, Google, Oracle e Cloudflare sono tra le aziende più attive in tale settore.
Non deve stupire questo, visto che questi siti utilizzano il tracking dei visitatori e dei naviganti per indirizzare gli advertisment sulle pagine web e per creare il loro introito. Dal report risulta che 93% dei siti analizzati utilizzano script che registrano le abitudini di navigazione degli utenti e, di questi dati, il 74% viene inviato a Google, il 24% ad Oracle, il 10% a Facebook ed il 7% a Cloudflare.
Ma la cosa che dovrebbe preoccupare chi naviga (non solo nei siti per adulti) è che solamente solo una piccola parte di questi cookies (meno del 20%) invierebbe i propri dati sfruttando algoritmi di crittografia e quindi in maniera sicura. Per rendere un’idea di quanto possano essere invasivi i cookies di tracciamento basta pensare che alcuni antivirus e anti-malware li considerano come elementi malevoli!

Sulla base di quanto sopra detto si potrebbe pensare che utilizzare un servizio di VPN oppure di Tor durante la navigazione permetta di risolvere i problemi di privacy e di mantenere l’anonimato ma non è proprio così.
Un recente un articolo che Sven Slootweg (uno stimato sviluppatore indipendente) ha pubblicato sul suo blog personale ha infatti scoperchiato un vaso di cui già i programmatori conoscevano il contenuto ossia che utilizzare una VPN non garantisce l’anonimato.
Spieghiamo subito, per chi non lo sappia, cos’è una VPN.
Se cerchiamo su wikipedia cosa sia una VPN la cosa che la maggior parte degli internauti capisce è che in italiano questo termine è la traduzione di rete privata virtuale ma del resto, probabilmente, capirebbe assai poco. Se si cerca su youtube o su internet si è portati a identificare le VPN con la navigazione anonima e con la possibilità di fare quello che si vuole online senza il pericolo di essere scoperti.
In realtà, come dice Slootweg la VPN non è altro che un server proxy glorificato dalla maggior parte degli utilizzatori di internet.
Quando un utente “naviga” su di un sito web si collega al proxy (un computer remoto) e gli invia le richieste, il proxy si collega al server ospitante il sito web e gli inoltra la richiesta dell’ utente; una volta ricevuta la risposta, il proxy la manda al client richiedente.
Solitamente l’utilità di un proxy consiste nel fatto che velocizza la navigazione in quanto i siti visitati recentemente da qualunque utente di quella rete, vengono memorizzati nel proxy che in questo modo evita di scaricarli nuovamente e possono essere ricevuti alla massima velocità permessa dalla propria connessione.
Tramite un Poxy è anche possibile, per i provider internet o per le autorità giudiziarie dei vari paesi, bloccare l’accesso a taluni siti web o applicazioni online.
In pratica un proxy non è altro che un ponte tra l’utente e il sito web interessato.
Visto che i proxy, nella maggior parte dei casi, sono gestiti direttamente dai provider di accesso internet questi memorizzano la navigazione di un utente associando il suo indirizzo ip ( indirizzo che viene assegnato ad una macchina quando si collega alla rete internet) e gli indirizzi che visita.
Una VPN lavora, in un certo senso, allo stesso modo: agisce come un tunnel tra due diverse reti quella dell’utente e quella che intende raggiungere (per questo le VPN sono spesso utilizzate nel darkweb, dato che permettono di raggiungere anche reti non raggiungibili dal normali canali), bypassando il fornitore di accesso ad internet di un utente.
Il problema che anche i server delle reti VPN memorizzano in un log la navigazione che viene fatta da un utente, se non altro per potersi eventualmente tutelare da eventuali azioni giudiziarie, ma non c’è nessuna certezza di quali utilizzi il gestore del server VPN faccia dei nostri log, se li vende ad agenzie di advertisment, o se utilizzi la connessione di un utente alla VPN per scopi non legali.
Ogni utente che utilizza una VPN è infatti collegato ai loro servizi tramite il proprio indirizzo IP e se qualcuno vuole intercettare la connessione basta che lo faccia un qualsiasi altro punto, come quando si collega o si scollega alla VPN.
Inoltre, sebbene la connessione ad una VPN sia criptata non sempre lo è il trasferimento di informazioni con un sito, come nel caso dell’invio di dati dai form, non tutti i siti web hanno la criptazione dei dati (vedere l’articolo https://www.filoweb.it/magazine/31-da-HTTP-a-HTTPS- .
Per finire per i moderni metodi di tracciamento l’indirizzo ip dell’utente sono meno rilevanti che nel passato e le grandi compagnie di marketing online utilizzano altre metriche per tracciare il profilo di chi utilizza un servizio e la sua identità.

A questo punto viene da chiedersi per quale motivo esistono le VPN se sono così poco sicure.
Bisogna prima di tutto considerare che le VPN sono nate per scopi aziendali, per dare modo ai dipendenti di accedere alle infrastrutture di un network privato da qualunque parte del mondo essi si trovino, la possibilità di essere utilizzate in ambito privato per dare l’idea di una navigazione anonima ha dato il via ad un business. La maggior parte dei servizi VPN disponibili sono a pagamento mentre quelli gratuiti sono pochi e consentono una limitata lista di utenti connessi contemporaneamente.
Si può scegliere di utilizzare una rete VPN nel caso ci si trovi ad utilizzare quella che viene definita connessione non sicura, come nel caso di aeroporti o stazioni o comunque connessioni wi-fi aperte, ma se il nostro intento è quello di navigare nel più completo anonimato allora rimane solo una sicurezza emotiva.
Sfumature Di Pensiero
Sfumature Di Pensiero
L’universalità di internet deve corrispondere all’universalità di un pensiero eticamente unificato?
Abbiamo assistito un paio di mesi fa a due eventi che ci portano a riflettere: la chiusura degli account Facebook dei profili di Casa Pound e di Forza Nuova e, pochi giorni dopo, la chiusura temporanea della pagina dei “Socialisti Gaudenti”.
È certamente giusto e doveroso da parte del gestore di un servizio non fomentare l’odio e l’intolleranza, nonché l’incitamento alla violenza, non solo per evitare eventuali conseguenze penali, ma anche per tutelare la propria reputazione.
Ma in base a cosa un’azienda prede queste decisioni?
Nel caso di Facebook, un’azienda statunitense con sede in America, le regole della comunità si basano sul "politicamente corretto" della società statunitense in termini di linguaggi, etica, immagini ammesse e lotta alla discriminazione sessuale, il tutto basato sul puritanesimo tipico della società statunitense.
Sugli stessi principi etici che intingono questo tipo di pensiero vediamo che la soluzione dei conflitti tra le persone all’interno della comunità virtuale vengono lasciate a loro, senza censurare l’utilizzo di insulti e, nel contempo, si lascia spazio ad un relativismo scientifico e culturale che spazia da i no vax agli ufologi, dai complottisti vari, ai terrapiattisti, in base al concetto tipicamente nord-americano che la libertà di parola deve valere sopra tutto.

Sebbene la rete internet stia sempre più diventando un sistema chiuso e proprietario rimane ancora una rete libera, universale e aperta ma, a differenza di appena 10 anni fa, è aumentato il numero di persone che ne usufruiscono mentre è diminuito nel contempo il numero di siti che vengono visitati. Certamente anche allora la maggioranza degli utenti visitava sempre stessi siti, ma oggi gran parte degli internauti va solamente a visitare i social network come Facebook, Twitter, Instagram, Vk e, da qua, nasce una riflessione importante: quanto una società privata, con sede all'estero, abbia il diritto di decide che cosa sia pubblicabile o meno aldilà delle leggi di un paese e della sua Costituzione?
La prima causa di questa polarizzazione etica è dovuta, nel vecchio continente, all’arretratezza Europea nei confronti degli USA nel settore dei Social Network e dei motori di ricerca che ha portato un’egemonia culturale della società nord-americana nei nostri confronti, un’egemonia che è accentuata anche dalla presenza in massa della società americana nelle nostre televisioni nella maggior parte delle serie televisive, dei film e dei libri.
Alcuni paesi, come la Cina o dove vigono regimi totalitari o teocratici, lo stato tende a limitare l’accesso ad alcuni siti o social per, a detta dei censori, tutelare la cultura autoctona, ma in realtà queste forme di censura servono solo a tutelare loro stessi.
Chiaramente la censura ed un atteggiamento pregiudiziale nei confronti di altri modi di pensare non è, e non potrà mai essere, la soluzione ad un’egemonia culturale che si impone in maniera indiretta, così come non è possibile illudersi di cambiare gli atteggiamenti radicati. Bisogna, invece cercare di evitare il monopolio culturale ed ideologico dei social network recuperando il divario tecnologico che ci separa dalla società americana, incentivando lo sviluppo di nuove idee e favorendo la nascita di società tecnologiche sul territorio europeo.
Fare questo non vuol dire chiudersi su se stessi o avere atteggiamenti che vengono considerati di una determinata visione politica, ma è importante considerare che, se ad esempio, negli Stati Uniti mostrare il seno in pubblico è considerato immorale, in Europa, una simile concezione è diversa e così, un post che mostra una donna a seno nudo che manifesta a favore della prevenzione del tumore non è considerato immorale e, quindi censurato, a differenza di quello che succede oltreoceano.
Sempre nelle differenze tra cultura Statunitense e cultura Europea vediamo che da noi è più facile fare battute su un determinato gruppo culturale o linguistico (le famose barzellette: c’è un Italiano, un Francese, un Tedesco...) mentre negli Stati Uniti questo può venir considerato scorretto e razzista.
Nell’ambito dei social network queste differenze sono ancora più enfatizzate e gli algoritmi ed i robot che si occupano di valutare il contenuto di un post sono tarati su quello che è considerato “bene” dalla cultura che lo ha generato, in questo caso quella Americana che è molto diversa da quella europea.

L’ esempio di paese che è riuscito a mantenere una propria identità online è quello della Russia.
Nel 1997 (un anno prima di Google) nasce Yandex, un motore di ricerca costruito sul linguaggio e gli algoritmi russi che ancora oggi è più utilizzato di Google in tutti i paesi di lingua e cultura Russa che facevano parte dell’ex URSS, offrendo gli stessi servizi (che vanno dal noleggio auto alla vendita online, dalle mail gratuite alla richiesta di taxi) che sono offerti dai colossi made in USA ma pensati per un bacino di utenza culturalmente diverso. Nel 2011 la società è stata quotata nella borsa di New York ed ha ottenuto un valore di 1.3 miliardi di dollari, aprendo poi filiali in tutto il mondo, proprio come BigG e Facebook.
Vediamo quindi che, agevolare la nascita di motori di ricerca e social network a livello nazionale non vuol dire solamente tutelare la propria cultura ma anche offrire la possibilità di nascere ad aziende che hanno il potenziale di creare indotto e ricchezza per un paese.
Certo a livello Europeo le cose sono un po’ più complicate, siamo un insieme di stati e popoli che tendono ad avere una visione nazionalistica del concetto di unione europea ed abbiamo una moltitudine di lingue che complicano la realizzazione di un progetto europeo, ma recuperare il tempo perso non è impossibile ed è ancora fattibile.
La Rivincita Dell’Open Source
La Rivincita Dell’Open Source
Quando Linus Torvald nel 1991 ideò un proprio sistema operativo per testare il suo nuovo computer a 32 bit non pensava certo che avrebbe creato una rivoluzione nel mondo dell’informatica e di rimanere, nel contempo, sconosciuto alla maggior parte delle persone comuni.
La prima volta che sentii parlare di linux avevo poco più di vent’anni ed era al corso di informatica di ingegneria dell’università di Padova; fino ad allora la mia conoscenza dei computer era quella che avevo maturato durante gli anni sui computer a 8 e 16 bit (Comodore, MSX, ecc) e sul mio PC 8088 con sistema operativo DOS che, con grande disappunto, scoprii di dover cambiare per poter installare ed utilizzare quel sistema operativo da casa anziché i computer dell’università.
Per chi volesse approfondire la genesi di questo sistema operativo consiglio il bellissimo libro di L. Torvald e D. Diamond “Rivoluzionario per caso. Come ho creato Linux (solo per divertirmi)”, mentre chi vuole sapere quale importanza ha avuto questo progetto nel mondo dell’informatica e come mai grandi nomi dell’informatica si stiano sempre più avvicinando al mondo dell’Open Source consiglio di proseguire con la lettura di questo articolo.


Visto che il nome completo di linux è GNU/Linux, per capire di cosa parleremo, bisogna prima di tutto chiarire il concetto di software libero e di cosa significa quell’ acronimo ricorsivo che precede il nome del sistema operativo.
Nel 1985 l’informatico Richard Stallman fondò un’ organizzazione senza fini di lucro per lo sviluppo e la distribuzione di software libero, in netto contrasto con il mercato dei software protetti che si stava sviluppando. L’idea di base era che un codice sorgente deve essere pubblico per poter essere modificato in base alle necessità di chi lo utilizza. In realtà l’idea di Stallman era già nata l’anno prima con il progetto GNU ("GNU's Not Unix") per creare un sistema operativo Unix like libero nell’utilizzo e libero di essere modificato a piacimento. Purtroppo l’idea di Stallman non riuscì per molti anni a realizzarsi in quando non era ancora stato sviluppato un Kernel1.
Nel 1991 un giovane studente di informatica dell’università di Helsinki passò l’estate chiuso in camera sua a creare un proprio sistema operativo per testare il suo nuovo computer basato su processore i368 e, una volta finito di elaborare il progetto, lo mise in rete (all’epoca la maggior parte degli utilizzatori di internet erano nerd, studenti, professori universitari, organizzazioni governative) per condividerlo chiedendo solamente che gli venisse mandata una cartolina da coloro che provavano e apprezzavano il suo lavoro; questo studente era Linus Torvald che in breve tempo si ritrovò la camera piena di cartoline da tutto il mondo!
Torvald decise di distribuire il suo sistema operativo sotto la licenza Open Source che è caratterizzata da quattro principali caratteristiche: libertà di eseguire il programma per qualsiasi scopo, libertà di studiare il programma e modificarlo, libertà di ridistribuire copie del programma, libertà di migliorare il programma e di distribuirne pubblicamente i miglioramenti. Da allora Linux si è sviluppato tramite molti collaboratori che vedendone il codice lo migliorano, lo implementano e lo ridistribuiscono, mentre il suo creatore mantiene solo il ruolo di coordinare e decidere quali migliorie possono essere implementate e ridistribuite.
La nascita di Linux coincide anche con due grandi momenti della storia dell’informatica: la grande distribuzione e disponibilità di computer presso gli utenti finali e la diffusione di Internet.
Molte aziende di software iniziarono a distribuire versioni personalizzate di Linux (per questo quando si parla di questo sistema operativo si parla di distribuzione mentre quando si parla di versione ci si riferisce alla sola versione del Kernel) facendo pagare solo il costo del supporto (nel caso venga distribuito su CD) e dell’assistenza.
Visto che linux è un sistema operativo Unix-Like ci si accorse subito di quanto era indicato allo sviluppo dei server e, avendo un prezzo pressoché nullo, ottenne un grande successo nei primi internet provider che offrivano accesso alla rete e che ospitavano i primi siti web che stavano nascendo, permettendo di abbattere i prezzi ai fruitori di tali servizi. Per fare un esempio consideriamo che senza Linux, oggi, non avremmo Facebook, Twitter e moltissimi social network che sono nati inizialmente su hosting linux visto il budget limitato dei loro creatori; allo stesso modo il sistema operativo Android (che equipaggia la maggior parte degli smartphone in circolazione) è stato sviluppato da Google sul kernel Linux 2.6 e 3.x ed è per la maggior parte (a parte alcuni firmware2 proprietari) un progetto open source coordinato da Google che prende il nome di “progetto Open Source Android”.


Negli ultimi vent’anni sono state sempre di più le aziende che hanno abbracciato più o meno completamente, il mondo dell’Open Source. Un esempio eclatante è quello della storica azienda americana IBM che ha iniziato ad avvicinarsi all’Open Source fin dal 2004 quando al Linux World Conference & Expo a San Francisco, Nick Donofrio, senior vice president of technology and manufacturing di IBM, ha fatto sapere che Big Blue “non ha nessuna intenzione di usare i brevetti in possesso per attaccare Linux”.
In quel tempo, infatti, IBM deteneva circa 60 brevetti che si supponeva Linux potesse infrangere. La speranza di Donofrio, all’epoca, era anche che altre aziende seguissero l’esempio di IBM, poiché prevedeva una notevole diffusione del movimento open source nella decade successiva. Nel 2013 Big Blue sancisce la nascita della OpenPOWER Foundation, una comunità tecnica aperta, basata sull’architettura Power di IBM, il cui obiettivo è creare un ecosistema open, disposto a condividere competenze, investimenti e proprietà intellettuale di classe server, per facilitare l’innovazione a livello hardware e software e semplificare la progettazione dei sistemi.


L’open source è stato anche alla base di uno dei progetti informatici sociali più rivoluzionari a livello mondiale: “One Laptop Per Child”  (http://one.laptop.org/) ideato da Nicolas Negroponte.
OLPC è un'organizzazione no-profit che si prefigge come scopo aiutare i bambini più poveri del mondo attraverso l'istruzione e, per raggiungere questo l'obiettivo, l’intenzione è di fornire ad ogni bambino un laptop robusto, a basso consumo, connesso ad internet ad un prezzo di solo 100$ (in realtà la prima fornitura di computer nel 2007 ebbe un costo di 130$ al pezzo).  È chiaro che senza un sistema che sta alla base open source non sarebbe mai stato possibile riuscire in questo intento e molti altri progetti open source (come wikipedia) hanno offerto la loro collaborazione al progetto. Malgrado l’idea però il progetto non riuscì mai ad emergere completamente in quanto l’avvento degli smartphone economici (che utilizzano sempre sistemi operativi open source) fa sembrare inutile la creazione di un computer con quelle caratteristiche.


L’ultimo annuncio importante nel mondo dell’open source viene dall’azienda cinese Huawei che, dopo le dichiarazioni del presidente USA Trump su eventuali embarghi americani, ha iniziato la prima distribuzione di personal computer laptop con sistema operativo Linux anziché windows (con un risparmio notevole per l’utente finale che non deve pagare la licenza) e che, nel contempo, sta sviluppando un suo sistema operativo per i suoi smartphone, sempre basato sul kernel di Linux e sempre Open Source.
Visto che sempre più app e servizi si stanno spostando all'interno del mondo delle web app questa potrebbe essere una buona occasione per favorire la diffusione di sistemi operativi alternativi a Windows?
D’altronde sono sempre più le aziende, pubbliche o private, che stanno passando al software libero: nel giugno del 2019 il CERN (lì dove è nato il World Wide Web!) ha avviato un ambizioso piano di trasformazione del suo reparto IT per sganciarsi dalle insostenibili richieste economiche del software a codice chiuso fornito da Microsoft (che non fornirà più le licenze accademiche al centro ricerche) e passare a software Open Source, così come ha già fatto il governo sud coreano e così come stanno facendo molte pubbliche amministrazioni che sono, inoltre, obbligate a rilasciare in formato open source il software che loro stesse sviluppano.

La stessa Microsoft, che per anni si è battuta per le licenze software chiuse, d’altronde, ha iniziato un lento avvicinamento al mondo dell’open source entrando nella Linux Foundation con un esborso annuo di 500 mila dollari che le permette di sedere nel consiglio d’amministrazione della fondazione.
Alla fine degli anni ’90 del secolo scorso Microsoft e Linux erano visti come due mondi opposti ed erano considerate dai loro utilizzatori scelte di vita piuttosto che semplici opzioni informatiche, tanto che nel 2001 l’allora CEO di Microsoft Steve Ballmer definì Linux come un “cancro”, mentre oggi, con l’entrata di Microsoft nella Linux Foundation, Scott Guthrie (Vice President di Microsoft Cloud ed Enterprise Executive) commenta: “Linux Foundation è la casa non solo di Linux, ma anche dei progetti più innovativi della comunità open-source. Siamo entusiasti di aderire alla Linux Foundation”.
Così anche Microsoft, insieme a grandi aziende come Cisco, Fujitsu, HPE, Huawei, IBM, Intel, NEC, Oracle, Qualcomm, Samsung, Google e Facebook entra a far parte del mondo Open Source anche se questo non vuol dire che Windows e Office saranno distribuite gratuitamente.
L’avvicinamento di Microsoft al mondo Open è stato graduale e continuo, seppur lento. Per fare un esempio il 40% delle macchine virtuali su Azure (il cloud Microsoft per lo sviluppo) sono basate su Linux, mentre Windows 10 versione per sviluppatori contiene strumenti software open source che provengono sempre dal mondo Linux: dalla Bash (la classica shell o prompt dei comandi), agli strumenti di sviluppo che possono essere integrati dentro Windows 10 accanto ai classici di Microsoft come PowerShell, Chakra Core e Visual Studio Code. Da qualche tempo, inoltre, Microsoft ha stretto una partnership con Canonical per portare Ubuntu (una delle più famose distribuzioni Linux) su Windows 10.


Nel giugno del 2018 Microsoft ha acquistato il principale social network per gli sviluppatori, github.com, ad un prezzo di 7,5 miliardi di dollari quando nel 2016 il servizio ha incassato solamente 98 milioni di dollari in nove mesi, a fronte di una valutazione del 2015 che vedeva  GitHub quotato due miliardi di dollari. Perché allora Microsoft ha pagato così tanto questa piattaforma che sviluppa essenzialmente progetti Open Source?
Su questa piattaforma sono attualmente ospitati 80milioni di progetti software ed è utilizzata da  27 milioni di utenti, per la maggior parte sviluppatori. Se si considera che negli ultimi dieci anni  non è emersa nessuna infrastruttura software a livello di piattaforma dominante in forma chiusa o proprietaria, ma tutte sono nate da idee e progetti open source (come ad esempio MongoDB) e che moltissime app si basano su piattaforme open source, è facile immaginare che la scelta di Microsoft sia soprattutto quella di invogliare gli sviluppatori ad utilizzare le sue piattaforme (come Azzure) piuttosto che voler vendere più software. Ecco quindi che alcuni programmi per lo sviluppo, come  Visual Studio,  sono messi a disposizione da Microsoft nella versione base libera di essere scaricata ed installata, mentre per le versioni superiori si continua a dover pagare la licenza; Visual Studio Code  viene distribuito con licenza permissiva e alcuni dei componenti core di .NET vengono rilasciati addirittura con licenza open source.
È facile supporre che, dopo aver perso la sfida nel mondo degli smartphone, Microsoft non intenda ripetere la stessa esperienza nel mondo dello sviluppo dei software ed abbia intenzione di avviare quel processo che IBM ed altre aziende hanno già iniziato: dal 2016, infatti, il software open source è alla base dei quattro pilastri – mobility, cloud, social business e big data3 – della trasformazione digitale in atto.

 



1 Il kernel è il componente centrale di ogni sistema operativo che ha il compito di  fare da ponte tra le componenti hardware di un computer – come processore, RAM, hard disk, ecc. – e i programmi in esecuzione sulla macchina.
2 Il firmware non è altro che un particolare tipo di programma, normalmente memorizzato su una piccola memoria non volatile (quindi una rom) , posto all’interno di un computer, di uno smartphone, di un tablet, di un masterizzatore, di una smart TV e in quasi tutti i dispositivi elettronici, con il compito di far correttamente avviare il dispositivo e di far dialogare l’hardware con il software.
3 Con il termine Big Data si intende la capacità di usare la grande quantità di dati che vengono acquisiti (solitamente online attraverso i social network, la navigazione, lo scarico di file, ecc.) per elaborare, analizzare e trovare riscontri oggettivi su diverse tematiche.

  ► Ricette

Tacchino ai peperoni e crema di latte
Tacchino-ai-peperoni-e-crema-di-latte Ricetta per due persone.
Preparare le fettine di tacchino impannate con abbondante farina.
Tagliare a fettine i peperoni e la cipolla.
In una padella soffrigere la cipolla ed aggiungere i pezzettini di peperoni, dopo qualche minuto spostare in un lato della padella i peperoni e mettere le fettine di tacchino cuocendole per qualche istante su ogni lato fino a quando non avranno ottenuto una bella doratura.
Aggiungere il latte, coprire con un coperchio e finire di cuocere a fuoco medio per qualche minuto.

Petti di pollo al Pompelmo Rosa
Petti-di-pollo-al-Pompelmo-Rosa

Il pollo al pompelmo rosa è un piatto saporito e veloce da preparare. Sebbene il pompelmo sia una frutto relativamente giovane nelle nostre tavole l’abitudine di insaporire le carni con gli agrumi affonda le radici nella tradizione culinaria italiana e quindi non v’è nulla di strano ad usare il pompelmo, soprattutto con una carne come quella del pollo che si presta a molte combinazioni.

Impannare con abbondante la farina i petti di pollo.
Spremere il succo dei pompelmi.
In una padella sciogliere il burro e far rosolare le foglie di salvia fresca, quindi adagiare le fette di pollo impannate e cuocerle 3-4 minuti per lato (o fino ad ottenere una bella doratura) a fuoco vivo, quindi abbassare la fiamma e aggiungere il succo di pomplemo.
Cuocere per 5-7 minuti per far condensare il succo.
Prima di servire regolare il sale.
Volendo si possono aggiungere alcuni grani di pepe verde che sposa bene con il pompelmo ed il pollo.

Spaghetti con i gamberoni al mojito
Spaghetti-con-i-gamberoni-al-mojito
Dosi e ricetta per 2 persone.
Pulire i gamberoni e sgusciarli ( tenerne 2 per con il carapace per decorare), quindi metterli a marinare per almeno 1 ora i gamberoni con il lime, la cachaca e la menta a pezzetti; la quantità di menta dipende dai gusti.

Mettere a scaldare l’acqua per la pasta e quando bolle buttare gli spaghetti. Mentre si cuoce la pasta mettere a scaldare 1 spicchio d’aglio con l’olio d’oliva, quindi aggiungere i gamberoni e farli rosolare. Aggiungere la marinatura e finire di cuocere i gamberi.
Rimuovere quindi i gamberi e mettere a cuocere, nella stessa padella ed assicurandosi di mantenere la marinatura i pomodorini.
Quando la pasta è pronta, prima di scolarla, aggiungere nella padella calda, insieme ai pomodorini i gamberoni ed in fine la pasta scolata.

Impiattare e servire caldo!

  ► Luoghi

Trieste (ts)
Trieste Il castello di Miramare
Il castello di Miramare fu fatto edificare da Ferdinando Massimiliano d'Asburgo su di un promontorio a strapiombo sul mare, nei pressi della baia di Grignano, quando divenne Imperatore e dove visse con la moglie Carlotta prima di essere assassinato in Messico dopo che si ritirò dagli incarichi politici, visto che era considerato dal fratello Francesco Giuseppe un sovrano troppo moderno ed estraneo ai piani dell’impero austriaco.
Lo stesso Carducci che ebbe modo di visitare la città di Trieste nel luglio 1878 scrisse il componimento “Miramar”, pubblicato nel Libro I delle Odi Barbare e che fu ispirato proprio da questo bellissimo castello. 

Massimiliano, era affascinato dalla marina e dal mare e questa sua passione si trova nelle sue stanze personali del castello: la camera da letto privata risulta piccola e razionale come la cabina di una delle sue navi o nella IV sala, detta Saletta Novara che era lo studio dell'Arciduca e che è la perfetta riproduzione del quadrato di poppa della fregata "Novara". Queste due stanze rappresentano però l’eccezione delle stanze in quanto l’arredamento nel resto del castello ha la raffinatezza dei mobili europei più belli delle nazioni all’ora considerate “civili” e non mancano elaborati lampadari e sontuose stanze, nonché una nutrita biblioteca.
Il fatto che l’arciduca avesse seguito personalmente la progettazione del castello si nota nel rapporto che quest’edificio ha con il mare antistante nel quale si immerge lentamente tramite scenografica sequenza di scale e balaustre, mentre all’interno del castello le stanze hanno enormi finestre si affacciano sul Golfo di Trieste.

Il parco del castello è un rigoglioso giardino di circa 22 ettari che circonda il castello. Fino alla metà del XIX secolo sul promontorio di Grignano era paesaggio tipico della flora carsica; quando il granduca decise di costruirvi un castello ed un parco la sua intenzione fu quella di riuscire a coniugare i principi dei giardini nordici con la ricchezza botanica mediterranea, ispirandosi ai criteri compositivi del giardino romantico ottocentesco. Si inizio così l’acquisto di lotti di terreno, affidando rispettivamente, la realizzazione del piano architettonico e quello del parco all’architetto Carl Junker ed al giardiniere Wilhelm Knechtel.
Nel parco vennero realizzati numerosi padiglioni: il Castelletto (Garten Haus) dove l’arciduca
Massimiano visse in attesa della costruzione del castello, la Kaffeehaus, lo Chalet svizzero, e molti altri edifici come la Radonetz, casa Gerlanz o la casa Jelinek, le scuderie, il portale principale di accesso con annessa portineria sulla carrozzabile verso la città, diverse voliere e gazebo.

Sicuramente chi si trovasse a Trieste e volesse rivivere lo spirito romantico della fine ‘800 deve visitare il castello di Miramare, una bianca perla che si affaccia sul mare ed il suo parco, lo sfondo perfetto per la storia d’amore di Massimiliano e Carlotta che purtroppo non poterono viverlo

Sanzeno (tn)
Sanzeno Sentiero nella Roccia per San Romedio
Se si passa per la Val di Non l’antico e pittoresco paesino di Sanzeno merita sicuramente una visita. Se poi si ha voglia di farsi una piccola camminata dal suo centro si dipana un sentiero che attraverso valli, boschi, meleti porta all’antico santuario di San Romedio.
Per chi, come chi scrive, ha avuto la possibilità di fare il percorso durante l’autunno può facilmente avere la sorpresa di trovarsi a camminare attraverso meleti i cui frutti colorati vanno dal rosso al giallo passando per il verde chiaro. Appena usciti dai meleti si incontra un bosco che ci accompagnerà per quasi tutto il percorso che viene interrotto solamente quando incontra lo sperone di roccia attraverso il quale è stato scavato un percorso che sale lungo la montagna in maniera gradevole e per nulla impegnativa.
Sicuramente questo punto del percorso è quello più affascinante offrendo un panorama mozzafiato perpendicolare alla strada ed ai boschi sottostanti o alla vallata che ci lasciamo alle spalle.
Dopo circa un’ora di passeggiata (sono circa 5Km tra andata e ritorno) si raggiungono le pendici della roccia, alta circa 90 metri, sulla quale sorge il Santuario di San Romedio, uno dei più caratteristici eremi presenti in Europa.
Secondo la leggenda fu qui che San Romedio visse come eremita in compagnia solo di un orso ed è per questo che in un’area faunistica adiacente l’ingresso è ospitato un orso trentino di nome Bruno che vive in semilibertà ed è diventato la mascotte del luogo.
È dal 1958, quando il senatore conte Gian Giacomo Gallarati Scotti, membro d’onore del comitato di fondazione del WWF in Italia, comprò Charlie, un orso destinato a morire perché la sua pelle fosse venduta, e lo donò al santuario di San Romedio che l'area faunistica del santuario di San Romedio ha iniziato a dare asilo ad esemplari di orso altrimenti destinati ad una sorte più triste. Il senatore Gallarati Scotti ricordò la leggenda del santo che, ormai vecchio, si sarebbe incamminato verso la città deciso ad incontrare il Vescovo di Trento Vigilio. Lungo il percorso il suo cavallo sarebbe stato sbranato da un orso, Romedio tuttavia non si diede per vinto e avvicinatosi alla bestia sarebbe riuscito miracolosamente a renderla mansueta e a cavalcarla fino a Trento. Quando al ritorno da Trento Romedio scelse di dedicare la sua vita all'eremitaggio, l'orso divenne il suo unico compagno fino alla morte.

Il Santuario di San Romedio è formato da cinque piccole chiesette sovrapposte costruite fra il 1000 ed il 1918, tutte edificate su uno sperone di roccia e unite tra loro da una lunga scalinata di 131 gradini.
La chiesa Antica, la prima costruita e che conserva in urne le reliquie del Santo si trova all’entrata, del complesso, segue la chiesa maggiore di S. Romedio eretta nel 1536, la chiesetta di S. Michele che è databile intorno al 1514, la chiesetta di S. Giorgio del 1489 per finire con la chiesetta dell'Addolorata, costruita in ringraziamento per la pace dopo la guerra del 1915-18.
All’interno della chiesa sono conservati moltissimi ex voto, alcuni dei quali (i più antichi sono del del XV, XVI e XVII secolo) sono vere e proprie opere d’arte, ma, d’altronde, tutte le chiese antiche che compongono il santuario sono piene di affreschi che meritano di essere ammirati.
Al ritorno il visitatore può scegliere di fare la strada normale asfaltata più corta oppure ripercorrere il sentiero e ammirare la bellezza delle vedute da un’angolazione diversa
Matera (mt)
Matera La Capitale Europea della Cultura 2019
Matera è una città che è rimasta immutata nei tempi e visitare la città è come entrare in un presepe tanto che nel 2004 Mel Gibson decise di girare qua il suo film “The Passion of Christ”; ma quello di Gibson non è ne il primo ne l’ultimo dei film girati in questa città. Negli anni altri famosi registi hanno ambientato i loro capolavori in questa città tra questi ricordiamo “La Lupa” del 1956 di Lattuada, “Anni ruggenti” di Luigi Zampa del 1962, “Il vangelo secondo Matteo” di Pasolini del ’64, “Cristo si è fermato a Eboli” di Rosi nel  1979, “L’uomo delle stelle” di Tornatore (1995), il remake di “Ben Hur” del 2015, per finire nel 2019 con “No Time to Die” l’ultimo film della saga di 007.
Questa luna lista di film severe solo per dare un’idea di come sia speciale la città dei sassi dove, fino agli anni ’50, la maggior parte della popolazione viveva ancora nelle case grotte come ai tempi dei primi insediamenti. 

Matera è una città nata nel tufo, che i geologi chiamano calcarenite, un materiale friabile e adattabile che i maestri artigiani del luogo hanno imparato a lavorare con grande maestria e, mentre scavavano per estrarre il tufo, alla gente del luogo sembrò normale crearsi l’abitazione all’interno di quelle rocce. Piano piano il numero delle abitazioni è cresciuto e nella stesa roccia vennero scavate viuzze, chiese, piazze creando la struttura urbana della città che conosciamo oggi e che diede il soprannome a Matera di città dei Sassi.

Negli anni ’50, per proteggere gli abitanti dalle malattie dovute alla scarsa igiene nella quale vivevano il governo italiano creò la città nuova dove vennero fatti spostare gli abitanti dei sassi: dopo la Seconda Guerra Mondiale, con la denuncia di Carlo Levi, Matera fu presa a modello di quello che era l’arretratezza e la povertà dell’Italia meridionale. I Sassi erano un groviglio di case sovraffollate, sporche, in cui mancano le più elementari condizioni sanitarie per vivere degnamente, a partire dalla mancanza di fogna e di acqua corrente, tanto che la mortalità infantile era una delle più alte in Italia (su 1000 bambini nati 463 nascevano morti, contro la media nazionale ferma a 112).
Per volere di Adriano Olivetti (all’epoca presidente dell’Istituto Nazionale dell’Urbanistica) nacque la “Commissione per lo studio della città e dell’agro di Matera”, con lo scopo di avviare un’indagine per conoscere a fondo le condizioni di vita degli abitanti dei Sassi e successivamente proporre soluzioni per trasferirli in quartieri nuovi. Nel maggio 1952 lo Stato Italiano, con l’allora presidente del consiglio Alcide De Gasperi e con il ministro Colombo, tramite la “Legge Speciale per lo sfollamento dei Sassi” impose a circa diciassettemila persone, di abbandonare le proprie case per trasferirsi nei nuovi rioni.
I Sassi divennero così una città fantasma e gli ex abitanti ottennero case nuove pagando canoni di affitto irrisori in cambio della cessione delle loro vecchie dimore al demanio. Il degrado e l’abbandono si impossessarono delle grotte e delle chiese rupestri, mentre la città si espandeva nei quartieri nuovi secondo il Piano Regolatore.
Nel 1986, grazie alla Legge Speciale n. 771, si autorizzò i cittadini a tornare nei vecchi rioni in tufo per farli rivivere, invertendo quello che era stato il flusso forzato verso i nuovi quartieri; questo periodo rappresenta l’inizio di una nuova alba per i Sassi e per la città trasformando quello che era chiamato la “Vergogna nazionale” in uno dei centri storico culturali più importanti ed unici del mondo.
Bisogna però aspettare il 9 dicembre del 1993 affinché l’UNESCO dichiarasse i Sassi “Patrimonio Mondiale dell’Umanità”, facendone il sesto sito italiano ad entrare a far parte di questo speciale elenco, ed il primo dell’Italia meridionale.
Negli anni seguenti la città è cresciuta e con essa anche il turismo vedendo la nascita di numerosi ristoranti, hotel e b&b.

Tra i luoghi da visitare nella città dei sassi sicuramente non bisogna perdere il “Palombaro lungo”, la grande cisterna che si trova sotto la centrale piazza Vittorio e che venne utilizzata fino ai primi anni del ‘900 per la raccolta dell’acqua potabile. Per visitare questo luogo esiste un suggestivo percorso, la cui visita deve essere prenotata, che permette di osservare questa incredibile cisterna scavata nella roccia che è una tra le più grandi al mondo.
Per chi visita Matera, poi, imperdibile è la visita a una delle tante casa-grotta scavate nella roccia che sono state oggi recuperate e trasformate in musei dove è stato ricostruito il tipico ambiente nel quale vivevano i materani fino alla metà del secolo scorso; così come imperdibile risulta la visita alle chiese rupestri.

Da un punto di vista enogastronomico Matera è una città dalla tradizione culinaria molto antica basata sulla semplicità dei piatti che fanno largo uso di portate a base di formaggi, legumi, carni e verdure, il tipico Pane di Matera nonché i rinomati peperoni cruschi che consigliamo vivamente di mangiare sulle bruschette; oltre che sul pane questi peperoni, dolci e croccanti, sono usati anche per condire i piatti di pasta fresca come i cavatelli, la tipica pasta preparata con farina di grano duro, acqua e sale e poi tagliata a pezzetti.
Questi piatti tipici vanno accompagnati con uno dei vini DOC del luogo come il Matera Rosso, oppure un "Matera" Primitivo od il "Matera" Rosso Jonico; se si preferiscono i vini bianchi, invece, segnaliamo il "Matera" Greco ed il "Matera" Bianco.

Matera, come Venezia, è una città unica nel suo genere che merita di essere visitata almeno una volta nella propria vita.

  ► Gallery

Estate 2019 (54)
Estate 2019
Primavera 2019 (126)
Primavera 2019
Brasile 2019 (140)
Brasile 2019

  ► Curiosità

Cos'è un ologramma
Cos'è un ologramma
Semplificando si può dire che un ologramma non è altro che un' immagine tridimensionale di un oggetto su lastra fotografica ottenuta sfruttandol'interferenza di due fasci di luce di un'unica sorgente laser: viene creato con la tecnica dell'olografia mediante impressione di una lastra o pellicola olografica utilizzando una sorgente luminosa coerente come è ad esempio un raggio laser.
Il fronte d’onda, a seguito di divisione, dà origine a due fronti d’onda, il fascio di riferimento e il fascio oggetto, che sono inizialmente completamente correlati e che seguono due strade diverse. Il fascio oggetto viene sovrapposto in quello che si definisce “piano immagine” al fascio di riferimento. L’interazione presenta una modulazione di intensità sul piano immagine.
Una delle caratteristiche degli ologrammi è che lastra olografica conserva il contenuto informativo in ogni sua parte quindi se si rompe in più parti la lastra è possibile ottenere la stessa immagine tridimensionale completa in ogni pezzo che risulta
Chi ha inventato l' F-16?
Chi ha inventato l' F-16?
Innanzitutto l’F-16 e’ nato da un TEAM, e ripeto TEAM di ingegneri.
Alla guida del team c’era Robert H. Widmer (1916-2011).Nato nel New Jersey, Widmer si laurea al Rensselaer Polytechnic Institute e ottiene un master’s degree al California Institute of Technology (il Cal Tech). Non riuscì ad arrivare al Ph.D perchè nel 1939 venne reclutato dalla Consolidated di San Diego, dove si occupo’ di PBY, PB2Y e B-24, l’aereo da combattimento americano maggiormente prodotto durante la Seconda Guerra Mondiale. Presso la Convair, Widmer fu responsabile dei test in galleria del vento del B-36 Peacemaker e come dello sviluppo del B-58 e F-111. Nel 1970 fu promosso vice-presidente per la ricerca e sviluppo degli impianti di San Diego e Fort Worth.
Widmer inizio’ a lavorare all’embrione dell’F-16 in gran segreto e senza informare i vertici della General Dynamics in quanto questi ultimi ritenevano che un aereo del genere non avrebbe avuto mercato.
Harry Hillaker, conosciuto anche come il “Padre dell’F-16”. Come Widmer, anche Hillaker all’epoca lavorava alla Convair con la qualifica di vice-capo ingegnere del programma Lightweight Fighter. Praticamente era il numero due subito dopo Widmer. Verso la fine degli anni sessanta Hillaker entro’ a far parte della Fighter Mafia.
Pierre Sprey non ha inventato l'f-16 (come spesso si sente dire). Sprey era semplicemente un’analista di sistemi presso l’Office of Secretary of Defense (OSD), nonche’ membro della famigerata "Fighter Mafia" (un ristretto gruppo di ufficiali USAF e civili noto negli anni settanta per ssere stato uno dei piu’ influenti think tank militari in campo aeronautico)
Il Piano Bernadotte
Il Piano Bernadotte Nell'estate del 1948, il Conte Folke Bernardotte fu inviato dalle Nazioni Unite in Palestina per mediare una tregua e tentare di negoziare un compromesso. Il piano di Bernardotte chiedeva allo Stato ebraico di consegnare il Negev e Gerusalemme alla Transgiordania in cambio della Galilea occidentale. Questo piano era simile ai confini che erano stati proposti prima del voto sulla spartizione, e che tutte le parti avevano rifiutato. Ora la proposta veniva offerta dopo che gli Arabi erano andati in guerra per impedire la spartizione ed era stato dichiarato uno stato ebraico. Sia gli Ebrei che gli Arabi rifiutarono il piano.
Ironicamente, Bernardotte trovo' tra gli Arabi poco entusiasmo per l'indipendenza. Egli scrisse nel suo diario:
"Gli Arabi palestinesi al momento non hanno una volontà loro.
Ne' hanno mai sviluppato un nazionalismo palestinese specifico. La domanda di uno stato arabo separato in Palestina e' pertanto relativamente debole. Semberebbe proprio che nelle circostanze attuali gran parte degli Arabi palestinesi sarebbe alquanto contenta di essere incorporata nella Transgiordania" 
Il fallimento del piano Bernardotte giunse quando gli Ebrei cominciarono ad avere maggior successo nel respingere le forze arabe d'invasione e nell'espansione del loro controllo sui territori esterni ai confini della spartizione.

  ► Aerei

Bae Nimrod (Hawker Siddeley)
Bae Nimrod (Hawker Siddeley) Tipo: Aereo per la lotta antisommergibile e per il pattugliamento marittimo
Ruolo: Lotta Antisom, Specializzato, Antinave
Nazione di Origine: Regno Unito
Armamento: AIM-9 Sidewinder per autodifesa e fino 9072 kg di carico offensivo comprendente siluri, _x000d_ bombe o cariche di profondità (anche nucleari), missili antinave

Prestazioni: Velocità massima 926 km/h. Autonomia 15 ore senza rifornimento, pari a 9265 km. Tangenza 13411 m
McDonnell Douglas - BAe AV-8B Harrier II
McDonnell Douglas - BAe AV-8B Harrier II Tipo: Aereo da attacco al suolo
Ruolo: Appoggio, Attacco, Bombardamento , Antinave
Nazione di Origine: Regno Unito, Usa
Armamento: 1 cannone GAU-12 da 25 mm . Bombe caduta libera: Mk 82, Mk 83. Missili aria _x000d_ aria: AIM-9 Sidewinder, AIM-120 AMRAAM. Missili aria superficie: AGM-65 _x000d_ Maverick, AGM-88 HARM. Missili antinave: AGM-84 Harpoon, Seaskua. Razzi:CRV7 da _x000d_ 70 mm_x000d_

Prestazioni: Velocità massima 0,89 Ma (1077 km/h in quota). Autonomia 2200 km. Raggio di azione 485 km. Tangenza 15000 m
Republic F-84 Thunderjet
Republic F-84 Thunderjet Tipo: Cacciabombardiere
Ruolo: Caccia, Attacco, Bombardamento
Nazione di Origine: USA
Armamento: 6 mitragliatrici Browning M3 da 12,7 mm. Bombe caduta libera: fino a 1814 Kg. Bombe _x000d_ nucleari: Mk 7. Razzi.

Prestazioni: Velocità massima 0,81 Mach (1001 km/h in quota). Autonomia 3220 km. Raggio di azione 1600 km. Tangenza 12350 m

  ► Tutorials

Simulare Carica Altro con Jquery

I siti web moderni preferiscono all’impaginazione dei risultati delle query il caricare sulla stessa pagina altri risultati (il famoso Carica altro) tramite la pressione di un tasto/link o tramite il raggiungimento della fine pagina.
Tra i vari metodi disponibili il più semplice lo si ottiene tramite jquery e si può adattare a molti script e linguaggi.
Per fare questo usiamo due metodi che ci offre il frameworks jquery: .append e .load.
Il metodo .append serve per poter accodare un contenuto all’interno dell’elemento al quale è associato.
Il metodo .load carica, invece, il contenuto di un file all’interno di un div.
Per quanto riguarda l’html sarà sufficiente creare un div al quale assegnamo l’id “contenuto” all’interno del quale carichiamo la nostra pagina con i dati aggiuntivi.

<div id="contenuto"></div>

Per quanto riguarda lo script ci limitiamo a scrivere la funzione che carica la pagina dentro contenuto:

<script>
function aggiungi (pag) {
$('#contenuto').append($("<div>").load("caricaaltro2.aspx?id="+pag));
}
</script>

Nello script abbiamo aggiunto una variabile che passa il numero di pagina nel caso dovessi caricare più pagine.
Posso anche aggiungere la funzione che nasconde il div che mi mostra “carica altri”:


$("#linnk").click(function() {$(this).hide();});

Nella pagina caricata mi limiterò a inserire lo stesso script e lo stesso div.


 

Script completo prima pagina 

<%@ Page Language="VB" ContentType="text/html" ResponseEncoding="utf-8" %>

<!doctype html>
<head>
<meta http-equiv="Content-Type" content="text/html; charset=utf-8" />
<title>Documento senza titolo</title>


<style type="text/css">
body { color: #000; text-align:center; background-color: #FFF; }
.quadrati { width:200px; height:200px; margin:2px 2px 2px 2px; display:inline-block; border:#354D46 1px solid; }
img { height:100%; width:auto; max-width:190px; }
</style>
<%dim pag = 2%>
</head>

<body>
<p>CARICA ALTRO ESEMPIO</p>

<div class="quadrati">
<img src="https://www.filoweb.it/galleria2015/foto/R06939V9BEM0AWYTUVM5VOQMEP0Q9O.jpg" >
</div>

<div class="quadrati">
<img src="https://www.filoweb.it/galleria2015/foto/LN6VNQDBH_NH77SWWRRBP6YJX7BDMQ.jpg" >
</div>

<div class="quadrati">
<img src="https://www.filoweb.it/galleria2015/foto/LVXNE6SIG86TAO8YBPBK3Q6A9D5VAF.jpg" >
</div>

<div id="contenitore" style="width:100%;">
<div id="contenuto" style="width:100%;"></div>
</div>

<div id="blinnk"><a href="javascript:aggiungi(<%response.write(pag)%>);" id="linnk" style="width:100%; background-color:#354D46; text-align:center; color:#FFF;" title="Carica tutti" >CARICA ALTRI</a></div>

<script src="https://ajax.googleapis.com/ajax/libs/jquery/3.2.1/jquery.min.js"></script>
<script>
$("#linnk").click(function() {$("#blinnk").hide();});

function aggiungi (pag) {
$('#contenuto').append($("<div>").load("caricaaltro2.aspx?id="+<%response.write(pag)%>));
}
</script>

</body>
</html>


 

 

Script completo 2° pagina

<%@ Page Language="VB" ContentType="text/html" ResponseEncoding="utf-8" %>

<!doctype html>
<html >
<style type="text/css">
body { text-align:center; }
.quadrati { width:200px; height:200px; margin:2px 2px 2px 2px; display:inline-block; border:#354D46 1px solid; }
img { height:100%; width:auto; max-width:190px; }
</style>

</head>
<body>
<%
dim pag
pag=request.QueryString("id")
pag=pag+1
%>

 

 

<div id="contenitore">
<h3> questa è la pagina <%response.write(pag)%></h3>
<div class="quadrati">
<img src="https://www.filoweb.it/galleria2015/foto/YLAUXHFWF52IBFJC7TJAZ_Z9ESH799.jpg" >
</div>

<div class="quadrati">
<img src="https://www.filoweb.it/galleria2015/foto/PA8I4_C_J8GFA808JSS4QVQT9NK2FH.jpg" >
</div>

<div class="quadrati">
<img src="https://www.filoweb.it/galleria2015/foto/YLAUXHFWF52IBFJC7TJAZ_Z9ESH799.jpg" >
</div>

<div id="blink<%response.write(pag)%>" style="width:100%; background-color:#293343;"><a href="javascript:aggiungi(<%response.write(pag)%>);" id="linnk<%response.write(pag)%>" style="width:100%; background-color:#354D46; text-align:center; color:#FFF;" title="Carica tutti" >CARICA ALTRI</a></div>

<div id="contenitore" style="width:100%;">
<div id="contenuto" style="width:100%;"></div>
</div>

</div>

<div id="contenitore" style="width:100%;">
<div id="contenuto" style="width:100%;"></div>
</div>

<script src="https://ajax.googleapis.com/ajax/libs/jquery/3.2.1/jquery.min.js"></script>
<script>
$("#linnk<%response.write(pag)%>").click(function() {$("#blinnk<%response.write(pag)%>").hide();});
function aggiungi (pag) {
$('#contenuto').append($("<div>").load("caricaaltro2.aspx?id="+<%response.write(pag)%>));
}
</script>
</body>
</html>

Installazione offline di Visual Studio 2017

Visual Studio è un ambiente di sviluppo integrato sviluppato da Microsoft, che supporta attualmente (2018) diversi tipi di linguaggi come il C, il C++, il C#, il Visual Basic .Net, l’ Html, il JavaScript e molti altri. Visual Studio permette la realizzazione sia di applicazioni che di siti web, web application e servizi web di varia natura.
L'attuale distribuzione di Visual Studio (la 2017), che rappresenta l’ultima versione dopo 20 anni di evoluzione, è disponibile in 3 versioni:



• Community
• Professional
• Enterprise


Una delle novità più importanti riguarda la versione Community che è disponibile completamente gratuita e può essere scaricata e utilizzata liberamente.


Per installare la versione community (come anche le altre) è sufficiente scaricare il file di installazione, lanciarlo e decidere quali componenti installare. Il processo può risultare molto lungo, a seconda della lingua; un’altra soluzione consiste nello scaricare sempre il file di installazione e scaricare tramite uno script i file di setup da conservare per eventuali nuove installazioni.
Il processo risulta sempre lungo, ma una volta fatto ho i file sempre pronti.
Per fare questo per prima cosa devo scaricare il file di installazione da:
https://www.visualstudio.com/it/ e quindi salvarlo in una cartella.

Apro quindi il prompt dei comandi (cmd.exe) e mi posiziono nella cartella dove ho copiato il mio file di installazione (vs2017.exe) e scrivo il comando:



vs2017.exe --layout c:\vs2017setup --lang it-IT


In questo modo creo una cartella chiamata vs2017setup dove verranno scaricati tutti i file per l’installazione offline della versione in italiano (lang it-IT) di visual studio 2017.
Visto che in totale verranno scaricati più di 30Gb ci vorrà tempo ed una connessione veloce ( non obbligatoria ma consigliata).


Una volta terminato sarà sufficiente andare nella cartella di installazione ed eseguire il file di setup.

Note: Posso anche scaricare la versione non localizzata in italiano, ma con tutte le lingue disponibile, in questo caso devo prepararmi a scaricare più di 65Gb!!.

Iframe ad altezza variabile

Premetto che non sono un amante degli iframe (non più almeno) perché oltre ad essere deprecati nell’HTML5 fanno sembrare il sito più vecchio di almeno 6-7 anni dando un’idea di poca professionalità. Inoltre gli iframe sono stati creati per visualizzare pagine esterne al proprio sito web, all'interno dello stesso anche se spesso sono stati usati in maniera errata. Quindi si se si vogliono usare per includere pagine esterne, no per quelle interne meglio usare altri metodi come include, o jquery).

Dopo questa lunga e doverosa premessa passiamo ai fatti. Chi usa il tag iframe spesso ha la necessità di adattarne l’altezza in base al contenuto che viene caricato. I metodi che si trovano in rete sono molti ed io voglio qua proporre la mia personale soluzione in pochissime righe di codice: leggo l’altezza dell tagdel contenuto che carico e tramite jquery assegno l’altezza all’ iframe.
Certo posso scegliere anche il tago altro ma in questo mio esempio preferisco usarevisto che tutto il contenuto visibile in una pagina è racchiuso lì dentro.



Definiamo lo stile per il nostro iframe tramite css:
#mioiframe { width:100%; border:#293343 1px solid; height:300px; }



Scriviamo il nostro iframe.



<iframe src="pg.html" id="mioiframe" class="mioiframe" scrolling="no" frameborder="0" name="contenuto" onload="caricato()"></iframe>

Definiamo il nostro script che verrà chiamato al caricamento del contenuto dell’iframe:
function caricato() {
var mioif = $("#mioiframe").contents().find("body");
var h = mioif.height();
$("#mioiframe").height(80+h+"px");
};


Infine la chiamata alle pagine:


 <a href="pg1.html" target="contenuto" class="menu"> pagina 1 </a>
<a href="pg2.html" target="contenuto" class="menu"> pagina 2 </a>


Come si vede è tutto molto semplice, veloce e leggero…

  ► Varie

Appunti: Introduzione alla programmazione con l'uso di C# E-BOOK COMPLETO
Introduzione alla programmazione con l'uso di C# III° Parte I Database
Pamphlet: Bufale online
Bufale Online
Templates
Templates
FB TW Pinterest whatsapp RSS FEED News letter

filoweb.it è il sito personale di Filippo Brunelli
(c) 2017 Filippo Brunelli
Le immagini ed i testi contenuti nel sito filoweb.it sono di proprietà di Filippo Brunelli salvo diversamente indicato.
L'uso delle immagini e del testo è gratuito per uso personale ed è subbordinato alla citazione della fonte.
Brunelli Filippo declina ogni responsabilità per l'uso che viene fatto delle informazioni presenti nel sito filoweb.it.