Filoweb.it
By Filippo Brunelli


FB TW whatsapp RSS FEED News letter

  ► Magazine

Il metaverso evoluzione della realtà virtuale e di internet.
Il metaverso evoluzione della realtà virtuale e di internet.

Molti utenti whatsapp si saranno accorti che da qualche tempo il celebre programma di istant messaging non reca più la scritta “From Facebook” ma bensì “From Meta”. Le male lingue hanno insinuato che questo cambiamento è dovuto al recente scandalo - il secondo per gravità dopo quello di Cambridge Analytica – emerso dalle dichiarazioni della whistleblower Frances Haugen riguardo diverse pratiche dannose di cui Facebook era consapevole e, di conseguenza, ad un tentativo da parte della società di rilanciare la propria immagine uscita acciaccata dai “facebook pappers”.
Così, dopo mesi di anticipazioni, smentite e retroscena, è arrivato l’annuncio ufficiale: il “gruppo Facebook” cambierà nome e si chiamerà “Meta” che in greco vuol dire oltre e l’intenzione (a parole) di business model dall’azienda di Menlo Park  fin qui seguito è quella di andare “oltre” l’utilizzo di app  tra loro interconnesse come Facebook, Instagram, Messenger, Whatsapp, ecc.
Questo non vuol dire che le nostre app che tutti i giorni guardiamo e utilizziamo cambieranno nome, Facebook continuerà a chiamarsi Facebook, Whatsapp con il suo nome e così tutte le altre.
No, l’idea di Zuckerberg & Co. È quella di creare una nuova realtà virtuale, totalmente immersiva che ci dovrebbe accompagnare nella vita di tutti i giorni dal lavoro alla socialità.

Quella proposta da Zuckerberg non è una novità nel mondo dell’informatica né tanto meno dell’intrattenimento.
L’idea di una realtà immersiva si può far risalire alla metà del secolo scorso, quando un giovane cineasta, Mort Heiling vide a Brodway il film “This is Cinerama” proiettato su schermo gigante e ricurvo, che prende il nome appunto di Cinerama.
Da quell’esperienza Heiling ebbe l’idea di creare un dispositivo che permetteva a chi lo utilizzava di provare vere sensazioni e che chiamò “Sensorama”. Si trattava di una cabina in grado di ospitare una persona e che combinava effetti tridimensionali tramite un visore stereoscopico sul modello del View-Master 1, suono stereofonico, vibrazioni per mezzo di un manubrio che veniva afferrato e soffi di profumi. Quello che sensorama permetteva di fare era di creare nello spettatore un’esperienza il più realistica possibile di una corsa in un mercato dei fiori, su di una spiaggia e sulle strade di Brooklyn. Brevettato nel 1962 non ebbe successo tra le grandi case cinamatografiche e divenne famosa come macchina a gettoni nei luna park.
Qualche anno dopo (1965) un giovane ingegnere di nome Ivan Sutherlan ebbe l’idea che si potessero utilizzare i computer per il lavoro di progettazione; secondo Sutherlan un monitor collegato ad un computer offriva la possibilità di acquisire familiarità con concetti impossibili da realizzare nel mondo reale. Con quest’idea nel 1968, mentre era ancora professore all’università di Harvard, insieme ad alcuni suoi studenti tra i quali Bob Sproull, Quintin Foster, Danny Cohen creò il primo casco per la realtà virtuale.
Ma i mondi virtuali non devono solo essere percepiti ma c’è bisogno che si possa interagire con loro, così nel 1970 Myron Krueger, pioniere della computer art, interessandosi “agli ambienti sensibili controllati dal computer” coniò il termine realtà artificiale. Secondo Krueger la tastiera teneva lontani tanti utenti nell’accostarsi al computer per creare espressioni artistiche e così ideo “Videoplace”: un sistema  composto da una telecamera controllata da un computer e da un grande schermo. Quando un utente si metteva davanti alla telecamera la sua immagine veniva catturata dal computer, proiettata sullo schermo e combinata con le immagini ivi presenti. L’immagine della persona era rappresentata come una silhouette e interagiva con gli oggetti presenti sullo schermo spingendoli, afferrandoli, alzandoli, ecc.
Il progetto di Krueger morì perché non ottenne finanziamenti per il suo sviluppo mentre nello stesso periodo il Governo Federale degli Stati Uniti investiva ingenti somme nello sviluppo della tecnologia “Moviemap” del MIT che consentiva all’utente di muoversi attraverso una versione video di Aspen toccando semplicemente alcune parti dello schermo. Da lì, nel 1981, nacque il progetto “SuperCockpit” dell’aereonautica militare sotto la direzione di Tom Furnes: una finta cabina di pilotaggio che utilizzava alcuni computer e un casco virtuale per addestrare i piloti al combattimento.
Il SuperCockpit aveva però costi altissimi e la Nasa nel 1990 sviluppò “VIEW” (Virtual Interface Environment Workstation), il primo sistema a combinare grafica computerizzata, immagini video, riconoscimento vocale, un casco per la realtà virtuale ed un guanto tattile (inventato nel 1982 da Tom Zimmermann e Jaron Lainer quando lavoravano alla Atari).
L’idea della Nasa di utilizzare tecnologie già presenti e relativamente economiche per creare simulazioni realistiche per le future missioni spaziali fece capire che era possibile creare une realtà artificiale senza dover investire milioni di dollari.
Gli inizi degli anni ’90 videro un fiorire di idee per la realizzazione di realtà virtuale con progetti fai da te come gli schemi per poter collegare il “Power Golve”2 della mattel (creato per la piattaforma videoludica della Nintendo) ad un normale computer tramite porta parallela3 nonché  i relativi codici per programmarlo tramite linguaggio C, la nascita di diversi software a pagamento o freeware per la creazione di mondi ed in fine, la commercializzazione dei primi caschi di realtà immersiva a prezzi relativamente bassi ( qualche centinaia di migliaia di lire).
Qualche anno più tardi le prime webcam che venivano commercializzate spesso erano accompagnate da programmi che permettevano (come nel caso della webcam LG LPCU30) di interagire con immagini generate al computer come nel videoplace di Krueger.

Nella letteratura fantascientifica l’idea di mondi virtuali ha preso piede, soprattutto nella cultura Cyber Punk in romanzi come “Neuromante” o “Aidoru” di William Gibson dove il reale ed il virtuale si fondono in un’unica realtà soggettiva. Ed è proprio dalla cultura Cyber Punk che nasce il termine “Metaverso” utilizzato da Zuckerberg per la sua nuova creatura, in particolare dal romanzo “Snow Crash” del 1992 di Neal Stephenson. Nella cultura mainstream, l’idea di un mondo virtuale dove le persone interagiscono lo si trova in film come “Il 13° piano” tratto dal romanzo “Simulacron 3” di Galouye o la trilogia di “Matrix” (sempre ispirata dallo stesso romanzo).
Sulla scia di questi successi cinematografici, dell’interesse per la realtà virtuale, la massificazione di internet, nonché la nascita dei primi social network, nel 2003 nasce “Second Life”: un mondo virtuale dove gli utenti (chiamati anche residenti) accedono al mondo virtuale attraverso un loro avatar e dove possono muoversi liberamente, interagire con altri utenti e acquistare beni e servizi virtuali o reali pagando con tanto di moneta virtuale convertibile in dollari o euro.
Dopo un inizio un po’ difficile (le risorse chieste ai computer erano impegnative ed inoltre in Italia le connessioni internet erano ancora lente), Second Live ha raggiunto il massimo di utenti nel 2013 con un milione di abbonati per poi assestarsi tra gli 800.000 ed i 900.000. Negli ultimi anni diverse piattaforme sono nate, soprattutto a livello video ludico, per permettere agli utenti di interagire con mondi virtuali, come “Minecraft”, “Fortnite” o “The Sandbox” molto simile al metaverso di Meta.

Cosa fa allora pensare a “Meta” che il suo “Metaverso” sia diverso da tutte le realtà già presenti?
Innanzi tutto bisogna considerare che il metaverso farà largo delle tecnologie di realtà virtuale sviluppate negli ultimi anni come i visori sitle Hololens alle quali affiancherà hardware sviluppato autonomamente già in progettazione (ad esempio i guanti tattili). In aggiunta a ciò Facebook/Meta può vantare un vasto background di utenza e una vasta esperienza nel coinvolgere gli internauti a diventare sempre più dipendenti dai propri prodotti.  Un’altra freccia all’arco di Zuckerberg è l’idea di presentare il metaverso come un mondo alternativo che però interagirà con quello reale e non sarà solamente un luogo di svago o di fuga, ma una piattaforma per poter anche lavorare, creare riunioni virtuali, lezioni virtuali il tutto tramite un avatar.
Certo la concorrenza non mancherà visto che Microsoft, a pochi giorni dall’annuncio di Meta ha presentato il suo metaverso durante Ignite 2021 (la principale conferenza Microsoft dedicata al mondo Enterprise) al quale si potrà accedere tramite la piattaforma Microsoft Mesh per Teams e che farà uso di visori a realtà aumentata. Come per il metaverso di Menlo Park anche quello di Redmond punta soprattutto agli utenti che professionisti che lavorano e lavoreranno (si presume in un futuro prossimo sempre di più) in smartworking.

Ma abbiamo davvero bisogno di un metaverso?
A usufruire della nascita dei metaversi saranno principalmente le aziende produttrici di accessori per realtà aumentata o virtuale che ad oggi hanno avuto un mercato molto limitato visto il costo dell’hardware e i settori di applicazioni molto di nicchia, mentre per l’utente consumer, invece, il vantaggio sarà un graduale abbassamento del prezzo del sopracitato hardware.
Come tutte le tecnologie anche il metaverso può essere sia un bene che un male, dipende dagli usi che ne verranno fatti e dalla consapevolezza e maturità degli utenti.
Purtroppo abbiamo visto come, negli ultimi 15-20 anni internet, che è una tecnologia che permette di ampliare le proprie conoscenze e migliorare la vita dei singoli utenti, sia diventato monopolio di grandi multinazionali e ricettacolo di pseudo-verità e futili intrattenimenti, quando non anche per creare disinformazione (non ultimi i famosi Facebook pappers).
Il metaverso è la naturale evoluzione dell’internet che conosciamo, ci vorranno anni per vederlo sviluppato alla massima potenza, per adesso abbiamo solo aziende come Microsoft, Roblox, Epic Games, Tencent, Alibaba e ByteDance che stanno investendo ma quello che sarà non è ancora definito; saremo noi, come è accaduto con lo sviluppo di internet, che decideremo cosa nascerà, facendo scelte che a noi sembreranno insignificanti ma che le grandi multinazionali usano per fare soldi. Lo scandalo Facebook, dove venivano evidenziati i post che creavano il maggior numero di interazioni al solo scopo di creare traffico, indipendentemente dalla verità o meno dei post stessi, ne è un esempio. Quindi quando inizieremo ad usare il metaverso, stavolta, ricordiamoci fin dall’inizio che saremo noi a creare il nostro futuro mondo virutale. Sarà diverso il metaverso o diventerà l’ennesimo spazio dove si rifugeranno le persone per scappare alla realtà? A noi la scelta!

 

BIBLIOIGRAFIA
Linda Jacobson, “Realtà Virtuale con il personal Computer”, Apogeo, 1994.
Ron Wodaski e Donna Brown, “Realtà virtuale attualità e futuro”, Tecniche Nuove, 1995
https://www.nasa.gov/ames/spinoff/new_continent_of_ideas/
Ultima consultazione dicembre 2021
https://news.microsoft.com/it-it/2021/11/02/il-microsoft-cloud-protagonista-a-ignite-2021-metaverso-ai-e-iperconnettivita-in-un-mondo-ibrido/
Ultima consultazione dicembre 2021

 

1 View-Master è stato un sistema di visione stereoscopica inventato da William Gruber e commercializzato per prima dalla Sawyer's nel 1938. Il sistema comprende: un visore stereoscopico, dischetti montanti 7 coppie di diapositive stereo, proiettori, fotocamere (Personal e MKII) e altri dispositivi per la visione o la ripresa di immagini stereoscopiche.
2 Il Power Glove è un controller nato per il NES del 1989. Fu sviluppato dalla Mattel, ma il progetto si ispirò a un’invenzione di Tomm Zimmerman, che realizzò una periferica per l’interfacciamento a gesti manuali basata su un guanto cablato a fibre ottiche. L’idea di Zimmerman venne addirittura finanziata dalla NASA. La Mattel sviluppò questa periferica ma utilizzando tecnologie molto meno recenti, per rendere il Power Glove economico e più robusto.
3 L’interfaccia per collegare il power glove al PC tramite interfaccia parallela venne sviluppata da Mark Pflaging

Internet Gaming Disorder: L’esagerazione cinese e la non considerazione occidentale
Internet Gaming Disorder: L’esagerazione cinese e la non considerazione occidentale

Quando alla fine dell’agosto 2021 il Governo Cinese, tramite gli organi di informazione ufficiali, annunciò l’introduzione di nuove misure restrittive nel campo dei videogiochi online nel tentativo di fermarne la dipendenza, tutti i giornali riportarono la notizia con molta enfasi dimenticando che, che già alla fine del 2017, l'Organizzazione mondiale della sanità (OMS) aveva annunciato che nell’ undicesima revisione dell’ edizione  della Classificazione internazionale delle malattie (ICD-11) che entrerà in vigore il primo gennaio 2022, il disturbo da gioco sarebbe stato identificato come un nuovo disturbo e che la stretta del Governo Cinese era già iniziata nel 2019 quando aveva vietato l’utilizzo agli utenti di età inferiore ai 18 anni di giocare ai videogiochi tra le 22 e le 8 del mattino e, comunque, per non più di 90 minuti nei giorni feriali. Quello che Pechino chiede alle aziende che offrono videogiochi online è però adesso qualcosa di più drastico, ovvero di attuare controlli più accurati su chi utilizza le loro piattaforme attraverso delle verifiche più rigorose che prevedono l’utilizzo di dati reali degli utenti e del riconoscimento facciale per poter accedere e utilizzare i servizi di queste ultime.
Secondo alcuni analisti la decisione del Governo Cinese è vista come una nuova fase della guerra “Hi-Tech” tra Pechino e Washington, (dato che la maggior parte dei giochi online sono creati da software house USA) mentre per altri rappresenta un nuovo modo che il regime cinese ha per controllare i propri cittadini.

Ma i video giochi ed in special modo quelli online portano davvero alla dipendenza?
A memoria di chi scrive questa diatriba tra chi sostiene la dipendenza e chi no è sempre esistita, tanto da ricordare che alla fine degli anni ’80 avevo letto un articolo che difendeva i videogiochi (purtroppo non  ricordo il nome della rivista) dove l’autore sosteneva che giocare ai videogiochi – n.d.r. delle sale giochi – non solo non era pericoloso ma addirittura aiutava la coordinazione tra occhio e mani.
Da allora sono passati ormai quasi quarant’anni ma regolarmente quest’idea della dipendenza da gioco continua a comparire.
Uno studio pubblicato sull'American Journal of Psychiatry nel marzo 2017(1) ha cercato di esaminare la validità e l'affidabilità dei criteri per il disturbo da gioco su Internet, confrontarlo con la ricerca sulla dipendenza dal gioco online e stimarne l'impatto sulla salute fisica, sociale e mentale. Lo studio ha rilevato che tra coloro che hanno giocato ai videogame, la maggior parte non ha riportato alcun sintomo del disturbo da gioco online e la percentuale di persone che potrebbero qualificarsi per l’Internet Gaming Disorder è estremamente piccola.
La ricerca che ha coinvolto diversi studi su adulti negli Stati Uniti, nel Regno Unito, in Canada e in Germania ha evidenziato che tra gli individui che hanno manifestato il disturbo da gioco su Internet tutti avevano una salute emotiva, fisica e mentale indebolita rispetto a quelli che non l’ hanno manifestato.
Scrivendo in un commento sullo studio sull'American Journal of Psychiatry, Patrick M. Markey (professore del Dipartimento di Psicologia di Villanova University College of Liberal Arts and Sciences)  , e Christopher J. Ferguson (dottore in psicologia clinica presso l'University of Central Florida MS, psicologia dello sviluppo, Florida International University BA, psicologia presso Stetson University), hanno concluso che lo studio suggerisce che "la dipendenza da videogiochi potrebbe essere una cosa reale, ma non è l'epidemia che alcuni hanno immaginato essere".


Sicuramente i videogiochi di oggi, che fanno uso di internet per creare coinvolgimenti con altri utenti, sono fatti per creare situazioni nelle quali chi gioca è invogliato a continuare a giocare tramite l’acquisizione di crediti in base ai livelli che superano oppure comprandoli direttamente. Molte volte (soprattutto per i giochi che si svolgono sui dispositivi mobili) tra un livello e l’altro compaiono schermate pubblicitarie che invitano a comperare crediti o bonus per agevolare il superamento del livello successivo o dello stesso.
Una simile struttura di gioco se risulta pericolosa per un adulto sicuramente per un minore può essere distruttiva. Consideriamo poi che il recente periodo di Lockdown dovuto al Covid-19 ha portato molte persone a rimanere chiuse in casa ed a usufruire di servizi di intrattenimento online alternativi come i giochi.

Ma come si manifesta disturbo da videogioco? Secondo quanto riportato dall’ OMS nell’ IDC-112, con una serie di comportamenti persistenti o ricorrenti legati al gioco, sia online che offline, consistenti in: un controllo alterato sul gioco; una sempre maggiore priorità data al gioco tale che quest’ultimo diventa attività prioritaria nella vita rispetto ad altre attività quotidiane e rispetto agli interessi; una continua escalation del giocare a scapito di relazioni personali, familiari, sociali, educazionali, occupazionali. Per finire affinché venga considerato patologico il comportamento si deve reiterare per 12 mesi.
Da quanto riporta l’OMS sembra che non vi siano moltissime differenze tra la dipendenza da videogiochi e altre dipendenze e l’aggiunta dei videogiochi all'elenco delle dipendenze comportamentali riconosciute potrebbe aiutare milioni di persone bisognose, ma, allo stesso tempo, potrebbe anche “patologizzare”  un comportamento normale e creare un nuovo stigma, un marchio, da apporre a chiunque passi troppo tempo a giocare per il puro divertimento.


Le misure che prende il governo cinese, seppur eccessive vanno viste nell’ottica di un governo che ha comunque una struttura di regime che, vorrebbe “moralizzare” i suoi cittadini. I governi liberali occidentali dovrebbero comunque considerare di varare a breve delle misure che impongano delle misure di contenimento per quanto riguarda il tempo che minori e pre-adolescenti passano a giocare online.
Il mondo cambia velocemente e la società gli va a ruota ma non sempre la politica si muove alla stessa velocità!

 

 


1Internet Gaming Disorder: Investigating the Clinical Relevance of a New Phenomenon, 4 novembre 2016
WHO, Addictive 2018 behaviours: Gaming disorder, 14 settembre

 

Bibliografia:
https://ajp.psychiatryonline.org/doi/full/10.1176/appi.ajp.2016.16020224
(Ultima consultazione settembre 2021)

https://www.who.int/news-room/q-a-detail/addictive-behaviours-gaming-disorder
(Ultima consultazione settembre 2021)

Microsoft Vuole Ridisegnare Il Futuro Dei Sistemi Operativi?
Microsoft Vuole Ridisegnare Il Futuro Dei Sistemi Operativi?

Dopo l’insuccesso di Windows 8.0 nel luglio 2015 Microsoft, alla presentazione del nuovo sistema operativo Windows 10, dichiarava molto decisa che quello che usciva in quei giorni sarebbe stato l’ultimo sistema operativo rilasciato dalla casa di Redmond, e che "Non ci sarà nessun Windows 11", ma solamente aggiornamenti gratis di Windows 10.
Il traguardo che  Satya Nadella (CEO Microsoft) puntava a realizzare sei anni fa non era un semplice sistema operativo ma un servizio, un sistema che sarebbe stato integrato e che avrebbe dovuto destreggiarsi fra più categorie di prodotti che passavano da software e servizi (come Azure), fino ad arrivare all'hardware, con smartphone, tablet e dispositivi 2-in-1.
Quello che è successo poi è abbastanza chiaro agli occhi di tutti, l’uscita dal mercato degli smartphone (che la stessa Microsoft aveva iniziato a creare prima di Apple e di Google già dal 1996 con Windows Ce) e la crescita invece dei suoi servizi in Cloud come Azure o Office 365, ha  portato l’azienda a rivedere le proprie idee così, a metà del 2021, delle grandi novità vengono presentate da Microsoft nell’ambito dei sistemi operativi.

La prima di queste novità è stata annunciata il 24 giugno 2021 e riguarda il successore di Windows 10 che si chiamerà, perlappunto Windows 11!
Da un punto di vista tecnico, stando a quanto dichiarato, le richieste Hardware non sono molto diverse da quelle del suo predecessore a parte il fatto che richiede obbligatoriamente un account Microsoft, una connessione a internet e la presenza di un BIOS UEFI e del chip TMP21 per il Secure Boot 2 .
La scelta di utilizzare questo tipo di BIOS e la presenza del chip è dovuta principalmente  per impedire ai malware (in special modo ai rootkit) di modificare la procedura di avvio del sistema ed eseguirsi automaticamente prima del caricamento di Windows costituendo un grave rischio per la riservatezza e l'integrità dei dati. I vecchi computer che utilizzavano il BIOS Legacy, anche se hanno una sufficiente quantità di Ram e un processore adeguato non saranno quindi in grado di utilizzare il nuovo sistema operativo. Microsoft dichiara di aver sviluppato Windows 11 attenendosi a tre principi: sicurezza, affidabilità e compatibilità.
Per quanto riguarda l’utilizzo di un account Microsoft, questo è necessario solamente per la versione Home del sistema operativo, per la versione Pro o successive si può anche utilizzare un account locale.
Da un punto di vista grafico la novità più sorprendente è il nuovo layout del  desktop e la riconfigurazione della barra delle applicazioni e del menù di start, molto simile a Mac O/S o a certe distribuzioni Linux quali Elementary OS o Deepin Os.
Se questa scelta premierà Microsoft o la penalizzerà, come successe con windows 8.0 che aveva abbandonato il classico menù di start (vedi articolo su questo sito “Start è tornato” del 2015) lo vedremo nei prossimi mesi.

La seconda grande novità nel settore dei sistemi operativi riguarda il rilascio della prima distribuzione3 Linux targata Microsoft e chiamata: CBL-Mariner .
Prima dell’avvento dell’era di Satya Nadella alla guida dell’azienda di Redmond Linux era considerato un rivale, ma con l’esborso di 500 mila dollari annui l’azienda di Redmond dal 2016 è entrata a far parte del consiglio d’amministrazione della Linux Foundation e si è aperta al mondo dell’Open Source che, non è più visto come un rivale, ma come un’opportunità. Ad oggi il 40% delle macchine virtuali su Azure (il cloud Microsoft) girano su sistemi Linux e in uno degli aggiornamenti di windows 10 è stato introdotto Power Shell tipico del mondo linux.
CBL-Mariner era utilizzata fino ad ora  solamente come strumento di test interni di Microsoft e pensata per l’utilizzo dei server.  La versione 1.0 di questa distribuzione Linux è diventata stabile a novembre e utilizzabile sui server avendo come caratteristica la leggerezza del sistema dato che, come idea base per la distribuzione,  serve solo un core di pacchetti per gestire i servizi cloud ed edge.
Da un punto di viste puramente tecnico la distribuzione Microsoft di Linux usa Ubuntu come build4 ma per la gestione dei pacchetti utilizza  i procedimenti di Fedora (un’altra distribuzione linux).
Siamo quindi passati da Steve Ballmer (predecessore di Nadella) che diceva che “Linux è un cancro da estirpare” ai ringraziamenti pubblici al Photon OS Project, al  Fedora Project, al Linux from Scratch, a OpenMamba distro, a GNU e alla Free Software Foundation (FSF). Qualcosa di impensabile.

L’ultima grande novità riguarda comunque la presentazione di Windows 360.
Seguendo la linea di Office 365 che offriva la possibilità di utilizzare il programma Office in cloud Microsoft decide di provare a creare un sistema operativo che si utilizza in Cloud, svincolato quindi dall’Hardware e estremamente configurabile. Vi sono due versioni del sistema operativo in streaming “Enterprise” e “Business” e si parte da una configurazione base che comprende una vCpu con 2Gb di Ram e 64 Gb di archiviazione con un prezzo di 21,90 euro al mese ad una configurazione massima che comprende  8 vCpu con 32Gb di Ram e 512Gb di archiviazione per un prezzo di 147,50 euro al mese anche se la Microsoft lascia intendere che si può trattare per configurazioni personalizzate.
Sicuramente i prezzi sono molto più alti di quanto possa essere l’acquisto di un sistema operativo windows normale, ma bisogna considerare che questa soluzione, per ora, è offerta principalmente ad aziende organizzazioni con un massimo di 300 dipendenti ed a grandi imprese che Microsoft considera compagnie con più di 300 dipendenti e non all’utente finale.
La scelta di Microsoft sembra quando mai adatta in questo periodo in quanto parliamo di  un’innovazione che facilita i modelli di lavoro basati sulla flessibilità e lo smart working, divenuti ormai la nuova normalità come conseguenza della pandemia. Molte aziende già adesso utilizzano soluzioni simili tramite la connessione a Desktop remoto ed un server Windows che permette di connettersi da un computer remoto ed utilizzarne le risorse come si fosse in locale.
Il concetto di Sistema Operativo remoto non è certo nuova: fino all’inizio degli anni ‘90 del secolo scorso moltissime università ed organizzazioni utilizzavano questo approccio (su sistemi Unix) dove gli utenti si collegavano in remoto ad un server sul quale giravano i software necessari ma, la limitazione hardware dei tempi sia per quanto riguardava la potenza delle CPU e la Ram disponibile sui server, sia i costi e le velocità di connessione (stiamo parlando di modem digitali/analogici/digitali da 300 a 2400 bps5) ne limitavano il tempo/macchina disponibile per ogni utente fino a quando, grazie alla massificazione dei personal computer, questo approccio venne quasi ovunque abbandonato.

Microsoft, con le sue ultime due ultime novità (CBL-Mariner e Windows 365) sembra voler abbandonare il suo classico approccio al mondo dei Sistemi Operativi e gettarsi in nuove esperienze: da una parte abbiamo l’entrata nel mondo Open Source per i sistemi Server e dall’altra un ritorno alla centralizzazione dei servizi.
Se queste scelte verranno premiate dal mercato solamente il futuro lo potrà dire ma, di sicuro, rappresentano due grandi novità anche per il futuro che si sta disegnando.

 

 

 

 

1 Il Trusted Platform Module è un Chip che consente di proteggere a livello hardware informazioni riservate e dati sensibili oltre che permettere di gestire le chiavi di Secure Boot, per memorizzare dati di autenticazione.
2 Secure Boot è una funzionalità che fa parte dei BIOS UEFI e che permette di bloccare tutti i componenti caricati all'avvio del sistema che non sono approvati perché sprovvisti di una chiave crittografica autorizzata e memorizzata a livello di firmware
3 La natura di sistema operativo open source e completamente riadattabile ha permesso, con gli anni, che si sviluppassero versioni sempre nuove e differenti che però si basano sullo stesso Kernel (nocciolo). Queste versioni che vengono rilasciate da vari produttori e comprendono differenti pacchetti di applicazioni prendono il nome di distribuzioni.
4 Una build è un insieme di pacchetti e le istruzioni per compilarli.
5 Bps = Bit per second

  ► Ricette

Arrosto maiale al pompelmo rosa e prosciutto
Arrosto-maiale-al-pompelmo-rosa-e-prosciutto
Il sapore ed il profumo del pompelmo rosa si mescola benissimo con il grasso della carne di maiale.

Avvolgere l’arista di maiale con le fette di prosciutto e legarle bene con dello spago.
Spremere il pompelmo e tagliare alcune fettine della buccia a listarelle eliminando la parte bianca.
Tagliare i cipollotti a fettine e metterli in una padella dal bordo alto con il burro e far soffriggere leggermente.
Mettere l’arista avvolta nel prosciutto nella padella e far rosolare su tutti i lati, quindi fumarla con il vino ed il brandy.

Dopo qualche istante togliere dal fuoco e mettere in una pirofila da forno e coprirla con il succo di pompelmo e i rametti di rosmarino. Coprire la pirofila con l’alluminio e mettere in forno a 180° per una 15 di minuti.

Passato il tempo togliere l’alluminio e rimettere in forno per circa 15 minuti stando attenti che non si asciughi troppo il sughetto. Nel caso accada bagnare con del brodo.

Sacchettini ripieni su crema di zafferano e funghi
Sacchettini-ripieni-su-crema-di-zafferano-e-funghi
Sacchettini ripieni su crema di zafferano e funghi non sono altro che delle crespelle salate più piccole del normale, chiuse a formare dei sacchettini e ripiene di uno squisito ragù bianco. Il tutto viene accostato ad una deliziosa crema di zafferano e funghi trifolati.
Dosi per 2 persone

Preparare il ripieno:
Tritare il manzo il più finemente possibile con il tritatutto o uno strumento analogo. In una pentola mettere il cipollotto tagliato a pezzettini piccoli con un filo d’olio e far soffriggere, aggiungere la carne tritata, far abbrustolire leggermente quindi bagnare con il vino e lasciare evaporare. Aggiungere la passata di pomodoro, le bacche di ginepro ed aggiustare di sale e pepe. Abbassare la fiamma e lasciar cuocere per circa 2 ore a fuoco lento, se il sugo dovesse asciugarsi troppo aggiungere un poco di brodo lentamente.

Sacchettini ripieni su crema di zafferano e funghiSacchettini ripieni su crema di zafferano e funghi

Preparare le Creppes:
Sbattere le uova e mescolarle insieme con una frusta a mano, aggiungere lentamente farina e latte e  continuare a mescolare con la frusta fino a creare un impasto liscio e senza grumi. 
Scaldare una padella antiaderente con un pezzettino di burro distribuendolo bene il burro su tutto il piatto della padella, quando è sciolto bene versare piano piano un po’ di impasto (1/2 mestolo circa) e cuocere da entrambi i lati in modo da ottenere dei dischi di circa 12-15 centimetri di diametro.
Mettere le mini crespelle così ottenute da parte in un piatto in attesa che il sugo sia pronto.
Quando il sugo sarà pronto farlo raffreddare.
Una volta che il ripieno si sarà raffreddato stendere le mini crespelle e deporre al centro di ognuna un po’ di ripieno e chiuderle con del filo da cucina. Fare attenzione a non riempirle troppo altrimenti si potrebbero rompere.

Sacchettini ripieni su crema di zafferano e funghiSacchettini ripieni su crema di zafferano e funghi

Preparare la crema di zafferano:
Sbucciare la patata e tagliarla a dadini. Sminuzzare il mezzo cipollotto e metterlo in una pentola con dell’olio d’oliva e la patata. Far soffriggere quindi aggiungere il latte ed i funghi trifolati (si possono utilizzare sia quelli compri che preparali da sé) e lo zafferano. Cuocere a fuoco lento per circa 10 – 15 minuti, fino a quando i dadini delle patate non si saranno ammorbiditi. Se il composto dovesse asciugarsi troppo aggiungere un poco di brodo. Correggere di sale e pepe a piacimento. Quando le patate si saranno ammorbidite tritare il tutto con il minipimer e lasciare a cuocere.

Sacchettini ripieni su crema di zafferano e funghiSacchettini ripieni su crema di zafferano e funghi

Assemblare il piatto.
Scaldare i sacchettini nel microonde o nel forno elettrico ( è consigliabile utilizzare il microonde che cuoce tutto in maniera uniforme) quindi disporli nel piatto insieme ad un poco di crema di zafferano e funghi calda.
Una variante sarebbe quella di disporre i saccottini direttamente  sopra la crema di zafferano.
Capesante su letto di zucchine e menta.
Capesante-su-letto-di-zucchine-e-menta-
Dose per 4 persone.
Infarinare leggermente le capesante, quindi metterle a rosolare nel burro per circa 5 minuti.
Tagliare le zucchine a pezzettini, tritare lo picchio d’aglio e la menta. Soffriggere l’aglio e la menta con un poco d’olio, aggiungere le zucchine e cuocere, sale e pepe.
Quando sono cotte scolare le zucchine e schiacciarle con la forchetta, quindi metterle dentro le conchiglie delle capesante, depositare sopra il mollusco.
Scaldare in un pentolino una noce di burro e sfumare con il vino e brandy per un paio di minuti. Versare il tutto sopra le conchiglie e infornarle per circa 10 minuti a forno preriscaldato a 200°.

  ► Luoghi

Rasiglia (Pg)
Rasiglia Il miracolo di Rasiglia

Nel cuore dell’Umbria c’è una perla nascosta che pochi conoscono, un piccolissimo borgo dove l’acqua è l’elemento caratterizzante del paesaggio e che sembra immerso in un’atmosfera da sogno: Rasiglia.

Le prime notizie sull’esistenza del paese risalgono agli inizi del XIII secolo ma è molto probabile che degli insediamenti siano stati presenti nella zona da molto prima vista l'abbondanza d'acqua.
È fu proprio l’abbondanza d’acqua a determinare la crescita economica ed industriale del piccolo borgo in età medioevale che sfruttata la creazione di numerosi opifici, come gualchiere, mulini a grano, lanifici e tintorie che eseguivano la lavorazione di stoffe pregiate; la fertilità della terra circostante permise inoltre di avere sempre le materie prime per poter far funzionare il laborioso complesso industriale che si sviluppava.
In particolare i lanifici rimasero in attività per tutto l’800 e buona parte del ‘900 con la chiusura dell’ultimo stabilimento solamente nel 1980.
In realtà il declino di Rasilia inizò nella seconda metà del secolo scorso, dopo la seconda guerra mondiale, quando la povertà assoluta, le poche occasioni di lavoro, la chiusura delle attività industriali spinsero la gente a lasciare il paese e migrare verso le grandi città, in particolar modo Foligno che dista solamente 18Km. Con lo spopolamento del borgo le piccole attività economiche iniziarono a chiudere lentamente ed il paese rischiò di scomparire.
Il terremoto del 1997 diete il colpo di grazia al paese e solamente la riscoperta da parte del turismo ha permesso di far rinascere il piccolo borgo che, ad oggi, conta circa una settantina di abitanti quasi tutti in età avanzata: nel fine settimana arrivano migliaia di turisti, che scoprono questo borgo tramite il web o da amici che ne parlano, tanto che oggi si può tranquillamente parlare del  “miracolo Rasiglia”.
I mulini sono stati trasformati in abitazioni o in attrazioni per i turisti che possono ammirare le strutture artigianali di un tempo e le attrezzature utilizzate per fare la lana e macinare il grano tanto che rappresenta un raro esempio di conservazione di tutti gli elementi necessari alla produzione dei manufatti tessili, dalla tosatura alla realizzazione del prodotto finito.

Visitare Rasiglia vuol dire immergersi in un passato mai completamente sparito, in un borgo circondato dal verde delle colline umbre e dove il gorgoglio dell’acqua che si incanala lungo la principale via del paese permette al visitatore di rilassarsi e dimenticare la frenesia della vita moderna.

Aquileia (ud)
Aquileia Un’importante città romana poco conosciuta al turismo
La città di Aquileia era a capo del sistema viario della regione per la sua posizione all’incrocio di più strade, tra cui le maggiori erano la via Postumia, la via Iulia Augusta e la via Gemina; era inoltre il punto di partenza delle strade che si diramavano verso il bacino danubiano e la via dell’ambra che giungeva dal mar Baltico. 
Dopo l’editto di Milano divenne, grazie alla sua posizione, uno dei principali centri di diffusione del Cristianesimo nell’Europa del Nord e dell’Est.
Nel Medioevo la città friulana crebbe in maniera notevole, sviluppandosi attorno alla Basilica dei Patriarchi, un capolavoro che ha reso Aquileia famosa in tutto il mondo. 

Il Foro Romano
Il primo monumento che il visitatore vede quando entra ad Aquileia sono le rovine del Foro romano. Il foro era la principale piazza e ad oggi rimangono poche vestige ben conservate. Gli scavi iniziarono nei primi anni ’30 el secolo scorso e sono tutt’ora in corso; durante il periodo medioevale l’area del foro, più bassa, andò progressivamente impaludandosi, a causa anche dell’intasamento e del malfunzionamento delle fognature fino ad essere sepolto e diventare una palude.
Molto suggestivo è il severo colonnato bicolore che si mostra al visitatore.

La Basilica di Aquileia
Considerata da molti uno degli edifici romanici più belli al mondo l’edificazione della Basilica di Santa Maria Assunta ad Aquileia  inizia nell’anno 331 d.C., per volere del Vescovo Teorodo.
La Basilica che oggi vediamo è però la ricostruzione dell’anno 1000 e solamente il portico di Massenzio situato all’entrata risulta antecedente di circa 300 anni.
Dedicata alla Vergine e ai santi Ermacora e Fortunato, nel 331 d.C. con l’Editto di Milano che metteva fine alla persecuzione dei cristiani, i fedeli ebbero la possibilità di edificare i loro edifici liberamente: la Basilica è appunto uno dei primi edifici costruiti e, durante i secoli, venne distrutta e ricostruita ben quattro volte. Ogni ricostruzione veniva fatta sopra la precedente così oggi possiamo vedere il pavimento originale, ricoperto di splendidi mosaici, più basso rispetto all’entrata dell’edificio.
Il pavimento con i suoi meravigliosi mosaici plicromi venne portato alla luce dagli archeologi all’inizio del ‘900 e risale al IV secolo ed è il più grande mosaico paleocristiano mai rinvenuto (ben 760m2), mentre il soffitto ligneo a volta di nave è del XV secolo.
Putroppo la messa in opera delle colonne di destra, databile tra il IV ed il V secolo ha parzialmente rovinato il mosaico in quel punto ed oggi si possono vedere le fondazioni delle colonne dopo che i lavori di restauro tra il 1909 ed  il 1912 hanno rimosso il pavimento medioevale, risalente al 1030 circa.
Sempre dalla Basilica è possibile accedere alla cosiddetta "Cripta degli Scavi" ed alla "Cripta degli Affreschi".
La prima comprende una serie di resti di costruzioni appartenenti a diversi periodi storici che vanno dal periodo romano di età augustea fino al primo edificio di culto cristiano. La cripta degli affreschi si trova invece sotto l’altare maggiore ed è completamente ricoperta di affreschi: le scene principali sono dipinte al centro delle volte mentre nei pennacchi trovano posto figure di santi e busti di angeli all'interno di tondi. Nella cripta risalente al IX secolo, tra le colonne che sono il basamento dell’altare, si possono individuare due diversi artisti, o gruppi di artisti.

Il Porto Fluviale
Si giunge al porto fluviale percorrendo la via Sacra, una passeggiata archeologica posta nell’alveo del fiume e lunga circa un chilometro, che è stata creata con la terra di risulta degli scavi e lungo la quale sono stati collocati resti architettonici e monumentali provenienti dagli scavi delle mura e del foro.
Il porto fluviale di Aquileia è uno dei esempi meglio conservati di struttura portuale del mondo romano che
sorge dove una volta scorreva il fiume Natisone-Torre che era navigabile con una larghezza di circa 48 metri.
Le rovine che vediamo oggi risalgono alla metà del I sec. d.C., cioè all’impero di Claudio. Una delle principali rotte fluviali romane nell’Adriatico andò piano piano a perdere importanza durante il periodo tardo imperiale.
Grazie al porto la città fu a partire dall’epoca imperiale un emporio cosmopolita e un luogo di incontri di genti diverse, oltre che ad un centro di ampia apertura culturale anche dal punto di vista religioso. Grazie allo studio delle anfore ritrovate si è potuto ricostruire il traffico di commerci e di prodotti come il vino, l’olio e il grano. Grazie sempre allo studio sui reperti si è scoperto che  l’area i cui venivano prodotte le anfore corrispondeva all’area di produzione delle merci esportate, e che i vari tipi di anfora erano in stretta relazione con i prodotti da esse contenuti.  I prodotti della regione che consistevano principalmente in cereali, frutta e olive rappresentavano il principale prodotto di esportazione. In particolare l’olio era il principale prodotto che, grazie alla rete fluviale poteva essere esportato in tutta la Valle Padana.
I primi scavi sono stati svolti a partire dalla fine dell'Ottocento con tecniche che non includevano ancora le osservazioni stratigrafiche; perciò molti elementi di valutazione e datazione riguardanti il porto di Aquileia sono andati perduti.
Il Porto Fluviale romano ad Aquileia, oggi è anche una bella passeggiata tra natura e storia da fare nelle giornate di sole.

Aquileia è una città d'arte che merita d'esser scoperta, con un patrimonio ancora in parte ignoto al turismo di massa ed un glorioso passato.
Pale (Pg)
Pale Cascate del Menotre e Grotte dell’ Abbadessa
Il fiume Menotre è un piccolo fiume umbro che ha una grande portata e che, giunto all’altezza del borgo di Pale compie un salto di circa 200 metri nella gola sottostante, creando una serie di cascate che è possibile ammirare lungo un facile percorso che si perde nei verdi boschi dei monti umbri. 
Insieme alle cascate, l’infiltrazione delle cascate nelle rocce della zona ha anche generato un fenomeno carsico ipogeo, conosciuto come “Le grotte della Badessa”.

Le cascate del Menotre
Chiamate anche “Cascatelle di Pale”, sono parte del Parco dell’Altolina che dalla frazione di Belfiore arriva fino al borgo di Pale, ex castello durante il periodo medioevale.
Il percorso lungo il fiume alla scoperta delle cascate non risulta particolarmente difficile anche se potrebbe essere impegnativo per persone non allenate o con problemi motori, visto il dislivello della strada tra i diversi salti tra le cascate e l’ambiente nel quale si sviluppa. Vi si trovano diversi punti dove potersi riposare attrezzati con panchine e la rigogliosità della natura ivi presente permette di non soffrire particolarmente il caldo e l’ava anche in estate inoltrata.
L’ultima cascata (se si scende dal borgo di Pale, altrimenti è la prima) rappresenta il più suggestivo dei salti del fiume Menotre: l’acqua scorrere lungo la parete roccioso formando una specie di “penisola” attorno ad un albero dove il comune ha allestito una panca ed un tavolo per potersi riposare. Un posto fiabesco dove è possibile arrivare ai piedi della cascata e toccarne l’acqua fresca e dove si può notare una piccola grotta

Le grotte dell’Abbadessa
L’acqua del fiume Menotre, nei secoli, ha dato origine a quelle che sono conosciute come “Grotte dell’Abbadessa”.
Per poterle visitare è necessario prenotare. Una volta entrati si accede ad una serie di cavità lungo un piccolo percorso (il tour dura circa una mezz’ora) e si scopre che le grotte sono suddivise in “stanze”.
La prima prende il nome di “Camera del laghetto”, ed ha una forma circolare; dalla volta a forma di cupola pendono stalattiti e al centro sono presenti pilastri stalagmitici che bisogna stare attenti a non toccare per non rovinarne la crescita. A seguire vi è la “sala delle colonne a terra”, dove troneggia una stalagmite che ricorda la forma di un Leone.
Tradizione vuole che in passato sino state visitate da personaggi famosi come Cristina Regina di Svezia e Cosimo III Serenissimo gran Duca di Toscana; in particolare un aneddoto racconta che la Regina di Svezia fu talmente colpita da queste grotte da voler chiedere come ricordo un “pezzetto” della stalagmite a forma di leone che da allora è priva di un pezzo di quella che doveva essere la coda.
Leggenda o realtà le grotte meritano veramente una visita in particolare potrà essere apprezzata da famiglie con bambini in quanto la visita non è per nulla impegnativa e viene fornito tutto il necessario per l’esplorazione, dalle torce ai caschi. Ottima la spiegazione della nostra guida Cristina.

  ► Gallery

2020 -2021 (113)
2020 -2021
Primavera Estate 2020 (83)
Primavera Estate 2020
Inverno2019-20 (25)
Inverno2019-20

  ► Curiosità

Entropia
Entropia

L’entropia, conosciuta anche come “secondo principio della termodinamica”,  è una funzione di stato ed è una delle proprietà fisiche più importanti.
Le definizioni che si possono trovare sono molte:


  1. 1. L’entropia è il disordine di un sistema, che è la più famosa,  può andare bene se prima si definisce cosa si intende per disordine.
  2. 2. L’entropia è la quantità di calore sprecato nel compiere un lavoro
  3. 3. La tendenza dei sistemi chiusi ed isolati ad evolvere verso uno stato di massimo equilibrio
  4. 4. L’entropia è un modo per sapere se un determinato stato è raggiungibile da un sistema per mezzo di una trasformazione naturale e spontanea.
  5. 5. S= K log W, dove K è la costante di Boltzmann e w rappresenta tutte le possibili configurazioni di un microsistema in un macrosistema
  6. 6. ΔS= Q/T, dove ΔS è la variazione di entropia di un sistema, Q è il calore interno del sistema e T è la temperatura

L’entropia è indicata con la lettera S in onore di Nicolas Léonard Sadi Carnot
Cos'è un ologramma
Cos'è un ologramma
Semplificando si può dire che un ologramma non è altro che un' immagine tridimensionale di un oggetto su lastra fotografica ottenuta sfruttandol'interferenza di due fasci di luce di un'unica sorgente laser: viene creato con la tecnica dell'olografia mediante impressione di una lastra o pellicola olografica utilizzando una sorgente luminosa coerente come è ad esempio un raggio laser.
Il fronte d’onda, a seguito di divisione, dà origine a due fronti d’onda, il fascio di riferimento e il fascio oggetto, che sono inizialmente completamente correlati e che seguono due strade diverse. Il fascio oggetto viene sovrapposto in quello che si definisce “piano immagine” al fascio di riferimento. L’interazione presenta una modulazione di intensità sul piano immagine.
Una delle caratteristiche degli ologrammi è che lastra olografica conserva il contenuto informativo in ogni sua parte quindi se si rompe in più parti la lastra è possibile ottenere la stessa immagine tridimensionale completa in ogni pezzo che risulta
Chi ha inventato l' F-16?
Chi ha inventato l' F-16?
Innanzitutto l’F-16 e’ nato da un TEAM, e ripeto TEAM di ingegneri.
Alla guida del team c’era Robert H. Widmer (1916-2011).Nato nel New Jersey, Widmer si laurea al Rensselaer Polytechnic Institute e ottiene un master’s degree al California Institute of Technology (il Cal Tech). Non riuscì ad arrivare al Ph.D perchè nel 1939 venne reclutato dalla Consolidated di San Diego, dove si occupo’ di PBY, PB2Y e B-24, l’aereo da combattimento americano maggiormente prodotto durante la Seconda Guerra Mondiale. Presso la Convair, Widmer fu responsabile dei test in galleria del vento del B-36 Peacemaker e come dello sviluppo del B-58 e F-111. Nel 1970 fu promosso vice-presidente per la ricerca e sviluppo degli impianti di San Diego e Fort Worth.
Widmer inizio’ a lavorare all’embrione dell’F-16 in gran segreto e senza informare i vertici della General Dynamics in quanto questi ultimi ritenevano che un aereo del genere non avrebbe avuto mercato.
Harry Hillaker, conosciuto anche come il “Padre dell’F-16”. Come Widmer, anche Hillaker all’epoca lavorava alla Convair con la qualifica di vice-capo ingegnere del programma Lightweight Fighter. Praticamente era il numero due subito dopo Widmer. Verso la fine degli anni sessanta Hillaker entro’ a far parte della Fighter Mafia.
Pierre Sprey non ha inventato l'f-16 (come spesso si sente dire) e non è da considerare il padre ti tale aereo (come affermato dalla trasimissione RAI “Presa Diretta” del febbraio 2013). Sprey era semplicemente un’analista di sistemi presso l’Office of Secretary of Defense (OSD), nonche’ membro della famigerata "Fighter Mafia" (un ristretto gruppo di ufficiali USAF e civili noto negli anni settanta per ssere stato uno dei piu’ influenti think tank militari in campo aeronautico)

  ► Aerei del giorno

McDonnell Douglas F-15 Eagle
McDonnell Douglas F-15 Eagle Tipo: Aereo da Caccia
Ruolo: Caccia
Nazione di Origine: USA
Armamento: 1 cannone Vulcan M61 da 20 mm con 500 colpi, Missili: AIM-7 Sparrow AIM-9 Sidewinder, AIM- 120 AMRAAM distribuiti in 2 piloni subalari e 5 sotto la fusoliera

Prestazioni: Velocità massima 2,544 Mac (2701 km/h in quota), Velocità di salita 254m/s, Autonomia 3450km, Raggio di azione 1967km. Tangenza 20000m
British Aerospace Buccaneer
British Aerospace Buccaneer Tipo: Aereo da Attacco
Ruolo: Attacco, Bombardamento , Specializzato, Contro Guerriglia, Antinave
Nazione di Origine: Regno Unito
Armamento: Bombe nel vano bombe in fusoliera, fino a 5 400 kg (12 000 lb) di carico bellico (inclusa la possibilità di trasportare la bomba nucleare Red Beard) più 4 sub-alari, con la possibilità di trasportare varie combinazioni di bombe, missili e serbatoi ausiliari.

Prestazioni: Velocità max 1073 km/h a 60 m Autonomia 3700km Tangenza 12200m
Bell Boeing V-22 Osprey
Bell Boeing V-22 Osprey Tipo: Convertiplano
Ruolo: Trasporto, Trasporto Tattico, Specializzato, Ricerca e Soccorso
Nazione di Origine: USA
Armamento: 1 mitragliatrice General-Dynamics GAU-19/A da 12,7 mm

Prestazioni: Velocità max 509 km/h Autonomia 1650 km Raggio di azione 448km Tangenza 7530 m

  ► Tutorials

Simulare Carica Altro con Jquery

I siti web moderni preferiscono all’impaginazione dei risultati delle query il caricare sulla stessa pagina altri risultati (il famoso Carica altro) tramite la pressione di un tasto/link o tramite il raggiungimento della fine pagina.
Tra i vari metodi disponibili il più semplice lo si ottiene tramite jquery e si può adattare a molti script e linguaggi.
Per fare questo usiamo due metodi che ci offre il frameworks jquery: .append e .load.
Il metodo .append serve per poter accodare un contenuto all’interno dell’elemento al quale è associato.
Il metodo .load carica, invece, il contenuto di un file all’interno di un div.
Per quanto riguarda l’html sarà sufficiente creare un div al quale assegnamo l’id “contenuto” all’interno del quale carichiamo la nostra pagina con i dati aggiuntivi.

<div id="contenuto"></div>

Per quanto riguarda lo script ci limitiamo a scrivere la funzione che carica la pagina dentro contenuto:

<script>
function aggiungi (pag) {
$('#contenuto').append($("<div>").load("caricaaltro2.aspx?id="+pag));
}
</script>

Nello script abbiamo aggiunto una variabile che passa il numero di pagina nel caso dovessi caricare più pagine.
Posso anche aggiungere la funzione che nasconde il div che mi mostra “carica altri”:


$("#linnk").click(function() {$(this).hide();});

Nella pagina caricata mi limiterò a inserire lo stesso script e lo stesso div.


 

Script completo prima pagina 

<%@ Page Language="VB" ContentType="text/html" ResponseEncoding="utf-8" %>

<!doctype html>
<head>
<meta http-equiv="Content-Type" content="text/html; charset=utf-8" />
<title>Documento senza titolo</title>


<style type="text/css">
body { color: #000; text-align:center; background-color: #FFF; }
.quadrati { width:200px; height:200px; margin:2px 2px 2px 2px; display:inline-block; border:#354D46 1px solid; }
img { height:100%; width:auto; max-width:190px; }
</style>
<%dim pag = 2%>
</head>

<body>
<p>CARICA ALTRO ESEMPIO</p>

<div class="quadrati">
<img src="https://www.filoweb.it/galleria2015/foto/R06939V9BEM0AWYTUVM5VOQMEP0Q9O.jpg" >
</div>

<div class="quadrati">
<img src="https://www.filoweb.it/galleria2015/foto/LN6VNQDBH_NH77SWWRRBP6YJX7BDMQ.jpg" >
</div>

<div class="quadrati">
<img src="https://www.filoweb.it/galleria2015/foto/LVXNE6SIG86TAO8YBPBK3Q6A9D5VAF.jpg" >
</div>

<div id="contenitore" style="width:100%;">
<div id="contenuto" style="width:100%;"></div>
</div>

<div id="blinnk"><a href="javascript:aggiungi(<%response.write(pag)%>);" id="linnk" style="width:100%; background-color:#354D46; text-align:center; color:#FFF;" title="Carica tutti" >CARICA ALTRI</a></div>

<script src="https://ajax.googleapis.com/ajax/libs/jquery/3.2.1/jquery.min.js"></script>
<script>
$("#linnk").click(function() {$("#blinnk").hide();});

function aggiungi (pag) {
$('#contenuto').append($("<div>").load("caricaaltro2.aspx?id="+<%response.write(pag)%>));
}
</script>

</body>
</html>


 

 

Script completo 2° pagina

<%@ Page Language="VB" ContentType="text/html" ResponseEncoding="utf-8" %>

<!doctype html>
<html >
<style type="text/css">
body { text-align:center; }
.quadrati { width:200px; height:200px; margin:2px 2px 2px 2px; display:inline-block; border:#354D46 1px solid; }
img { height:100%; width:auto; max-width:190px; }
</style>

</head>
<body>
<%
dim pag
pag=request.QueryString("id")
pag=pag+1
%>

 

 

<div id="contenitore">
<h3> questa è la pagina <%response.write(pag)%></h3>
<div class="quadrati">
<img src="https://www.filoweb.it/galleria2015/foto/YLAUXHFWF52IBFJC7TJAZ_Z9ESH799.jpg" >
</div>

<div class="quadrati">
<img src="https://www.filoweb.it/galleria2015/foto/PA8I4_C_J8GFA808JSS4QVQT9NK2FH.jpg" >
</div>

<div class="quadrati">
<img src="https://www.filoweb.it/galleria2015/foto/YLAUXHFWF52IBFJC7TJAZ_Z9ESH799.jpg" >
</div>

<div id="blink<%response.write(pag)%>" style="width:100%; background-color:#293343;"><a href="javascript:aggiungi(<%response.write(pag)%>);" id="linnk<%response.write(pag)%>" style="width:100%; background-color:#354D46; text-align:center; color:#FFF;" title="Carica tutti" >CARICA ALTRI</a></div>

<div id="contenitore" style="width:100%;">
<div id="contenuto" style="width:100%;"></div>
</div>

</div>

<div id="contenitore" style="width:100%;">
<div id="contenuto" style="width:100%;"></div>
</div>

<script src="https://ajax.googleapis.com/ajax/libs/jquery/3.2.1/jquery.min.js"></script>
<script>
$("#linnk<%response.write(pag)%>").click(function() {$("#blinnk<%response.write(pag)%>").hide();});
function aggiungi (pag) {
$('#contenuto').append($("<div>").load("caricaaltro2.aspx?id="+<%response.write(pag)%>));
}
</script>
</body>
</html>

Installazione offline di Visual Studio 2017

Visual Studio è un ambiente di sviluppo integrato sviluppato da Microsoft, che supporta attualmente (2018) diversi tipi di linguaggi come il C, il C++, il C#, il Visual Basic .Net, l’ Html, il JavaScript e molti altri. Visual Studio permette la realizzazione sia di applicazioni che di siti web, web application e servizi web di varia natura.
L'attuale distribuzione di Visual Studio (la 2017), che rappresenta l’ultima versione dopo 20 anni di evoluzione, è disponibile in 3 versioni:



• Community
• Professional
• Enterprise


Una delle novità più importanti riguarda la versione Community che è disponibile completamente gratuita e può essere scaricata e utilizzata liberamente.


Per installare la versione community (come anche le altre) è sufficiente scaricare il file di installazione, lanciarlo e decidere quali componenti installare. Il processo può risultare molto lungo, a seconda della lingua; un’altra soluzione consiste nello scaricare sempre il file di installazione e scaricare tramite uno script i file di setup da conservare per eventuali nuove installazioni.
Il processo risulta sempre lungo, ma una volta fatto ho i file sempre pronti.
Per fare questo per prima cosa devo scaricare il file di installazione da:
https://www.visualstudio.com/it/ e quindi salvarlo in una cartella.

Apro quindi il prompt dei comandi (cmd.exe) e mi posiziono nella cartella dove ho copiato il mio file di installazione (vs2017.exe) e scrivo il comando:



vs2017.exe --layout c:\vs2017setup --lang it-IT


In questo modo creo una cartella chiamata vs2017setup dove verranno scaricati tutti i file per l’installazione offline della versione in italiano (lang it-IT) di visual studio 2017.
Visto che in totale verranno scaricati più di 30Gb ci vorrà tempo ed una connessione veloce ( non obbligatoria ma consigliata).


Una volta terminato sarà sufficiente andare nella cartella di installazione ed eseguire il file di setup.

Note: Posso anche scaricare la versione non localizzata in italiano, ma con tutte le lingue disponibile, in questo caso devo prepararmi a scaricare più di 65Gb!!.

Iframe ad altezza variabile

Premetto che non sono un amante degli iframe (non più almeno) perché oltre ad essere deprecati nell’HTML5 fanno sembrare il sito più vecchio di almeno 6-7 anni dando un’idea di poca professionalità. Inoltre gli iframe sono stati creati per visualizzare pagine esterne al proprio sito web, all'interno dello stesso anche se spesso sono stati usati in maniera errata. Quindi si se si vogliono usare per includere pagine esterne, no per quelle interne meglio usare altri metodi come include, o jquery).

Dopo questa lunga e doverosa premessa passiamo ai fatti. Chi usa il tag iframe spesso ha la necessità di adattarne l’altezza in base al contenuto che viene caricato. I metodi che si trovano in rete sono molti ed io voglio qua proporre la mia personale soluzione in pochissime righe di codice: leggo l’altezza dell tagdel contenuto che carico e tramite jquery assegno l’altezza all’ iframe.
Certo posso scegliere anche il tago altro ma in questo mio esempio preferisco usarevisto che tutto il contenuto visibile in una pagina è racchiuso lì dentro.



Definiamo lo stile per il nostro iframe tramite css:
#mioiframe { width:100%; border:#293343 1px solid; height:300px; }



Scriviamo il nostro iframe.



<iframe src="pg.html" id="mioiframe" class="mioiframe" scrolling="no" frameborder="0" name="contenuto" onload="caricato()"></iframe>

Definiamo il nostro script che verrà chiamato al caricamento del contenuto dell’iframe:
function caricato() {
var mioif = $("#mioiframe").contents().find("body");
var h = mioif.height();
$("#mioiframe").height(80+h+"px");
};


Infine la chiamata alle pagine:


 <a href="pg1.html" target="contenuto" class="menu"> pagina 1 </a>
<a href="pg2.html" target="contenuto" class="menu"> pagina 2 </a>


Come si vede è tutto molto semplice, veloce e leggero…

  ► Varie

Appunti: Photoshop CC v.14 con esempi
Photoshop CC v.14 con esempi
Pamphlet: Bufale online
Bufale Online
Templates
Templates
FB TW whatsapp RSS FEED News letter

filoweb.it è il sito personale di Filippo Brunelli
(c) 2017 Filippo Brunelli
Le immagini ed i testi contenuti nel sito filoweb.it sono di proprietà di Filippo Brunelli salvo diversamente indicato.
L'uso delle immagini e del testo è gratuito per uso personale ed è subbordinato alla citazione della fonte.
Brunelli Filippo declina ogni responsabilità per l'uso che viene fatto delle informazioni presenti nel sito filoweb.it.
X
La tua privacy è importante
Utilizziamo, senza il tuo consenso, SOLO cookies necessari alla elaborazione di analisi statistiche e tecnici per l'utilizzo del sito. Chiudendo il Cookie Banner, mediante il simbolo "X" o negando il consenso, continuerai a navigare in assenza di cookie di profilazione. More info

Tutti
Cookie tecnici
I cookie tecnici sono necessari al fine di "effettuare la trasmissione di una comunicazione su una rete di comunicazione elettronica, o nella misura strettamente necessaria al fornitore di un servizio della società dell'informazione esplicitamente richiesto dal contraente o dall'utente a erogare tale servizio" (art. 122, comma 1 del Codice privacy).
Cookie analitici di terze parti
I cookie analytics sono utilizzati al fine di valutare l'efficacia di un servizio della società dell'informazione fornito da un titolare di un sito, per progettare un sito web o contribuire a misurare il "traffico" di un sito web, ovvero il numero di visitatori ripartiti per area geografica, fascia oraria della connessione o altre caratteristiche.
Cookie di profilazione
Sono cookie che creano profili personalizzati relativi all'utente per finalità di marketing, ad esempio il retargeting o advertising sui social network.