Overblog Segui questo blog
Administration Create my blog

Cloud e virtualizzazione: come cambierà l'end user computing

Pubblicato su da ustorio

 

Introduzione

 

8 aprile 2014: è questo il giorno in cui Microsoft cesserà tutte le attività di supporto ufficiale al sistema operativo Windows XP. Entro questa data tutte le aziende che ancora oggi si affidano a questo sistema operativo dovranno obbligatoriamente aver completato la migrazione verso una nuova piattaforma: un processo complesso che richiede ingenti attività di pianficazione nonché investimenti numericamente rilevanti. Molte delle aziende che ancora basano la propria infrastruttura IT su Windows XP si troveranno proprio in questi anni a dover decidere come proseguire il proprio cammino nell'ambito dell'End-User Computing (EUC): si tratta di un grosso nodo da sciogliere, poiché rappresenterà il modo in cui le aziende forniranno gli strumenti tecnologici ai propri lavoratori.

Nel corso degli ultimi anni si sono infatti affermati nuovi e diversi paradigmi tecnologici che hanno messo sempre più decisioni da prendere dinnanzi ai dipartimenti IT delle aziende. Molti utenti si aspettano di lavorare (o lo richiedono) con dispositivi multipli, la globalizzazione e la connettività hanno portato ad una "dispersione" della forza lavoro che il progresso delle tecnologie mobile provvede a riconnettere e a far collaborare. Adesso esistono il cloud e la virtualizzazione, con piattaforme ed applicazioni che possono essere distribuite e centralizzate, senza che l'utente possa percepire la differenza rispetto ad un ambiente di lavoro più "tradizionale".

Questa situazione porta ad una reale esplosione nelle possibilità di scelta, che di norma rappresenta una buona cosa. Ma così non è, dal momento questo mare di possibilità genera confusione e fa emergere numerose domande alle quali l'IT deve essere in grado di rispondere: gli utenti divengono più esperti e sofisticati, quanto e che tipo di supporto hanno bisogno? Possono e dovrebbero lavorare con i propri dispositivi e le proprie applicazioni? Come si concilia questo con i dati sensibili? Quali sono i nuovi rischi collegati a queste nuove tendenze? Quanto controllo deve avere l'IT nel rendere disponibili queste tecnologie agli utenti-dipendenti?

Si evince pertanto che l'end-user computing non è più un processo lineare di aggiornamento e sostituzione, come è stato fino ad ora, ma diventa un vero e proprio percorso attraversato da molteplici alternative. Alternative che spesso appaiono essere complesse e divergenti e per questo motivo ogni azienda si trova nella situazione di dover capire quale strada seguire e in quale momento, per ciascun gruppo di lavoratori. Ma questo è possibile ad una sola condizione: sapere quale sia la destinazione.

Quando si parla di virtualizzazione e cloud, che rappresenteranno i punti fermi sui quali si poggerà l'evoluzione dell'End-User Computing, non si può non trascurare la posizione di una realtà che attualmente detiene l'85% del mercato mondiale della virtualizzazione: VMware. E' Brian Gammage, Chief Market Technologist dell'azienda statunitense, che illustra quale sia la visione dell'azienda nell'ambito dell'End-User Computing, cercando di prevedere in che modo le aziende dovrebbero pianificare il proprio percorso per individuare in che modo affrontare i propri investimenti. Gammage sottolinea un concetto che deve essere tenuto presente per tutta la durata della fase evolutiva: l'End-User Computing non riguarda la tecnologia ma riguarda il modo in cui gli utenti lavorano tramite la tecnologia. E' per questo che decisioni sbagliate rischiano di ostacolare la produttività e la capacità di crescita di un'azienda.

  

 Comprendere il punto di partenza

 

Per affrontare il viaggio di trasformazione è necessario anzitutto capire quale sia il punto di partenza. L'attuale fotografia, però, non è particolarmente allegra: i dipartimenti IT delle aziende si trovano sotto il fuoco incrociato di tutti gli altri dipartimenti, con richieste di ogni natura e con il problema di dover spesso riuscire a conciliare esigenze tra loro contrastanti. I dipartimenti IT si trovano spesso tra l'incudine ed il martello: utenti che si lamentano, insoddisfazioni dal business, la leadership che vede l'EUC come un costo invece che come un insieme di asset di valore. Soggiogato da quattro forze (il budget, la compliance, il business, gli utenti), l'End-User Computing si trova invischiato in un circolo vizioso.

 

Il budget

 

Attualmente l'End-User Computing rappresenta in media il 25%-40% del budget stanziato da un'azienda per l'IT. Purtroppo, però, gran parte di questi costi sono di tipo operativo e cioè impiegati per il mantenimento, il supporto e le operazioni degli asset esistenti: si tratta, in altre parole, di denaro speso restare fermi e e non per sviluppare nuove funzionalità o per incrementare la produttività.

Ogni progetto per sviluppare nuove capacità è di norma pachidermico, consuma molte risorse e coinvolge gran parte della forza lavoro. Si tratta, in genere, di progetti che vengono compresi nel processo di aggiornamento e rinnovo come può essere la migrazione di un sistema operativo o l'aggiornamento di infrastrutture hardare. Dal momento che le funzionalità EUC sono altamente integrate, è difficile distinguere i risultati provenienti dalle nuove capacità e quelli derivanti dagli investimenti del rinnovo. Ne consegue una percezione per la quale i soldi spesi per l'EUC non portino alcun ritorno. In altre parole l'EUC viene visto come un mero costo e non come un investimento: è questa percezione che porta le aziende a ridurre le spese destinate all'End-User Computing.

 

La compliance

 

I dispositivi ed il software EUC sono pieni di vulnerabilità che le aziende faticano a tamponare o, in ogni caso, vanno a risolvere a posteriori. Del resto è difficile poter prevenire rischi che non si è in grado di percepire: l'anno in corso ha visto numerosi episodi che hanno messo in discussione la sicurezza informatica, non da ultimo gli episodi di cosiddetto "hactivism". La perdita di dati riservati, magari appartenenti ad un cliente di un'azienda, possono causare un danno d'immagine per l'azienda stessa, nonché comportare pesanti e costosi strascichi legali. Si tratta di rischi reali che vanno via via crescendo. A partire da questa considerazione e ricollegandosi al discorso fatto poco sopra, si evince che il calare della spesa e la crescita dei rischi non fanno che incrementare ancor di più i rischi per dollaro speso: una dinamica che che porta alla naturale reazione di standardizzare e chiudere gli ambienti operativi. E' un tradizionale modus operandi che viene visto come l'unica strada per gestire questo tipo di rischi.

 

Il business

 

La standardizzazione e la chiusura causa, per molte aziende, un conflitto diretto con le esigenze del business. E' molto difficile affrontare i cambiamenti per un ambiente desktop standardizzato e chiuso e di norma ogni eventuale cambiamento coivolge un elevato numero di utenti. Cresce la complessità ed il costo di completamento di eventuali fusioni ed acquisizioni aziendali, così come l'apertura di nuove sedi ed anche la normale routine di amministrazione del turnover della forza lavoro e della crescita. Un approccio di questo tipo non permette la giusta flessibilità e la mancanza di flessibilità è un ostacolo alla scalabilità del business. Nel business una costante è il cambiamento, e per questo gli utenti business sono spesso insoddisfatti. La naturale risposta è quella di ridurre gli strumenti a disposizione: se pare che ciascun utente stia portando un fardello, perché non renderlo più piccolo?

 

Gli utenti

 

Questo approccio significa però offrire meno a ciascun utente e quindi spingersi in direzione opposta aquelle che sono le aspettative dell'utente. E' il potere della cosiddetta consumerizzazione: gli utenti si aspettano di avere a disposizione strumenti più capaci, che di norma utilizzano già privatamente. Gli utenti sanno come possono fare per lavorare meglio e cercano di arginare i controlli per assicurarsi di poter fare ciò, anche "arrangiandosi". E' a questo punto che l'EUC sembra essere meno rilevante, tale da sollevare l'ovvia domanda: "perché ci si spende così tanto?". Ed il circolo si reinnesca.

Una spirale che necessita di una via di uscita prima che si riavvolga nuovamente. Molte aziende, come detto in apertura, si trovano o si troveranno presto nella situazione di pianificare gli investimenti per affrontare la prossima migrazione tecnologia: è il momento ideale per trovare una strada che interrompa il circolo vizioso

.

Individuare il punto di arrivo

 

Fotografato il punto di partenza, è quindi opportuno determinare quale voglia essere il traguardo al fine di poter definire al meglio il percorso che connetta i due punti. Secondo Gammage sono le nuove possibilità offerte dalla tecnologia che dovrebbero suggerirci quali sono gli obiettivi da raggiungere, partendo da un'ulteriore considerazione: attualmente sono i dispositivi che usiamo ed i sistemi operativi a vincolare le operazioni ed il supporto per l'End-User Computing. In altre parole i dispositivi e i sistemi operativi ci distraggono da ciò che ha davvero importanza, ovvero le persone, le applicazioni ed i dati a supporto del processo di business. Il Chief Market Technologist di VMware suggerisce cinque obiettivi che nell'arco del prossimo lustro dovrebbero porsi le aziende che intendono migliorare il proprio ambiente EUC:

-Rifocalizzarsi sugli utenti, sulle applicazioni e sui dati: i dispositivi ed i sistemi operativi devono essere relegati ad un ruolo di supporto. 
-L'ambiente operativo deve essere più facile e meno costoso da gestire.
-Offrire un miglior supporto al business nel rapporto con il mondo esterno
-Aiutare gli utenti a lavorare in maniera produttiva venendo loro incontro per qualunque esigenza e con qualunque possibile scelta dei dispositivi che utilizzano
-Incrementare il livello di controllo, di verifica e di gestione del rischio.

Sono obiettivi di spessore, ma tutti raggiungibili e necessari poiché riguardano la produttività del primo asset di ogni azienda: le persone. Paradossalmente si tratta di obiettivi che sarebbero molto più semplici da raggiungere se le aziende avessero la possibilità di ricominciare da zero con la riprogettazione di un nuovo EUC. Ovviamente la vera sfida è quella di riuscire a centrare gli obiettivi senza fare terra bruciata ed interrompere il lavoro e la produttività dei lavoratori.

In ogni azienda vi sono numerose applicazioni EUC e molte di queste sono dipendenti dal sistema operativo in uso (che nella stragrande maggioranza dei casi è proprio Windows). Le applicazioni tendono ad avere lunghi cicli di vita e a ramificare molte interdipendenze, sia tecniche, sia di business: alcune applicazioni, in special modo quelle sviluppate internamente, hanno un ruolo chiave nell'interconnessione di sistemi o domini di business. Le aziende dovranno pertanto mantenere il sistema operativo desktop in uso per supportare le applicazioni fino a quando ne avranno bisogno. Un approccio di rimpiazzo completo non è un'opzione considerabile dal momento che queste applicazioni potranno solamente essere sostituite in itinere nel corso del tempo.

Si tratta di un processo che alcune realtà hanno già intrapreso: alcune delle nuove applicazioni sono server-based o web-based e la periodica necessità di migrare sistema operativo suggerisce di preferire applicazioni che siano neutrali al sistema operativo e al browesr. E' un processo lento: il punto di pareggio tra applicazioni desktop e applicazioni "neutrali" arriverà nel corso del 2012 ma bisognerà attendere fino al 2017 prima che si arrivi ad un 30%, che di norma è la soglia sotto la quale molte aziende accelerano il processo di sostituzione. Tutte queste considerazioni significano che le applicazioni Windows-based ed il sistema operativo continueranno a giocare un ruolo chiave negli ambienti EUC per molto tempo a venire, probabilmente almeno fino alla fine di questo decennio.

Un processo lungo e complesso, da riuscire ad innestare nella prossima attività di migrazione, ma con il fine ultimo di semplificare e rendere più flessibile l'ambiente operativo. Secondo la visione di VMware si tratta di un percorso da affrontare in tre diverse fasi, in maniera graduale: partendo dalle applicazioni, passando dal cloud ed infine abbandonando quando possibile l'ambiente desktop tradizionalmente inteso.

 

Prima fase: revisione delle applicazioni

 

Come già sottolineato in precedenza, le aziende dovrebbero riuscire ad impiegare la prossima ondata di investimenti EUC per semplificare e migliorare ciò di cui dispongono ora. Per molte realtà questo dovrà accompagnare la migrazione a Windows 7. E' essenziale, in questa fase, essere in grado di comporre un punto della situazione che sia obiettivo, realistico e dettagliato, per capire quale sia il punto di partenza e quali siano i cambiamenti che è necessario effettuare.

E' opportuno pensare con lungimiranza: dove gli utenti lavoreranno e si muoveranno, che genere di controllo deve essere dato sulle applicazioni che useranno, con chi lavoreranno e come. Di pari importanza, in questa fase, è la capacità di slegarsi da quell'approccio di "standardizzazione" cui si faceva riferimento in precedenza: un approccio alla "one size fits all" seguito in passato ha portato ad un'inefficienza diffusa poiché in questo modo nessuno può avere gli strumenti corretti per poter lavorare. A questo è indispensabile aggiungere le considerazioni sulle esigenze dell'azienda: che elasticità è necessaria affinché i lavoratori siano in grado di supportare la crescita del business e gli obiettivi di trasformazione? Quale genere di livello minimo deve essere stabilito per prestazioni, disponibilità e sicurezza?

Una volta fatto il punto della situazione, la prima area di intervento sono le applicazioni, in maniera tale che ci si possa preparare alla migrazione del sistema operativo. In questi casi le operazioni sono piuttosto dispendiose, in quanto la migrazione di un sistema operativo implica un lavoro di repackaging e testing di tutte le applicaizoni prima di passarle sulla nuova piattaforma. Le aziende hanno a disposizione tre strade: riconfezionare le applicazioni che non hanno alcun problema con il nuovo sistema operativo, sistemare e riadattare quelle applicazioni che presentano qualche piccolo problema e, infine, scartare e sostituire in toto tutte quelle applicazioni che presentano problemi più complessi.

E' in questa fase che ci si può appoggiare alla virutalizzazione, specie per quelle applicazioni che possono essere migrate senza problemi. Dal momento che un'applicazione virtualizzata opera nel proprio ambiente isolato da altre applicazioni e disaccoppiato dalla configurazione del sistema operativo, l'applicazione risulta essere molto più portabile, semplificando le operazioni e permettendo di risparmiare risorse. I risparmi sono immediati, dal momento che un'applicazione virtualizzata non necessita di test. In pochi casi, tuttavia, sarà possibile virtualizzare l'intero parco di applicazioni (per via di dipendenze incrociate, accesso diretto a driver specifici), motivo per il quale per un certo periodo di tempo l'azienda dovrà essere in grado di far coesistere applicazioni virtualizzate e applicazioni native: in questo frangente è essenziale però che tutto possa essere gestito in maniera omogenea e con i medesimi strumenti, altrimenti si andrebbe in direzione opposta alla semplificazione e al risparmio.

Approccio differente, invece, per quelle applicazioni che devono essere sostituite: in questo caso un atteggiamento di lungimiranza è quello di scegliere soluzioni che non richiedano lo stesso livello di attenzione nel caso di una futura migrazione del sistema operativo. In altri termini è opportuno orientarsi in direzione si soluzioni cosiddette "neutrali" al sistema operativo, come applicazioni web-based (in questo caso senza dipendenze da browser) e formule di Software-as-a-Service. Lavorare in questo modo sulle applicazioni permetterà di effettuare una profonda revisione di tutto il parco degli applicativi, permettendo di individuare eventuali ridondanze o intuilità che possono così essere eliminate.

E' a questo punto che un'azienda può pensare di iniziare ad introdurre i desktop virtuali per i propri lavoratori, sempre facendo attenzione che essi possano essere gestiti con le policy aziendali già esistenti. Bisogna sempre ricordare, infatti, che lo scopo di tutto il percorso è quello di arrivare ad una semplificazione e non di introdurre ulteriore complessità.

 

Seconda fase: l'introduzione del cloud

 

Portata a compimento la prima fase, le aziende dovrebbero poi cercare di focalizzarsi sulla realizzazione (o adozione) di una piattaforma di servizi cloud (pubblico, privato o ibrido) e, come già detto più volte in precedenza, allargare le policy aziendali alla gestione di questa piattaforma. Secondo la visione di Gammage, in questo modo le aziende potranno gestire le risorse desktop e le risorse cloud mediante gli stessi processi e gli stessi strumenti, in maniera tale che esse appaiano come una singola entità.

Inizialmente la piattaforma cloud funzionerà come una sorta di "hub" per l'accesso alle applicazioni cloud e SaaS, ma le sue funzionalità potranno via via crescere con lo spostamento di sempre più applicazioni e servizi EUC dal desktop al cloud. Nel momento in cui si è stabilita la piattaforma cloud e ad essa sono state estese le policy aziendali, è possibile decidere che cosa e in quale momento delle applicazioni e dei servizi esistenti possono essere spostati nel cloud, mentre tutte le nuove applicazioni introdotte dovrebbero essere già nativamente rese disponibile tramite la piattaforma di servizi cloud, così come lo sviluppo in-house delle applicazioni dovrebbe avvenire su piattaforma cloud.

In questo modo si può preparare la strada per estendere funzionalità e servizi del desktop (reale o virtuale che sia) al cloud, in maniera tale che servizi, applicazioni e contenuti possano essere accessibili da qualunque dispositivo, specialmente da smartphone e tablet. E' a questo punto che l'azienda sarà riuscita a smeplificare il processo di inserimento delle nuove applicazioni e a raggiungere l'indipendenza dai dispositivi.

Nel momento in cui la piattaforma cloud è stata resa pienamente operativa con le caratteristiche fin qui citate, le aziende potranno immediatamente realizzare una serie di benefici: le applicazioni SaaS potranno essere aggiunte facilmente al parco esistente, le applicazioni possono essere rese istantaneamente disponibili agli utenti, così come la gestione dei diritti di accesso può essere gestita in maniera molto più agevole. Il paradigma SaaS consente inoltre di non avere costi nascosti: questa caratteristica, assieme alla dettagliata reportistica dell'uso permetterà finalmente all'azienda di disporre di un elemento che è mancato nel mondo EUC fino ad ora: il diretto collegamento tra costi e risultati.

E' a questo punto che la percezione degli investimenti effettuati nell'end-user computing inizierà a cambiare, permettendo di accelerare con gradualità la fuga dal circolo vizioso cui si faceva riferimento in precedenza. La possibilità di collegare direttamente costi e risultati permette infatti di dimostrare i benefici ottenuti e in questo modo gli investimenti effettuati nell'EUC possono essere correlati con i fatturati invece di essere considerati un mero costo.

Questa nuova situazione consente inoltre di affrontare ogni evoluzione in maniera estremamente modulare, così che gli investimenti possano essere correttamente bilanciati con le risorse a disposizione: è un approccio che va in direzione diametralmente opposta a quella dei pachidermici progetti cui si faceva riferimento qualche pagina addietro. L'eliminazione della complessità porterà anche ad una flessione nei costi operativi, che saranno sempre più determinati dall'utilizzo degli strumenti e sempre meno dal mantenimento e dal supporto 

 

Terza fase: l'abbandono del desktop

La terza e ultima fase dell'itineriario elaborato nella visione di VMware consta più di un processo di graduale iterazione dei passi fin qui compiuti, allo scopo di ridurre via via la dipendenza dal desktop e dal sistema operativo e per continuare ad ottenere risparmi nei costi operativi.

Secondo Gammage questa fase potrà verificarsi nel corso della seconda metà di questo decennio e rappresenterà il completamento della fuga verso il cloud: è a questo punto che i servizi cloud diverranno il principale spazio di lavoro attraverso il quale è possibile accedere al desktop, come fosse un qualsiasi altro servizio. Il tradizionale ambiente desktop esisterà solamente per supportare l'onda lunga delle applicazioni legacy dell'azienda.

Una volta che il passaggio verso il cloud sarà completato, a seguito della sostituzione in itinere di tutte le applicazioni OS-dependant con le alternative cloud-based, l'azienda potrà liberarsi del sistema operativo desktop. Alla fine di questa fase le aziende avranno completato il lungo viaggo del rinnovamento dell'ambiente EUC, potendo così concentrarsi meglio sull'utente, sulle applicazioni e sui dati, grazie ad una enorme semplificazione dell'ambiente operativo e della sua gestione.

L'utente si troverà così ad aver a che fare non più con un desktop tradizionalmente inteso, ma con uno spazio di lavoro che darà accesso a tuti i servizi necessari. Ancor più importante, si tratterà di uno spazio che potrà essere accessibile da qualunque posto ci si trovi e con qualunque dispositivo. Uno spazio di lavoro che sarà controllato tramite le policy aziendali, che oltre a determinare l'accesso alle applicazioni potranno definire le capacità d'uso in maniera dinamica, a seconda dei permessi, della localizzazione e del contesto di utilizzo.

La conclusione del percorso

Secondo VMware un percorso così strutturato permetterà di trasformare radicalmente l'ambiente operativo, andando a risolvere quei punti critici che abbiamo evidenziato in apertura e investendo l'EUC del ruolo che realmente dovrebbe avere: il principale strumento di supporto ed esecuzione dei processi di business.

Anzitutto l'end-user computing sarà visto dal business non più come un ostacolo al cambiamento, alla crescita e alla trasformazione. La semplificazione nella gestione e la rimozione della complessità consentirà di portare a termine in maniera più rapida eventuali operazioni di fusione e acquisizione, l'apertura o la chiusura di sedi e uffici potrà essere condotta a costi inferiori e, aspetto molto più importante, il ritorno dell'investimento potrà finalmente essere misurato in maniera diretta. Il nuovo ambiente consentirà un controllo più granulare, con un incremento diretto nella sicurezza e nella verifica delle attività degli utenti.

Gli utenti stessi potranno disporre di una maggior flessibilità per lavorare con dispositivi e applicazioni che preferiscono, ma dovranno tener presente che le migliorate capacità di controllo potranno consentire di ottenere metriche più precise sul livello di produttività tra le varie alternative. Gli utenti potranno avere maggior voce in capitolo nelle decisioni che riguardano gli strumenti che usano per lavorare, partecipando in maniera più democratica alla vita dell'azienda.

I dipartimenti IT saranno riusciti a scappare dal circolo vizioso nel quale si trovano intrappolati oggi: costi per utente significativamente ridotti e una maggiore attenzione, invece, ai benefici che possono apportare al business. Non da ultima una maggiore flessibilità anche per loro, che li mette nella condizione di poter soddisfare in maniera molto più semplice le numerose richieste.

In ultima analisi, il "computing" passerà in secondo piano, poiché l'attenzione si sarà spostata sugli utenti, sulle applicazioni e sui dati. Le applicazioni saranno accessibili ovunque e da qualunque dispositivo, ma il dipartimento IT potrà disporre di un controllo molto più stretto sulle modalità d'utilizzo degli strumenti. Si gestirà meno e si gestirà meglio, con una grande semplificazione degli strumenti di supporto.

 

Leggi i commenti

Fisica, superata la velocità della luce

Pubblicato su da ustorio

 

I neutrini più veloci della luce: un esperimento del Cern di Ginevra mette in crisi la teoria di Einstein. Alta partecipazione di fisici italiani.

 

Clamoroso, rivoluzionario, gli aggettivi si potrebbero sprecare. E' stata superata la velocità della luce.E' il risultato di un esperimento del Cern di Ginevra. Ed è storico, perchè la velocità della luce è un paradigma centrale della fisica. E il fatto che sia superabile, spiega subito il direttore scientifico del Cern,Sergio Bertolucci, «potrebbe cambiare la nostra visione della fisica».

 

Per intenderci, trattasi di una scoperta che metterebbe in discussione leggi fondamentali della scienza, a partire dalla teoria della relatività di Einstein. Quindi, prudenza. Perchè quando un esperimento, pur accurato, porta a un simile risultato, che lo stesso Bertolucci definisce «apparentemente incredibile», il dovere dello scienziato è quello di «sottoporlo a una più ampia indagine».

Comunque, al momento il fatto è questo: l'esperimentoCngs (Cern Neutrino to Gran Sasso), dimostra che i neutrini hanno viaggiato ad una velocitàleggermente superiore rispetto a quella della luce. Si tratta di una scoperta che si basa su unamisurazione. Il risultato è stato ottenuto nell'ambito della collaborazione "Opera", che riunisce 200 fisici di 36 istituzioni da 13 Paesi, fra cui l'Italia. Un mirabile esempio di quanto possano valere la tanto bistratta ricerca scientifica e l'innovazione.

La scoperta si basa sull'osservazione di oltre 15mila neutrini, prodotti dall'acceleratore del Cern Super Proton Synchrotron e "spediti", per usare un termine molto semplice, ai Laboratori Nazionali del Gran Sasso. In tutto 730 chilometri (tra Ginevra e la più alta montagna dell'Appennino) che, secondo la misurazione effettuata, i neutrini percorrono più velocemente della luce. Significa che, idealmente, mandando nello stesso momento un fascio di luce e uno di neutrini verso un'unica destinazione, i neutrini arrivano 60 nanosecondi prima. Il margine di errore sta tutto in questi numeri. Cioè nella difficoltà di essere totalmente certi della precisione di misurazioni che, su una distanza cosi' grande, devono misurare millesimi di secondo.

I ricercatori del progetto Opera segnalano che l'esperimento ha un alto grado di "confidenza", ovvero viene ritenuto molto credibile. Ma, contemporaneamente, è anche una "completa sopresa". Perchè, come detto, ce n'è abbastanza per mettere completamente in crisi la teoria della relatività, che in qualche modo è la teoria delle teorie, intorno alla quale ruota tutta la fisica moderna. SecondoEinstein, la velocità della luce è una certezza, non è superabile.

Se lo fosse, si aprirebbero frontiere fino ad oggi impensabili. Giusto per dirne una, si potrebbe viaggiare nel tempo.

E qui torna il richiamo alla prudenza. Ora la comunità scientifica dovrà fare una serie di verifiche. «Dobbiamo ricorrere a misurazioni indipendenti per verificare i risultati» dicono dal Cern. L'esperimento, secondo i dati scientifici, ha un'incertezza di 20 centimetri sui 730 chilometri del percoso e il tempo di volo dei neutrini è stato misurato con una precisione di meno di 10 nanosecondi. La velocità della luce è stata superata di 60 nanosecondi (significa che al termine del tragitto i neutrini arrivano con un vantaggio di una ventina di metri). Insomma, la dimostrazione c'è tutta.

Ma, dicono i ricercatori di Ginevra, bisogna fare confronti con altri esperimenti, sottoporre i  risultati a un più ampio esame della comunità scientifica. «Dobbiamo essere sicuri che non esistano altre, più banali spiegazioni» sottolinea Bertolucci.

Nell'attesa, si può dare libero sfogo all'immaginazione. Qualcuno si ricorda il teletrasporto di Star Trek? O la macchina del tempo di Ritorno al futuro? E chissà cos'altro... Fantasia, che potrebbe diventare realtà. Ma attenzione, il metodo scientifico è rigoroso: una legge è vera fino a prova contraria. Una misurazione effettuata da strumenti precisi al di là di ogni possibile dubbio è una prova. Ma deve essere, appunto, precisa al di là di ogni possibile dubbio. A quel punto, par di capire, diventerebbe una "prova contraria" alla teoria della relatività.

Vale la pena di spendere qualche parola sulla collaborazione "Opera". Anche perchè l'Italia è il Paese chepartecipa con il maggior numero di istituzioni scientifiche: oltre ai già citati Laboratori del Gran Sasso (INFN, Istituto Nazionale di Fisica Nucleare), il dipartimento di Fisica dell'Università di Bari, il dipartimento di Fisica dell'Università di Bologna, il Laboratorio Nazionale di Frascati, il Dipartimento di Fisica dell'Università dell'Aquila, quelli dell'Università Federico II di Napoli, dell'Università di Padova, della Sapienza di Roma, dell'Università di Salerno. Siamo a quota nove: dopo di noi, la Russia, con sei istituzioni scientifiche, il Giappone, cinque, Francia, Svizzera eGermania, tutte a quota tre, e poi una lista di paesi che sono rappresentati da una istituzione: Bulgaria, Croazia, Turchia, Belgio, Tunisia, Israele, Corea.

Oggi è la giornata europea dei ricercatori, e decisamente l'esperimento "Opera" rende il miglior onore possibile a questa ricorrenza. Resta una considerazione: l'Italia non è una pese che brilla perinvestimenti nella ricerca. Eppure, come si vede, la possibilità di eccellere ai massimi livelli non manca. Trattasi di un elemento considerato molto importante anche dal punto di vista economico: alimenta la competitività. E quindi quella crescita che, al momento, sembra essere in cima alle priorità di parti sociali e classe politica. Speriamo.

 

 

Leggi i commenti

Quello che accade dentro di noi, creerá quello che accade fuori di noi.

Pubblicato su da ustorio

 

Premessa : Tutto è costituito da atomi ( nucleo ed elettroni ), la materia, l'aria, il fuoco, l'acqua , le stelle e lo spazio etc... 
Ogni elemento presente sulla terra vibra ad una certa frequenza d'onda tanto da dare ad essa l'aspetto che noi percepiamo con i nostri sensi. 
Si chiamano stati vibrazionali ; cosa distingue l'acqua dal ghiaccio o dal vapore ? Uno stato vibrazionale...tanto esso è più lento tanto la materia è più densa. 

La meccanica quantistica (o fisica quantistica) è un insieme di teorie formulate nella prima metà del ventesimo secolo, che descrivono il comportamento della materia a livello microscopico, andando a spiegare quei fenomeni che la fisica classica non riusciva più a comprendere. 
La fisica quantistica, infatti, elimina la precedente distinzione tra particelle e onde: un sistema quantistico presenta le caratteristiche tipiche delle onde, ma nel momento in cui viene misurato, o anche solo osservato, assume le caratteristiche di un insieme di particelle (quanti) (dal latino quantum, quantità, da cui il nome della teoria). 
Questa proprietà risulta sconvolgente, dato che presuppone che la realtà sia un insieme di possibilità potenzialmente infinite, che solo l’interpretazione può determinare e “concretizzare” in fenomeni percepibili dall’uomo. Questo aspetto viene ripreso in ambienti filosofici e spirituali, ad affermare che tutto ciò che l’uomo percepisce non sarebbe altro che una sua creazione.
Secondo il modello quantistico, inoltre, i processi fisici sono discontinui e hanno luogo in forma di salti quantici che, essendo infinitesimali, danno l'illusione di un mondo in cui i cambiamenti avvengono in modo molto regolare e continuo. 
Iil fisico Pagels avverte (Il codice cosmico, Bollati Boringhieri, cap.9 pag.134/137): "La vecchia idea che il mondo esista effettivamente in uno stato definito non è più sostenibile. La teoria quantistica svela un messaggio interamente nuovo: la realtà è in parte creata dall'osservatore". Ed inoltre: "La situazione si presenta paradossale al nostro intuito, perché stiamo cercando di applicare al mondo reale un'idea dell'oggettività che sta solo nelle nostre teste, una fantasia".

Il riorientamento di prospettiva introdotto dalla meccanica quantistica nel modo
di porsi di fronte al fenomeno naturale non riguarda solo l’atteggiamento dell’uomo
di scienza, ma tocca nell’intimo la mentalitá dell’uomo stesso.

"L'universo è cambiamento: la nostra vita è il risultato dei nostri pensieri". Cesare Marco Aurelio Antonino Augusto (121 – 180), imperatore romano.

"L'universo comincia a sembrare
più simile ad un grande pensiero
che non a una grande macchina".
-James Jeans, astronomo e fisico-.

“Se si vuole interpretare la Meccanica Quantistica si deve considerare il pensiero come una essenza fisica”.
N.Bohr

Se quando studi la scienza da molto tempo e con molto serietà, non ti senti pazzo… non hai capito nulla.
[Fred Alan Wolf, in What the bleep do we know?]

Il fatto che il mondo quantico appaia paradossale e misterioso al nostro pensiero molto probabilmente é una misura dei limiti della mente umana, che pensa in termini concreti.
Fred Alan Wolf

 

Leggi i commenti

Guida alla nuova IPT e all'aumento IVA sull'auto

Pubblicato su da ustorio

2011-09-20_095626.png

 

Il decreto legge 138/2011, cioè la manovra finanziaria 2012-2014 entrata in vigore sabato scorso dopo l'approvazione della legge di conversione, rende effettive le nuove disposizione relative all'Ipt, l'Imposta provinciale di trascrizione che si paga per iscrivere al Pubblico Registro Automobilistico un veicolo nuovo o per registrare il passaggio di proprietà di uno usato. Il provvedimento sull'Ipt, lo ricordiamo, era previsto dall'art. 17 del decreto legislativo n° 68 del 6 maggio 2011 ("Tributi connessi al trasporto su gomma") e non si applica alle province che fanno parte delle regioni a statuto speciale: Friuli Venezia Giulia, Sardegna, Sicilia, Trentino-Alto Adige e Valle d'Aosta.

NUOVA IMPOSIZIONE, NON AUMENTO - Da allora, si è parlato di "aumento dell'Ipt". Impropriamente, perchè in realtà l'Ipt non è affatto aumentata, nel senso che le sue tariffe sono rimaste e rimangono esattamente le stesse di prima, cioé variano, per ogni kW di potenza della vettura, da 3,5119 a 4,5655 euro, in base alla provincia dove essa è immatricolata. Le province, infatti, possono maggiorare l'importa base dell'Ipt (3,5119 euro, appunto) fino al 30%, cioé fino a 4,5655 euro. Ciò che il decreto ha cambiato è la modalità di imposizione dell'Ipt. Il comma 6 dell'art. 17, infatti, dispone che «sia soppressa la previsione specifica relativa alla tariffa per gli atti soggetti a Iva e la relativa misura dell'imposta sia determinata secondo i criteri vigenti per gli atti non soggetti ad Iva». In altre parole, per tutti gli atti di iscrizione al PRA di una vettura nuova, che sono appunto soggetti a Iva, si applica ora la tariffa dell'Ipt valida per quelli non soggetti a Iva, che non è fissa, ma è calcolata in base ai kW della vettura. All'atto pratico, l'Ipt sulle auto nuove costa come prima solo per quelle con potenza fino a 53 kW: da 150,81 a 196,05 euro, in base alla provincia. Oltre, arriva la "batosta" che prima non c'era, per calcolare la quale bisogna moltiplicare ogni kW per l'importo stabilito dalla provincia di immatricolazione.

ESEMPIO DI CALCOLO PER LE AUTO NUOVE - Ecco dei semplici calcoli che forniscono qualche esempio degli importi dell'Ipt sulle auto nuove in vigore da sabato scorso. Prendiamo, per esempio, la provincia di Brescia, una di quella che ha scelto di non applicare alcuna maggiorazione sull'importo "base" dell'Ipt, cioé di far pagare solo i canonici 150,81 euro. Con la nuova Ipt, come abbiamo visto, rimane tutto come prima solo per le auto fino a 53 kW, per le quali la tariffa resta ferma a quel valore. Se l'auto nuova invece ha solo un kW in più, cioé 54,l'importo passa già a 189,64 euro (54 x 3,5119 euro) e se ne ha 60 va a 210,71. Con 100 kW aumenta a 351,19 euro, con 200 schizza a 702,38 euro e così via. In termini percentuali, chi acquista oggi un'auto da 200 kW e la immatricola a Brescia pagherà un'Ipt più cara del 365,7% rispetto a prima. A Catanzaro, invece, che insieme ad altre 48 province applica la maggiorazione massima sulla tariffa "base" nazionale, cioé quella del 30%, l'Ipt è di 196,05 euro e tale rimane per tutte le auto fino a 53 kW. Utilizzando gli stessi esempi di potenza di prima, i nuovi importi salgono rispettivamente a 246,54 euro per 54 kW (54 x 4,5655 euro), a 273,93 euro (60 kW), a 456,55 euro (100 kW) e a 913,1 euro (200 kW). Nelle altre province che applicano percentuali di maggiorazione intermedie tra il minimo e il massimo, il calcolo va fatto moltiplicando sempre l'importo dell'Ipt locale, che pubblichiamo nella tabella, per la potenza in kW della vettura. Ovviamente, il nuovo criterio d'imposizione dell'Ipt farà crescere i prezzi "chiavi in mano" delle auto nuove. Non poi di molto, rispetto ai prezzo di listino (e niente del tutto per quelle che non superano i 53 kW), ma abbastanza da costituire un elemento di disturbo per un mercato del nuovo che già boccheggia.

ANCHE L'IVA AUMENTA - Se poi al rincaro dell'Ipt s'aggiunge quello dell'Iva, la cui aliquotà, sempre per colpa della manovra, è rincarata da sabato dell'1% passando al 21% (altri 100 euro in più da pagare per ogni 10 mila di imponibile), la cosa si fa ancora più fastidiosa. Secondo Filippo Pavan Bernacchi, presidente di Federauto, quell'1% di Iva peserà in media per circa 220 euro su ogni auto venduta e permetterà all'erario un introito supplementare di 435 milioni di euro all'anno. Contro la manovra, quindi, è comprensibilissima la levata di scudi degli operatori del settore, che hanno parlato di "accanimento" del governo nei confronti di un settore già in profonda crisi.

COSA (NON) CAMBIA PER L'USATO TRA PRIVATI - Chiariamolo subito, perché sull'argomento c'è stata e c'è un po' di confusione: per i passaggi di proprietà delle vetture usate acquistate da un privato (cioé, un venditore non soggetto a Iva) non cambia assolutamente nulla: poiché l'atto di vendita non è assoggettato al regime dell'Iva, tutto rimane esattamente come prima: si paga in base alla potenza in kW, come si è sempe pagato, e ogni kW costa come prima. Il discorso invece cambia, e assume lo stesso profilo spiegato in precedenza, se il venditore è un soggetto Iva, per esempio un agente di commercio che vende il suo usato. Anche in questo caso, invece della tariffa fissa si applica quella per kW di potenza già citata.

E SE SI ACQUISTA IN AUTOSALONE? - Un discorso a parte va fatto per gli acquisti di auto d'occasione da un venditore professionista, cioé un concessionario o un autosalone. La quasi totalità delle vetture usate che transitano per questo canale vengono rivendute con regime dell'Iva e relativa fattura. Quindi, per queste auto, come per quelle nuove, prima dell'entrata in vigore del decreto il venditore godeva della tariffa agevolata dell'Ipt, quella fissa indipendente dalla potenza (sempre da 150,81 a 196,05 euro). Da sabato, però, il soggetto Iva non può più beneficiare di questa agevolazione, quindi pagherà anche per l'usato fatturabile la tariffa in base ai kW. E qui iniziano i problemi.

SPARIRANNO LE "MANCE" - A questo punto bisogna sottolineare ciò che forse sfugge a molti, e cioé che i commercianti di auto usate, pur avendo beneficiato fino a oggi di una tariffa agevolata dell'Ipt concessa ai soggetti Iva, quasi sempre hanno chiesto all'acquirente una somma per il passaggio di proprietà paragonabile a quella che il privato avrebbe pagato rivolgendosi a qualsiasi agenzia di pratiche auto per un atto non soggetto a Iva, cioé con tariffa "a kW". Insomma, da questa pratica molti venditori professionisti hanno ricavato per anni una specie di "mancia" utile ad arrotondare i loro margini. L'importo della "mancia" è costituito dalla differenza tra la somma versata all'agenzia che cura le pratiche di voltura della macchina (e che comprende sia la parte da pagare all'agenzia stessa per il suo lavoro, sia l'Ipt e i vari emolumenti) e quella richiesta al cliente finale per la voltura stessa. Mediamente, un'agenzia che lavora per un rivenditore di auto trattiene per sé circa 30-40 euro per ogni pratica.Considerando anche gli emolumenti da versare al PRA e i vari bolli di legge, si può ritenere con buona approssimazione che, prima del decreto, ogni pratica di passaggio di proprietà costasse a un concessionario-salonista circa 320-330 euro in tutto. Con approssimazione altrettanto buona, possiamo assumere che la somma richiesta al cliente per la voltura sia mediamente di 450 euro, anche se nelle grandi città capita di sentirsi chiedere molto di più, anche oltre 500 euro. Quindi, per differenza, è ragionevole parlaare di una "mancia" da almeno 120-130 euro per ogni passaggio di proprietà. Tuttavia, il decreto cambia le carte in tavola e l'Ipt in base alla potenza farà aumentare sensibilmente il costo delle pratiche anche per i professionisti della vendita, che potranno continuare a ritagliarsi la loro "fetta" solo vendendo l'usato fino a 53 kW, per il quale nulla cambia rispetto al passato. Per quelle più potenti, se vorranno ugualmente ricavare lo stesso margine di prima, dovranno chiedere al cliente un prezzo per la voltura crescente in base ai kW, quindi sensibilmente più elevato e, per le auto più potenti, davvero stratosferico. L'alternativa è di rinunciare a quel piccolo margine. Un'alternativa assai probabile, poiché è più che logico prevedere che l'acquirente di un usato vecchiotto e di una certa potenza, diciamo da 7 mila euro e 150 kW, sarà poco propenso ad accettare un ulteriore arrotondamento su un costo del passaggio di proprietà divenuto già di colpo costosissimo. Ed ecco spiegato il primo motivo che ha portato le organizzazioni di categoria (Anfia, Federauto e Unrae) ad alzare le barricate contro il cosiddetto "aumento dell'Ipt", che assottiglia i margini complessivi della vendita dell'usato in un periodo in cui di margini c'è molto, molto bisogno.

KILOWATT DEPREZZATI - Ovviamente, c'è dell'altro, e questo è il ragionamento degli operatori: la manovra governativa sull'Ipt potrebbe deprimere parecchio il mercato delle auto usate, soprattutto di quelle di valore contenuto, ma di potenza elevata, che con le tariffe "a kW" vedrebbero crescere i costi del passaggio di proprietà a livelli insostenibili, rendendo molto più difficoltosa la rivendita. In altre parole, le quotazioni dell'usato più potente potrebbero crollare, e ciò danneggerebbe chi ha già in giacenza molte vetture del genere e che vedrebbe deprezzarsi il valore del suo stock. Insomma, i rivenditori di usato dovranno scegliere tra due alternative altrettanto sgradevoli: o disfarsi di buona parte dell'usato rimettendoci denaro,oltretutto assorbendo anche i nuovi costi dell'Ipt, oppure tenerselo in casa a lungo con la prospettiva di ulteriori deprezzamenti. E questo è il secondo motivo per il quale il decreto viene visto come il fumo negli occhi dalla filiera dell'automobile. E a proposito di malumori, va registratoanche quello delle agenzie di pratiche auto, le quali temono che i rivenditori cerchino di recuperare almeno una piccola parte dei maggiori costi dell'Ipt ritoccando all'ingiù anche le tariffe delle pratiche che le agenzie stesse svolgono su loro incarico. A Torino, per esempio, circolano già voci di agenzie che hanno accettato (qualcuno dice che si sono proposte) di lavorare per 10 euro a pratica. Una remunerazione che numerosi operatori giudicano del tutto irragionevole.

 

Leggi i commenti

Customer Relationship Management (CRM).

Pubblicato su da ustorio

Il Customer Relationship Management è un processo di marketing basato sulla conoscenza del cliente: più si sa di lui e più il servizio migliora.

 

Molte imprese per sviluppare relazioni più solide e redditizie con i propri clienti investono tempo e risorse nel Customer Relationship Management (CRM). Questo processo per essere veramente efficace deve poter organizzare, in modo razionale e preciso, le informazioni disponibili su i clienti da fidelizzare.

Stingere contatti con i propri clienti tramite telefonate, email, conference call e visite, sono tutte opportunità per reperire dati da trasformare in informazioni, che saranno poi utilizzate per migliorare il rapporto commerciale tra il cliente e l'azienda.

Le imprese che applicano bene il CRM di solito forniscono ai propri clienti, e in tempo reale, prodotti e servizi molto vicini alle loro esigenze, grazie allapersonalizzazione delle offerte, definite sulla base della conoscenza raggiunta tramite le informazioni raccolte ed elaborate in precedenza.

Don Peppers e Martha Rogers - due guru di questo settore - descrivono un processo composto da quattro fasi che può essere applicato al CRM per migliorare le performance commerciali:

1.    Identificare i clienti attuali e potenziali

2.    Distinguere i clienti in funzione delle loro necessità e del valore per l'impresa

3.    Interagire coi clienti per migliorare la conoscenza delle loro necessità e costruire relazioni più solide

4.    Personalizzare i prodotti, i servizi e i messaggi per ogni cliente

 

Questo processo può portare risultati se si sceglie un approccio di Marketing personalizzato o Marketing one - to - one: una strategia di copertura del mercato nella quale l'impresa decide di rivolgersi a specifici segmenti realizzando offerte su misura per ogni gruppo di clienti. E'  facile intuire quanto sia importante, per i marketing manager e gli operatori di CRM, poter contare su informazioni molto dettagliate, e il più vicino possibili ai bisogni, desideri e comportamenti dei clienti.

Non dobbiamo dimenticarci che per un'impresa non è sufficiente soltanto acquisire un cliente, bensìcoltivarlo nel lungo periodo perché si possa instaurare una relazione di fiducia e soddisfazione per entrambe.

Per questo il Customer Relationship Management è una risorsa di grande valore aggiunto nelle attività commerciali.

 

Leggi i commenti