Siamo stati a Pisa al Dell-Intel High Performance Computing & Cloud Competence Center ossia centro di competenza per le tecnologie del calcolo e il cloud e abbiamo esplorato riproduzioni 3D del cervello manipolabili interfacciandosi con il corpo, ma abbiamo anche potuto camminare nel cortile e sotto il porticato dell’Agorà perduta di Segesta. L’apparenza di Pisa è la Torre Pendente e Piazza dei Miracoli, ma c’è molto di più: alla Scuola Normale e all’Università si sta lavorando su tecnologie pratiche e sul modo di gestire i dati rendendoli più facilmente fruibili. Non solo, sta nascendo uno dei più innovativi supercomputer al mondo, modulare e completamente on the cloud.
Nella corsa sempre più vertiginosa all’innovazione tecnologica il vero obiettivo non deve essere solo quello di raggiungere numeri sempre più alti in sempre minor tempo, ma dev’essere anche quello di rendere queste innovazioni più facilmente apprezzabili. Insomma, più sostanza e meno esercizio di stile, soprattutto in campo informatico. D’altra parte, “Siamo pieni di dati e non sappiamo cosa farne se non lasciarli a occupare spazio sugli hard disk“, ha affermato Antonino Cisternino del dipartimento di Informatica dell’Università di Pisa. La celebre città toscana ospita un centro innovativo, là dove è nata una delle prime connessioni a Internet in Italia. La struttura è volutamente distribuita, una sorta di showcase sulle tecnologie che si possono creare. È una delle poche università che non affitta fibre ma le vende, un laboratorio unico per esperimenti e tante realtà e associazioni collegati.
[npgallery id=11705]
Perché si è scelta una struttura modulare? Cisternino spiega: “I Data center sono distribuiti per venire anche incontro al consumo energetico che altrimenti non renderebbe possibile una tale potenza computazionale in Italia“. Vicenzo Barone, professore della Scuola Normale Superiore di Pisa si presenta affermando “Non sono un informatico, ma lavoro sui computer da sempre“. Qual è l’obiettivo di questo centro? “Deve esserci forza interazione tra ricerca scientifica di alto livello e sviluppo informatico. Una forte partnership di competenze in ambito accademico“.
Nel video qui sopra possiamo ammirare il frutto delle tecnologie più spettacolari nel cosiddetto Cave – al Centro di supporto per la Ricerca Dreams della Scuola Normale – che mostra come si può rendere più facilmente fruibile una quantità spaventosa di dati e di informazioni. Ad esempio la prima risonanza magnetica Tesla 7 (le normali sono di norma a 1,5) effettuata dall’Istituto di Ricovero e Cura a Carattere Scientifico “Stella Maris” (situato verso la zona costiera, a 23.5km) con i dati spediti poi all’HPC Cluster della Scuola Normale e dal Cloud Cluster dell’Università di Pisa attraverso la fibra per un totale di 40 GB trasferiti praticamente in tempo reale. È un esempio lampante delle potenzialità di questa innovazione, come sottolineato da Carlo Parmeggiani, Direttore Public Sector di Intel Sud Europa “Dimostra la rilevanza che il mondo della ricerca riconosce alle nostre più recenti tecnologie, un valore aggiunto all’High Performance Computing“.
Cisternino aggiunge: “Tastiera, mouse e touchscreen non sono più sufficienti per la fruizione dei contenuti. Il cave racconta e mostra le informazioni in modo immersivo e più profondo e ricco. Non è solo esercizio di stile, è utile ad esempio ai neurologi per osservare immagini diagnostiche del cervello meglio“. Ambito medico, ma anche nei beni culturali, come spiega Barone: “Si pensi a Musint e al Museo di San Matteo per restauro virtuale. Sperimentare in virtuale prima di agire sul reale è il vero vantaggio“.
Come si è agito, nella pratica, per la costruzione del supercomputer? Maurizio Davini – CTO Università di Pisa IT Center – spiega: “Siamo in collaborazione con l’Università del Texas. Volevamo disegnare un progetto quanto più possibile open e modulare. I supercomputer sono tutti con sistemi proprietari invece TACC (al #7 nella top500 mondiae) creato con Intel è diverso proprio perché aperto“. Come avviene la comunicazione da Pisa col Texas? “L’80% per via umana, loro sono felici di collaborare. Aspiriamo a entrare nei primi 70 supercomputer mondiali“. È intervenuto anche Stephen Wheat – HPC General Manager Intel Corp. – sottolineando le altre applicazioni realistiche e utili: “La predizione meteo una delle applicazioni classiche dei supercomputer,con applicazioni che possono potenzialmente salvare vite come nel caso dei tornado. Ma gli altri possibili sviluppi si rivolgono anche al settore di medicina, energia,ricerca scientifica, sicurezza, ingegneria, finanza e creazione di contenuti digitali“. Filippo Ligresti, amministratore delegato di Dell, ha poi aggiunto “L’università è diventata finalmente attrattiva per l’industria”
Insomma c’è tantissima carne al fuoco a Pisa e tante delle innovazioni che di primo acchito possono sembrare fantascienza hanno invece riscontri e applicazioni pratiche se non addirittura salvifiche. E finalmente anche in Italia siamo pronti a contribuire in modo competitivo.