Conferenza GARR 2023. Saperi interconnessi. Infrastruttura per una scienza ad alte prestazioni. Aperte le iscrizioni


Conferenza GARR 2023. Aperte le iscrizioni
“Saperi interconnessi. Infrastrutture per una scienza ad alte prestazioni”.
Università di Firenze, Campus di Novoli dal 14 al 16 giugno 2023

Dal 14 al 16 giugno si terrà a Firenze la Conferenza GARR, l’appuntamento annuale dedicato ai professionisti del networking, ai ricercatori, ai docenti e studenti che ogni giorno usano la rete e i servizi digitali per le proprie attività.
Sono aperte le iscrizioni ad una nuova edizione ricca di contenuti. Il tema centrale di questa edizione è l’interconnessione tra i saperi. Il mondo della ricerca e dell’istruzione è pronto per vivere una stagione straordinaria con sfide impegnative e stimolanti, grazie anche agli investimenti del PNRR. Sarà per questo prioritaria la necessità di un confronto multidisciplinare e di competenze avanzate per sfruttare e operare al meglio i servizi digitali.

Nel corso delle tre giornate si parlerà del futuro della rete e delle piattaforme cloud, di infrastrutture di ricerca soprattutto nell’applicazione dei nuovi progetti PNRR, di intelligenza artificiale e del profondo impatto che può avere nel settore della ricerca e istruzione.

L’evento sarà trasmesso anche in streaming su GARR.tv e sui canali social di Rete GARR.

 

FORMAZIONE

Nella giornata di  Martedì 13 giugno, che precede la Conferenza, sarà protagonista la formazione, con corsi in presenza, presso il Campus di Novoli (Edificio D6) dell’Università di Firenze, dedicati alla comunità della ricerca e dell’istruzione.
1. “Metti la tua ricerca in sicurezza” (dalle 10 alle 13) con Simona Venuti, GARR Security manager, impegnata da anni nelle tematiche legate alla sicurezza informatica.
2. “Python per data analysis” (dalle 14.30 alle 18,30) con Giacomo Mazzamuto, LENS (European Laboratory for Non-Linear Spectroscopy) presso il l’Università di Firenze e CNR-INO.
3. Sicurezza delle Applicazioni Web (dalle 10 alle 18). Dopo un’introduzione all’analisi di vulnerabilità di applicazioni web secondo lo standard OWASP (Open Worldwide Application Security Project), il corso prevede una sessione di esercitazione pratica sulla piattaforma Webgoat.
Dettagli e aggiornamenti su Learning GARR

Innovazione: ENEA testa intelligenza artificiale per ottimizzare funzionamento dei data center

Utilizzare l’intelligenza artificiale per evitare guasti nei data center e migliorarne le prestazioni. È uno degli obiettivi del gruppo di ricerca ICT di ENEA che ha testato tecniche innovative sul proprio supercalcolatore CRESCO6. “Siamo partiti dalla raccolta dei dati sui consumi energetici, termici e computazionali del data center HPC di ENEA per individuare, attraverso strumenti avanzati di intelligenza artificiale, eventuali sovraccarichi di lavoro, sprechi, malfunzionamenti o ‘falle’ nel sistema di raffreddamento. Un surriscaldamento frequente e, di conseguenza, un sistema di raffreddamento poco efficace, potrebbero causare, ad esempio, il degrado dell’hardware, una ridotta affidabilità dei server nonché un dispendioso consumo energetico” spiega Marta Chinnici, ricercatrice di matematica con dottorato in computer science presso il Laboratorio ENEA Infrastrutture per il calcolo scientifico e ad alte prestazioni. “Grazie a questa metodologia innovativa siamo in grado di estrarre informazioni utili dai dati reali di consumo dell’infrastruttura di calcolo e di elaborare strategie di gestione che non sarebbero ottenibili con le tecniche classiche di data analysis” sottolinea la ricercatrice.

Nello specifico, con la metodologia ENEA vengono raccolti e messi in relazione i dati sugli effettivi carichi di lavoro del data center e sul consumo energetico a diversi livelli (nodo, server, rack e stanza). Questa mole di informazioni viene poi elaborata attraverso tecniche di apprendimento supervisionato che permettono di definire modelli previsionali[1]  in grado di predire il comportamento dei server in base alla temperatura e al carico computazionale e di mappare eventuali fenomeni di surriscaldamento (hotspot o punti caldi). “In questo modo, riusciamo a mettere in campo interventi mirati ed efficaci per garantire il corretto funzionamento delle singole componenti dell’infrastruttura di calcolo, a partire, ad esempio, dall’ottimizzazione del flusso d’aria di raffreddamento. Oppure, siamo in grado di individuare esattamente gli hotspot termici in modo da consentire al cluster di lavorare a temperature simili su tutti i nodi di calcolo, evitando rischi legati al surriscaldamento e consentendo di modulare le unità di raffreddamento su potenze più basse. Ma non solo: in collaborazione con il collega Davide De Chiara abbiamo definito modelli che mappano il comportamento degli utenti in termini di utilizzo e consumo delle risorse e poter predire, sulla base di dati storici, i carichi di lavoro e, quindi, il consumo futuro di processore, memoria e rete”, spiega Marta Chinnici.

Il tema della sostenibilità ambientale è ormai di primaria importanza anche nel campo delle tecnologie informatiche, un settore nel quale i consumi energetici crescono  a un tasso annuo del 9%. Al 2020 la domanda di elettricità annua imputabile al settore IT ammontava a circa 200-250 TWh (l’1% della domanda globale di energia) contribuendo allo 0,3% delle emissioni annue di carbonio. Ma secondo le stime dell’Agenzia internazionale dell’energia questi numeri sono destinati ad aumentare e al 2025 i data center consumeranno circa 1/5 dell’approvvigionamento mondiale.

Tuttavia, i prossimi supercomputer, gli exascale da un miliardo di miliardi di operazioni al secondo, dovranno possedere requisiti prestazionali e di consumo energetico stringenti ed elevati. “La comunità dei data center potrebbe sfruttare questo nostro approccio per migliorare le condizioni termiche in cui operano le infrastrutture informatiche, con azioni mirate su quei server che più frequentemente vanno incontro a un surriscaldamento, visto che i consumi energetici di un data center dipendono fortemente dalla temperatura del luogo dove si trova l’infrastruttura informatica, così come dalle prestazioni dei sistemi IT e di raffreddamento”, conclude la ricercatrice ENEA.

Per maggiori informazioni:
Marta Chinnici, ENEA – Laboratorio ENEA Infrastrutture per il Calcolo Scientifico e ad alte prestazioni, marta.chinnici@enea.it

[1] Sviluppati sulle caratteristiche termiche basate sulle temperature effettive rilevate attraverso una sensoristica capillare posizionata sul singolo nodo di calcolo fino alla sala ospitante il data center.

Realising a human-centred digitalisation of the energy sector

The digitalisation of the energy sector is happening. A human-centred design approach is needed to ensure that it takes place with and for the benefit of the people. This document presents the concept of human-centred digitalisation of the energy system and puts forward policy recommendations for it to happen in an affordable, sustainable and fair manner. The main findings include the need for people to access tailored and ready-for-use tools that help realise societal co-benefits, bring individual gains, remove legal, informational and technical hurdles and ultimately ensure just participation of all societal groups. Substantial additional resources are required to develop digital tools and products to seize opportunities for citizens to engage, optimise energy consumption and manage active participation in the energy system.

The report

Cresco Report. High Performance Computing on CRESCO Infrastructure: research activity and results 2021

This report, the thirteenth of a series started in 2008, is a collection of 33 papers illustrating the main results obtained during 2021 using the CRESCO/ENEAGRID HPC facilities. The significant number of contributions proves the importance of the HPC facilities in ENEA for the research community. The topics cover various fields of research, such as materials science, efficient combustion, climate research, nuclear technology, molecular dynamics, plasma physics, biotechnology, complex systems physics, renewable energies, environmental issues, HPC technology. The report shows the wide spectrum of applications of high performance computing, which has become an all-round enabling technology for science and engineering. (go to report)

Tecniche di imaging 3D ad alta risoluzione

L’articolo, pubblicato su EAI (Energia ambiente e innovazione, n.1 gennaio-aprile 2022), presenta la tecnologia, e in particolare le tecniche di imaging 3D come la fotogrammetria e l’uso di sistemi laser scanner, può essere estremamente utile per la tutela, fruizione, catalogazione, divulgazione e valorizzazione dei beni culturali, favorendone l’accessibilità e la conoscenza. Un esempio sono gli studi eseguiti dall’ENEA presso l’antica Spezieria di Santa Maria della Scala a Roma, la ‘Farmacia dei Papi’, dove queste tecnologie sono state applicate con successo nell’ambito del Progetto ‘Roma Hispana’.