Cerca e trova immobili

STATI UNITIIl supercomputer che analizza tutto il traffico in rete

29.10.19 - 14:16
I ricercatori hanno acquisito il più grande set di dati al mondo sul traffico Internet, che contiene 50 miliardi di pacchetti di dati scambiati in tutto il mondo, compresi FB e Google
Keystone - foto d'archivio
Il supercomputer che analizza tutto il traffico in rete
I ricercatori hanno acquisito il più grande set di dati al mondo sul traffico Internet, che contiene 50 miliardi di pacchetti di dati scambiati in tutto il mondo, compresi FB e Google

BOSTON - A 50 anni dal primo segnale di internet, un supercomputer del Massachusetts Institute of Technology (Mit) riesce a controllare e analizzare l'intero traffico sulla rete che passa in un giorno. Potrebbe essere usato per migliorare la sicurezza sul web, individuando subito gli attacchi, e progettare infrastrutture informatiche più efficienti. Il risultato è stato presentato alla conferenza Ieee ad alte prestazioni per il calcolo estremo.

«Una grande sfida nella sicurezza informatica è comprendere le tendenze su scala globale del traffico Internet, al fine di individuare attacchi e creare vaccini contro i virus informatici. Questo gruppo di ricerca ha affrontato con successo il problema, presentando un'analisi approfondita del traffico di rete globale» ha osservato l'informatico David Bader, del New Jersey Institute of Technology. Per individuare le minacce informatiche, e quindi le anomalie nel traffico sulla rete, è infatti importante capire che aspetto ha il traffico normale. Tuttavia le tecnologie attuali possono analizzare solo piccoli campioni di pacchetti di dati, scambiati tra fonti e destinazioni vicine.

I ricercatori hanno superato questa limitazione in collaborazione con il progetto Wide (Widely Integrated Distributed Environment), fondato da diverse università giapponesi, e il Center for Applied Internet Data Analysis (Caida), in California. La collaborazione, ha acquisito il più grande set di dati al mondo sul traffico Internet, che contiene 50 miliardi di pacchetti di dati scambiati in diverse località in tutto il mondo per un periodo di diversi anni, compresi dati relativi a Facebook e Google. I ricercatori sono riusciti ad analizzare tutto questo traffico di informazioni, spacchettando i dati in unità più piccole di circa 100'000 pacchetti che sono stati elaborati da reti neurali artificiali grazie ai 10'000 processori del supercomputer del Mit. La rete neurale ha formato automaticamente un modello che acquisisce la relazione per tutti gli 'attori' nel traffico di dati, dagli utenti comuni, ai giganti come Google e Facebook, ai collegamenti rari e sporadici ma che hanno un impatto sul traffico web.

Entra nel canale WhatsApp di Ticinonline.
NOTIZIE PIÙ LETTE