feed
top
crea forum
cerca
feed
forum
supporto
discussione
cerca
Zerofollia ....3 2 1... zero!
Tutto su Renato e non solo..di tutto di piú!
Cerca
Angolo dell'Informatica
Accedi
Toccato il limite del Gigabyte per secondo nel trasferimento dati sulla rete che dovrebbe entrare in
Messaggi
OFF
LINE
xvalentino
Post: 16.514
Post: 945
Registrato il: 09/01/2005
Registrato il: 02/03/2005
Sesso: Maschile
Utente Senior
0
0
17/02/2006
12:41
L'enorme rete di grid computing formata da 100.000 personal computer realizzata per aiutare la ricerca sulle origini dell'universo ha passato il terzo dei quattro test principali previsti prima di entrare in azione, toccando la velocità di 1GBps (gigabyte per secondo) nel trasferimento di dati sull'intero grid. Il CERN, l'organizzazione europea per la ricerca nucleare, ha dichiarato che i dati sono stati trasferiti dal CERN di Ginevra a 12 dei principali centri informatici a livello mondiale. Nel test sono inoltre state utilizzate una ventina di impianti di elaborazione presso università e college. I trasferimenti sono stati fatti per verificare le funzioni di storage, distribuzione e analisi in tempo reale dei dati.
Il progetto grid è stato assemblato per aiutare l'erogazione di dati in tutto il mondo dal Large Hadron Collider (LHC), un acceleratore di particelle che verrà utilizzato dai ricercatori per comprendere meglio la teoria del Big Bang. LHC dovrebbe iniziare a operare presso il CERN il prossimo anno. Francois Grey, portavoce IT del CERN, ha dichiarato che “era la prima volta che questo modello veniva testato con dati reali” a un tasso di trasferimento di 1GBps. Un test precedente, condotto ad aprile, aveva coinvolto sette centri in Stati Uniti ed Europa toccando quota 600MBps in un flusso continuo per dieci giorni.
Il grid da 100.000 computer consentirà al CERN e a una rete mondiale di ricercatori e scienziati di sfruttare un enorme quantità di potenza elaborativa e di capacità di storage che non potrebbero altrimenti realizzare, ha continuato Grey: "Non abbiamo assolutamente i mezzi, il budget o qualsiasi altra cosa per assemblarli... la potenza di elaborazione è qualcosa che deve essere diffusa". L'infrastruttura sarà inoltre in grado di memorizzare annualmente circa 15 petabyte di data (15 milioni di gigabyte) e dovrà espandersi sempre di più poiché i dati dovranno essere costantemente preservati per le analisi.
www.cwi.it/showPage.php?template=articoli&id=14529
Registrati
Accedi
Angolo dell'Informatica
Accedi
IL MIO PROFILO
LE MIE DISCUSSIONI
FORUM CHE SEGUI
LA MIA FORUM-CARD
MODIFICA FORUM-CARD
FAQ
TRADUCI
LOGOUT
Accedi
Registrati
FAQ
TRADUCI
Scatta o carica foto
Allega file
Inserisci link da url (card)
Incorpora url (YouTube/Twitter/...)
ACCETTA
RIFIUTA
Anteprima