Big data en el LHC

  1. González de la Hoz, Santiago 1
  2. González Caballero, Isidro 2
  3. Salt Cairols, José F. 3
  1. 1 Dpto. de Física Atómica, Molecular y Nuclear de la Universitat de València (UV), Instituto de Física Corpuscular (IFIC), centro mixto CSIC-UV
  2. 2 Dpto. de Física de la Universidad de Oviedo
  3. 3 Centro Superior de Investigaciones Científicas (CSIC), Instituto de Física Corpuscular (IFIC), centro mixto CSIC-UV
Revista:
Revista española de física

ISSN: 0213-862X

Ano de publicación: 2018

Título do exemplar: Revista Española de Física

Volume: 32

Número: 1

Páxinas: 19-23

Tipo: Artigo

Outras publicacións en: Revista española de física

Resumo

Desde que en el año 2009 comenzaran a circular los primeros haces de protones en el LHC del CERN, los cuatro grandes detectores situados en los puntos de colisión han recogido un ingente volumen de datos, produciendo una media de 10 PetaBytes/año. Estos datos deben estar accesibles para todos los miembros de los distintos experimentos para ser analizados en el menor tiempo posible. Se está claramente ante lo que hoy se conoce como un problema de big data. Para resolver este problema se diseñó un Modelo Computacional que ha ido evolucionando con los años adaptándose tanto a las necesidades como a los recursos disponibles de almacenamiento, procesado y accesibilidad de los datos. Además, abordaremos las mejoras en las metodologías utilizadas en los análisis en el sentido de la obtención eficiente de conocimiento.