Big data en el LHC

  1. González de la Hoz, Santiago 1
  2. González Caballero, Isidro 2
  3. Salt Cairols, José F. 3
  1. 1 Dpto. de Física Atómica, Molecular y Nuclear de la Universitat de València (UV), Instituto de Física Corpuscular (IFIC), centro mixto CSIC-UV
  2. 2 Dpto. de Física de la Universidad de Oviedo
  3. 3 Centro Superior de Investigaciones Científicas (CSIC), Instituto de Física Corpuscular (IFIC), centro mixto CSIC-UV
Revista:
Revista española de física

ISSN: 0213-862X

Año de publicación: 2018

Título del ejemplar: Revista Española de Física

Volumen: 32

Número: 1

Páginas: 19-23

Tipo: Artículo

Otras publicaciones en: Revista española de física

Resumen

Desde que en el año 2009 comenzaran a circular los primeros haces de protones en el LHC del CERN, los cuatro grandes detectores situados en los puntos de colisión han recogido un ingente volumen de datos, produciendo una media de 10 PetaBytes/año. Estos datos deben estar accesibles para todos los miembros de los distintos experimentos para ser analizados en el menor tiempo posible. Se está claramente ante lo que hoy se conoce como un problema de big data. Para resolver este problema se diseñó un Modelo Computacional que ha ido evolucionando con los años adaptándose tanto a las necesidades como a los recursos disponibles de almacenamiento, procesado y accesibilidad de los datos. Además, abordaremos las mejoras en las metodologías utilizadas en los análisis en el sentido de la obtención eficiente de conocimiento.