Big data en el LHC

  1. González de la Hoz, Santiago 1
  2. González Caballero, Isidro 2
  3. Salt Cairols, José F. 3
  1. 1 Dpto. de Física Atómica, Molecular y Nuclear de la Universitat de València (UV), Instituto de Física Corpuscular (IFIC), centro mixto CSIC-UV
  2. 2 Dpto. de Física de la Universidad de Oviedo
  3. 3 Centro Superior de Investigaciones Científicas (CSIC), Instituto de Física Corpuscular (IFIC), centro mixto CSIC-UV
Journal:
Revista española de física

ISSN: 0213-862X

Year of publication: 2018

Issue Title: Revista Española de Física

Volume: 32

Issue: 1

Pages: 19-23

Type: Article

More publications in: Revista española de física

Abstract

Desde que en el año 2009 comenzaran a circular los primeros haces de protones en el LHC del CERN, los cuatro grandes detectores situados en los puntos de colisión han recogido un ingente volumen de datos, produciendo una media de 10 PetaBytes/año. Estos datos deben estar accesibles para todos los miembros de los distintos experimentos para ser analizados en el menor tiempo posible. Se está claramente ante lo que hoy se conoce como un problema de big data. Para resolver este problema se diseñó un Modelo Computacional que ha ido evolucionando con los años adaptándose tanto a las necesidades como a los recursos disponibles de almacenamiento, procesado y accesibilidad de los datos. Además, abordaremos las mejoras en las metodologías utilizadas en los análisis en el sentido de la obtención eficiente de conocimiento.