martes, 30 de diciembre de 2008

Internet2: Ciberinfraestructura para el mayor proyecto científico jamás creado

El volumen de datos generado en el LHC requiere el almacenamiento y procesamiento del orden de 6-8 Petabytes (1015 bytes) de datos cada año durante un periodo de 10 años. Los recursos necesarios para procesar el volumen de datos que se han comentado se estiman en el equivalente de una “fábrica” de 200.000 PC´s, un orden de magnitud por encima de los mayores supercomputadores actuales, y con claras dificultades técnicas, operativas y de financiación.

La solución tecnológica es el uso de computación en Grid y el uso de Internet2 trabajando a 10 GBps como plataforma de transporte.

El LHC será el primer experimento científico que emplee la capacidad de Internet 2 para el envío de los datos generados en las colisiones.

En el video los científicos describen con detalle los complejos detalles de la infraestructura. No os lo perdáis.

lunes, 29 de diciembre de 2008

Zenph i Glenn Gould

Un nuevo disco de Glenn Gould.

En concreto las archifamosas variaciones Goldberg en su versión de debut de 1955.
Posiblemente es la obra más conocida del autor.

No es una grabación al uso, y la manera en que se ha realizado debería ser analizada por nuestro amigo Baudrillard y su lógica de la simulación.

Mediante un sofisticado proceso matemático se extrae toda la información de los originales de la grabación y se transcodifican en código MIDI conteniendo todos los detalles de la interpretación incluyendo los movimientos de los pedales, ataques y articulaciones.

El código MIDi se envía a un piano acústico (Yamaha Disklavier Pro ) dotado con un interfaz capaz de transformar los códigos MIDI en pulsaciones de las teclas del piano.

Para la grabación se emplea un sistema de micrófonos binaural que permite captar el sonido en la posición en la que Gould tocaba.

Es lo más cercano que puede uno estar a la obra original en el momento de su interpretación.