Rompiendo todos los récords en el área, IBM ha desarrollado tecnologías de hardware y software que le permitirán unir 200.000 discos duros para crear una sola gran unidad de almacenamiento de 120 petabytes (120 millones de GB), la más grande que se haya armado hasta el momento. Hasta ahora, los sistemas más grandes de este tipo que se pueden adquirir normalmente llegan hasta los 15 petabytes. Para hacerse una idea, 120 petabytes podrían almacenar 24.000 millones de MP3 (de 5 MB cada uno).
El repositorio de datos probablemente será usado para almacenar simulaciones complejas de una supercomputadora o algo por el estilo – no se conoce quién encargó este experimento.
Los detalles exactos respecto al sistema de IBM no han sido revelados, aunque se sabe que usará una versión actualizada del General Parallel File System (GPFS) de la compañía. Se trata de un sistema que guarda archivos individuales en múltiples discos, de manera de poder luego leerlos en paralelo al mismo tiempo, acelerando el tiempo de escritura y lectura de los datos. GPFS también soporta redundancia y tolerancia a fallas, de modo que cuando muere un disco, sus contenidos son reconstruidos en un disco de reemplazo automáticamente.
En la parte del hardware, los 120 petabytes se dividirán en 200.000 discos duros comunes. Los discos se ordenarán en racks tal como funciona hoy, aunque se trata de cajones más anchos de lo normal, diseñados así para que cupieran más discos. El sistema deberá utilizar un sistema de enfriado bastante avanzado que utilizará líquido.
El sistema todavía está en desarrollo, pero podría representar un avance significativo en el área del almacenamiento, considerando que hoy en día entre las redes sociales y experimentos como el LHC producimos más datos de los que se pueden guardar.
El repositorio de datos probablemente será usado para almacenar simulaciones complejas de una supercomputadora o algo por el estilo – no se conoce quién encargó este experimento.
Los detalles exactos respecto al sistema de IBM no han sido revelados, aunque se sabe que usará una versión actualizada del General Parallel File System (GPFS) de la compañía. Se trata de un sistema que guarda archivos individuales en múltiples discos, de manera de poder luego leerlos en paralelo al mismo tiempo, acelerando el tiempo de escritura y lectura de los datos. GPFS también soporta redundancia y tolerancia a fallas, de modo que cuando muere un disco, sus contenidos son reconstruidos en un disco de reemplazo automáticamente.
En la parte del hardware, los 120 petabytes se dividirán en 200.000 discos duros comunes. Los discos se ordenarán en racks tal como funciona hoy, aunque se trata de cajones más anchos de lo normal, diseñados así para que cupieran más discos. El sistema deberá utilizar un sistema de enfriado bastante avanzado que utilizará líquido.
El sistema todavía está en desarrollo, pero podría representar un avance significativo en el área del almacenamiento, considerando que hoy en día entre las redes sociales y experimentos como el LHC producimos más datos de los que se pueden guardar.
..Fuente/ por Cony Sturm/ Via FW/
1 Comenta esta nota.:
Algun dia sera moneda corriente tener esa capacidad a disposicion de cada uno de nosotros. Pero tambien sera un enorme problema a la hora de tener que recuperar un volumen semejante de datos si se rompe fisicamente el dispositivo...
Por ej. Onretrieval que es un laboratorio de recuperaciones te cobra por recuperar un disco de 500 GB con problemas de cabezales unos 800 euros en promedio. Asi que imaginarse el coste por ese volumen...