Meta compartió sus planes para la construcción de su infraestructura de Inteligencia Artificial (IA), que incluye procesadores propios y un centro de datos optimizado, con el fin de dar soporte a las nuevas aplicaciones basadas en dicha tecnología y el metaverso.
El vicepresidente y responsable de Infraestructura en Meta, Santosh Janardhan, ha asegurado que la compañía está "ejecutando un ambicioso plan" para construir la siguiente generación de su infraestructura de Inteligencia Artificial.
Aunque la IA ya tiene un papel destacado en la infraestructura global que la compañía empezó a desplegar en 2010 con su primer centro de datos, los planes de Meta para el futuro de esta tecnología y del metaverso incluyen un nuevo centro de datos de siguiente generación con capacidad para habilitar el entrenamiento y la inferencia de las futuras generaciones de 'hardware' de IA.
El Enacom aprobó el uso de la banda de 6GHz
La compañía ha destacado la eficiencia de este centro de datos optimizado, gracias al sistema de refrigeración líquida que ayudará a enfriar el 'hardware' y la red de "miles de chips IA" de alto de rendimiento, que permitirá escalar el entrenamiento.
Meta también trabaja en chips aceleradores propios (conocidos como MTIA, por su siglas en inglés) diseñados para las cargas de trabajo internas, con mayor potencia de cómputo que las CPU. Desde la compañía afirman que cuando se combinan con GPU, ofrecen "un mejor rendimiento, menor latencia y mayor eficiencia para cada carga de trabajo", como recoge en el blog oficial.
Este trabajo se complementa con el superordenador Research SuperCluster de Meta, del que ha completado la construcción de su segunda fase. Defiende que es "uno de los superordenadores de IA más rápidos del mundo", con un poder de cómputo que se hacer a los 5 exaflops.
Este superordenador cuenta con 16.000 GPU Nvidia A100 Tensor Core, accesibles a través de la estructura de red Clos de tres niveles que proporciona ancho de banda completo a cada uno de los 2.000 sistemas de capacitación Nvidia DGX A100que actúan como nodos de cómputo, como explican desde Meta. En el se ejecutan actualmente distintos proyectos, como un traductor de voz universal y su propio modelo de lenguaje de gran tamaño, LLaMa, con 65.000 millones de parámetros.
Con información de Europa Press.