Forbes Argentina
granite 3.2
IBM IA en acción

IBM amplía la familia de modelos Granite con una nueva IA multimodal y de razonamiento diseñada para la empresa

Forbes Digital

Share

Los pequeños modelos de IA ofrecen capacidades de razonamiento, visión y protección con una licencia fácil de usar para desarrolladores. Por su parte los modelos de series temporales de Granite actualizados ofrecen pronósticos de largo plazo con menos de 10 millones de parámetros.

3 Marzo de 2025 10.27

IBM presentó la próxima generación de su familia de grandes modelos de lenguaje (LLMs) Granite, Granite 3.2, en un esfuerzo continuo por ofrecer una IA empresarial pequeña, eficiente y práctica para generar un impacto en el mundo real.

Todos los modelos Granite 3.2 están disponibles bajo la licencia permisiva Apache 2.0 en Hugging Face. Algunos modelos están disponibles hoy en IBM watsonx.ai, Ollama, Replicate y LM Studio, y se espera que estén disponibles próximamente en RHEL AI 1.5, lo que aportará capacidades avanzadas a las empresas y a la comunidad de código abierto. Los aspectos más destacados incluyen: 

Un nuevo modelo de lenguaje de visión (VLM) para tareas de comprensión de documentos que demuestra un rendimiento que iguala o supera al de modelos significativamente más grandes (Llama 3.2 11B y Pixtral 12B) en los puntos de referencia empresariales esenciales DocVQA, ChartQA, AI2D y OCRBenc[1]h. Además de datos de entrenamiento robustos, IBM utilizó su propio kit de herramientas Docling de código abierto para procesar 85 millones de archivos PDF y generó 26 millones de pares sintéticos de preguntas y respuestas para mejorar la capacidad del VLM de manejar flujos de trabajo complejos con gran cantidad de documentos.

Capacidades de cadena de pensamiento para un razonamiento mejorado en los modelos 3.2 2B y 8B, con la capacidad de activar o desactivar el razonamiento para ayudar a optimizar la eficiencia. Con esta capacidad, el modelo 8B logra mejoras de dos dígitos con respecto a su predecesor en pruebas de seguimiento de instrucciones como ArenaHard y Alpaca Eval sin degradación de la seguridad o el rendimiento en otros lugares[2]. Además, con el uso de nuevos métodos de escalamiento de inferencia, el modelo Granite 3.2 8B se puede calibrar para rivalizar con el rendimiento de modelos mucho más grandes como Claude3.5-Sonnet o GPT-4o en puntos de referencia de razonamiento matemático como AIME2024 y MATH500.[3]

Opciones de tamaño reducido para los modelos de seguridad Granite Guardian que mantienen el rendimiento de los modelos Granite 3.1 Guardian anteriores con una reducción de tamaño del 30%. Los modelos 3.2 también introducen una nueva característica llamada confianza verbalizada, que ofrece una evaluación de riesgos más matizada que reconoce la ambigüedad en el monitoreo de la seguridad.

La estrategia de IBM de ofrecer modelos de IA más pequeños y especializados para empresas sigue demostrando eficacia en las pruebas, y el modelo Granite 3.1 8B recientemente obtuvo altas calificaciones en precisión en el Salesforce LLM Benchmark for CRM

La familia de modelos Granite cuenta con el respaldo de un sólido ecosistema de socios, incluidas empresas de software líderes que incorporan modelos Granite en sus tecnologías.

"En CrushBank, hemos visto de primera mano cómo los modelos de IA abiertos y eficientes de IBM aportan un valor real para la IA empresarial, ofreciendo el equilibrio adecuado entre rendimiento, rentabilidad y escalabilidad", dijo David Tan, Director de tecnología de CrushBank. "Granite 3.2 va más allá con nuevas capacidades de razonamiento y estamos entusiasmados por explorarlas para crear nuevas soluciones de agentes". 

Granite 3.2 es un paso importante en la evolución del portafolio y la estrategia de IBM para ofrecer IA pequeña y práctica para empresas. Si bien los métodos de razonamiento basados en "cadenas de pensamiento" son potentes, requieren una potencia computacional sustancial que no es necesaria para todas las tareas. Es por eso que IBM ha introducido la capacidad de activar o desactivar la cadena de pensamiento mediante programación. Para tareas más simples, el modelo opera sin razonamiento para reducir la sobrecarga computacional innecesaria. Además, otras técnicas de razonamiento como el escalamiento de inferencia han demostrado que el modelo Granite 8B puede igualar o superar el rendimiento de modelos mucho más grandes en puntos de referencia de razonamiento matemático estándar. La evolución de métodos como el escalamiento de inferencia sigue siendo un área clave de enfoque para los equipos de investigación de IBM.[4]

 Junto con los modelos de instrucción, visión y barreras de seguridad de Granite 3.2, IBM está lanzando la próxima generación de sus modelos TinyTimeMixers (TTM) (parámetros inferiores a 10 millones), con capacidades de previsión a largo plazo de hasta dos años. Son herramientas poderosas para el análisis de tendencias a largo plazo, incluidas las tendencias financieras y económicas, la previsión de la demanda de la cadena de suministro y la planificación estacional del inventario en el comercio minorista. 

"La próxima era de la IA se centra en la eficiencia, la integración y el impacto en el mundo real, donde las empresas pueden lograr resultados poderosos sin un gasto excesivo en computación", afirmó Sriram Raghavan, Vicepresidente de IBM AI Research.  "Los últimos desarrollos Granite de IBM centrados en soluciones abiertas demuestran otro paso adelante para hacer que la IA sea más accesible, rentable y valiosa para las empresas modernas". 


Fuentes:

[1] Los resultados de referencia del modelo Vision están disponibles en el artículo técnico de IBM, IBM Granite 3.2: Reasoning, Vision, Forecasting, and More, publicado el 26 de febrero de 2025. 

[2] Los resultados de la evaluación comparativa del modelo Instruct están disponibles en el artículo técnico de IBM, IBM Granite 3.2: Reasoning, Vision, Forecasting, and More, publicado el 26 de febrero de 2025.

[3] Los resultados de la evaluación comparativa de escalamiento de inferencia están disponibles en el blog de investigación técnica de IBM, Razonamiento en Granite 3.2 mediante escalamiento de inferencia, publicado el 26 de febrero de 2025.

[4] Razonamiento en Granite 3.2 mediante escalamiento de inferencia, IBM, publicado el 26 de febrero de 2025.

10