Aquellos jóvenes luchaban con ecuaciones matemáticas en una tierra soñada. La meca a la que desean llegar las mentes más brillantes de Argentina para estudiar los secretos del universo.
Algunas décadas antes un desatino provocó el nacimiento de un círculo virtuoso. Ronald Richter no era un genio nuclear y no podría cumplir ninguna de sus promesas de la fusión nuclear para generar energía. Finalmente, el entonces presidente Juan Perón admitió que no había hecho bien las cosas; escuchó a los científicos y creó el Instituto de Física en Bariloche. Su primer director era un alumno de Ernesto Sábato: José Antonio Balseiro. Pronto el Instituto sería un referente mundial y tomaría el nombre de su director.
El Instituto Balseiro es un lugar de elite, se llega a él tras haber cursado dos o tres años en carreras de Exactas o Ingeniería y pasar un riguroso examen. Pero quienes lo logran tienen asegurada una beca y un lugar totalmente preparado para dedicarse a una única cosa: estudiar. Y eso hicieron esos jóvenes que pensaban encontrar nuevas leyes del universo. No sospechaban en ese momento que estaban adquiriendo conocimientos que les posibilitaría crear Teramot una empresa que tiene un producto de ingeniería de datos que promete transformase en el pilar de la inteligencia artificial empresarial.
Y como si fuera poco llegaron a Silicon Valley donde inauguraron una oficina para comenzar a jugar en las grandes ligas: esas mismas donde están OpenAI, Anthropic, Meta, y Google, por nombrar las cuatro compañías que están llevando adelante los modelos fundacionales de la Inteligencia Artificial Generativa que más llaman la atención entre los especialistas.
"En un momento de mi carrera sentí que quería pasar a la actividad privada. Quería hacer que las cosas funcionen. Y eso me llevó a trabajar con datos antes de que se hablara de carreras como la de Data Scientist", dice Bruno Ruyu, CEO y fundador de Teramot.
Las empresas cuentan con datos. El problema es que muchas veces no tienen idea de qué tienen y cómo estructurarlos. "Además la data no es lo mismo como la necesita alguien de marketing que un CFO, al trabajar en empresas como YPF fui viendo cómo las corporaciones necesitan poder trabajar con datos en el lenguaje que cada unidad de negocios", comenta Ruyu.
Ese filtrado de datos muchas veces se hace a partir de una consultoría específica que lleva demasiados meses y altos costos. Sin embargo Bruno sentía que todo se podía automatizar. Su experiencia acumulada en la industria, mas sus años en el Balseiro, le indicaban que había maneras de encarar del problema de una forma más abstracta. Los datos dentro de las organizaciones están mezclados como si fuesen las piezas de varios rompecabezas. Pero cuando el problema se abstrae aparecen patrones: se pueden juntar las piezas por color y de golpe la complejidad decrece. El objetivo es rearmar el rompecabezas desde la perspectiva de cada unidad de negocios, de forma tal que tengan la imagen que les sirve y no la de los demás rompezabezas.
Si bien su intuición le decía que había alguna forma de resolver el problema, no era nada fácil hacerlo. Y ahí se contactó con su antiguo compañero del Balseiro Lucas Uzal que había desarrollado una importante carrera como investigador del Conicet en áreas de Inteligencia Artificial además de haber incursionado en algunas empresas. "Me venía resistiendo a dejar completamente mi etapa en el Conicet, y las propuestas de Bruno me tentaban pero al final comencé primero en otro lado", señala Lucas Uzal que se sumó como cofundador y CAIO (Chief Artificial Intelligence Officer). Ambos se habían entusiasmado con las redes neuronales y sus posibilidades cuando vieron el tema en el Balseiro, y ahora tenían un proyecto en común. El equipo fundador se completó con Leonardo Ruspini como CTO y cofundador de Teramot, dedicado a la ingeniería nuclear y especializado en desarrollo de software.
En Teramot se decidieron por incluir técnicas de machine learning para entrenar modelos que puedan abstraer patrones comunes entre los datos que se quieren estudiar. La idea es ahorrarse el trabajo de consultoría de la ingeniería de datos y tenerlos disponibles de una forma mucho más rápida por los tomadores de decisión.
"Lo que en una empresa puede llevar 7 u 8 meses lo resolvemos en poco tiempo: desde horas a pocos días y a muchísimo menor costo. Y enseguida se puede testear todo por plataformas bien amigables como WhatsApp. Un marketer, por ejemplo, puede pedirle al bot que le ordene las ventas de determinado producto, y luego que le haga un gráfico de las ventas por región. Lo interesante además es que nuestra tecnología también disminuye las alucinaciones que tiene la IA justamente por tener mal trabajado el tema de los datos", enfatiza Ruyu.
Los modelos de IA Generativa están entrenados con grandes cantidades de datos y la carrera que persiguen los LLM (modelos de lenguajes grande) como ChatGPT, Gemini, y Claude es responder las preguntas y pedidos de los usuarios a medida que comprenden mas contextos. Pero no pueden hablar sobre temas específicos de cada compañía. Esos datos no están disponibles en forma pública y son parte del activo intagible de las organizaciones. Estas "burbujas de datos" tienen sin embargo mucho valor, contienen gran parte de la experiencia y el valor de la empresa. Entonces las compañían buscan herramientas para agregarlos a los LLM.
El problema es que si los datos no están bien organizados se favorecerá la alucinación del modelo. Esto es la IA responderá algo aparentemente muy verídico pero que es falso. Una empresa no puede correr ese riesgo porque conlleva además temas de posibles litigios en su contra. Por lo general los fabricantes ajustan lo que denominan la "temperatura" del modelo, esto es que sea mas creativo (con el riesgo de mayor alucinación) o que se ajuste más a los datos. Pero si los datos están mal por más que se siga una línea conservadora como la que propone Anthropic, las alucinaciones igual aparecerán.
"No es que los datos sean falsos. Es que no están en el 'Data Lake' correcto", revela Bruno Ruyu. Si por ejemplo queremos preguntar sobre una notebook, y el Data Lake sólo contiene el manual del usuario de esa notebook, ahí la IA generativa andará muy bien, pero si en lugar del manual del usuario de esa notebook el modelo fue entrenado con el de otra dirá cosas muy verosímiles pero que serán falsas. La artesanía de formar estos Data Lakes, era una materia de la que sólo podían ocuparse consultores especialistas en ingenierías de datos. Eso es lo que están resolviendo en Teramot usando, a su vez, técnicas de IA para definir bien los Data Lakes.
La solución de Teramot ataca entonces un problema importante y crucial en la movida de las empresas hacia la IA. Y eso es lo que vieron en CITES que les dio una primera inversión de US$ 780000 y a la que se agrega la reciente inversión de Ryta Zasiekina por US$ 100.000 adicionales. La inversora ángel y fundadora del innovador proyecto fintech Concryt , Ryta Zasiekina, se enteró de Teramot cuando conoció a su director ejecutivo y cofundador, Bruno Ruyu, en el Programa Ejecutivo de Stanford a principios de este año, en el que ambos estaban estudiando. No se trata además sólo de dinero sino cómo se abren redes de contactos en las grandes ligas gracias a la partipación de Zasiekina.
Con la apertura de oficinas en Silicon Valley en Teramot están listos para su nueva etapa en la que buscarán tener su solución instalada en más clientes para comenzar su crecimiento globlal. La empresa vende su producto como un modelo SAS (software as a Service) que lo tienen en la nube de AWS ya que son partners de la empresa de Amazon y además ello les posibilita mostrar una solución escalable y segura algo crucial cuando se trabaja con datos de clientes.
"El modelo de negocio de Teramot además democratiza el acceso al desarrollo de IA para un gran abanico de organizaciones", señala Gabriel Puertas, Head of Product and Operations. De hecho pensaron en un ticket bajo de unos usd 200 dólares que les permita sumar una buena base de clientes.
Cuando se estaban formando en el Balseiro seguramente no lo habían soñado, pero aquellos jóvenes que discutían ecuaciones ahora están ante el desafío de hacer del Big Data un Smart Data, para que los datos puedan reorganizarse, y así ser la piedra fundamental de una revolución que promete cambiarlo todo.