Los números que maneja Databricks son mareantes. La empresa con sede en San Francisco, y dedicada al análisis de datos y la inteligencia artificial, acaba de levantar una ronda de financiación de mil millones de dólares, lo que ha elevado el valor global de la compañía a 28 mil millones de dólares y la convierte en una de las tecnológicas más valiosas de los Estados Unidos.
Estas cifras son aún más significativas se si indaga en la lista de los inversores que ha compartido la compañía en un comunicado. Entre ellos aparecen Amazon Web Services (AWS), Capital G -la firma de capital de riesgo de Google-, Microsoft o Salesforces, entre otras. La desarrolladora de Windows, de hecho, ya había participado en rondas anteriores, y tanto su servicio en la nube, Azure, como AWS incluyen desde hace algún tiempo la herramienta de análisis de datos de Databricks entre sus servicios.
Y en la nube está, precisamente, la clave de que los tres gigantes tecnológicos hayan invertido sumas considerables en Databricks. Los servicios cloud han experimentado un crecimiento extraordinario en los últimos meses: la pandemia ha acelerado la digitalización de casi todos los sectores económicos y ha aumentado enormemente el gasto de las empresas en servicios en la nube. Entre ellos, el análisis de datos.
Con este movimiento, Amazon, Google y Microsoft se aseguran la presencia en una de las empresas con mayor crecimiento en los últimos años -fue fundada en 2013- en el sector en Estados Unidos y amplían los segmentos cloud en los que participan.
Análisis más rápidos y baratos
El rápido crecimiento que ha experimentado Databricks se debe a la efectividad de su herramienta para procesar ingentes cantidades de datos muy diversos y en formatos diferentes.
La plataforma de esta empresa actúa sobre los llamados data lakes (lagos de datos), repositorios en el que empresas y grandes organizaciones almacenan cantidades masivas de información diversa, sin procesar y en su formato original. Estos entornos son adecuados para almacenar esos datos, pero su falta de estructuración hace que sea difícil, o caro, analizarlos con eficacia.
Los lagos de datos son útiles porque las empresas cada vez recopilan más información de fuentes diferentes y con diversos formatos, velocidad y volumen. Pero, a la hora de tratarlos, el proceso es lento, complejo y costoso, aseguran desde Databricks. Con anterioridad a los data lakes se usaban los almacenes de datos, que eran efectivos para tratar datos estructurados pero mostraban carencias para procesar información no estructurada.
La plataforma de Databricks unifica las ventajas de ambos sistemas con una nueva estructura desarrollada por ellos y que han bautizado como casa del lago o lake house. De acuerdo con los californianos, su herramienta tiene la capacidad de almacenar enormes cantidades de datos no estructurados y permite gestionarlos y procesarlos con la efectividad de los almacenes de datos manteniendo el bajo coste de los lagos de datos.
“La combinación de lagos de datos y almacenes de datos en un solo sistema significa que los equipos de datos pueden moverse más rápido, ya que pueden usar los datos sin necesidad de acceder a varios sistemas”, afirman desde la compañía.
Fuente: Xataka
¿Buscas desarrollar un perfil analítico, convirtiéndote en un científico de datos? Con el Curso de Big Data-Introducción a la Ciencia de Datos que brindamos en EducaciónIT, conocerás las diferentes técnicas para recabar y procesar información, aprendiendo a detectar patrones y predecir comportamientos, modelando estadísticas, identificando sus trampas, y mucho más.
- El teclado para ‘copiar y pegar’ código de Stack Overflow, una inocentada convertida en gadget (y ya en preventa) – 6 octubre, 2021
- Los papeles de Pandora: cómo Python y el aprendizaje automático han sido clave en una investigación mundial con datos masivos – 5 octubre, 2021
- China marca las directrices éticas de la IA nacional: un mayor control frente a los algoritmos de las grandes tecnológicas – 4 octubre, 2021
Deja una respuesta