Español
DeutschDeutsch EnglishEnglish NederlandsNederlands PortuguêsPortuguês

DeWolff Consultoría

Proyectos y capacitaciones en ciencia de datos

Servicios

Proyectos en ciencia de datos para empresas, organizaciones y PYME. Desarrollamos aplicaciones y modelos para proyectos reales de la industria, resolviendo problemas de manera inteligente usando técnicas nuevas en el área de la inteligencia artificial y aprendizaje de máquinas. Nuestra formación científica nos permite comprender e implementar los últimos modelos publicados.

Modelos y aplicaciones

Especializamos en crear soluciones para clientes que quieren extraer información clave de sus procesos. Es decir, con la gran cantidad de datos disponibles dentro de bases de datos, podemos sacar conclusiones, predecir eventos, condensar información, rellenar datos faltantes, encontrar tendencias, etc. con finalidad de tomar decisiones inteligentes y ahorrar recursos humanos.

Utilizamos varios objetivos (regresión, clasificación, clustering y otros) y modelos (redes neuronales, procesos Gaussianos, auto encoders y otros) para responder a preguntas como:

  • ¿Cuándo fallará mi sistema para anticiparlo?
  • ¿Cómo puedo minimizar los riesgos para prestar dinero a clientes?
  • ¿En qué parte es más probable encontrar minerales en el suelo?
  • ¿Dónde enfocar esfuerzos para mitigar incendios o deforestaciones?
  • ¿Cómo puedo optimizar la producción de cultivos en cuanto al clima?

Capacitaciones

Ofrecemos cursos introductorios al área de ciencia de datos y aprendizaje de máquinas, Data Science y Machine Learning en inglés, para capacitar a equipos los conceptos asociados a la inteligencia artificial. Conocimiento en IA aporta en entender la forma que trabajan los modelos y como los datos tienen un rol importante.

Durante el curso explicamos varios temas, como los conceptos básicos del aprendizaje de máquinas, el funcionamiento de los algoritmos claves, que se entiende con datos de alta calidad, como aportan a entrenar un modelo, y el flujo de trabajo para entrenar y usar modelos. Además, proveemos una base de capacidades en manejo de Python, sus librerías y estadística fundamental.

Equipo

  • Taco de Wolff
  • Científico de datos
  • Magíster en Física (U. de Groningen)
  • Investigador (CMM, U. de Chile)
  • Alejandro Cuevas
  • Científico de datos
  • Magíster Matemáticas Aplicadas (U. de Chile)
  • Ingeniero Machine Learning (NoiseGrasp)

Proyectos

VZOR Brain

Pronósticos de fallas desde las alertas y logs en servidores con aplicaciones y sitios. Usando alertas de CPU, memoria, conexiones, etc. de sobreúso o problemas, un clasificador aprende y predecir si el sistema caerá pronto y cuáles equipos son las causas. Usamos el clasificador XGBoost en conjunto con LDA para extraer tópicos de los mensajes de alertas, SMOTE para balancear los datos, y LIME para hacer interpretables los resultados.

Multi-output Gaussian process toolkit

Desarrollo de un toolkit en Python y PyTorch para regresión y clasificación usando procesos Gaussianos para múltiples salidas. La librería implementa desde cargar y manipular los datos, la inicialización y entrenamiento de hiperparámetros, hasta la visualización e interpretación del modelo. El toolkit tiene una gran variedad de modelos, verosimilitudes, y kernels implementado, y permite el entrenamiento de alto rendimiento en GPU.

GitHub repositorio: https://github.com/GAMES-UChile/mogptk

Capacitación equipo BancoEstado

BancoEstadoEn conjunto con el Centro de Modelamiento Matemático de la Universidad de Chile, hemos diseñado un curso de aprendizaje de máquinas incluyendo: una introducción a la inteligencia artificial, uso básico de Python científico (NumPy, SciPy, Pandas, scikit-learn, PyTorch), regresión, clasificación, optimización, clustering, support vector machines, K-nearest neighbours, validación cruzada, redes neuronales, random forests, XGBoost, redes Bayesianas y grafos. El curso concluyó con la implementación de un modelo de costo-venta desde datos reales del banco de créditos.

Contacto