Deutsch
EnglishEnglish EspañolEspañol NederlandsNederlands PortuguêsPortuguês

DeWolff Consulting

Projekte und Kurse in data science

Dienstleistungen

Datenwissenschaftliche Projekte für Unternehmen, Organisationen und KMU. Wir entwickeln Anwendungen und Modelle für die Industrie und lösen Probleme auf intelligente Weise mit neuen Techniken der künstlichen Intelligenz und des Machine Learning. Unser wissenschaftlicher Hintergrund ermöglicht es uns, die neuen veröffentlichten Modelle zu verstehen und anzuwenden.

Modelle und Anwendungen

Wir spezialisieren uns auf Lösungen für Kunden zu entwickeln, die wichtige Informationen aus ihren Prozessen gewinnen wollen. Das heißt, wir können aus den riesigen Datenmengen, die in Datenbanken verfügbar sind, Schlussfolgerungen ziehen, Ereignisse vorhersagen, Informationen zusammenfassen, fehlende Daten ergänzen, Trends erkennen usw., um intelligente Entscheidungen zu treffen und Zeit zu sparen.

Wir verwenden verschiedene Verfahren (Regression, Klassifizierung, Clustering und mehr) und Modelle (neuronale Netze, Gaußsche Prozesse, Auto-Encoder und mehr), um zum beispiel die folgende Fragen zu beantworten:

  • Wann fällt ein Server aus und wie kann dies verhindert werden?
  • Wie können Risiken bei der Kreditvergabe an Kunden minimiert werden?
  • Wo ist es am wahrscheinlichsten, dass man bestimmte Mineralien im Boden findet?
  • Welches Gebiet ist für die Verhütung von Waldbränden und Entwaldung besonders wichtig?
  • Wie kann die landwirtschafliche Produktion im Hinblick auf den Klimawandel optimiert werden?

Kurse

Wir bieten Einführungskurse in Datenwissenschaft und Machine Learning an, um Teams in den mit künstlicher Intelligenz verbundenen Konzepten zu schulen. Die Kenntnis der KI hilft zu verstehen, wie Modelle funktionieren und welche Rolle Daten dabei spielen.

Während der Kurse werden verschiedene Themen erläutert, darunter die Grundlagen des Machine Learning, die Funktionsweise der wichtigsten Algorithmen, die Bedeutung hochwertiger Daten, ihr Beitrag zum Training eines Modells sowie der Arbeitsablauf beim Training und der Verwendung von Modellen. Wir behandeln auch die Grundlagen von Python, die wissenschaftliche Softwarepakete und grundlegende Statistiken.

Team

  • Taco de Wolff
  • Datenwissenschaftler
  • Magister in Physik (Reichsuniversität Groningen)
  • Forscher (CMM, Universität von Chile)
  • Alejandro Cuevas
  • Datenwissenschaftler
  • Magister in Tech. Mathematik (Universität von Chile)
  • Machine Learning ingenieur (NoiseGrasp)

Projekte

VZOR Brain

Vorhersage von Ausfällen anhand von Warnmeldungen und Protokollen auf Servern, auf denen Anwendungen und Websites laufen. Auf der Grundlage von Warnungen über CPU-Auslastung, Speicher, Verbindungen usw. bei Überlastung oder Problemen lernt ein Klassifizierungsmodell ob das System bald ausfallen wird und welche Komponenten dies verursachen. Wir verwenden XGBoost als Klassifizierungsmodell, kombiniert mit LDA, um Themen aus den Warnmeldungen zu extrahieren, SMOTE, um die Daten auszugleichen, und LIME, um die Ergebnisse interpretierbar zu machen.

Multi-output Gaussian process toolkit

Entwicklung eines Toolkits in Python und PyTorch für Regressions- und Klassifikationszwecke unter Verwendung von Gaußprozessen mit mehreren Ausgängen. Das Toolkit implementiert alles vom Laden und Manipulieren von Daten über die Initialisierung und das Training von Hyperparametern bis hin zur Visualisierung und Interpretation von Modellen. Es umfasst eine Vielzahl von Implementierungen von Modellen, Wahrscheinlichkeitsverteilungen und Kerneln und ermöglicht die Verwendung von GPU-Training.

GitHub Archiv: https://github.com/GAMES-UChile/mogptk

BancoEstado Kurs

BancoEstadoIn Zusammenarbeit mit dem Zentrum für mathematische Modellierung an der Universität von Chile haben wir für eine der größten Banken in Chile einen Kurs zum Machine Learning entwickelt, der Folgendes umfasste: Einführung in die künstliche Intelligenz, grundlegende Verwendung von wissenschaftlichem Python (NumPy, SciPy, Pandas, scikit-learn, PyTorch), Regression, Klassifizierung, Optimierung, Clustering, Support Vector Machines, K-nearest neighbours, Kreuzvalidierung, neuronale Netze, Random Forests, XGBoost, Bayessche Netze und Graphen. Der Kurs schloss mit der Implementierung eines Kosten-Verkaufs-Modells auf der Grundlage von realen Kreditbankdaten der Bank.

Kontakt