Back to top

Das Zusammenspiel von BI und AI am Beispiel des Mysteriums Warenkorb

Ein Klassiker der Probleme, die mithilfe eines Business Intelligence Tools wunderbar gelöst werden können, ist die sogenannte Warenkorbanalyse. Besser bekannt als ‚Kunden kauften auch …‘. Dabei wird untersucht, welche Artikel zusammen geshoppt werden und somit auf dem gleichen Bon stehen. Den direktesten Einblick gewähren dabei einfache Zählungen der Art: Kunde kaufte Produkt X, dann wurde in wie viel Prozent der Fälle Produkt Y gekauft? Dieser schnell nachvollziehbare Teil einer Assoziationsanalyse ist oftmals ein guter Start, um Marketing- und Produktplatzierungsstrategien zu entwickeln.

„Eine derartige Analyse übersieht allerdings viele Zusammenhänge in den vorliegenden Daten“, merkt Managing Consultant Matthias Wiciok an. So wird beispielsweise nicht beachtet, wie sich die Kaufwahrscheinlichkeit ändert, wenn zusätzlich Produkt Z gekauft wird. „Potenzielle Einflussfaktoren wie die gesamte Warenkorbgröße und -diversität sowie die Kaufhistorie des Kunden oder der Wochentag und die Uhrzeit werden außerdem ausgeblendet, um nur ein paar nahe liegende Zusammenhänge aufzuzählen“, führt er weiter aus.

Um diese und weitere Treiber zu analysieren und sie für eine valide Kaufwahrscheinlichkeit zu benutzen, sollte Artificial Intelligence (AI) eingesetzt werden. Mit geeigneten Machine-Learning-Algorithmen kann man zum einen den Einfluss der einzelnen Dimensionen herausfinden. Zum anderen kann in Bruchteilen einer Sekunde ausgegeben werden, welche Produkte mit der höchsten Wahrscheinlichkeit ebenfalls in den Einkaufskorb wandern und damit zum Beispiel live seinen Online-Shop so bespielen, dass unter der Rubrik ‚Kunden kauften auch …‘ eben diese Produkte aufgeführt werden.

Dies stellt beispielhaft einen Use Case dar, bei welchem durch den Einsatz von AI eine bereits starke BI-Landschaft sinnvoll erweitert wird und den nächsten, logischen Schritt aufzeigt. Das Beispiel verdeutlicht zusätzlich, dass AI verschiedenste Unternehmen sogar bei alltäglichen Problemen unterstützen kann und an dieser Stelle bereits immense Verbesserungen mit sich bringt.

Data Science ohne Data Scientist? – DataRobot Core

Kein Experte ist momentan so gefragt wie der Data Scientist. Doch wie kann man in einer Zeit, in der Vorhersagemodelle über den Erfolg eines Unternehmens entscheiden, mithalten, wenn ein Data Scientist nicht verfügbar ist?

Wie in den 1990er Jahren für Business Intelligence, findet derzeit ein Prozess statt und Data-Science-Plattformen aktuell den Markt erobern. Diese beschleunigen nicht nur die Arbeit des Data Scientists, sondern geben auch Anwendern die Möglichkeit, Data-Science-Aufgaben zu übernehmen.

DataRobot schafft die Möglichkeit, Analytics-Lösungen, um Künstliche Intelligenz und Machine Learning zu erweitern und die Demokratisierung der Daten für alle Unternehmensbereiche weiter voranzutreiben. Aus diesem Grund hat sich EVACO bereits Ende 2019 für die einzige Data-Science-Plattform entschieden, die eine moderne End-to-End-Lösung bietet – ob für Data Preparation, MLDev oder MLOps. Zudem stehen über die Plattform Applikationen zur Verfügung, mit denen auch What-If-Analysen durchgeführt werden können. Senior Data Scientist David Stopschinski betont: „Für mich stellt eine solche Plattform einen enormen Zeit- und Inspirationsgewinn dar. Zeit, weil ich mehr als zehnmal schneller zu Ergebnissen komme, als wenn ich selbst programmiere. Inspiration, da ich bei sehr schwierigen Business-Aufgaben, DataRobot dazu nutzen kann, direkt den ‚richtigen‘ Weg einzuschlagen“.

Die Bandbreite der Aufgaben, die DataRobot lösen kann, ist enorm. „Dabei ist DataRobot für mich niemals eine Blackbox gewesen“, erläutert der Data Scientist weiter. „Auch wenn die Möglichkeit besteht, Algorithmen zu tunen, sprich Parameter anzupassen, war dies in den meisten Fällen nicht notwendig, da DataRobot einen, für die meisten Zwecke optimierten, Kompromiss zwischen Rechendauer (Zeit) und Rechengenauigkeit gefunden hat“.

Bei neuen Projekten funktioniert die Umsetzung entsprechend optimal. Aber wie verhält es sich bei speziellen Projekten, die bereits seit Jahren in der Entwicklung sind und es folglich keinen Sinn ergeben würde, neu mit DataRobot zu beginnen? Derartige Modelle sind oft hochgradig komplex und wurden meist von mehreren Data Scientisten entwickelt.
Die Antwort darauf liefert ‚DataRobot Core‘. Denn damit können die selbst codierten Modelle in DataRobot integriert und nicht nur das vollständige Lifecycle Management genutzt werden. Ebenso werden hiermit Insights generiert, um die bereits bestehenden Modelle weiter zu optimieren. Auch die Kollaborationsmöglichkeiten von DataRobot bieten Optionen, um effektiv als Team ein Data-Science-Projekt zu bearbeiten. „Aus meiner Sicht schließt DataRobot damit die wichtige Lücke, so dass Data Scientisten die Power von DataRobot nutzen können, ohne auf ihre bereits entwickelten Algorithmen verzichten zu müssen“, beendet David Stopschinski die Erklärung.

Hier finden Sie mehr zu DataRobot.

Mit DataRobot 7.3 ist die neue Version der AI Plattform verfügbar

Vorgestellt und freigeschaltet wurde die neueste DataRobot Version im Dezember 2021. Die Highlights hat EVACO für Sie zusammengefasst.

Pipelines ist der nächste Schritt zur nahtlosen Integration von Data preparation und ETL in den MLDev Part – zur Entwicklung von KI-Modellen. Für den Start können Sie CSV-Dateien sowie AI-Catalog-Datensätze laden, diese mit Spark SQL transformieren und wieder als CSV-Datei abspeichern oder direkt in den AI Catalog ablegen – um die Daten direkt in der DataRobot Plattform zu nutzen. Die auf diese Weise erstellten Pipelines können dann zeitlich geplant ausgeführt werden.

Die Funktionalitäten werden in den kommenden Releases weiter ausgebaut, sodass noch mehr Data Prep Tools in die eigentliche Plattform integriert werden. Dadurch wird ein einheitlicheres Nutzungserlebnis geschaffen.

datarobo pipelines

Mit Composable ML können nun eigene Blueprints in DataRobot erstellt werden. Dabei können nicht nur vorgefertigte Bausteine, sondern individuelle Skripte – die beispielsweise in Python geschrieben wurden – innerhalb der DataRobot Plattform genutzt werden. Dadurch erhält der User neben der vollen Plattform-Power zusätzlich die komplette Freiheit einer individuellen Programmierung.

datarobot composable ml

Decision Intelligence Flows bieten nun die Möglichkeit eines komplexen und voll- oder teilautomatisierten Entscheidungsprozesses in der DataRobot Plattform. Dieser Workflow startet mit den Daten und kann individuelle Verarbeitungsregeln sowie die Ergebnisse mehrerer Modelle enthalten. Dadurch sind mehrstufige, komplexere und integrierbarere Prozesse möglich.

datarobot decision intelligence flows rules

datarobot decision intelligence flows

Continuous AI – Nichts ist gefährlicher als eine trügerische Sicherheit bei Vorhersagen, die auf alten und nicht mehr akkuraten Datensätzen basieren. Mit Continuous AI können bereitgestellte Modelle automatisch neu trainiert werden, um immer am Puls der Zeit zu sein. Die Modelle können regelmäßig zeitlich gesteuert, bei Genauigkeitsabfall oder bei Data Drift neu trainiert werden. Dabei kann ausgewählt werden, ob bestehende Blueprints verwendet oder ganz neue Modelle erstellt werden sollen. Diese Funktion automatisiert einen weiteren Teil des Modell-Lifecycles.

datarobo pipelines

Die vollständige Liste zu allen veröffentlichten Features, die DataRobot 7.3 mit sich bringt, finden Sie direkt bei DataRobot.