Back to top
EVACO Weihnachten 2024

News

Haben Sie die Neuigkeiten schon gehört?

EVACO News halten Dich immer auf dem Laufenden

Alles zu neuen BI-Themen, Produkten, Partnern und Events erfährst Du hier.

Newsletter abonnieren

TimeXtender Product Advisory Network

EVACO und TimeXtender vertiefen strategische Partnerschaft mit direktem Einfluss auf...

TEILEN facebook twitter linkedin mail

Next-Level AI

Qlik bringt agentenbasierte Experience in die Qlik Cloud und öffnet...

TEILEN facebook twitter linkedin mail

Nachlese TimeXtender Xpert Session

Updates zu Orchestration, KI-gestützter Data Quality, MCP-Server, Snowflake, Konnektoren, Endpunkten...

TEILEN facebook twitter linkedin mail

ESG meets KI – Berichtspflichten smarter lösen

EVACO zeigt beim Unternehmensnetzwerk Region West, wie Berichtspflichten smarter werden...

TEILEN facebook twitter linkedin mail

KI in der Containerlogistik: Vom Plan-ETA zur operativen Orchestrierung

Just-in-Time: stabilere Abläufe dank KI-Unterstützung. In kaum einem Logistikbereich ist...

TEILEN facebook twitter linkedin mail

AutoML in der Praxis mit Qlik Predict

Zukunft vorhersagen mit Qlik Predict und AutoML Wie lassen sich...

TEILEN facebook twitter linkedin mail

Neu: Write-Funktion in Qlik Cloud

Write Table – Mehrwert und Anwendungsfälle Mit Write Table kannst...

TEILEN facebook twitter linkedin mail

KI-Strategie 2026

Vom Hype zur strukturellen Wertschöpfung Künstliche Intelligenz hat die Phase...

TEILEN facebook twitter linkedin mail

close

TimeXtender Product Advisory Network

EVACO und TimeXtender vertiefen strategische Partnerschaft mit direktem Einfluss auf Roadmap und KI Weiterentwicklung

EVACO und TimeXtender bauen ihre Zusammenarbeit auf ein neues Level aus. Im Rahmen einer einmaligen strategischen Partnerschaft schaffen wir einen direkten Draht zwischen unseren Kunden und den Produktmanagern von TimeXtender. Damit wird Feedback nicht nur gesammelt, sondern gezielt und strukturiert in die Produktentwicklung eingebracht.

Direkter Draht zur Produktentwicklung
Der Kern der Partnerschaft ist der Austausch auf Augenhöhe. Wir erhalten tiefere Einblicke in die Roadmap und die Möglichkeit, Schwerpunkte aktiv mitzugestalten. Für unsere Kunden bedeutet das kürzere Wege, schnellere Rückkopplung und Lösungen, die noch näher an realen Anforderungen aus Projekten und Betrieb entwickelt werden.

Fokus auf KI und moderne Datenplattformen
Insbesondere im Bereich KI werden wir die Zusammenarbeit verstärken. Unser Ziel ist klar: Data Warehouse Automation, Governance und Analytics so zu verbinden, dass KI Use Cases nicht als Insellösung entstehen, sondern sauber in Architektur, Datenprodukte und Betrieb integriert werden.

TimeXtender in Kürze
TimeXtender wurde 2005 gegründet und hat seinen Hauptsitz in Dänemark. Zusätzlich gibt es Standorte in Bellevue, Washington, sowie Amsterdam. Mehr als 2.600 Kunden auf sechs Kontinenten nutzen TimeXtender Produkte für Data Warehouse Automation. Das Unternehmen ist ein weltweit führender DWA Lösungsanbieter für Microsoft SQL Server und arbeitet dafür mit einem globalen Netzwerk von Channel Partnern. Ergänzend zu den Lösungen gehören Beratung und Schulungen zum Angebot, mit dem Ziel, Zeit und Kosten zu reduzieren und gleichzeitig ein starkes, gut bedienbares Data Warehouse und BI Fundament bereitzustellen.

EVACO mehrfach als Partner ausgezeichnet
Dass wir diese Partnerschaft jetzt noch enger gestalten, knüpft an die bisherigen Erfolge an. EVACO wurde in der Vergangenheit mehrfach ausgezeichnet, unter anderem als Rising Star sowie als Partner of the Year DACH.

Viele unserer Consultants sind TimeXtender-zertifiziert und kennen das komplette Leistungsspektrum und den Mehrwert der Lösung. Unser Senior Management Consultant Kai Müller wurde sogar in den Kreis der TimeXtender Xperts berufen. Wenn du konkrete Themen hast, die in die Roadmap gehören, wenn du wissen willst, wie du KI und Data Warehouse Automation in deiner Umgebung pragmatisch zusammenbringst oder einfach nur Kosten bei Clouiddiensten sparen willst, sprich uns an.

TEILEN facebook twitter linkedin mail

close

Next-Level AI

Qlik bringt agentenbasierte Experience in die Qlik Cloud und öffnet Qlik via MCP für Drittanbieter Assistenten

Qlik hat eine agentenbasierten Experience für Qlik Cloud angekündigt. Die Konversationsoberfläche wird über Qlik Answers bereitgestellt und verbindet strukturierte Analysen, unstrukturierte Dokumente und die Reasoning Fähigkeiten großer Sprachmodelle in einem kontrollierten und nachvollziehbaren Erlebnis.

Vom Dashboard zum Dialog
Im Zentrum steht ein Zusammenspiel spezialisierter Agenten, die miteinander kommunizieren und gezielt Qlik Funktionen nutzen. Das Ziel ist klar: schneller zu vollständigen Antworten, Zahlen und Kontext gemeinsam darstellen und Ergebnisse nachvollziehbar machen, inklusive Quellenangaben und transparenter Herleitung. Ein „always on“ Seitenpanel in Qlik Cloud soll außerdem genau dort unterstützen, wo Nutzer gerade arbeiten.

MCP Server: Qlik Funktionen in ChatGPT, Claude und Co.
Zusätzlich hat Qlik einen Model Context Protocol Server gelauncht. Damit entsteht ein weiterer Zugangspunkt zur agentenbasierten Nutzererfahrung, über den Kunden und Partner Qlik Funktionen auch aus Drittanbieter-Assistenten heraus nutzen können. Durch den MCP erlangen Agenten strukturiert Zugriff auf Engine, Tool und Agentenebene, um Insights über die Qlik Analytics Engine zu generieren und gleichzeitig kontrolliert auf vertrauenswürdige, Governance konforme Datenprodukte zugreifen zu können.

Warum das für Daten und Analytics Teams relevant ist
Agentenbasierte Workflows sind dann stark, wenn sie nicht nur texten, sondern rechnen, erklären und sich auf kontrollierte Datenprodukte stützen. Genau darauf zielt Qlik ab: weniger Übergaben und Kopien, schnellere Entscheidungen und mehr Vertrauen in die Ergebnisse, weil Berechnungen und Logik aus der Analytics Engine kommen und Quellen transparent bleiben.

Qlik Elite Partner
Als einer der langjährigsten Qlik Partner mit Elite Status begleiten wir unsere Kunden dabei, genau diese Brücke sauber zu bauen. Von Datenprodukten und Governance über Security Konzepte bis zur Enablement Strecke für Fachbereiche. Wenn ihr prüfen wollt, welche Use Cases sich für Qlik Answers und die agentenbasierte Experience eignen und wie ihr euch frühzeitig auf MCP vorbereitet, sprecht uns an.

TEILEN facebook twitter linkedin mail

close

Nachlese TimeXtender Xpert Session

Updates zu Orchestration, KI-gestützter Data Quality, MCP-Server, Snowflake, Konnektoren, Endpunkten und SQL-Support

Die Xpert Session Ende Januar war ein Jahresauftakt nach Maß! Neben aktuellen Produktupdates aus dem Build Cycle 10 zeigt TimeXtender Antworten auf die Frage, wie man Reporting und Datenbetrieb spürbar effizienter aufstellt. Im Mittelpunkt: Kostenoptimierung bei der Nutzung von Capacity Modellen, verbesserte Data Quality mit KI, MCP-Server, Vereinfachungen für Snowflake Architekturen sowie neue Konnektoren, Endpunkte und SQL-Support.

Orchestration: Kosten im Griff und Fehlerquellen schneller finden

Ein zentrales Thema war die Optimierung von Microsoft Fabric Kapazitäten. Neu ist, dass du Kapazitäten gezielter steuern kannst, etwa durch Pausieren und Wiederaufnehmen sowie durch Skalierung. Das hilft besonders dann, wenn Lastspitzen klar planbar sind oder wenn Updates nur in bestimmten Zeitfenstern laufen sollen. Ergänzend wurde eine Erweiterung zur Fehleranalyse vorgestellt. Mit zusätzlichen Error Insights bekommst du mehr Kontext, um Ursachen schneller einzugrenzen und wiederkehrende Störungen robuster zu vermeiden.

Data Quality: Regeln per KI vorschlagen lassen

Bei Data Quality ging es um einen sehr praktischen Ansatz: KI kann dir Regeln vorschlagen, indem sie Muster, Verteilungen und Auffälligkeiten in einem Datensatz analysiert. Du startest mit Vorschlägen, prüfst sie fachlich, passt Schwellenwerte und Bedingungen an und rollst die Regeln anschließend aus. Der Nutzen liegt auf der Hand: weniger manuelle Vorarbeit, schnellerer Start und ein klarerer Weg zu verlässlichen Qualitätschecks.

Semantik statt Schema: Kontext für verlässliche KI

Ein weiterer Schwerpunkt war die sogenannte Kontextlücke. KI liefert zwar schnell Antworten, aber ohne sauberen fachlichen Rahmen entstehen leicht inkonsistente Aussagen. Der Lösungsweg, der diskutiert wurde, setzt auf curatierte („governed“) semantische Modelle. Hierbei laufen Analysen und KI Abfragen über definierte Business Begriffe und Metriken statt über rohe Schemastrukturen. Das erhöht Konsistenz und Vertrauen, gerade im Reporting und bei wiederkehrenden Auswertungen.

MCP Server: Governed Semantik direkt für AI Agents nutzbar machen

Genau an dieser Kontextlücke setzt der neue TimeXtender MCP Server an. Er wird als Deliver Endpoint bereitgestellt und verbindet AI Clients und AI Agents direkt mit deinen governed semantischen Modellen. Damit fragt die KI nicht mehr gegen rohe Tabellen und frei interpretierte Joins, sondern wird durch die validierten Entitäten, Beziehungen und Metriken geführt, die ihr bereits aus Dashboards, Reporting und Planung kennt. Praktisch bedeutet das: konsistentere Antworten über Teams hinweg, weniger Zeitverlust durch Validierungsrunden und ein deutlich besseres Governance Profil, weil Abfragen auf das begrenzt sind, was das semantische Modell bewusst freigibt. Zusätzlich sind Themen wie Audit Logging und eine read-only Query Validation vorgesehen, damit KI Nutzung nachvollziehbar und kontrollierbar bleibt. Gerade für Self Service Analysen in Chat Interfaces wie Claude wird das spannend, weil Fragen schneller zu entscheidungsrelevanten Ergebnissen führen können, ohne dass jedes Mal Definitionen neu diskutiert werden müssen.

Snowflake: schlankere Architekturen und mehr Funktionen in Prepare

Für Snowflake wurden Architekturupdates vorgestellt, die den Betrieb vereinfachen. Dazu gehört die Möglichkeit, ingestierte Daten ohne zusätzliche Zwischenstufen direkt in Snowflake zu speichern. Außerdem wurden Prepare Funktionen erweitert, damit wichtige Fähigkeiten auch in Snowflake Szenarien nutzbar sind, zum Beispiel Skripting Optionen, Checkpoints und Hierarchietabellen.

Konnektoren, Endpunkte und SQL Support

Abgerundet wurde das Update durch Erweiterungen rund um Datenquellen, neue Deliver Endpunkte sowie SQL 2025 Support. Bei den standardmäßig verfügbaren Data Sources wurde das Portfolio außerdem um Salesforce, MongoDB und MySQL erweitert, jeweils als neue TimeXtender Enhanced Data Source Provider.

Auf der Deliver Seite ist Qlik Cloud jetzt auch als standardmäßiger Deliver Endpoint verfügbar, sodass du governed semantische Modelle direkt in die Qlik Cloud publizieren kannst, ohne dir dafür eigene Übergabestrecken bauen zu müssen.

Was du daraus mitnehmen kannst

Wenn du deine Datenplattform heute so aufstellst, dass Reporting, Governance und KI Hand in Hand arbeiten, gewinnst du an drei Stellen gleichzeitig: Kostenkontrolle im Betrieb, schnellere Umsetzung von Data Quality und stabilere Ergebnisse bei KI gestützten Analysen.

Wenn du wissen willst, wie du diese Themen in deiner Umgebung konkret umsetzt, unterstützen wir dich gerne von der Architektur über die Datenintegration bis zur automatisierten und prüfbaren Berichtstrecke.

TEILEN facebook twitter linkedin mail

close

ESG meets KI – Berichtspflichten smarter lösen

EVACO zeigt beim Unternehmensnetzwerk Region West, wie Berichtspflichten smarter werden

Auf Einladung der Stiftung Allianz für Entwicklung und Klima fand das jüngste Treffen des Unternehmensnetzwerks Region West beim ACV Automobil-Club Verkehr in Köln statt. In offener Atmosphäre standen Vernetzung, Good Practices und praxisnahe Lösungen rund um Klimaverantwortung und Nachhaltigkeitsmanagement im Mittelpunkt – mit einem klaren Schwerpunkt: Wie Unternehmen ESG-Berichte effizient, prüfbar und konsistent erstellen können.

Gastgeber ACV: Nachhaltigkeitsstrategie und Sanierung mit Weitblick

Nach der Begrüßung durch Dr. Olivia Henke (Vorständin, Stiftung Allianz für Entwicklung und Klima) und Holger Küster (Geschäftsführer, ACV) gab der ACV Einblicke in die nachhaltige Sanierung des ACV-Gebäudes – inklusive der sozialen, wirtschaftlichen und ökologischen Abwägungen, die dem Projekt zugrunde liegen. Anschließend erläuterte Peter Renner (Vorstandsvorsitzender der Stiftung) das Netzwerkformat: voneinander lernen, Erfahrungen teilen und konkrete Lösungsansätze gemeinsam weiterentwickeln.

Mit einem weiteren Impuls berichtete Peter Berson (ACV) über die Nachhaltigkeitsreise des Automobilclubs – von konkreten Maßnahmen bis hin zum strategischen Prozess rund um das Siegel SDGold, mit dem der ACV als eines der ersten Unternehmen ausgezeichnet wurde.

EVACO-Impuls: „ESG meets KI“ – Intelligente Unterstützung bei der Berichtserstellung

Zum Thema „ESG meets KI: Intelligente Unterstützung bei der Berichtserstellung“ zeigten Kevin Gründker und Stefan Mauer von EVACO im Anschluss, wie Künstliche Intelligenz und Business Analytics die Nachhaltigkeitsberichterstattung spürbar entlasten können.

Im Fokus stand dabei ein zentraler Hebel: Datenintegration. ESG-relevante Informationen liegen in Unternehmen häufig verteilt in Richtlinien, Lieferantenerklärungen, Energie- und HR-Reports, Kennzahlensystemen oder externen regulatorischen Vorgaben. Moderne Analytics- und KI-Ansätze helfen, diese Quellen strukturiert zusammenzuführen und daraus konsistente Textbausteine für Berichte zu erzeugen.

Der Nutzen ist besonders groß, weil viele Inhalte wiederkehrend sind: Nachhaltigkeitsberichte, Auditnachweise, CO₂-Bilanzen oder Management-Kommentare werden regelmäßig aktualisiert, nicht jedes Mal neu geschrieben. Genau hier entsteht ein immenser Effizienzgewinn – bei gleichzeitig besserer Nachvollziehbarkeit, da man die Quellen jederzeit nachverfolgen kann.

Mehr als CSRD/ESRS: KI als Brücke zu gesetzlichen Meldepflichten

Ein wichtiger Punkt aus dem EVACO-Beitrag: Der Effekt endet nicht beim ESG-Reporting. Viele gesetzliche Meldepflichten sind eng mit ESG-Themen verwandt oder bilden Teilmengen davon, etwa entlang von Umwelt- und Produktverantwortung.

Beispielhaft lassen sich KI-gestützte Verfahren auch für Anforderungen nutzen wie:

  • EUDR (Nachweise zu entwaldungsfreien Lieferketten),

  • ElektroG / EAR (Melde- und Rücknahmepflichten),

  • KrWG (Kreislaufwirtschaft/Umweltanforderungen),

  • sowie weitere Nachweis- und Reportingpflichten in Lieferkette, Umwelt und Compliance.

RAG statt „Halluzination“: Verlässliche Texte auf Basis belastbarer Quellen

EVACO zeigte zudem, wie Retrieval-Augmented Generation (RAG) die Qualität der Textgenerierung deutlich erhöht: Statt „frei zu formulieren“, greift die KI gezielt auf hinterlegte, verlässliche Dokumente und Daten zu und erstellt daraus nachvollziehbare, faktenbasierte Textvorschläge – auf Wunsch mit Quellverweisen und mehrsprachig. Das schafft die Grundlage für prüfbare Berichte und reduziert manuellen Aufwand spürbar.

Austausch aus der Praxis: Wo KI heute noch herausfordert

In der Diskussion ging es auch um ganz praktische Fragen, z. B. wie Belege für CO₂-Bilanzierung über internationale Standorte hinweg systematisch gesammelt und strukturiert werden können – und welche Rolle bestehende KI-Tools dabei spielen.

Beim gemeinsamen Ausklang stand – ganz im Sinne des Netzwerks – der persönliche Austausch im Vordergrund: neue Kontakte, vertiefende Gespräche und konkrete Ansatzpunkte für die nächste Umsetzung und gegenseitige Unterstützung.

TEILEN facebook twitter linkedin mail

close

KI in der Containerlogistik: Vom Plan-ETA zur operativen Orchestrierung

Just-in-Time: stabilere Abläufe dank KI-Unterstützung.

In kaum einem Logistikbereich ist der Abstand zwischen Plan und Realität so groß wie in der Containerlogistik: Schiffsankünfte verschieben sich, Liegeplatzfenster werden knapp, Leercontainer fehlen, Kräne müssen umgeplant werden und am Gate stauen sich LKW, sobald Peaks falsch antizipiert sind. Lange Zeit war das ein reaktives Spiel: Man arbeitet mit Plan-ETAs, telefoniert sich durch Statusmeldungen und kompensiert Unsicherheit mit Puffern.

Mit dem Einzug von KI in Data Analytics, Forecasting und Data Integration hat sich genau dieser Use Case besonders verändert: Port Call & Terminal-Orchestrierung wird zunehmend kontinuierlich und proaktiv. Der zentrale Unterschied ist nicht „ein neues KI-Feature“, sondern die Kombination aus belastbarer BI-Logik (KPIs, Semantik, Governance) und KI-Fähigkeiten (Forecasts, Conversational Analytics, Agenten), die daraus echte Prozesswirkung macht.

Data Analytics: Von Status-Reports zu „Chat with Operations“

Heute reicht es nicht mehr, einmal am Tag einen ETA-Report zu ziehen. Moderne Analytics wird zum Dialog und damit zur operativen Schnittstelle. KI kombiniert Informationen in Echtzeit (z. B. Positions-/Bewegungsdaten, Wetter- und Wasserstandsdaten, etc.) mit Erfahrungswerten und liefert Risikolisten, Szenarien, etc. Der Clou: BI liefert Kontext, damit KI nicht halluziniert. So werden KI-gestützte Informationen belastbar – statt nur „smart klingend“.

Data Integration & Governance: Saubere Events, klare Regeln, sichere Prognosen

Gerade in Häfen und Terminals entsteht der Mehrwert an der Schnittstelle vieler Systeme: Reederei, Hafenbehörde, Terminal-OS, Yard-Systeme, Gate, Speditionen, Zoll/Compliance, Telematik. Aber: KI-Forecasting funktioniert hier nur verlässlich, wenn die Integration stabil ist:

Vom Batch-Silo zur Event-Kette: Status-Events, Bewegungsdaten, Ressourcen- und Prozessdaten werden so integriert, dass ein konsistenter Zeitstrahl entsteht: Was ist wirklich passiert? Was passiert gerade? Was passiert als nächstes?

Data Quality ist Forecast-Quality: Duplicate Events, fehlende Scans, Zeitstempel-Drift oder unterschiedliche Definitionen („Ankunft“ vs. „All fast“) sind Forecast-Killer. Moderne Data Integration nutzt KI zunehmend für Plausibilisierung, Anomalieerkennung und „Auto-Mapping“ – damit Pipelines nicht bei jeder Systemänderung brechen.

Governance by Design: Wenn KI Priorisierungen vorschlägt (z. B. Reefer-Container, Gefahrgut, Transshipment), muss nachvollziehbar sein, welche Daten genutzt wurden (Lineage), welche Regeln galten (Policy/Regelwerk), wer es freigegeben hat (Audit) und welche Berechtigungen respektiert wurden (Access Control).

Regulation-ready Analytics & AI ist also keine „Kür“, sondern verpflichtende Voraussetzung, damit KI in der Containerlogistik skalierbar Mehrwerte liefert.

KI Agents: Vom Insight zur Aktion – ohne Shadow-KI

Der größte Sprung passiert, wenn aus „Erkennen“ automatisiertes „Handeln“ wird: Der Weg vom Chatbot zum Action Agent. Statt manuell 10 Systeme zu bedienen, kann ein KI-Agent innerhalb erlaubter Rechte und Prozesse eine kontrollierte Aufgabenkette ausführen:

Re-Orchestrierung bei ETA-Shift: Agent erkennt Verzögerungsrisiko, simuliert Auswirkungen auf Liegeplatz/Kräne/Yard/Gate, erstellt einen Anpassungsvorschlag und stößt nach Freigabe die Umplanung an.

Gate-Peaks entschärfen: Agent passt Appointment-Slots an, generiert proaktive Info an Speditionen und dokumentiert die Entscheidung inklusive Begründung.

Exception Handling: Agent eröffnet automatisch ein Ticket, hängt relevante Belege/Events an, schlägt Maßnahmen vor (Priorisierung, Umlagerung, Sonderprozess) und erstellt eine Freigabe-Mail an Verantwortliche.

Wichtig: Agenten müssen zwingend im Rahmen von Berechtigungsmodellen, Governance-Regeln und Audit-Anforderungen agieren. Hierfür braucht es Daten- und KI-Kompetenz in den Fachabteilungen.

Data & AI Literacy: die Bedeutung von „Human-in-the-Loop“

Containerlogistik ist ein Umfeld voller Unsicherheit: Wetter, Staus, Häfen, Umläufe, Gerätedefekte, Streiks. KI kann angesichts dieser komplexen Interdependenzen maßgeblich unterstützen, allerdings ist der Kontext ihrer Einbindung sehr erklärungsbedürftig. Deshalb wird Data/AI Literacy zum Katalysator:

Unsicherheiten verstehen: Planner müssen Quellen, Wahrscheinlichkeiten und Trade-offs interpretieren und abwägen („Wie sicher ist die ETA-Prognose?“ „Was kostet Puffer vs. Risiko?“).

Kritisch prüfen statt blind vertrauen: KI kann Ausreißer überbetonen oder Korrelation mit Kausalität verwechseln. Literacy bedeutet, die richtigen Rückfragen zu stellen – und Grenzen zu kennen.

Neue Kernkompetenz: gute Fragen stellen: Wenn Conversational Analytics zum Standard wird, ist Prompt-Kompetenz i.V.m. KPI-Verständnis) ein Produktivitätshebel.

Praxisbeispiel:

Klassisches Problemhandling: Containerterminals und Reedereien arbeiten mit Plan-ETAs und manuellen Updates. Wenn ein Schiff früher/später kommt, wird reaktiv umgeplant: Liegeplatzfenster, Kranbelegung, Schichtplanung, Yard-Stellplätze, LKW-Slots. Ergebnis: große Puffer, Hektik, mehr „Rehandles“ im Yard, Wartezeiten und Kosten.

Best practice: ETA-Vorhersage und Kapazitätsprognosen laufen kontinuierlich mit Live-Daten. ML-/AI-Modelle nutzen AIS-Daten und Kontextfaktoren (Speed/Route/Distanz, Wetter etc.), um Ankunftszeiten robuster vorherzusagen. Damit wird „Just-in-Time Arrival/Port Call Optimisation“ operativ umsetzbar: Schiffe passen Geschwindigkeit/Ankunft an, wenn der Hafen wirklich bereit ist – weniger Idle Time, effizientere Abläufe.

TEILEN facebook twitter linkedin mail

close

AutoML in der Praxis mit Qlik Predict

Zukunft vorhersagen mit Qlik Predict und AutoML

Wie lassen sich Zeitreihen einfach und zuverlässig prognostizieren – ganz ohne Programmierung? Qlik Predict ermöglicht datenbasierte Vorhersagen „mit Bordmitteln“.

AutoML verständlich erklärt

Qlik Predict™ bringt eine integrierte AutoML-Engine in die Qlik Cloud Analytics™. Sie automatisiert zentrale Schritte des Machine-Learning-Prozesses: von der Datenaufbereitung über Feature Engineering und Modellauswahl bis hin zu Training, Bewertung und Deployment. Das Ergebnis: belastbare Prognosen ohne Data-Science-Know-how.

Typische Einsatzszenarien für Zeitreihen

Zeitreihenprognosen sind in vielen Bereichen ein entscheidender Erfolgsfaktor. Typische Anwendungsfälle sind unter anderem:

  • Absatz-, Umsatz- und Cashflow-Prognosen
  • Produktions- und Materialbedarfsplanung
  • Predictive Maintenance und Wartungsplanung
  • Nachfrage-, Lieferzeit- und Lagerbestandsprognosen
  • Energieverbrauchs- und Lastspitzenprognosen

Modellbewertung: Genauigkeit zählt

Die Bewertung der Modelle erfolgt unter anderem mit dem MASE-Wert (Mean Absolute Scaled Error). Er zeigt, wie gut ein Modell im Vergleich zu einer einfachen naiven Prognose abschneidet. Je kleiner der MASE-Wert, desto zuverlässiger ist die Vorhersage – ein entscheidender Faktor für fundierte Planungsentscheidungen.

Integration in Qlik Cloud Analytics

Die erstellten Prognosen lassen sich flexibel integrieren:

  • direkt im Load Script über den Qlik Analytics Connector
  • interaktiv im Frontend mit dem Predict-Objekt
  • automatisiert über Qlik Automate
  • oder per REST API in externe Anwendungen

Call-to-Action

Wenn Du Zeitreihenprognosen anwenden möchtest: wir unterstützen gerne. Sehr zu empfehlen ist hierfür unser Qlik AI Training als Einstieg in die Materie.

TEILEN facebook twitter linkedin mail

close

Neu: Write-Funktion in Qlik Cloud

Write Table – Mehrwert und Anwendungsfälle

Mit Write Table kannst Du Werte oder Kommentare direkt im Analysekontext erfassen – inklusive Echtzeit-Synchronisierung, Change Store und optionaler Weiterverarbeitung über Qlik Automate.

Write Table ist eine editierbare Tabellen-Chart in Qlik Cloud Analytics, die Eingaben, Kommentare im Datenkontext ermöglichen. Qlik nennt als Beispiele u. a. Inventory- und Delivery-Management, Mitarbeitenden-Feedback sowie das Bearbeiten von Sales Opportunities – durch das Hinzufügen von editierbaren Feldern kann man so Daten durch qualitative Informationen anreichern.

Change Store und Echtzeit-Synchronisation

Änderungen werden in einem von Qlik verwalteten Change Store gespeichert und über aktive Sessions in Echtzeit synchronisiert. Das ermöglicht kollaboratives Arbeiten – und schafft die Grundlage, um Änderungen anschließend in Prozesse zu überführen (z. B. mit Qlik Automate).

Governance & Rechte

  • Edition/Verfügbarkeit: Write Table ist eine Cloud-Funktion und in bestimmten Qlik-Cloud-Editionen enthalten.
  • Berechtigungen: Für Setup/Verwaltung sind spezifische Rechte relevant (u. a. „Manage write table charts“).
  • Datenlebensdauer: Der Change Store hat eine Gültigkeitsdauer von 90 Tagen – wichtig für Audits, Nachvollziehbarkeit und Betriebsmodelle.
  • Section Access: Section Access greift nicht auf Change Store bzw. die Change-Store-API – das solltest Du im Sicherheits- und Rollenmodell berücksichtigen.

Wenn Du Write Table einführen willst, empfehlen wir einen pragmatischen Ansatz:

  1. Use-Case auswählen (z. B. Kommentieren vs. „echtes“ Daten-Update)
  2. Rechte/Rollenmodell definieren (wer darf was – und wo?)
  3. Governance klären (Nachvollziehbarkeit, Freigaben)
  4. Automatisierung anbinden (z. B. Übergabe in Tickets/Workflows via Qlik Automate)

Hier findest Du ein kleines Video zu Qlik Write Table. Falls Du die Mehrwerte von Write Table näher kennenlernen möchtest, bieten wir einen pragmatischen 30-Minuten-Check an, um Deinen konkreten Anwendungsfall zu beleuchten. Anruf genügt!

TEILEN facebook twitter linkedin mail

close

KI-Strategie 2026

Vom Hype zur strukturellen Wertschöpfung

Künstliche Intelligenz hat die Phase der bloßen Begeisterung verlassen. In der heutigen Unternehmenswelt ist KI kein reines IT-Projekt mehr, sondern ein zentraler Hebel für Wettbewerbsfähigkeit, operative Exzellenz und neue Geschäftsmodelle. Doch während viele Unternehmen bereits mit Tools wie ChatGPT experimentieren, scheitern die meisten daran, KI skalierbar und wertstiftend einzusetzen. Der Grund: Es fehlt eine ganzheitliche Strategie.

Eine erfolgreiche KI-Strategie basiert nicht auf der Auswahl der „besten“ Software, sondern auf der Synchronisation von Technologie, Organisation und Unternehmenskultur. Die folgenden sieben Säulen bilden das Fundament für eine Transformation, die über bloße Effizienzgewinne hinausgeht.

  1. Vision & Business Value: Der Nordstern deiner Transformation

Jede KI-Initiative muss mit der Frage nach dem „Warum“ beginnen. Ohne eine klare Ausrichtung an der Unternehmensstrategie riskierst du teure Insellösungen ohne messbaren Impact.

  • Die Kernfrage: Welches strategische Problem lösen wir mit KI?
  • Das Ziel: Definiere klare KPIs. Geht es um die Senkung der Prozesskosten, die Steigerung der Kundenzufriedenheit oder die Erschließung völlig neuer Erlösströme? Nur was messbar ist, kann skaliert werden.
  1. Use Case Portfolio: Priorisierung statt Gießkanne

Die Möglichkeiten von KI sind nahezu unbegrenzt, die Ressourcen eines Unternehmens jedoch nicht. Entscheidungsträger müssen lernen, Use Cases nach zwei Kriterien zu bewerten: Business Impact und Machbarkeit. Starte nicht mit dem komplexesten Projekt. Identifiziere „Quick Wins“ (MVPs), die innerhalb weniger Monate Wert stiften. Ein gut gepflegtes Portfolio balanciert kurzfristige Erfolge mit langfristigen, disruptiven Innovationen.

  1. Daten & Infrastruktur: Das Fundament des Erfolgs

KI ist nur so gut wie die Daten, mit denen sie gefüttert wird. „Garbage in, garbage out“ gilt heute mehr denn je.

  • Infrastruktur: Entscheide strategisch zwischen Cloud-Lösungen für maximale Flexibilität und On-Premise-Lösungen für maximale Datensouveränität.
  • Datenqualität: Eine moderne Datenstrategie muss Silos aufbrechen und eine „Single Source of Truth“ schaffen. Investitionen in die Datenarchitektur sind das notwendige Investment in die Intelligenz deiner zukünftigen Systeme.
  1. Organisation & Talente: Die menschliche Komponente

Die technologische Hürde ist oft niedriger als die kompetenzbezogene. Du benötigst nicht nur Data Scientists, sondern „KI-Übersetzer“, die Brücken zwischen Fachabteilungen und Technik schlagen. Bau ein AI Center of Excellence (CoE) auf, das Best Practices bündelt. Gleichzeitig muss ein breites Upskilling-Programm sicherstellen, dass die gesamte Belegschaft die nötige „AI Literacy“ erwirbt, um KI im Alltag produktiv zu nutzen.

  1. Governance & Ethik: Vertrauen als Wettbewerbsvorteil

In Zeiten des EU AI Acts ist Compliance keine Option, sondern eine Notwendigkeit. Eine klare Governance regelt den Datenschutz, die Sicherheit und die ethische Verantwortbarkeit von KI-Entscheidungen. Unternehmen, die transparent mit Bias-Risiken und Datenschutz umgehen, gewinnen das Vertrauen von Kunden und Mitarbeitern. Betrachte Regulatorik nicht als Bremse, sondern als Leitplanke für nachhaltiges Wachstum.

  1. Change Management: Die Kulturreise

Die größte Barriere für KI ist oft die Angst vor Arbeitsplatzverlust oder Kontrollverlust. KI-Transformation ist zu 20 % Technologie und zu 80 % Psychologie. Führungskräfte müssen eine Experimentierkultur vorleben, in der Fehler als Lernschritte akzeptiert werden. Kommuniziere offen: KI soll den Menschen nicht ersetzen, sondern ihn von repetitiven Aufgaben befreien, um Raum für Kreativität und strategisches Denken zu schaffen.

  1. Roadmap & Skalierung: Der Weg zur AI-First-Company

Eine KI-Strategie ist kein einmaliges Dokument, sondern ein lebender Prozess. Beginne mit Pilotprojekten, aber plane von Tag eins an die Skalierung ein. Stell sicher, dass das Budget nicht nach der Pilotphase endet. Eine klare Roadmap definiert Meilensteine für die nächsten 12 bis 36 Monate und stellt sicher, dass die technologische Entwicklung mit den organisatorischen Kapazitäten Schritt hält.

Quintessenz & unsere Empfehlung an Dich

KI ist die Dampfmaschine des 21. Jahrhunderts. Wer sie nur als Werkzeug betrachtet, wird abgehängt. Wer sie als strategischen Partner begreift, positioniert sein Unternehmen für eine Ära beispielloser Produktivität. Eine KI-Strategie entwickelt sich nicht nebenher im Tagesgeschäft. Sie erfordert Fokus, Expertise und den Mut zur Priorisierung.

Wenn du diesen Prozess beschleunigen und auf ein solides Fundament stellen möchtest, unterstützen wir dich gerne persönlich. Wir bieten einen exklusiven 2-Tages-Workshop zum Thema KI-Strategie an. In diesem intensiven Format gehen wir gemeinsam mit deinem Führungsteam tief in alle oben genannten Kategorien.

TEILEN facebook twitter linkedin mail




IMMER UP
TO DATE
MIT UNSEREM

NEWSLETTER

Abonnieren Sie unsere Newsletter

In unserem EVACOletter geben wir regelmäßig einen Überblick zu aktuellen News & Events, unseren Webinaren oder unserem Trainingsangebot. Wir berichten über Messen und auch Partneraktivitäten, um Ihnen so die Möglichkeit zu bieten, sich über unser vielfältiges Angebot zu informieren. Sie möchten von uns auf dem Laufenden gehalten werden?


[newsletter2go]