Back to top

TimeXtender Product Advisory Network

EVACO und TimeXtender vertiefen strategische Partnerschaft mit direktem Einfluss auf Roadmap und KI Weiterentwicklung

EVACO und TimeXtender bauen ihre Zusammenarbeit auf ein neues Level aus. Im Rahmen einer einmaligen strategischen Partnerschaft schaffen wir einen direkten Draht zwischen unseren Kunden und den Produktmanagern von TimeXtender. Damit wird Feedback nicht nur gesammelt, sondern gezielt und strukturiert in die Produktentwicklung eingebracht.

Direkter Draht zur Produktentwicklung
Der Kern der Partnerschaft ist der Austausch auf Augenhöhe. Wir erhalten tiefere Einblicke in die Roadmap und die Möglichkeit, Schwerpunkte aktiv mitzugestalten. Für unsere Kunden bedeutet das kürzere Wege, schnellere Rückkopplung und Lösungen, die noch näher an realen Anforderungen aus Projekten und Betrieb entwickelt werden.

Fokus auf KI und moderne Datenplattformen
Insbesondere im Bereich KI werden wir die Zusammenarbeit verstärken. Unser Ziel ist klar: Data Warehouse Automation, Governance und Analytics so zu verbinden, dass KI Use Cases nicht als Insellösung entstehen, sondern sauber in Architektur, Datenprodukte und Betrieb integriert werden.

TimeXtender in Kürze
TimeXtender wurde 2005 gegründet und hat seinen Hauptsitz in Dänemark. Zusätzlich gibt es Standorte in Bellevue, Washington, sowie Amsterdam. Mehr als 2.600 Kunden auf sechs Kontinenten nutzen TimeXtender Produkte für Data Warehouse Automation. Das Unternehmen ist ein weltweit führender DWA Lösungsanbieter für Microsoft SQL Server und arbeitet dafür mit einem globalen Netzwerk von Channel Partnern. Ergänzend zu den Lösungen gehören Beratung und Schulungen zum Angebot, mit dem Ziel, Zeit und Kosten zu reduzieren und gleichzeitig ein starkes, gut bedienbares Data Warehouse und BI Fundament bereitzustellen.

EVACO mehrfach als Partner ausgezeichnet
Dass wir diese Partnerschaft jetzt noch enger gestalten, knüpft an die bisherigen Erfolge an. EVACO wurde in der Vergangenheit mehrfach ausgezeichnet, unter anderem als Rising Star sowie als Partner of the Year DACH.

Viele unserer Consultants sind TimeXtender-zertifiziert und kennen das komplette Leistungsspektrum und den Mehrwert der Lösung. Unser Senior Management Consultant Kai Müller wurde sogar in den Kreis der TimeXtender Xperts berufen. Wenn du konkrete Themen hast, die in die Roadmap gehören, wenn du wissen willst, wie du KI und Data Warehouse Automation in deiner Umgebung pragmatisch zusammenbringst oder einfach nur Kosten bei Clouiddiensten sparen willst, sprich uns an.

Next-Level AI

Qlik bringt agentenbasierte Experience in die Qlik Cloud und öffnet Qlik via MCP für Drittanbieter Assistenten

Qlik hat eine agentenbasierten Experience für Qlik Cloud angekündigt. Die Konversationsoberfläche wird über Qlik Answers bereitgestellt und verbindet strukturierte Analysen, unstrukturierte Dokumente und die Reasoning Fähigkeiten großer Sprachmodelle in einem kontrollierten und nachvollziehbaren Erlebnis.

Vom Dashboard zum Dialog
Im Zentrum steht ein Zusammenspiel spezialisierter Agenten, die miteinander kommunizieren und gezielt Qlik Funktionen nutzen. Das Ziel ist klar: schneller zu vollständigen Antworten, Zahlen und Kontext gemeinsam darstellen und Ergebnisse nachvollziehbar machen, inklusive Quellenangaben und transparenter Herleitung. Ein „always on“ Seitenpanel in Qlik Cloud soll außerdem genau dort unterstützen, wo Nutzer gerade arbeiten.

MCP Server: Qlik Funktionen in ChatGPT, Claude und Co.
Zusätzlich hat Qlik einen Model Context Protocol Server gelauncht. Damit entsteht ein weiterer Zugangspunkt zur agentenbasierten Nutzererfahrung, über den Kunden und Partner Qlik Funktionen auch aus Drittanbieter-Assistenten heraus nutzen können. Durch den MCP erlangen Agenten strukturiert Zugriff auf Engine, Tool und Agentenebene, um Insights über die Qlik Analytics Engine zu generieren und gleichzeitig kontrolliert auf vertrauenswürdige, Governance konforme Datenprodukte zugreifen zu können.

Warum das für Daten und Analytics Teams relevant ist
Agentenbasierte Workflows sind dann stark, wenn sie nicht nur texten, sondern rechnen, erklären und sich auf kontrollierte Datenprodukte stützen. Genau darauf zielt Qlik ab: weniger Übergaben und Kopien, schnellere Entscheidungen und mehr Vertrauen in die Ergebnisse, weil Berechnungen und Logik aus der Analytics Engine kommen und Quellen transparent bleiben.

Qlik Elite Partner
Als einer der langjährigsten Qlik Partner mit Elite Status begleiten wir unsere Kunden dabei, genau diese Brücke sauber zu bauen. Von Datenprodukten und Governance über Security Konzepte bis zur Enablement Strecke für Fachbereiche. Wenn ihr prüfen wollt, welche Use Cases sich für Qlik Answers und die agentenbasierte Experience eignen und wie ihr euch frühzeitig auf MCP vorbereitet, sprecht uns an.

Nachlese TimeXtender Xpert Session

Updates zu Orchestration, KI-gestützter Data Quality, MCP-Server, Snowflake, Konnektoren, Endpunkten und SQL-Support

Die Xpert Session Ende Januar war ein Jahresauftakt nach Maß! Neben aktuellen Produktupdates aus dem Build Cycle 10 zeigt TimeXtender Antworten auf die Frage, wie man Reporting und Datenbetrieb spürbar effizienter aufstellt. Im Mittelpunkt: Kostenoptimierung bei der Nutzung von Capacity Modellen, verbesserte Data Quality mit KI, MCP-Server, Vereinfachungen für Snowflake Architekturen sowie neue Konnektoren, Endpunkte und SQL-Support.

Orchestration: Kosten im Griff und Fehlerquellen schneller finden

Ein zentrales Thema war die Optimierung von Microsoft Fabric Kapazitäten. Neu ist, dass du Kapazitäten gezielter steuern kannst, etwa durch Pausieren und Wiederaufnehmen sowie durch Skalierung. Das hilft besonders dann, wenn Lastspitzen klar planbar sind oder wenn Updates nur in bestimmten Zeitfenstern laufen sollen. Ergänzend wurde eine Erweiterung zur Fehleranalyse vorgestellt. Mit zusätzlichen Error Insights bekommst du mehr Kontext, um Ursachen schneller einzugrenzen und wiederkehrende Störungen robuster zu vermeiden.

Data Quality: Regeln per KI vorschlagen lassen

Bei Data Quality ging es um einen sehr praktischen Ansatz: KI kann dir Regeln vorschlagen, indem sie Muster, Verteilungen und Auffälligkeiten in einem Datensatz analysiert. Du startest mit Vorschlägen, prüfst sie fachlich, passt Schwellenwerte und Bedingungen an und rollst die Regeln anschließend aus. Der Nutzen liegt auf der Hand: weniger manuelle Vorarbeit, schnellerer Start und ein klarerer Weg zu verlässlichen Qualitätschecks.

Semantik statt Schema: Kontext für verlässliche KI

Ein weiterer Schwerpunkt war die sogenannte Kontextlücke. KI liefert zwar schnell Antworten, aber ohne sauberen fachlichen Rahmen entstehen leicht inkonsistente Aussagen. Der Lösungsweg, der diskutiert wurde, setzt auf curatierte („governed“) semantische Modelle. Hierbei laufen Analysen und KI Abfragen über definierte Business Begriffe und Metriken statt über rohe Schemastrukturen. Das erhöht Konsistenz und Vertrauen, gerade im Reporting und bei wiederkehrenden Auswertungen.

MCP Server: Governed Semantik direkt für AI Agents nutzbar machen

Genau an dieser Kontextlücke setzt der neue TimeXtender MCP Server an. Er wird als Deliver Endpoint bereitgestellt und verbindet AI Clients und AI Agents direkt mit deinen governed semantischen Modellen. Damit fragt die KI nicht mehr gegen rohe Tabellen und frei interpretierte Joins, sondern wird durch die validierten Entitäten, Beziehungen und Metriken geführt, die ihr bereits aus Dashboards, Reporting und Planung kennt. Praktisch bedeutet das: konsistentere Antworten über Teams hinweg, weniger Zeitverlust durch Validierungsrunden und ein deutlich besseres Governance Profil, weil Abfragen auf das begrenzt sind, was das semantische Modell bewusst freigibt. Zusätzlich sind Themen wie Audit Logging und eine read-only Query Validation vorgesehen, damit KI Nutzung nachvollziehbar und kontrollierbar bleibt. Gerade für Self Service Analysen in Chat Interfaces wie Claude wird das spannend, weil Fragen schneller zu entscheidungsrelevanten Ergebnissen führen können, ohne dass jedes Mal Definitionen neu diskutiert werden müssen.

Snowflake: schlankere Architekturen und mehr Funktionen in Prepare

Für Snowflake wurden Architekturupdates vorgestellt, die den Betrieb vereinfachen. Dazu gehört die Möglichkeit, ingestierte Daten ohne zusätzliche Zwischenstufen direkt in Snowflake zu speichern. Außerdem wurden Prepare Funktionen erweitert, damit wichtige Fähigkeiten auch in Snowflake Szenarien nutzbar sind, zum Beispiel Skripting Optionen, Checkpoints und Hierarchietabellen.

Konnektoren, Endpunkte und SQL Support

Abgerundet wurde das Update durch Erweiterungen rund um Datenquellen, neue Deliver Endpunkte sowie SQL 2025 Support. Bei den standardmäßig verfügbaren Data Sources wurde das Portfolio außerdem um Salesforce, MongoDB und MySQL erweitert, jeweils als neue TimeXtender Enhanced Data Source Provider.

Auf der Deliver Seite ist Qlik Cloud jetzt auch als standardmäßiger Deliver Endpoint verfügbar, sodass du governed semantische Modelle direkt in die Qlik Cloud publizieren kannst, ohne dir dafür eigene Übergabestrecken bauen zu müssen.

Was du daraus mitnehmen kannst

Wenn du deine Datenplattform heute so aufstellst, dass Reporting, Governance und KI Hand in Hand arbeiten, gewinnst du an drei Stellen gleichzeitig: Kostenkontrolle im Betrieb, schnellere Umsetzung von Data Quality und stabilere Ergebnisse bei KI gestützten Analysen.

Wenn du wissen willst, wie du diese Themen in deiner Umgebung konkret umsetzt, unterstützen wir dich gerne von der Architektur über die Datenintegration bis zur automatisierten und prüfbaren Berichtstrecke.

ESG meets KI – Berichtspflichten smarter lösen

EVACO zeigt beim Unternehmensnetzwerk Region West, wie Berichtspflichten smarter werden

Auf Einladung der Stiftung Allianz für Entwicklung und Klima fand das jüngste Treffen des Unternehmensnetzwerks Region West beim ACV Automobil-Club Verkehr in Köln statt. In offener Atmosphäre standen Vernetzung, Good Practices und praxisnahe Lösungen rund um Klimaverantwortung und Nachhaltigkeitsmanagement im Mittelpunkt – mit einem klaren Schwerpunkt: Wie Unternehmen ESG-Berichte effizient, prüfbar und konsistent erstellen können.

Gastgeber ACV: Nachhaltigkeitsstrategie und Sanierung mit Weitblick

Nach der Begrüßung durch Dr. Olivia Henke (Vorständin, Stiftung Allianz für Entwicklung und Klima) und Holger Küster (Geschäftsführer, ACV) gab der ACV Einblicke in die nachhaltige Sanierung des ACV-Gebäudes – inklusive der sozialen, wirtschaftlichen und ökologischen Abwägungen, die dem Projekt zugrunde liegen. Anschließend erläuterte Peter Renner (Vorstandsvorsitzender der Stiftung) das Netzwerkformat: voneinander lernen, Erfahrungen teilen und konkrete Lösungsansätze gemeinsam weiterentwickeln.

Mit einem weiteren Impuls berichtete Peter Berson (ACV) über die Nachhaltigkeitsreise des Automobilclubs – von konkreten Maßnahmen bis hin zum strategischen Prozess rund um das Siegel SDGold, mit dem der ACV als eines der ersten Unternehmen ausgezeichnet wurde.

EVACO-Impuls: „ESG meets KI“ – Intelligente Unterstützung bei der Berichtserstellung

Zum Thema „ESG meets KI: Intelligente Unterstützung bei der Berichtserstellung“ zeigten Kevin Gründker und Stefan Mauer von EVACO im Anschluss, wie Künstliche Intelligenz und Business Analytics die Nachhaltigkeitsberichterstattung spürbar entlasten können.

Im Fokus stand dabei ein zentraler Hebel: Datenintegration. ESG-relevante Informationen liegen in Unternehmen häufig verteilt in Richtlinien, Lieferantenerklärungen, Energie- und HR-Reports, Kennzahlensystemen oder externen regulatorischen Vorgaben. Moderne Analytics- und KI-Ansätze helfen, diese Quellen strukturiert zusammenzuführen und daraus konsistente Textbausteine für Berichte zu erzeugen.

Der Nutzen ist besonders groß, weil viele Inhalte wiederkehrend sind: Nachhaltigkeitsberichte, Auditnachweise, CO₂-Bilanzen oder Management-Kommentare werden regelmäßig aktualisiert, nicht jedes Mal neu geschrieben. Genau hier entsteht ein immenser Effizienzgewinn – bei gleichzeitig besserer Nachvollziehbarkeit, da man die Quellen jederzeit nachverfolgen kann.

Mehr als CSRD/ESRS: KI als Brücke zu gesetzlichen Meldepflichten

Ein wichtiger Punkt aus dem EVACO-Beitrag: Der Effekt endet nicht beim ESG-Reporting. Viele gesetzliche Meldepflichten sind eng mit ESG-Themen verwandt oder bilden Teilmengen davon, etwa entlang von Umwelt- und Produktverantwortung.

Beispielhaft lassen sich KI-gestützte Verfahren auch für Anforderungen nutzen wie:

  • EUDR (Nachweise zu entwaldungsfreien Lieferketten),

  • ElektroG / EAR (Melde- und Rücknahmepflichten),

  • KrWG (Kreislaufwirtschaft/Umweltanforderungen),

  • sowie weitere Nachweis- und Reportingpflichten in Lieferkette, Umwelt und Compliance.

RAG statt „Halluzination“: Verlässliche Texte auf Basis belastbarer Quellen

EVACO zeigte zudem, wie Retrieval-Augmented Generation (RAG) die Qualität der Textgenerierung deutlich erhöht: Statt „frei zu formulieren“, greift die KI gezielt auf hinterlegte, verlässliche Dokumente und Daten zu und erstellt daraus nachvollziehbare, faktenbasierte Textvorschläge – auf Wunsch mit Quellverweisen und mehrsprachig. Das schafft die Grundlage für prüfbare Berichte und reduziert manuellen Aufwand spürbar.

Austausch aus der Praxis: Wo KI heute noch herausfordert

In der Diskussion ging es auch um ganz praktische Fragen, z. B. wie Belege für CO₂-Bilanzierung über internationale Standorte hinweg systematisch gesammelt und strukturiert werden können – und welche Rolle bestehende KI-Tools dabei spielen.

Beim gemeinsamen Ausklang stand – ganz im Sinne des Netzwerks – der persönliche Austausch im Vordergrund: neue Kontakte, vertiefende Gespräche und konkrete Ansatzpunkte für die nächste Umsetzung und gegenseitige Unterstützung.

KI in der Containerlogistik: Vom Plan-ETA zur operativen Orchestrierung

Just-in-Time: stabilere Abläufe dank KI-Unterstützung.

In kaum einem Logistikbereich ist der Abstand zwischen Plan und Realität so groß wie in der Containerlogistik: Schiffsankünfte verschieben sich, Liegeplatzfenster werden knapp, Leercontainer fehlen, Kräne müssen umgeplant werden und am Gate stauen sich LKW, sobald Peaks falsch antizipiert sind. Lange Zeit war das ein reaktives Spiel: Man arbeitet mit Plan-ETAs, telefoniert sich durch Statusmeldungen und kompensiert Unsicherheit mit Puffern.

Mit dem Einzug von KI in Data Analytics, Forecasting und Data Integration hat sich genau dieser Use Case besonders verändert: Port Call & Terminal-Orchestrierung wird zunehmend kontinuierlich und proaktiv. Der zentrale Unterschied ist nicht „ein neues KI-Feature“, sondern die Kombination aus belastbarer BI-Logik (KPIs, Semantik, Governance) und KI-Fähigkeiten (Forecasts, Conversational Analytics, Agenten), die daraus echte Prozesswirkung macht.

Data Analytics: Von Status-Reports zu „Chat with Operations“

Heute reicht es nicht mehr, einmal am Tag einen ETA-Report zu ziehen. Moderne Analytics wird zum Dialog und damit zur operativen Schnittstelle. KI kombiniert Informationen in Echtzeit (z. B. Positions-/Bewegungsdaten, Wetter- und Wasserstandsdaten, etc.) mit Erfahrungswerten und liefert Risikolisten, Szenarien, etc. Der Clou: BI liefert Kontext, damit KI nicht halluziniert. So werden KI-gestützte Informationen belastbar – statt nur „smart klingend“.

Data Integration & Governance: Saubere Events, klare Regeln, sichere Prognosen

Gerade in Häfen und Terminals entsteht der Mehrwert an der Schnittstelle vieler Systeme: Reederei, Hafenbehörde, Terminal-OS, Yard-Systeme, Gate, Speditionen, Zoll/Compliance, Telematik. Aber: KI-Forecasting funktioniert hier nur verlässlich, wenn die Integration stabil ist:

Vom Batch-Silo zur Event-Kette: Status-Events, Bewegungsdaten, Ressourcen- und Prozessdaten werden so integriert, dass ein konsistenter Zeitstrahl entsteht: Was ist wirklich passiert? Was passiert gerade? Was passiert als nächstes?

Data Quality ist Forecast-Quality: Duplicate Events, fehlende Scans, Zeitstempel-Drift oder unterschiedliche Definitionen („Ankunft“ vs. „All fast“) sind Forecast-Killer. Moderne Data Integration nutzt KI zunehmend für Plausibilisierung, Anomalieerkennung und „Auto-Mapping“ – damit Pipelines nicht bei jeder Systemänderung brechen.

Governance by Design: Wenn KI Priorisierungen vorschlägt (z. B. Reefer-Container, Gefahrgut, Transshipment), muss nachvollziehbar sein, welche Daten genutzt wurden (Lineage), welche Regeln galten (Policy/Regelwerk), wer es freigegeben hat (Audit) und welche Berechtigungen respektiert wurden (Access Control).

Regulation-ready Analytics & AI ist also keine „Kür“, sondern verpflichtende Voraussetzung, damit KI in der Containerlogistik skalierbar Mehrwerte liefert.

KI Agents: Vom Insight zur Aktion – ohne Shadow-KI

Der größte Sprung passiert, wenn aus „Erkennen“ automatisiertes „Handeln“ wird: Der Weg vom Chatbot zum Action Agent. Statt manuell 10 Systeme zu bedienen, kann ein KI-Agent innerhalb erlaubter Rechte und Prozesse eine kontrollierte Aufgabenkette ausführen:

Re-Orchestrierung bei ETA-Shift: Agent erkennt Verzögerungsrisiko, simuliert Auswirkungen auf Liegeplatz/Kräne/Yard/Gate, erstellt einen Anpassungsvorschlag und stößt nach Freigabe die Umplanung an.

Gate-Peaks entschärfen: Agent passt Appointment-Slots an, generiert proaktive Info an Speditionen und dokumentiert die Entscheidung inklusive Begründung.

Exception Handling: Agent eröffnet automatisch ein Ticket, hängt relevante Belege/Events an, schlägt Maßnahmen vor (Priorisierung, Umlagerung, Sonderprozess) und erstellt eine Freigabe-Mail an Verantwortliche.

Wichtig: Agenten müssen zwingend im Rahmen von Berechtigungsmodellen, Governance-Regeln und Audit-Anforderungen agieren. Hierfür braucht es Daten- und KI-Kompetenz in den Fachabteilungen.

Data & AI Literacy: die Bedeutung von „Human-in-the-Loop“

Containerlogistik ist ein Umfeld voller Unsicherheit: Wetter, Staus, Häfen, Umläufe, Gerätedefekte, Streiks. KI kann angesichts dieser komplexen Interdependenzen maßgeblich unterstützen, allerdings ist der Kontext ihrer Einbindung sehr erklärungsbedürftig. Deshalb wird Data/AI Literacy zum Katalysator:

Unsicherheiten verstehen: Planner müssen Quellen, Wahrscheinlichkeiten und Trade-offs interpretieren und abwägen („Wie sicher ist die ETA-Prognose?“ „Was kostet Puffer vs. Risiko?“).

Kritisch prüfen statt blind vertrauen: KI kann Ausreißer überbetonen oder Korrelation mit Kausalität verwechseln. Literacy bedeutet, die richtigen Rückfragen zu stellen – und Grenzen zu kennen.

Neue Kernkompetenz: gute Fragen stellen: Wenn Conversational Analytics zum Standard wird, ist Prompt-Kompetenz i.V.m. KPI-Verständnis) ein Produktivitätshebel.

Praxisbeispiel:

Klassisches Problemhandling: Containerterminals und Reedereien arbeiten mit Plan-ETAs und manuellen Updates. Wenn ein Schiff früher/später kommt, wird reaktiv umgeplant: Liegeplatzfenster, Kranbelegung, Schichtplanung, Yard-Stellplätze, LKW-Slots. Ergebnis: große Puffer, Hektik, mehr „Rehandles“ im Yard, Wartezeiten und Kosten.

Best practice: ETA-Vorhersage und Kapazitätsprognosen laufen kontinuierlich mit Live-Daten. ML-/AI-Modelle nutzen AIS-Daten und Kontextfaktoren (Speed/Route/Distanz, Wetter etc.), um Ankunftszeiten robuster vorherzusagen. Damit wird „Just-in-Time Arrival/Port Call Optimisation“ operativ umsetzbar: Schiffe passen Geschwindigkeit/Ankunft an, wenn der Hafen wirklich bereit ist – weniger Idle Time, effizientere Abläufe.