Haben Sie die Neuigkeiten schon gehört?
EVACO News halten Sie immer auf dem Laufenden
Alles zu neuen BI-Themen, Produkten, Partnern und Events erfahren Sie genau hier.

EVACO ist Qlik „Best Overall Partner of the Year 2024“
Ein starkes Zeichen für Kompetenz, Innovation und Partnerschaft: Wir haben...

Momentary laps of Reason? Not!
Was sind eigentlich Reasoning Modelle? Sprachmodelle wie GPT-4o sind heute...

KI trifft Berichtspflichten
Wie RAG Berichtspflichten revolutioniert Die Anforderungen an Nachhaltigkeitsberichte steigen –...

What´s New: Qlik Connect 2025
KI-Strategie, Agentic AI und technologische Innovationen im Überblick Vom 13.–15....

Qlik Sense Release Update: das ist neu
Verbesserte Datenintegration mit nativer JSON-Unterstützung Qlik Sense kann jetzt JSON-Dateien...

R/Python-Integration in Qlik Sense
Qlik Sense trifft auf R und Python: Erweiterte Analysepotenziale für...

Low-Code für Nachhaltigkeit
ESG-Reporting einfach digitalisieren und mit vorhandenen Tools wie Power Platform...

EVACO ist Qlik „Best Overall Partner of the Year 2024“
Ein starkes Zeichen für Kompetenz, Innovation und Partnerschaft:
Wir haben den Vogel abgeschossen und wurden zum besten Partner im DACH Raum gekürt! Die Auszeichnung wurde am 02. Juli 2025 in Anwesenheit aller relevanten Qlik-Partner aus Deutschland, Österreich und der Schweiz auf dem Qlik Regional Partner Summit DACH verliehen und steht für das, was EVACO ausmacht: fundiertes Know-how, kundennahe Beratung und ein echter Innovationsdrang.
Pionierarbeit in Data Analytics – von Anfang an
Als Qlik Partner der ersten Stunde in Deutschland ist EVACO seit vielen Jahren ein zentraler Treiber für Business Intelligence und Data Analytics. Das Unternehmen begleitet seine Kunden von der strategischen Beratung bis zur technischen Umsetzung – immer mit dem Ziel, Daten in greifbare Entscheidungen zu übersetzen. Die engen Bande zu Qlik unterstreicht der Status Partner Ambassador unseres Head of Consulting Simon Schellartz.
Mit einem interdisziplinären Team aus erfahrenen Qlik-Entwicklern, KI-Experten und Data Engineers bringt EVACO seit Jahren wegweisende Analytics-Projekte auf den Weg – von Self-Service BI über Advanced Analytics bis hin zu automatisierten Vorhersagen mit Qlik AutoML.
Fokus auf KI, Cloud und Data Literacy
Besonders im Fokus stehen seit 2024 die Themen Künstliche Intelligenz, Predictive Analytics und Cloud Analytics. In zahlreichen Projekten mit Kunden unterschiedlichster Branchen haben wir KI-basierte Modelle wie Forecasting, Anomalie-Erkennung oder RAG-gestützte Berichtsgenerierung nahtlos in bestehende Qlik-Umgebungen integriert. Unsere Kunden honorieren, dass wir Data Literacy fördern, Mitarbeitende befähigen und Lösungen so gestalten, dass sie nachhaltig wirken.
Auszeichnung mit Signalwirkung
Die Verleihung des Titels „Overall Best Partner of the Year“ ist ein deutliches Zeichen für die Qualität der Zusammenarbeit zwischen EVACO und Qlik und die hohe Zufriedenheit auf Kundenseite. Für die Auszeichnung und das damit verbundene Vertrauen bedanken wir uns herzlich bei allen Kunden, Partnern und Mitarbeitenden, die diesen Erfolg möglich gemacht haben.
Wenn Du mehr über unsere Qlik-Kompetenz oder aktuelle KI-Projekte erfahren möchtest, nimm Kontakt mit uns auf – oder besuche uns im Rahmen des datatalk congress am 16. & 17. September, wo wir u. a. zu Qlik AutoML, RAG & KI in der Praxis sprechen.

Momentary laps of Reason? Not!
Was sind eigentlich Reasoning Modelle?
Sprachmodelle wie GPT-4o sind heute in vielen Unternehmen angekommen. Sie schreiben E-Mails, fassen Meetings zusammen oder helfen beim Programmieren. Doch was passiert, wenn es nicht nur um Sprachverständnis oder die nächste Textvervollständigung geht, sondern um echtes Problemlösen – um das, was man klassisch unter Denken oder Schlussfolgern versteht?
Genau hier beginnt der Unterschied zwischen klassischen Sprachmodellen und sogenannten Reasoning-Modellen.
Sprachmodelle wie GPT-4o – stark in Sprache, begrenzt im „Denken“
Modelle wie GPT-4o basieren im Kern auf einer simplen, aber mächtigen Idee: Sie sagen Wort für Wort vorher, was statistisch wahrscheinlich als nächstes kommt – sogenanntes Next Token Prediction. Das funktioniert gut für viele Aufgaben – solange die Aufgaben nicht zu komplex sind oder sich die Lösung direkt aus dem Kontext ergibt.
Doch sobald es mehrstufige Überlegungen braucht, etwa in der Datenanalyse, bei der Planung oder bei technischen Entscheidungen, geraten diese Modelle an Grenzen. Sie „denken“ nicht im eigentlichen Sinn, sondern vervollständigen Muster. Und das kann leicht zu oberflächlichen oder fehlerhaften Antworten führen.
Der Zwischenschritt: Chain-of-Thought
Um Sprachmodelle dennoch zu mehr Tiefe zu bringen, entwickelte man ein einfaches, aber wirksames Prinzip: Chain-of-Thought (CoT). Statt direkt eine Antwort zu geben, wird das Modell im Prompt dazu aufgefordert, seine Gedankengänge Schritt für Schritt zu formulieren. Das wirkt wie ein externes Notizbuch, in dem das Modell Zwischenüberlegungen sichtbar macht – vergleichbar mit einem Schüler, der nicht nur das Ergebnis hinschreibt, sondern auch den Rechenweg.
CoT ist allerdings kein Teil der Architektur des Modells – es ist eine clevere Prompting-Technik. Und genau hier setzen Reasoning-Modelle an.
Der nächste Schritt: Reasoning-Modelle wie GPT-o1 oder o3
Mit Modellen wie GPT-o1 oder dem aktuellen GPT-o3 geht OpenAI einen Schritt weiter. Diese Modelle wurden gezielt auf reasoning tasks trainiert – also auf Aufgaben, die logisches Denken, schrittweises Ableiten und strategische Planung erfordern. Der technische Unterschied liegt in mehreren Aspekten:
- Trainingsdaten und Aufgabenstruktur: Reasoning-Modelle bekommen speziell kuratierte Daten, bei denen Denkprozesse im Vordergrund stehen – etwa mathematische Beweise, logische Ketten oder komplexe Planungsszenarien.
- Verstärkendes Lernen (Reinforcement Learning): Statt nur „Was ist das wahrscheinlich nächste Wort?“ zu lernen, werden diese Modelle durch Feedback verstärkt – etwa durch menschliche Bewertungen (Human Feedback) oder durch automatisierte Bewertungen, ob ein Denkweg korrekt ist (reasoning traces).
- Explizites Denken als Teil der Modelllogik: Anders als bei CoT, wo das Denken nur nach außen sichtbar gemacht wird, ist bei Reasoning-Modellen das „Denken in Schritten“ Teil der inneren Verarbeitung.
Das Ergebnis: Reasoning-Modelle sind deutlich besser darin, komplexe Aufgaben zu lösen – sei es in der technischen Analyse, bei strategischen Fragestellungen oder in der Automatisierung mehrstufiger Prozesse.
Was bedeutet das für Dein Unternehmen?
Der Einsatz von Reasoning-Modellen eröffnet völlig neue Möglichkeiten – von KI-Systemen, die komplexe Anfragen durchdringen, bis hin zu Agenten, die ganze Aufgabenketten eigenständig bearbeiten. Doch diese Modelle entfalten ihr Potenzial erst dann richtig, wenn man versteht, wie man sie richtig nutzt – durch geeignetes Prompting, durch Strukturierung von Aufgaben, durch sinnvolle Modellwahl.
Genau das vermitteln wir in unseren ChatGPT Prompting-Trainings: Dort zeigen wir, wie man mit den richtigen Techniken aus einem Sprachmodell ein denkendes Werkzeug macht – ob mit GPT-4o, CoT-Prompting oder mit einem echten Reasoning-Modell wie GPT-o3.

KI trifft Berichtspflichten
Wie RAG Berichtspflichten revolutioniert
Die Anforderungen an Nachhaltigkeitsberichte steigen – nicht nur durch die CSRD und ESRS, sondern auch durch zahlreiche gesetzliche Berichtspflichten wie z.B. die EU-Verordnung zur Entwaldungsfreiheit (EUDR), das ElektroG / EAR oder das Kreislaufwirtschaftsgesetz (KrWG). In der Konsequenz stehen Unternehmen zunehmend unter Druck, komplexe Daten aus unterschiedlichen Quellen konsistent, prüfbar und regelkonform aufzubereiten.
Genau hier kommt Künstliche Intelligenz ins Spiel – genauer gesagt: Retrieval-Augmented Generation (RAG).
RAG – KI-basierte Textgenerierung auf Basis verlässlicher Daten
RAG ist ein innovativer Ansatz der generativen KI, der zwei Technologien kombiniert:
- Retrieval (Abruf): Die KI durchsucht gezielt relevante Dokumente – von Richtlinien über ESG-Kennzahlen bis hin zu regulatorischen Vorgaben.
- Augmented Generation (verstärkte Textgenerierung): Auf Basis der gefundenen Inhalte generiert sie kontextbezogene, faktenbasierte Textbausteine – z. B. für ESG-Berichte, Lieferkettennachweise oder Umwelterklärungen.
Im Gegensatz zu klassischen Sprachmodellen „halluziniert“ RAG keine Inhalte, sondern nutzt ausschließlich unternehmensinterne oder offiziell vorgegebene Quellen. Das Ergebnis: nachvollziehbare, korrekte und KI-gestützte Texte.
Ein KI-System für viele Berichtspflichten
Ob ESG, Kreislaufwirtschaft oder Lieferkettenreporting – RAG kann vielfältig eingesetzt werden:
- CSRD-/ESRS-konforme Nachhaltigkeitsberichte
- Lieferkettengesetz-Reportings
- EUDR-Meldungen zu entwaldungsfreien Lieferketten
- EAR-Berichte im Rahmen des ElektroG
- Umwelterklärungen nach dem KrWG
- Produktverantwortungsnachweise
- Corporate Carbon Footprints / Scope-Emissionen
Durch den dokumentengestützten Ansatz lassen sich unternehmensspezifische Inhalte mit regulatorischen Anforderungen präzise verknüpfen – auch über Landesgrenzen und Sprachräume hinweg.
So funktioniert KI-gestützte Berichtserstellung mit RAG
Die Grundlage bildet ein zentraler ESG-Daten- und Dokumentenpool: Richtlinien, Energie- und HR-Berichte, Lieferantenerklärungen, Nachhaltigkeitsziele, regulatorische Anforderungen. Diese Inhalte werden KI-lesbar gemacht – etwa über Vektordatenbanken oder graphbasierte Strukturen wie GraphRAG.
Dann kommt die eigentliche Stärke von RAG zum Tragen:
Mit gezielten Prompts wie
„Fasse alle Maßnahmen zur Reduktion von Scope-3-Emissionen zusammen“
oder
„Welche Berichtspflichten betreffen unsere Produkte gemäß EAR und KrWG?“
liefert die KI vollständige, konsistente Textvorschläge – optional mit Quellverweisen und in verschiedenen Sprachen.
Die Vorteile im Überblick
- KI-basiert und faktengetrieben: Inhalte stammen aus realen Daten, keine Halluzinationen
- Transparent & nachvollziehbar: Quellenangaben möglich
- Effizient & skalierbar: Ideal für Unternehmensgruppen oder internationale Reportings
- Rechtskonform: Inhalte lassen sich entlang gesetzlicher Vorgaben strukturieren
- Mehrsprachig: Automatische Textgenerierung in DE, EN und weiteren Sprachen
Integration in bestehende ESG-Tools
RAG kann nahtlos an bestehende Plattformen wie Power Platform, Qlik, Nachhaltigkeitsdatenbanken oder Lieferantenportale angebunden werden. So fließen strukturierte ESG-Kennzahlen, gesetzliche Vorgaben und Richtliniendokumente direkt in die KI-gestützte Berichtserstellung ein – automatisiert und prüfbar.
Neugierig geworden?
Erlebe live, wie KI – und speziell RAG – die ESG- und Nachhaltigkeitsberichterstattung auf ein neues Level hebt: Beim #datatalk congress am 16. & 17. September zeigen wir in einem Praxisvortrag konkrete Use Cases, Technologie-Insights und Lessons Learned aus realen KI-Projekten.
#datatalk congress 2025 – Daten. Austausch. Inspiration.

What´s New: Qlik Connect 2025
KI-Strategie, Agentic AI und technologische Innovationen im Überblick
Vom 13.–15. Mai 2025 präsentierte Qlik auf seinem globalen Kunden- und Partnerevent zentrale Entwicklungen rund um KI, Agentic AI und die Weiterentwicklung seiner Plattform. Im Fokus: die strategische Ausrichtung hin zu einer durchgängigen, intelligenten End-to-End-Plattform für datengetriebene Entscheidungen.
Agentic AI: Qliks neue Plattform-Vision
Qlik verfolgt das Ziel, den „AI Activation Gap“ zu schließen – also die Lücke zwischen KI-Potenzial und echtem Business Impact. Mit der Vision einer Agentic-AI-Plattform sollen autonome KI-Agenten nicht nur Daten analysieren, sondern direkt Handlungen auslösen. Im Mittelpunkt stehen neue Funktionen wie Qlik Answers für natürliche Spracheingabe, ein Discovery Agent für proaktive Insights und ein Pipeline Agent, der aus Business-Zielen automatisiert Datenprozesse ableitet. Die Plattform basiert auf nahtlos integrierter Datenqualität, Analytics und Automation – inkl. offener Technologien wie Apache Iceberg und Partnern wie AWS.
Produkte & Qualifizierung: Mehr KI-Power für Fachanwender
Neu vorgestellt wurde die Zertifizierung Qlik AI Specialist, die praxisrelevante Skills in Predictive und generativer KI bescheinigt. Produktseitig rücken Qlik Answers, Qlik Predict (vormals AutoML) und Qlik Automate (vormals Application Automation) stärker in den Vordergrund. Gemeinsam ermöglichen sie die Umsetzung komplexer Agentic-Szenarien – von Prognosen über Workflow-Automatisierung bis hin zu Echtzeitanalysen auf unstrukturierten Datenquellen. In den Keynotes wurde u. a. demonstriert, wie diese Tools z. B. bei Volkswagen automatisierte Dokumentationen und Prozessoptimierungen ermöglichen.
Qlik Open Lakehouse: Iceberg-basiertes Datenfundament für KI- und Echtzeitszenarien
Ein Highlight der Qlik Connect 2025 war die Vorstellung des Qlik Open Lakehouse – ein vollständig verwaltetes Lakehouse-Angebot auf Basis von Apache Iceberg, direkt integriert in Qlik Talend Cloud. Ziel ist es, KI- und Analytics-Workloads im Petabyte-Bereich zu unterstützen – mit Echtzeit-Datenaufnahme, leistungsstarken Abfragen und automatisierter Optimierung.
Qlik kombiniert Icebergs Vorteile (Schema-Evolution, ACID, Engine-Unabhängigkeit) mit einer intelligenten Orchestrierung: Ein Adaptive Optimizer sorgt für automatische Kompaktierung und Partitionierung, interne Tests zeigen bis zu 5× schnellere Abfragen bei 50 % geringeren Kosten.
Besonders stark ist das Zusammenspiel mit Qliks Integrations-Stack (Talend, Attunity, Upsolver). In Live-Demos wurde ein kompletter Datenfluss gezeigt – von Streaming ETL mit Upsolver über automatisierte Layer-Strukturen (Bronze/Silver/Gold) bis zur laufenden Iceberg-Optimierung. Der Ansatz: Zero-ETL für maximale Geschwindigkeit bei maximaler Flexibilität.
Dank Iceberg bleiben Daten offen und portabel – nutzbar auch mit Engines wie Snowflake, Trino, Spark oder SageMaker. Zusätzlich unterstützt Qlik Mirror-Integrationen, etwa zu Databricks oder Snowflake, um bestehende Data-Plattformen nahtlos einzubinden – ohne doppelte Pipelines.
Das Open Lakehouse ist derzeit in der Private Preview, der GA-Launch ist für Juli 2025 geplant. Qlik sieht darin einen „Major Step“ für moderne, KI-fähige Analytics-Infrastrukturen – offen, integriert und cloud-nativ orchestriert innerhalb der Qlik Cloud.
Datenqualität, Metadatenmanagement und Data Governance
Ein zentraler Themenblock auf der Qlik Connect 2025 war der Aufbau KI-tauglicher Daten durch hohe Datenqualität und stringente Governance. Seit der Übernahme von Talend im Jahr 2023 hat Qlik in diesem Bereich massiv an Kompetenz gewonnen – sichtbar etwa in der Qlik Talend Cloud, die sich auf der Konferenz als einheitliche Plattform für Datenintegration und -qualität präsentierte.
Die Qlik Talend Cloud vereint Funktionen für Echtzeit-Datenaufnahme, Transformation und Metadatenmanagement mit umfassenden Werkzeugen zur Sicherstellung von Datenqualität und Compliance. In der Session „Data Quality for AI: Making Enterprise Data AI-Ready with Qlik Talend“ wurde demonstriert, wie Unternehmen mithilfe metadatengesteuerter Kataloge, automatisierter Datenprofilierung und Datenbereinigung die Konsistenz und Vertrauenswürdigkeit ihrer Daten steigern können. Ein sauberer, versionierter Data Catalog erleichtert es, relevante Datenquellen zu finden und gezielt für KI-Anwendungen zu bewerten – ein entscheidender Schritt, um Datensilos zu verhindern und AI-Modelle auf verlässlicher Basis zu trainieren.
Ein besonderer Fokus lag auf dem Governance-Aspekt: Qlik betonte, dass ohne konsistente Stammdaten, klar definierte Begriffe und laufendes Monitoring viele KI-Initiativen ins Leere laufen können – sei es durch Verzerrungseffekte (Bias) oder durch fehlerhafte Eingabedaten. Um dem entgegenzuwirken, führt Qlik Cloud 2025 neue Governance-Features ein: Datenprodukte – etwa im QVD-Format (Qliks In-Memory-Datenformat) – lassen sich nun als „First-Class Data Products“ behandeln. Sie können mit Metadaten versehen, in Kataloge aufgenommen und über SLAs und Qualitätsmetriken verwaltet werden. Datenverantwortliche erhalten damit Werkzeuge, um Daten im Sinne des „Data as a Product“-Prinzips kontrolliert bereitzustellen – inklusive Versionierung, Eigentumsdefinition und Qualitätskontrolle.
Auch der Umgang mit unstrukturiertem Wissen wurde im KI-Kontext adressiert: Unter dem Begriff „Retrieval-Augmented Generation (RAG) Knowledge Marts“ baut Qlik strukturierte Wissensdatenbanken auf, die etwa Dokumentationen, PDFs oder Wikis enthalten. Diese werden genutzt, um KI-Anfragen – etwa durch Qlik Answers – nicht nur mit strukturierten Daten, sondern auch mit kuratiertem Textwissen zu beantworten. RAG sorgt für Nachvollziehbarkeit, da alle Informationen aus versionierten, freigegebenen Quellen stammen – ein zentrales Governance-Element, um Halluzinationen zu vermeiden und das Vertrauen in KI-Auskünfte zu sichern.
DevOps, Write-Back & AnalyticsOps
Qlik Connect 2025 stellte zudem neue Tools für Datenprofis vor, die moderne Entwicklungsprozesse unterstützen: So führte Qlik DevOps-fähige Pipeline-Tools ein – inklusive Versionskontrolle und Deployment-APIs. Damit lassen sich Analytics-Pipelines und Apps effizient in Entwicklungs-, Test- und Produktivumgebungen überführen, was AnalyticsOps und CI/CD-Prozesse massiv erleichtert.
Ein weiterer Meilenstein ist die Write-Back-Funktionalität: Mit „Write Tables“ können Anwender direkt aus dem Dashboard heraus Daten zurück in Tabellen schreiben – etwa Planwerte, Kommentare oder Korrekturen. In einer Live-Demo zeigte ein Analyst, wie er während der Analyse neue Werte eingeben konnte, die sofort in den zugrunde liegenden Datenbestand übernommen wurden. Qlik öffnet sich damit für kollaborative Planungsszenarien, in denen Analyse und Eingriff nahtlos zusammenwirken.

Qlik Sense Release Update: das ist neu
Verbesserte Datenintegration mit nativer JSON-Unterstützung
Qlik Sense kann jetzt JSON-Dateien direkt laden und verarbeiten – ganz ohne REST-Connector. Damit wird der Umgang mit komplexen, strukturell variierenden JSON-Daten deutlich vereinfacht, z. B. bei IoT- oder Web-Anwendungen. Highlights:
- Direkter Import von .json-Dateien´
- Unterstützung für Wildcard- und Mehrfachdateiladen
- Dynamisches Datenmodell über alle Dateien hinweg
- Auswahl bestimmter Felder aus JSON-Arrays
- Verbesserte Ladeoberfläche mit Assistent
- Unterstützung großer Dateien & Integration in das Qlik Cloud-Katalogprofiling
Reguläre Ausdrücke (Regex) direkt nutzbar
Ab sofort lassen sich Regex direkt in Lade-Skripten und Diagramm-Ausdrücken verwenden – ideal für Textanalysen, Formatvalidierungen oder standardisierte Transformationen.
Verbesserte Auswahlwerkzeuge & Berechnete Dimensionen
Das Auswahl-Tool unterstützt nun auch berechnete Dimensionen und ermöglicht so noch flexiblere Interaktionen mit Daten.
Verbesserungen bei Window-Funktionen
Fehler bei Sortierung, Gruppierung und Fensterausdrücken wurden behoben, was für mehr Konsistenz und Genauigkeit sorgt.
Neues Ladeerlebnis mit Live-Fortschrittsanzeige
Apps zeigen jetzt in Echtzeit den Ladefortschritt beim Öffnen – besonders nützlich bei großen Applikationen. (Optional aktivierbar)
PostgreSQL-Sicherheitsupdate
Die eingebettete PostgreSQL-Datenbank wird automatisch auf Version 14.17 aktualisiert. Voraussetzung: Vorherige Version ≥14.8. Systeme mit Version <14.x müssen manuell aktualisiert werden.
Visualisierung & Dashboard-Neuerungen
Eigene Logos & neue Medienbibliothek
Apps können nun mit individuellen Logos versehen werden. Die Medienbibliothek wurde modernisiert.
Bearbeitungsmodus & Layout-Verbesserungen
Neues Look & Feel für Asset Panel, Layout Container (jetzt mit Tooltip-Support), Scatter-Plot (Umrandungsfarbe, Regressionslinien), Navigationsmenü & Toolbar-Anpassungen (Sheets, Bookmarks, Shortcuts).
Neue Visualisierungen und Chart-Optionen
- Butterfly Chart (Tornado-Diagramm)
- Linien-Diagramm: Manuelles Hinzufügen von Punkten/Linien
- Text-Objekt: Bis zu 100 Kennzahlen, bessere Formatierung
- Straight Table: Mini-Charts, Zebra-Streifen, bedingte Indikatoren, verbesserte Darstellung von Nullwerten
- Pivot Table: Bereichsauswahl, kompaktes Layout, neue Ein-/Ausklappfunktionen, RTL-Unterstützung
Sonstige Neuerungen
- Benutzerdefinierbare Rechtsklickmenüs
- Neue Variablenoptionen für Bookmarks/Reports
- Neuer Detailbereich mit App-Metadaten und Schnellaktionen
- App-Details jetzt als Overlay für bessere Responsivität
Veraltete Objekte werden entfernt
Die Multi KPI-Visualisierung sowie weitere ältere Diagramme (u.a. alte Heatmap, Bullet Chart, Container) werden bis Mai 2026 vollständig aus Qlik entfernt. Ersatzlösungen sind bereits verfügbar.

R/Python-Integration in Qlik Sense
Qlik Sense trifft auf R und Python: Erweiterte Analysepotenziale für die Datenlandschaft
Mit der zunehmenden Komplexität moderner Datenanalysen wächst auch der Bedarf an flexiblen und leistungsstarken Werkzeugen. Qlik Sense – sowohl in der Enterprise-Variante als auch in der Qlik Cloud – bietet seit einigen Jahren die Möglichkeit, externe Programmiersprachen wie beispielsweise R und Python nahtlos in bestehende BI-Prozesse zu integrieren. Das Resultat: erweiterte statistische Analysen, prädiktive Modelle und automatisierte Entscheidungsunterstützung direkt innerhalb der gewohnten Qlik Umgebung.
Warum R und Python in Qlik nutzen?
R und Python zählen zu den beliebtesten Sprachen für Datenanalyse, Statistik und maschinelles Lernen. Die Kombination mit Qlik Sense eröffnet neue Möglichkeiten:
- Prädiktive Analysen: Nutze maschinelles Lernen, um zukünftige Entwicklungen vorherzusagen, z. B. Kundenabwanderung oder Umsatzprognosen.
- Anomalieerkennung: Identifiziere ungewöhnliche Muster oder Ausreißer in den Daten, um potenzielle Probleme frühzeitig zu erkennen.
- Segmentierung: Teile eure Kundenbasis oder Produkte in sinnvolle Gruppen auf, um gezielte Strategien zu entwickeln.
- Optimierung: Finde optimale Lösungen für komplexe Geschäftsprobleme, wie z. B. Preisgestaltung oder Ressourcenzuweisung.
Technische Umsetzung
Die Integration erfolgt über sogenannte Server-Side Extensions (SSE) oder Analytics Connections:
- In Qlik Sense Enterprise on Windows kann man über eine SSE-Verbindung (z. B. mit Open-Source-Lösungen wie qlik-py-tools) Python- oder R-Skripte im Backend ausführen.
- In der Qlik Cloud existiert die Funktion „Advanced Analytics Integration“. Hier lassen sich Python- oder R-Endpunkte über REST-APIs einbinden und aus Qlik Skripten oder direkt aus Diagrammen heraus ansteuern.
Unser Service
Wir übernehmen für euch die vollständige Einrichtung der R- und Python-Integration in eurer Qlik Umgebung – von der ersten Konfiguration bis hin zur sicheren Produktivsetzung. Auf Wunsch hosten wir die gesamte Lösung in unserer Infrastruktur oder unterstützen euch beim Aufbau einer eigenen Umgebung. So erhaltet ihr eine betriebsfertige Lösung ohne internen Aufwand.
Qlik Predict – die Alternative ohne Code
Im Gegensatz zur R-/Python-Integration, bei der individuell programmierte Modelle zum Einsatz kommen, verfolgt Qlik Predict (vormals AutoML) einen vollständigen No-Code-Ansatz: Modelle für Klassifikation und Regression lassen sich direkt in der Qlik Cloud erstellen, trainieren, bewerten und bereitstellen – ganz ohne Programmierkenntnisse. SHAP-Werte und Feature-Impacts sind ebenso verfügbar wie automatische Cross-Validation und Performance-Vergleiche. Damit eignet sich Qlik Predict besonders für Fachanwender, die schnelle, nachvollziehbare Prognosen in Qlik erzeugen möchten, ohne sich mit Code oder externen Servern beschäftigen zu müssen.
Nicht verpassen: Aktuelle Qlik Kampagne
Bis Ende des Jahres bietet Qlik eine attraktive Möglichkeit für bestehende Qlik Sense Kunden: Ihr könnt die Qlik Cloud inklusive Qlik Predict kostenlos testen. Sprecht uns gerne an – wir unterstützen euch bei der Aktivierung und den ersten Schritten.
Long story short
Die Integration von R und Python in Qlik Sense erweitert das Analysepotenzial erheblich. Sie ermöglicht den Brückenschlag zwischen klassischer Business Intelligence und moderner Data Science ohne Medienbruch, direkt im Analyse-Frontend. So bringt ihr eure Analysen von der Beschreibung zur echten Vorhersage.
Möchtet ihr die Integration in eurem Unternehmen evaluieren oder in einem konkreten Projekt anwenden? Dann sprecht uns gerne an – wir unterstützen euch bei Planung, Implementierung, Hosting und Schulung.

Low-Code für Nachhaltigkeit
ESG-Reporting einfach digitalisieren und mit vorhandenen Tools wie Power Platform & Qlik effizient umsetzen
Mit der wachsenden Bedeutung von ESG stehen viele Unternehmen vor der Herausforderung, Nachhaltigkeitskennzahlen strukturiert zu erfassen, auszuwerten und zu berichten. Gleichzeitig fehlen oft IT-Ressourcen und Budget – gerade im Mittelstand.
Die gute Nachricht: Viele Firmen verfügen bereits über leistungsstarke Werkzeuge – sie werden nur (noch) nicht für ESG genutzt. Microsoft Power Platform und Qlik sind in vielen Unternehmen im Einsatz und bieten eine kosteneffiziente Möglichkeit, ESG-Prozesse pragmatisch und skalierbar zu digitalisieren.
Vorhandenen Tools statt neuer Großprojekte
Viele Unternehmen nutzen Microsoft 365 oder Qlik – Tools, die sich mit wenig Aufwand zu leistungsfähigen ESG-Lösungen erweitern lassen. In Verbindung mit Lösungen wie K4 Analytics oder Fiplana (Qlik) oder Power Apps und Power Automate (Microsoft) lassen sich Datenerfassungen, Genehmigungsprozesse oder Monitoring-Workflows einfach realisieren. Die Kombination mit Qlik Sense ermöglicht sofortige Analysen und Berichte auf Basis dieser Daten – vollständig integriert in die bestehende Systemlandschaft.
Vorteil: man nutzt, was schon da ist – und bleibt flexibel in einer Phase, in der Berichtspflichten wie VSME oder CSRD noch in Bewegung und weitere Reportingauflagen wie EUDR bereits beschlossene Sache sind.
Integration ist der Knackpunkt
So vielseitig Low-Code-Plattformen auch sind – die wahre Komplexität beginnt, wenn unterschiedliche Datenquellen zusammengeführt werden müssen:
- Unterschiedliche Formate (Excel, SharePoint, SQL, Web-Formulare etc.)
- Abweichende Maßeinheiten und Bezugsgrößen
- Unterschiedliche Perioden (monatlich, jährlich, projektbezogen)
- Fehlende oder nicht einheitliche Zuordnung zu ESG-relevanten Kennzahlen
Dafür hat EVACO das ESG Hub entwickelt.
Ordnung im ESG-Datenchaos
Das ESG Hub ist ein flexibles, modular aufgebautes Framework, das:
- Daten aus verschiedenen Systemen und Tools integriert (Qlik, Power Platform, Excel, ERP-Systeme etc.)
- Formate, Maßeinheiten und Zeiträume harmonisiert
- und die Inhalte den jeweils relevanten ESG-Standards zuordnet (CSRD, ESRS, VSME u. )
Das Ergebnis: Automatisch erzeugte, standardisierte ESG-Kennzahlen, die sich direkt in Dashboards oder Berichtstemplates überführen lassen – transparent, nachvollziehbar und prüfsicher.
Prototypische Anwendungsfälle sind beispielsweise:
Mobilität
- CO₂-Erfassung von Dienstreisen (Bahn, Flug, Auto)
- Anbindung an Reiseportale und Reisekostenabrechnung
- Visualisierung von Emissionen nach Projekt, Abteilung oder Person
- Übersicht zu Flottenverbrauch, CO₂-Emissionen und Wartungskosten
Energie & Ressourcenmonitoring
- Digitale Erfassung von Strom-, Gas- und Wasserverbräuchen
- Zentrale Analyse für Gebäude, Maschinen oder Zeiträume
- Alerts bei Überschreitung definierter Schwellenwerte
HR & Soziale Nachhaltigkeit
- Erfassung von Schulungen, Diversitätsmaßnahmen und Feedback
- Auswertung nach Standort, Team oder Maßnahme
- Dokumentation interner Governance-Richtlinien
Low Code + BI = ESG smart umsetzen
In einer Zeit, in der ESG-Berichterstattung komplexer und verbindlicher wird, ist eine skalierbare, flexible und wirtschaftliche Lösung gefragt: basierend auf vorhandener Infrastruktur, ohne zusätzliche Software-Investitionen, die sich womöglich bald überholen. Durch Nutzung bestehender Tools und die intelligente Integration in einem ESG Hub entsteht ein zentrales Reporting ohne Medienbrüche oder Datensilos.
Jetzt informieren – wir zeigen Dir die Potenziale Deiner bestehenden Systeme.

EVACO spendet Laptops an Duisburger Förderschule
Hilfe für digitale Teilhabe
Duisburg, 2025 – Sechs generalüberholte Laptops, voll funktionsfähig und mit allem ausgestattet, was Schüler für den digitalen Unterricht brauchen: eingerichtet, gespendet und von EVACO an die Förderschule Duisburg Nord übergeben. Ein kleiner Beitrag mit hoffentlich großer Wirkung. Denn: „Wir wollen den Zugang zu Wissen erleichtern – ganz konkret, ganz praktisch“, so Geschäftsführer Alexander Willinek.
Bildung ist Teil der EVACO-DNA
Dass sich EVACO im Bildungsbereich engagiert, ist kein Zufall. Das Unternehmen wurde 2002 von Studenten der damaligen Gerhard-Mercator-Universität Duisburg gegründet – mit einer klaren Vision: Daten in Wissen zu verwandeln. Und das nicht nur für Unternehmen, sondern auch für Menschen, die am Anfang ihrer (Bildungs-)Reise stehen.
Dieses Engagement zieht sich quer durch das Bildungsspektrum. Neben Hochschul-Kooperationen mit der Universität Duisburg-Essen, der Hochschule Rhein-Waal oder der TU Dortmund hat EVACO 3 Jahre die Teilnahme des Reinhard-und-Max-Mannesmann Gymnasiums an der World Robot Olympiad (WRO) unterstützt. Aktuell ist EVACO Teil der Bildungsinitiative #I_make_AI, die das Ziel hat, Schüler für Berufe im KI-Umfeld zu begeistern und Datenkompetenz (Data Literacy) in praxisnahen Projekten erlebbar zu machen. Die Unterstützung einer Förderschule ist die konsequente Fortsetzung des EVACO Engagements.
Verantwortung übernehmen. wo man verwurzelt ist
Gerade in Duisburg, wo das Unternehmen seit mehr als 20 Jahren seinen Hauptsitz hat, ist EVACO die Nähe zu lokalen Bildungseinrichtungen wichtig. „Wir haben hier in der Region Chancen bekommen und wollen etwas zurückgeben“, betont Willinek. „Es geht nicht darum, große PR-Projekte zu starten. Sondern darum, jungen Menschen Perspektiven zu eröffnen.“
Data Literacy wörtlich genommen
Die gespendeten Laptops sollen Schülern ermöglichen, digitale Lernangebote zu nutzen, Bewerbungen zu schreiben oder einfach mal ein Projekt zu recherchieren. „Das mag selbstverständlich wirken – ist es aber längst nicht überall“, so Willinek.
Es geht um Teilhabe
Ob durch Technologie, Beratung oder soziales Engagement: EVACO bleibt seiner Gründungsidee treu. Denn Bildung ist mehr als ein Buzzword – sie ist die Voraussetzung für eine gerechtere und chancenreichere Zukunft.
EVACO – wir verwandeln Daten in Wissen.
IMMER UP
TO DATE
MIT UNSEREM
NEWSLETTER
Abonnieren Sie unsere Newsletter
In unserem EVACOletter geben wir regelmäßig einen Überblick zu aktuellen News & Events, unseren Webinaren oder unserem Trainingsangebot. Wir berichten über Messen und auch Partneraktivitäten, um Ihnen so die Möglichkeit zu bieten, sich über unser vielfältiges Angebot zu informieren. Sie möchten von uns auf dem Laufenden gehalten werden?