Back to top

EVACO ist Qlik „Best Overall Partner of the Year 2024“

Ein starkes Zeichen für Kompetenz, Innovation und Partnerschaft:
Wir haben den Vogel abgeschossen und wurden zum besten Partner im DACH Raum gekürt! Die Auszeichnung wurde am 02. Juli 2025 in Anwesenheit aller relevanten Qlik-Partner aus Deutschland, Österreich und der Schweiz auf dem Qlik Regional Partner Summit DACH verliehen und steht für das, was EVACO ausmacht: fundiertes Know-how, kundennahe Beratung und ein echter Innovationsdrang.

Pionierarbeit in Data Analytics – von Anfang an

Als Qlik Partner der ersten Stunde in Deutschland ist EVACO seit vielen Jahren ein zentraler Treiber für Business Intelligence und Data Analytics. Das Unternehmen begleitet seine Kunden von der strategischen Beratung bis zur technischen Umsetzung – immer mit dem Ziel, Daten in greifbare Entscheidungen zu übersetzen. Die engen Bande zu Qlik unterstreicht der Status Partner Ambassador unseres Head of Consulting Simon Schellartz.

Mit einem interdisziplinären Team aus erfahrenen Qlik-Entwicklern, KI-Experten und Data Engineers bringt EVACO seit Jahren wegweisende Analytics-Projekte auf den Weg – von Self-Service BI über Advanced Analytics bis hin zu automatisierten Vorhersagen mit Qlik AutoML.

Fokus auf KI, Cloud und Data Literacy

Besonders im Fokus stehen seit 2024 die Themen Künstliche Intelligenz, Predictive Analytics und Cloud Analytics. In zahlreichen Projekten mit Kunden unterschiedlichster Branchen haben wir KI-basierte Modelle wie Forecasting, Anomalie-Erkennung oder RAG-gestützte Berichtsgenerierung nahtlos in bestehende Qlik-Umgebungen integriert. Unsere Kunden honorieren, dass wir Data Literacy fördern, Mitarbeitende befähigen und Lösungen so gestalten, dass sie nachhaltig wirken.

Auszeichnung mit Signalwirkung

Die Verleihung des Titels „Overall Best Partner of the Year“ ist ein deutliches Zeichen für die Qualität der Zusammenarbeit zwischen EVACO und Qlik und die hohe Zufriedenheit auf Kundenseite. Für die Auszeichnung und das damit verbundene Vertrauen bedanken wir uns herzlich bei allen Kunden, Partnern und Mitarbeitenden, die diesen Erfolg möglich gemacht haben.

Wenn Du mehr über unsere Qlik-Kompetenz oder aktuelle KI-Projekte erfahren möchtest, nimm Kontakt mit uns auf – oder besuche uns im Rahmen des datatalk congress am 16. & 17. September, wo wir u. a. zu Qlik AutoML, RAG & KI in der Praxis sprechen.

 

Momentary laps of Reason? Not!

Was sind eigentlich Reasoning Modelle? 

Sprachmodelle wie GPT-4o sind heute in vielen Unternehmen angekommen. Sie schreiben E-Mails, fassen Meetings zusammen oder helfen beim Programmieren. Doch was passiert, wenn es nicht nur um Sprachverständnis oder die nächste Textvervollständigung geht, sondern um echtes Problemlösen – um das, was man klassisch unter Denken oder Schlussfolgern versteht? 

Genau hier beginnt der Unterschied zwischen klassischen Sprachmodellen und sogenannten Reasoning-Modellen. 

Sprachmodelle wie GPT-4o – stark in Sprache, begrenzt im „Denken“ 

Modelle wie GPT-4o basieren im Kern auf einer simplen, aber mächtigen Idee: Sie sagen Wort für Wort vorher, was statistisch wahrscheinlich als nächstes kommt – sogenanntes Next Token Prediction. Das funktioniert gut für viele Aufgaben – solange die Aufgaben nicht zu komplex sind oder sich die Lösung direkt aus dem Kontext ergibt. 

Doch sobald es mehrstufige Überlegungen braucht, etwa in der Datenanalyse, bei der Planung oder bei technischen Entscheidungen, geraten diese Modelle an Grenzen. Sie „denken“ nicht im eigentlichen Sinn, sondern vervollständigen Muster. Und das kann leicht zu oberflächlichen oder fehlerhaften Antworten führen. 

Der Zwischenschritt: Chain-of-Thought 

Um Sprachmodelle dennoch zu mehr Tiefe zu bringen, entwickelte man ein einfaches, aber wirksames Prinzip: Chain-of-Thought (CoT). Statt direkt eine Antwort zu geben, wird das Modell im Prompt dazu aufgefordert, seine Gedankengänge Schritt für Schritt zu formulieren. Das wirkt wie ein externes Notizbuch, in dem das Modell Zwischenüberlegungen sichtbar macht – vergleichbar mit einem Schüler, der nicht nur das Ergebnis hinschreibt, sondern auch den Rechenweg. 

CoT ist allerdings kein Teil der Architektur des Modells – es ist eine clevere Prompting-Technik. Und genau hier setzen Reasoning-Modelle an. 

Der nächste Schritt: Reasoning-Modelle wie GPT-o1 oder o3 

Mit Modellen wie GPT-o1 oder dem aktuellen GPT-o3 geht OpenAI einen Schritt weiter. Diese Modelle wurden gezielt auf reasoning tasks trainiert – also auf Aufgaben, die logisches Denken, schrittweises Ableiten und strategische Planung erfordern. Der technische Unterschied liegt in mehreren Aspekten: 

  • Trainingsdaten und Aufgabenstruktur: Reasoning-Modelle bekommen speziell kuratierte Daten, bei denen Denkprozesse im Vordergrund stehen – etwa mathematische Beweise, logische Ketten oder komplexe Planungsszenarien. 
  • Verstärkendes Lernen (Reinforcement Learning): Statt nur „Was ist das wahrscheinlich nächste Wort?“ zu lernen, werden diese Modelle durch Feedback verstärkt – etwa durch menschliche Bewertungen (Human Feedback) oder durch automatisierte Bewertungen, ob ein Denkweg korrekt ist (reasoning traces). 
  • Explizites Denken als Teil der Modelllogik: Anders als bei CoT, wo das Denken nur nach außen sichtbar gemacht wird, ist bei Reasoning-Modellen das „Denken in Schritten“ Teil der inneren Verarbeitung.  

Das Ergebnis: Reasoning-Modelle sind deutlich besser darin, komplexe Aufgaben zu lösen – sei es in der technischen Analyse, bei strategischen Fragestellungen oder in der Automatisierung mehrstufiger Prozesse. 

Was bedeutet das für Dein Unternehmen? 

Der Einsatz von Reasoning-Modellen eröffnet völlig neue Möglichkeiten – von KI-Systemen, die komplexe Anfragen durchdringen, bis hin zu Agenten, die ganze Aufgabenketten eigenständig bearbeiten. Doch diese Modelle entfalten ihr Potenzial erst dann richtig, wenn man versteht, wie man sie richtig nutzt – durch geeignetes Prompting, durch Strukturierung von Aufgaben, durch sinnvolle Modellwahl. 

Genau das vermitteln wir in unseren ChatGPT Prompting-Trainings: Dort zeigen wir, wie man mit den richtigen Techniken aus einem Sprachmodell ein denkendes Werkzeug macht – ob mit GPT-4o, CoT-Prompting oder mit einem echten Reasoning-Modell wie GPT-o3. 

KI trifft Berichtspflichten

Wie RAG Berichtspflichten revolutioniert

Die Anforderungen an Nachhaltigkeitsberichte steigen – nicht nur durch die CSRD und ESRS, sondern auch durch zahlreiche gesetzliche Berichtspflichten wie z.B. die EU-Verordnung zur Entwaldungsfreiheit (EUDR), das ElektroG / EAR oder das Kreislaufwirtschaftsgesetz (KrWG). In der Konsequenz stehen Unternehmen zunehmend unter Druck, komplexe Daten aus unterschiedlichen Quellen konsistent, prüfbar und regelkonform aufzubereiten.

Genau hier kommt Künstliche Intelligenz ins Spiel – genauer gesagt: Retrieval-Augmented Generation (RAG).

RAG – KI-basierte Textgenerierung auf Basis verlässlicher Daten

RAG ist ein innovativer Ansatz der generativen KI, der zwei Technologien kombiniert:

  1. Retrieval (Abruf): Die KI durchsucht gezielt relevante Dokumente – von Richtlinien über ESG-Kennzahlen bis hin zu regulatorischen Vorgaben.
  2. Augmented Generation (verstärkte Textgenerierung): Auf Basis der gefundenen Inhalte generiert sie kontextbezogene, faktenbasierte Textbausteine – z. B. für ESG-Berichte, Lieferkettennachweise oder Umwelterklärungen.

Im Gegensatz zu klassischen Sprachmodellen „halluziniert“ RAG keine Inhalte, sondern nutzt ausschließlich unternehmensinterne oder offiziell vorgegebene Quellen. Das Ergebnis: nachvollziehbare, korrekte und KI-gestützte Texte.

Ein KI-System für viele Berichtspflichten

Ob ESG, Kreislaufwirtschaft oder Lieferkettenreporting – RAG kann vielfältig eingesetzt werden:

  • CSRD-/ESRS-konforme Nachhaltigkeitsberichte
  • Lieferkettengesetz-Reportings
  • EUDR-Meldungen zu entwaldungsfreien Lieferketten
  • EAR-Berichte im Rahmen des ElektroG
  • Umwelterklärungen nach dem KrWG
  • Produktverantwortungsnachweise
  • Corporate Carbon Footprints / Scope-Emissionen

Durch den dokumentengestützten Ansatz lassen sich unternehmensspezifische Inhalte mit regulatorischen Anforderungen präzise verknüpfen – auch über Landesgrenzen und Sprachräume hinweg.

So funktioniert KI-gestützte Berichtserstellung mit RAG

Die Grundlage bildet ein zentraler ESG-Daten- und Dokumentenpool: Richtlinien, Energie- und HR-Berichte, Lieferantenerklärungen, Nachhaltigkeitsziele, regulatorische Anforderungen. Diese Inhalte werden KI-lesbar gemacht – etwa über Vektordatenbanken oder graphbasierte Strukturen wie GraphRAG.

Dann kommt die eigentliche Stärke von RAG zum Tragen:

Mit gezielten Prompts wie
„Fasse alle Maßnahmen zur Reduktion von Scope-3-Emissionen zusammen“
oder
„Welche Berichtspflichten betreffen unsere Produkte gemäß EAR und KrWG?“
liefert die KI vollständige, konsistente Textvorschläge – optional mit Quellverweisen und in verschiedenen Sprachen.

Die Vorteile im Überblick

  • KI-basiert und faktengetrieben: Inhalte stammen aus realen Daten, keine Halluzinationen
  • Transparent & nachvollziehbar: Quellenangaben möglich
  • Effizient & skalierbar: Ideal für Unternehmensgruppen oder internationale Reportings
  • Rechtskonform: Inhalte lassen sich entlang gesetzlicher Vorgaben strukturieren
  • Mehrsprachig: Automatische Textgenerierung in DE, EN und weiteren Sprachen

Integration in bestehende ESG-Tools

RAG kann nahtlos an bestehende Plattformen wie Power Platform, Qlik, Nachhaltigkeitsdatenbanken oder Lieferantenportale angebunden werden. So fließen strukturierte ESG-Kennzahlen, gesetzliche Vorgaben und Richtliniendokumente direkt in die KI-gestützte Berichtserstellung ein – automatisiert und prüfbar.

Neugierig geworden?

Erlebe live, wie KI – und speziell RAG – die ESG- und Nachhaltigkeitsberichterstattung auf ein neues Level hebt: Beim #datatalk congress am 16. & 17. September zeigen wir in einem Praxisvortrag konkrete Use Cases, Technologie-Insights und Lessons Learned aus realen KI-Projekten.

#datatalk congress 2025 – Daten. Austausch. Inspiration.

What´s New: Qlik Connect 2025

KI-Strategie, Agentic AI und technologische Innovationen im Überblick

Vom 13.–15. Mai 2025 präsentierte Qlik auf seinem globalen Kunden- und Partnerevent zentrale Entwicklungen rund um KI, Agentic AI und die Weiterentwicklung seiner Plattform. Im Fokus: die strategische Ausrichtung hin zu einer durchgängigen, intelligenten End-to-End-Plattform für datengetriebene Entscheidungen.

Agentic AI: Qliks neue Plattform-Vision

Qlik verfolgt das Ziel, den „AI Activation Gap“ zu schließen – also die Lücke zwischen KI-Potenzial und echtem Business Impact. Mit der Vision einer Agentic-AI-Plattform sollen autonome KI-Agenten nicht nur Daten analysieren, sondern direkt Handlungen auslösen. Im Mittelpunkt stehen neue Funktionen wie Qlik Answers für natürliche Spracheingabe, ein Discovery Agent für proaktive Insights und ein Pipeline Agent, der aus Business-Zielen automatisiert Datenprozesse ableitet. Die Plattform basiert auf nahtlos integrierter Datenqualität, Analytics und Automation – inkl. offener Technologien wie Apache Iceberg und Partnern wie AWS.

Produkte & Qualifizierung: Mehr KI-Power für Fachanwender

Neu vorgestellt wurde die Zertifizierung Qlik AI Specialist, die praxisrelevante Skills in Predictive und generativer KI bescheinigt. Produktseitig rücken Qlik Answers, Qlik Predict (vormals AutoML) und Qlik Automate (vormals Application Automation) stärker in den Vordergrund. Gemeinsam ermöglichen sie die Umsetzung komplexer Agentic-Szenarien – von Prognosen über Workflow-Automatisierung bis hin zu Echtzeitanalysen auf unstrukturierten Datenquellen. In den Keynotes wurde u. a. demonstriert, wie diese Tools z. B. bei Volkswagen automatisierte Dokumentationen und Prozessoptimierungen ermöglichen.

Qlik Open Lakehouse: Iceberg-basiertes Datenfundament für KI- und Echtzeitszenarien

Ein Highlight der Qlik Connect 2025 war die Vorstellung des Qlik Open Lakehouse – ein vollständig verwaltetes Lakehouse-Angebot auf Basis von Apache Iceberg, direkt integriert in Qlik Talend Cloud. Ziel ist es, KI- und Analytics-Workloads im Petabyte-Bereich zu unterstützen – mit Echtzeit-Datenaufnahme, leistungsstarken Abfragen und automatisierter Optimierung.

Qlik kombiniert Icebergs Vorteile (Schema-Evolution, ACID, Engine-Unabhängigkeit) mit einer intelligenten Orchestrierung: Ein Adaptive Optimizer sorgt für automatische Kompaktierung und Partitionierung, interne Tests zeigen bis zu 5× schnellere Abfragen bei 50 % geringeren Kosten.

Besonders stark ist das Zusammenspiel mit Qliks Integrations-Stack (Talend, Attunity, Upsolver). In Live-Demos wurde ein kompletter Datenfluss gezeigt – von Streaming ETL mit Upsolver über automatisierte Layer-Strukturen (Bronze/Silver/Gold) bis zur laufenden Iceberg-Optimierung. Der Ansatz: Zero-ETL für maximale Geschwindigkeit bei maximaler Flexibilität.

Dank Iceberg bleiben Daten offen und portabel – nutzbar auch mit Engines wie Snowflake, Trino, Spark oder SageMaker. Zusätzlich unterstützt Qlik Mirror-Integrationen, etwa zu Databricks oder Snowflake, um bestehende Data-Plattformen nahtlos einzubinden – ohne doppelte Pipelines.

Das Open Lakehouse ist derzeit in der Private Preview, der GA-Launch ist für Juli 2025 geplant. Qlik sieht darin einen „Major Step“ für moderne, KI-fähige Analytics-Infrastrukturen – offen, integriert und cloud-nativ orchestriert innerhalb der Qlik Cloud.

Datenqualität, Metadatenmanagement und Data Governance

Ein zentraler Themenblock auf der Qlik Connect 2025 war der Aufbau KI-tauglicher Daten durch hohe Datenqualität und stringente Governance. Seit der Übernahme von Talend im Jahr 2023 hat Qlik in diesem Bereich massiv an Kompetenz gewonnen – sichtbar etwa in der Qlik Talend Cloud, die sich auf der Konferenz als einheitliche Plattform für Datenintegration und -qualität präsentierte.

Die Qlik Talend Cloud vereint Funktionen für Echtzeit-Datenaufnahme, Transformation und Metadatenmanagement mit umfassenden Werkzeugen zur Sicherstellung von Datenqualität und Compliance. In der Session „Data Quality for AI: Making Enterprise Data AI-Ready with Qlik Talend“ wurde demonstriert, wie Unternehmen mithilfe metadatengesteuerter Kataloge, automatisierter Datenprofilierung und Datenbereinigung die Konsistenz und Vertrauenswürdigkeit ihrer Daten steigern können. Ein sauberer, versionierter Data Catalog erleichtert es, relevante Datenquellen zu finden und gezielt für KI-Anwendungen zu bewerten – ein entscheidender Schritt, um Datensilos zu verhindern und AI-Modelle auf verlässlicher Basis zu trainieren.

Ein besonderer Fokus lag auf dem Governance-Aspekt: Qlik betonte, dass ohne konsistente Stammdaten, klar definierte Begriffe und laufendes Monitoring viele KI-Initiativen ins Leere laufen können – sei es durch Verzerrungseffekte (Bias) oder durch fehlerhafte Eingabedaten. Um dem entgegenzuwirken, führt Qlik Cloud 2025 neue Governance-Features ein: Datenprodukte – etwa im QVD-Format (Qliks In-Memory-Datenformat) – lassen sich nun als „First-Class Data Products“ behandeln. Sie können mit Metadaten versehen, in Kataloge aufgenommen und über SLAs und Qualitätsmetriken verwaltet werden. Datenverantwortliche erhalten damit Werkzeuge, um Daten im Sinne des „Data as a Product“-Prinzips kontrolliert bereitzustellen – inklusive Versionierung, Eigentumsdefinition und Qualitätskontrolle.

Auch der Umgang mit unstrukturiertem Wissen wurde im KI-Kontext adressiert: Unter dem Begriff „Retrieval-Augmented Generation (RAG) Knowledge Marts“ baut Qlik strukturierte Wissensdatenbanken auf, die etwa Dokumentationen, PDFs oder Wikis enthalten. Diese werden genutzt, um KI-Anfragen – etwa durch Qlik Answers – nicht nur mit strukturierten Daten, sondern auch mit kuratiertem Textwissen zu beantworten. RAG sorgt für Nachvollziehbarkeit, da alle Informationen aus versionierten, freigegebenen Quellen stammen – ein zentrales Governance-Element, um Halluzinationen zu vermeiden und das Vertrauen in KI-Auskünfte zu sichern.

DevOps, Write-Back & AnalyticsOps

Qlik Connect 2025 stellte zudem neue Tools für Datenprofis vor, die moderne Entwicklungsprozesse unterstützen: So führte Qlik DevOps-fähige Pipeline-Tools ein – inklusive Versionskontrolle und Deployment-APIs. Damit lassen sich Analytics-Pipelines und Apps effizient in Entwicklungs-, Test- und Produktivumgebungen überführen, was AnalyticsOps und CI/CD-Prozesse massiv erleichtert.

Ein weiterer Meilenstein ist die Write-Back-Funktionalität: Mit „Write Tables“ können Anwender direkt aus dem Dashboard heraus Daten zurück in Tabellen schreiben – etwa Planwerte, Kommentare oder Korrekturen. In einer Live-Demo zeigte ein Analyst, wie er während der Analyse neue Werte eingeben konnte, die sofort in den zugrunde liegenden Datenbestand übernommen wurden. Qlik öffnet sich damit für kollaborative Planungsszenarien, in denen Analyse und Eingriff nahtlos zusammenwirken.

 

Qlik Sense Release Update: das ist neu

Verbesserte Datenintegration mit nativer JSON-Unterstützung

Qlik Sense kann jetzt JSON-Dateien direkt laden und verarbeiten – ganz ohne REST-Connector. Damit wird der Umgang mit komplexen, strukturell variierenden JSON-Daten deutlich vereinfacht, z. B. bei IoT- oder Web-Anwendungen. Highlights:

  • Direkter Import von .json-Dateien´
  • Unterstützung für Wildcard- und Mehrfachdateiladen
  • Dynamisches Datenmodell über alle Dateien hinweg
  • Auswahl bestimmter Felder aus JSON-Arrays
  • Verbesserte Ladeoberfläche mit Assistent
  • Unterstützung großer Dateien & Integration in das Qlik Cloud-Katalogprofiling

Reguläre Ausdrücke (Regex) direkt nutzbar

Ab sofort lassen sich Regex direkt in Lade-Skripten und Diagramm-Ausdrücken verwenden – ideal für Textanalysen, Formatvalidierungen oder standardisierte Transformationen.

Verbesserte Auswahlwerkzeuge & Berechnete Dimensionen

Das Auswahl-Tool unterstützt nun auch berechnete Dimensionen und ermöglicht so noch flexiblere Interaktionen mit Daten.

Verbesserungen bei Window-Funktionen

Fehler bei Sortierung, Gruppierung und Fensterausdrücken wurden behoben, was für mehr Konsistenz und Genauigkeit sorgt.

Neues Ladeerlebnis mit Live-Fortschrittsanzeige

Apps zeigen jetzt in Echtzeit den Ladefortschritt beim Öffnen – besonders nützlich bei großen Applikationen. (Optional aktivierbar)

PostgreSQL-Sicherheitsupdate

Die eingebettete PostgreSQL-Datenbank wird automatisch auf Version 14.17 aktualisiert. Voraussetzung: Vorherige Version ≥14.8. Systeme mit Version <14.x müssen manuell aktualisiert werden.

Visualisierung & Dashboard-Neuerungen

Eigene Logos & neue Medienbibliothek

Apps können nun mit individuellen Logos versehen werden. Die Medienbibliothek wurde modernisiert.

Bearbeitungsmodus & Layout-Verbesserungen

Neues Look & Feel für Asset Panel, Layout Container (jetzt mit Tooltip-Support), Scatter-Plot (Umrandungsfarbe, Regressionslinien), Navigationsmenü & Toolbar-Anpassungen (Sheets, Bookmarks, Shortcuts).

Neue Visualisierungen und Chart-Optionen

  • Butterfly Chart (Tornado-Diagramm)
  • Linien-Diagramm: Manuelles Hinzufügen von Punkten/Linien
  • Text-Objekt: Bis zu 100 Kennzahlen, bessere Formatierung
  • Straight Table: Mini-Charts, Zebra-Streifen, bedingte Indikatoren, verbesserte Darstellung von Nullwerten
  • Pivot Table: Bereichsauswahl, kompaktes Layout, neue Ein-/Ausklappfunktionen, RTL-Unterstützung

Sonstige Neuerungen

  • Benutzerdefinierbare Rechtsklickmenüs
  • Neue Variablenoptionen für Bookmarks/Reports
  • Neuer Detailbereich mit App-Metadaten und Schnellaktionen
  • App-Details jetzt als Overlay für bessere Responsivität

Veraltete Objekte werden entfernt

Die Multi KPI-Visualisierung sowie weitere ältere Diagramme (u.a. alte Heatmap, Bullet Chart, Container) werden bis Mai 2026 vollständig aus Qlik entfernt. Ersatzlösungen sind bereits verfügbar.

R/Python-Integration in Qlik Sense

Qlik Sense trifft auf R und Python: Erweiterte Analysepotenziale für die Datenlandschaft

Mit der zunehmenden Komplexität moderner Datenanalysen wächst auch der Bedarf an flexiblen und leistungsstarken Werkzeugen. Qlik Sense – sowohl in der Enterprise-Variante als auch in der Qlik Cloud – bietet seit einigen Jahren die Möglichkeit, externe Programmiersprachen wie beispielsweise R und Python nahtlos in bestehende BI-Prozesse zu integrieren. Das Resultat: erweiterte statistische Analysen, prädiktive Modelle und automatisierte Entscheidungsunterstützung direkt innerhalb der gewohnten Qlik Umgebung.

Warum R und Python in Qlik nutzen?

R und Python zählen zu den beliebtesten Sprachen für Datenanalyse, Statistik und maschinelles Lernen. Die Kombination mit Qlik Sense eröffnet neue Möglichkeiten:

  • Prädiktive Analysen: Nutze maschinelles Lernen, um zukünftige Entwicklungen vorherzusagen, z. B. Kundenabwanderung oder Umsatzprognosen.
  • Anomalieerkennung: Identifiziere ungewöhnliche Muster oder Ausreißer in den Daten, um potenzielle Probleme frühzeitig zu erkennen.
  • Segmentierung: Teile eure Kundenbasis oder Produkte in sinnvolle Gruppen auf, um gezielte Strategien zu entwickeln.
  • Optimierung: Finde optimale Lösungen für komplexe Geschäftsprobleme, wie z. B. Preisgestaltung oder Ressourcenzuweisung.

Technische Umsetzung

Die Integration erfolgt über sogenannte Server-Side Extensions (SSE) oder Analytics Connections:

  • In Qlik Sense Enterprise on Windows kann man über eine SSE-Verbindung (z. B. mit Open-Source-Lösungen wie qlik-py-tools) Python- oder R-Skripte im Backend ausführen.
  • In der Qlik Cloud existiert die Funktion „Advanced Analytics Integration“. Hier lassen sich Python- oder R-Endpunkte über REST-APIs einbinden und aus Qlik Skripten oder direkt aus Diagrammen heraus ansteuern.

Unser Service

Wir übernehmen für euch die vollständige Einrichtung der R- und Python-Integration in eurer Qlik Umgebung – von der ersten Konfiguration bis hin zur sicheren Produktivsetzung. Auf Wunsch hosten wir die gesamte Lösung in unserer Infrastruktur oder unterstützen euch beim Aufbau einer eigenen Umgebung. So erhaltet ihr eine betriebsfertige Lösung ohne internen Aufwand.

Qlik Predict – die Alternative ohne Code

Im Gegensatz zur R-/Python-Integration, bei der individuell programmierte Modelle zum Einsatz kommen, verfolgt Qlik Predict (vormals AutoML) einen vollständigen No-Code-Ansatz: Modelle für Klassifikation und Regression lassen sich direkt in der Qlik Cloud erstellen, trainieren, bewerten und bereitstellen – ganz ohne Programmierkenntnisse. SHAP-Werte und Feature-Impacts sind ebenso verfügbar wie automatische Cross-Validation und Performance-Vergleiche. Damit eignet sich Qlik Predict besonders für Fachanwender, die schnelle, nachvollziehbare Prognosen in Qlik erzeugen möchten, ohne sich mit Code oder externen Servern beschäftigen zu müssen.

Nicht verpassen: Aktuelle Qlik Kampagne

Bis Ende des Jahres bietet Qlik eine attraktive Möglichkeit für bestehende Qlik Sense Kunden: Ihr könnt die Qlik Cloud inklusive Qlik Predict kostenlos testen. Sprecht uns gerne an – wir unterstützen euch bei der Aktivierung und den ersten Schritten.

Long story short

Die Integration von R und Python in Qlik Sense erweitert das Analysepotenzial erheblich. Sie ermöglicht den Brückenschlag zwischen klassischer Business Intelligence und moderner Data Science ohne Medienbruch, direkt im Analyse-Frontend. So bringt ihr eure Analysen von der Beschreibung zur echten Vorhersage.

Möchtet ihr die Integration in eurem Unternehmen evaluieren oder in einem konkreten Projekt anwenden? Dann sprecht uns gerne an – wir unterstützen euch bei Planung, Implementierung, Hosting und Schulung.

Low-Code für Nachhaltigkeit

ESG-Reporting einfach digitalisieren und mit vorhandenen Tools wie Power Platform & Qlik effizient umsetzen

Mit der wachsenden Bedeutung von ESG stehen viele Unternehmen vor der Herausforderung, Nachhaltigkeitskennzahlen strukturiert zu erfassen, auszuwerten und zu berichten. Gleichzeitig fehlen oft IT-Ressourcen und Budget – gerade im Mittelstand.

Die gute Nachricht: Viele Firmen verfügen bereits über leistungsstarke Werkzeuge – sie werden nur (noch) nicht für ESG genutzt. Microsoft Power Platform und Qlik sind in vielen Unternehmen im Einsatz und bieten eine kosteneffiziente Möglichkeit, ESG-Prozesse pragmatisch und skalierbar zu digitalisieren.

Vorhandenen Tools statt neuer Großprojekte

Viele Unternehmen nutzen Microsoft 365 oder Qlik – Tools, die sich mit wenig Aufwand zu leistungsfähigen ESG-Lösungen erweitern lassen. In Verbindung mit Lösungen wie K4 Analytics oder Fiplana (Qlik) oder Power Apps und Power Automate (Microsoft) lassen sich Datenerfassungen, Genehmigungsprozesse oder Monitoring-Workflows einfach realisieren. Die Kombination mit Qlik Sense ermöglicht sofortige Analysen und Berichte auf Basis dieser Daten – vollständig integriert in die bestehende Systemlandschaft.

Vorteil: man nutzt, was schon da ist – und bleibt flexibel in einer Phase, in der Berichtspflichten wie VSME oder CSRD noch in Bewegung und weitere Reportingauflagen wie EUDR bereits beschlossene Sache sind.

Integration ist der Knackpunkt

So vielseitig Low-Code-Plattformen auch sind – die wahre Komplexität beginnt, wenn unterschiedliche Datenquellen zusammengeführt werden müssen:

  • Unterschiedliche Formate (Excel, SharePoint, SQL, Web-Formulare etc.)
  • Abweichende Maßeinheiten und Bezugsgrößen
  • Unterschiedliche Perioden (monatlich, jährlich, projektbezogen)
  • Fehlende oder nicht einheitliche Zuordnung zu ESG-relevanten Kennzahlen

Dafür hat EVACO das ESG Hub entwickelt.

Ordnung im ESG-Datenchaos

Das ESG Hub ist ein flexibles, modular aufgebautes Framework, das:

  • Daten aus verschiedenen Systemen und Tools integriert (Qlik, Power Platform, Excel, ERP-Systeme etc.)
  • Formate, Maßeinheiten und Zeiträume harmonisiert
  • und die Inhalte den jeweils relevanten ESG-Standards zuordnet (CSRD, ESRS, VSME u. )

Das Ergebnis: Automatisch erzeugte, standardisierte ESG-Kennzahlen, die sich direkt in Dashboards oder Berichtstemplates überführen lassen – transparent, nachvollziehbar und prüfsicher.

Prototypische Anwendungsfälle sind beispielsweise:

Mobilität

  • CO₂-Erfassung von Dienstreisen (Bahn, Flug, Auto)
  • Anbindung an Reiseportale und Reisekostenabrechnung
  • Visualisierung von Emissionen nach Projekt, Abteilung oder Person
  • Übersicht zu Flottenverbrauch, CO₂-Emissionen und Wartungskosten

Energie & Ressourcenmonitoring

  • Digitale Erfassung von Strom-, Gas- und Wasserverbräuchen
  • Zentrale Analyse für Gebäude, Maschinen oder Zeiträume
  • Alerts bei Überschreitung definierter Schwellenwerte

HR & Soziale Nachhaltigkeit

  • Erfassung von Schulungen, Diversitätsmaßnahmen und Feedback
  • Auswertung nach Standort, Team oder Maßnahme
  • Dokumentation interner Governance-Richtlinien

Low Code + BI = ESG smart umsetzen

In einer Zeit, in der ESG-Berichterstattung komplexer und verbindlicher wird, ist eine skalierbare, flexible und wirtschaftliche Lösung gefragt: basierend auf vorhandener Infrastruktur, ohne zusätzliche Software-Investitionen, die sich womöglich bald überholen. Durch Nutzung bestehender Tools und die intelligente Integration in einem ESG Hub entsteht ein zentrales Reporting ohne Medienbrüche oder Datensilos.

Jetzt informieren – wir zeigen Dir die Potenziale Deiner bestehenden Systeme.

 

EVACO spendet Laptops an Duisburger Förderschule

Hilfe für digitale Teilhabe

Duisburg, 2025 – Sechs generalüberholte Laptops, voll funktionsfähig und mit allem ausgestattet, was Schüler für den digitalen Unterricht brauchen: eingerichtet, gespendet und von EVACO an die Förderschule Duisburg Nord übergeben. Ein kleiner Beitrag mit hoffentlich großer Wirkung. Denn: „Wir wollen den Zugang zu Wissen erleichtern – ganz konkret, ganz praktisch“, so Geschäftsführer Alexander Willinek.

Bildung ist Teil der EVACO-DNA

Dass sich EVACO im Bildungsbereich engagiert, ist kein Zufall. Das Unternehmen wurde 2002 von Studenten der damaligen Gerhard-Mercator-Universität Duisburg gegründet – mit einer klaren Vision: Daten in Wissen zu verwandeln. Und das nicht nur für Unternehmen, sondern auch für Menschen, die am Anfang ihrer (Bildungs-)Reise stehen.

Dieses Engagement zieht sich quer durch das Bildungsspektrum. Neben Hochschul-Kooperationen mit der Universität Duisburg-Essen, der Hochschule Rhein-Waal oder der TU Dortmund hat EVACO 3 Jahre die Teilnahme des Reinhard-und-Max-Mannesmann Gymnasiums an der World Robot Olympiad (WRO) unterstützt. Aktuell ist EVACO Teil der Bildungsinitiative #I_make_AI, die das Ziel hat, Schüler für Berufe im KI-Umfeld zu begeistern und Datenkompetenz (Data Literacy) in praxisnahen Projekten erlebbar zu machen. Die Unterstützung einer Förderschule ist die konsequente Fortsetzung des EVACO Engagements.

Verantwortung übernehmen. wo man verwurzelt ist

Gerade in Duisburg, wo das Unternehmen seit mehr als 20 Jahren seinen Hauptsitz hat, ist EVACO die Nähe zu lokalen Bildungseinrichtungen wichtig. „Wir haben hier in der Region Chancen bekommen und wollen etwas zurückgeben“, betont Willinek. „Es geht nicht darum, große PR-Projekte zu starten. Sondern darum, jungen Menschen Perspektiven zu eröffnen.“

Data Literacy wörtlich genommen

Die gespendeten Laptops sollen Schülern ermöglichen, digitale Lernangebote zu nutzen, Bewerbungen zu schreiben oder einfach mal ein Projekt zu recherchieren. „Das mag selbstverständlich wirken – ist es aber längst nicht überall“, so Willinek.

Es geht um Teilhabe
Ob durch Technologie, Beratung oder soziales Engagement: EVACO bleibt seiner Gründungsidee treu. Denn Bildung ist mehr als ein Buzzword – sie ist die Voraussetzung für eine gerechtere und chancenreichere Zukunft.

EVACO – wir verwandeln Daten in Wissen.

EVACO ist insightsoftware Partner

Partnerschaft für integriertes Reporting, Self-Service-Analytics und moderne Unternehmensplanung

EVACO hat mit insightsoftware, einem der weltweit führenden Anbieter von Reporting-, Analytics- und Performance-Management-Lösungen, eine strategische Partnerschaft geschlossen. Ziel dieser Zusammenarbeit ist es, Unternehmen ganzheitlich bei der Digitalisierung ihrer Analyse-, Reporting- und Planungsprozesse zu unterstützen – mit modernen Tools, intuitiver Bedienbarkeit und nahtloser Integration in bestehende BI-Landschaften.

Im Zentrum der Kooperation stehen die beiden innovativen Lösungen Vizlib und FIPLANA, die durch die jüngsten Akquisitionen von insightsoftware Teil des Unternehmensportfolios geworden sind.

Vizlib verleiht Qlik Sense erweiterte Visualisierungsfunktionen und macht Self-Service-Analytics für Fachanwender noch zugänglicher. Für den Qlik Partner der ersten Stunde sind die interaktiven Visualisierungen und Custom Extensions seit Jahren fester Bestandteil vieler EVACO-Projekte – ein entscheidender Vorteil für Kunden, die ihre Qlik Infrastruktur visuell und funktional auf ein neues Niveau heben wollen.

Neu im Angebot ist die von insightsoftware übernommene Lösung FIPLANA: eine moderne, vollständig in Qlik eingebettete Plattform für integrierte Finanz- und Unternehmensplanung. Sie ermöglicht es Unternehmen, ihre Planungsprozesse direkt dort abzubilden, wo bereits Daten analysiert werden – in ihrer vertrauten Qlik Oberfläche. Das bedeutet: keine Medienbrüche, keine zusätzlichen Tools, keine Systemwechsel – sondern ein durchgängiger, transparenter Prozess von der Analyse bis zur Planung.

EVACO erweitert damit sein Leistungsangebot, um Unternehmen ganzheitlich auf dem Weg zur datengestützten Unternehmenssteuerung zu begleiten. Die Kombination aus interaktiver Datenanalyse, visueller Aufbereitung und integrierter Planung liefert eine starke Grundlage für agile Entscheidungen – sei es in der Finanzabteilung, im Controlling oder in der Unternehmensentwicklung.

„Mit Vizlib und FIPLANA bieten wir Kunden im Qlik Cosmos moderne, hochintegrierte Lösungen, um ihre Daten noch besser zu verstehen und schneller für Entscheidungen nutzen zu können“, so Alex Willinek, Geschäftsführer der EVACO GmbH. „Die Partnerschaft mit insightsoftware ist ein logischer Schritt, um unser Beratungs- und Lösungsspektrum im Bereich Business Analytics und Planung weiter zu komplettieren und Kunden im Sinne unseres Best-of-Breed-Ansatzes bestmöglich zu unterstützen.“

Unternehmen können Daten ganzheitlich von der datengestützten Visualisierung über automatisiertes Reporting bis hin zur strategischen Planung – alles in einem System abzubilden.

GenAI trifft Dashboards

Neue Ära der Datenanalyse

In der heutigen digitalen Welt stehen Unternehmen vor der Herausforderung, riesige Mengen an Daten zu verwalten und zu analysieren. Um aus diesen Daten wertvolle Erkenntnisse zu ziehen, sind Dashboards zu einem unverzichtbaren Werkzeug geworden. Die jüngste technologische Entwicklung Generativen Künstlichen Intelligenz, besser bekannt unter dem englischen Kürzel GenAI, macht Daten in einer nicht dagewesenen Form dialogfähig. GenAI bringt Daten zum Sprechen und macht Datenanalyse für eine Öffentlichkeit jenseits von Data-Scientisten und Fachleuten zugänglich. Das befördert Dashboards zu echten Entscheidungshelfern.

Was verbirgt sich hinter Gen-AI –Technologie und was macht sie so besonders im Kontext von Daten?

GenAI bezieht sich auf eine Art von künstlicher Intelligenz, die in der Lage ist, Inhalte zu erstellen, die menschenähnlich sind. Dies kann Texte, Bilder, Musik und vieles mehr umfassen. GenAI ist durch die jüngsten Fortschritte in neuronalen Netzen und maschinellem Lernen möglich geworden. Im Gegensatz zu herkömmlichen Algorithmen, die auf festen Regeln basieren, kann GenAI kreative Aufgaben übernehmen, indem sie Muster erkennt und neue Inhalte generiert, die sich an diesen Mustern orientieren.

Interaktive Dashboards neu gedacht: GenAI als kreativer Daten-Assistent

In der Welt der Dashboards kann GenAI genutzt werden, um komplexe Datenanalysen zu vereinfachen. Durch den Einsatz natürlicher Sprachverarbeitung kann GenAI Benutzereingaben in Echtzeit interpretieren und sofort verständliche Datenvisualisierungen in Form von Dashboards und Reports erzeugen. Ohne wie in der Vergangenheit entsprechende Reports im BI-Team anfordern zu müssen, können Fachentscheider im Dialog mit der KI spontane Abfragen beliebige Daten und Zusammenhänge anstoßen. GenAI verarbeitet Fragen in natürlicher Sprache und antwortet in Form automatisch generierter Dashboards, die alle gewünschten Informationen auf einen Blick liefert.

Praxis-Beispiel: ThoughtSpot Spotter als GenAI-Vorreiter

Ein bemerkenswertes Beispiel für die Integration von GenAI in Dashboards ist ThoughtSpots Spotter. Dieses innovative Werkzeug nutzt GenAI, um die Barrieren zwischen komplexen Daten und Entscheidern zu beseitigen. Spotter erlaubt es Nutzern, Datenabfragen in natürlicher Sprache zu formulieren und erstellt in Sekundenschnelle darauf basierende Datenvisualisierungen. Mit der Fähigkeit von ThoughtSpots Spotter, nicht nur Antworten, sondern auch visuelle Veranschaulichungen zu liefern, die aus GenAI-generierten Erkenntnissen stammen, wird die Nutzung von Dashboards auf ein völlig neues Niveau gehoben. Somit verbindet Spotter die intuitive Bedienbarkeit von GenAI mit der leistungsstarken Visualisierungskompetenz moderner Dashboards, um die Datenanalyse sowohl zugänglicher als auch leistungsstärker zu machen.

GenAI als Brücke zwischen Daten und Entscheidung

In einer Zeit, in der Informationen der Schlüssel zum Erfolg sind, bietet die Kombination von GenAI und Dashboards ungeahnte Chancen im Bereich der Datenanalyse und -visualisierung. Technologien wie ThoughtSpots Spotter stellen sicher, dass Unternehmen nicht nur mit der Datenflut Schritt halten, sondern diese auch effektiv in umsetzbare Erkenntnisse umwandeln. Neue Möglichkeiten der Erklärung und Kontextualisierung von Daten lassen GenAI automatisch erläuternde Texte generieren, die zentrale Erkenntnisse zusammenfassen, Hintergründe liefern oder sogar Handlungsempfehlungen formulieren. So wird aus einem Daten-Dashboard ein dialogfähiges Analysewerkzeug, das komplexe Zusammenhänge in verständlicher Sprache aufbereitet und damit auch für weniger datenaffine Nutzer zugänglich macht.

 

ESG im Wandel

Vom regulatorischen Druck zum strategischen Hebel

Trotz Entlastung durch die Omnibus-Verordnung: Unternehmen sollten Nachhaltigkeit nicht als Pflicht, sondern als Chance begreifen – der VSME-Standard wird zur Brücke zwischen Freiwilligkeit und Erwartungshaltung.

Die EU hat mit der Omnibus-Verordnung ein deutliches Signal gesendet: Nachhaltigkeit soll handhabbar, nicht hemmend sein. Nach massiver Kritik aus der Wirtschaft wurden Schwellenwerte angehoben, Pflichten verschlankt und Fristen verlängert. Besonders kleinere und mittlere Unternehmen (KMU) atmen auf – sie sind von der unmittelbaren Berichtspflicht der CSRD vielfach entbunden. Doch die vermeintliche Entwarnung ist nur die halbe Wahrheit.

Vom „Müssen“ zum „Wollen“: ESG bleibt auf der Agenda

Auch wenn viele Unternehmen durch die neuen Schwellenwerte formal nicht mehr betroffen sind, steigt der ESG-Druck aus dem Markt. Investoren, Kunden und Geschäftspartner fordern weiterhin Transparenz – und setzen diese zunehmend voraus. Nachhaltigkeitsdaten werden zur Eintrittskarte in Lieferketten, Kreditverträge und öffentliche Ausschreibungen.

VSME als strategischer Shortcut

Hier setzt der VSME-Standard an. Als freiwillige Alternative zur CSRD bietet er kleinen und mittleren Unternehmen eine pragmatische Möglichkeit, ESG-Kompetenz zu zeigen – ohne überbordende Bürokratie. Mit nur zwei Modulen und 20 Berichtskategorien ist der Standard auf das Wesentliche reduziert, bleibt aber anschlussfähig an die Anforderungen großer Marktakteure. Die freiwillige Struktur hilft Unternehmen, relevante ESG-Aspekte übersichtlich und zielgerichtet zu erfassen, ohne sich in Details zu verlieren. Statt Nachhaltigkeitsthemen in einem Softwareprojekt zu ersticken, sollten Unternehmen eine pragmatische Herangehensweise wählen: auf Bestehendem aufbauen, echte Prioritäten erkennen und Schritt für Schritt umsetzen. Der VSME-Ansatz bietet dafür einen idealen Rahmen.

Die doppelte Wesentlichkeit lebt weiter

Ein interessantes Paradox: Viele Unternehmen haben bereits Zeit und Ressourcen in die Erstellung von Wesentlichkeitsanalysen investiert – obwohl sie nun formal nicht mehr berichtspflichtig sind. Doch dieser Aufwand war nicht vergebens. Die doppelte Wesentlichkeitsanalyse – ein zentraler Bestandteil der CSRD – hat sich in der Praxis als strategisches Steuerungsinstrument bewährt. Wer sie richtig nutzt, identifiziert Chancen, steuert Risiken und schafft messbaren Mehrwert – weit über die reine ESG-Berichterstattung hinaus.

Strategische Vorteile für Vorreiter

Unternehmen, die sich jetzt bewusst für freiwillige Transparenz entscheiden, positionieren sich als zukunftsfähige Partner in einem sich wandelnden Marktumfeld. Sie sichern sich den Zugang zu ESG-orientierten Kapitalgebern, erfüllen implizite Anforderungen aus der Lieferkette und schaffen Vertrauen bei Kunden, Mitarbeitenden und der Öffentlichkeit.

Die Richtung stimmt – jetzt ist Haltung gefragt

Die Omnibus-Verordnung hat den Druck reduziert, aber den Kurs bestätigt: ESG bleibt ein Kernthema unternehmerischer Verantwortung und Wettbewerbsfähigkeit. Wer ESG nicht nur als Pflicht, sondern als Potenzial begreift, nutzt Standards wie VSME gezielt als strategischen Hebel. Jetzt ist der richtige Moment, Weichen zu stellen – nicht aus Zwang, sondern aus Überzeugung.

VSME macht Nachhaltigkeitsreporting mit Augenmaß und Bordmitteln handhabbar.

Statt auf komplexe Speziallösungen zu setzen, empfiehlt sich ein pragmatischer Ansatz: Fachabteilungen können mit Unterstützung ihrer bestehenden Reporting-Tools einen freiwilligen ESG-Report nach VSME-Struktur erstellen – abgestimmt auf das, was bereits verfügbar ist. Wo nötig, lassen sich BI- und Data-Analytics-Expert:innen hinzuziehen, um vorhandene Systeme gezielt anzupassen oder zu erweitern. So entsteht nachhaltiges Reporting mit Augenmaß – integriert, realistisch und anschlussfähig.

Qlik Cloud Analytics

Qlik Update – März 2025

Das März-Update 2025 bringt eine Vielzahl spannender Funktionen und Verbesserungen für Qlik Cloud. Von Optimierungen im Analysebereich über neue Automatisierungsmöglichkeiten bis hin zu erweiterten Visualisierungen – dieses Update stärkt Qlik als zentrale Plattform für datengetriebene Entscheidungen. In diesem Beitrag findest Du eine strukturierte Übersicht über alle Neuerungen.

Qlik Cloud Analytics

Verbesserte Ladeanzeige beim Öffnen von Apps
Mit dem neuen Lade-Feedback erhalten Nutzer nun eine detaillierte Echtzeit-Anzeige beim Öffnen von Qlik-Applikationen. Dies sorgt insbesondere bei größeren Apps für deutlich mehr Transparenz und schafft Vertrauen in die Systemleistung. Die Funktion ist standardmäßig deaktiviert, kann jedoch von Administratoren im Administrationsbereich unter „Einstellungen“ aktiviert werden.

Neue Cloud-Region: Vereinigte Arabische Emirate (UAE)

Qlik erweitert seine globale Infrastruktur um eine neue Region in den Vereinigten Arabischen Emiraten. Dies bietet Unternehmen in der Region bessere Performance, niedrigere Latenzen und lokale Datenverarbeitung im Einklang mit regulatorischen Anforderungen.

Self-Service Scheduling (Slice 1)

Die erste Ausbaustufe des Self-Service Schedulings ermöglicht eine einfache Planung und Abfolge automatisierter Aufgaben – ganz ohne komplexe Automations.

Wesentliche Vorteile:
– Automatisierung von Abläufen direkt in der Oberfläche
– Flexible Steuerung einfacher und komplexer Workflows
– Zentrale Übersicht und intuitives Task-Management
– Integration über Apps, Datenflüsse und Skripte hinweg

Ausblick:
– Slice 2: Live-Status-Monitoring für alle Tasks
– Slice 3: Visueller Planer mit Drag-and-Drop-Funktion

Visualisierungen und Dashboards

Benutzerdefinierbare Kontextmenüs
App-Entwickler können ab sofort festlegen, welche Aktionen in Rechtsklick-Menüs verfügbar sind. Über die UI-Einstellungen lässt sich das Kontextmenü gezielt anpassen, um den Anwenderinnen und Anwendern eine klar strukturierte, rollenspezifische Benutzerführung zu bieten.

Neue Funktionen in der Pivot-Tabelle
In der neuen Pivot-Version können nun gezielt einzelne Dimensionen oder ganze Ebenen ein- und ausgeblendet werden – für noch individuellere Analysen.

Abschied vom Multi-KPI-Objekt
Das bisherige Multi-KPI-Objekt wird eingestellt. Entwickler werden ermutigt, alternative Visualisierungen zu verwenden – z. B. in Kombination mit dem Layout-Container und dem Navigationsmenü sowie mithilfe der neuen Styling-Funktionen für Apps und Diagramme.

Neue Darstellung im Balkendiagramm: Butterfly
Das Balkendiagramm erhält eine neue Option: das Butterfly- (oder Tornado-) Diagramm. Diese Form eignet sich hervorragend, um zwei Kennzahlen entlang einer Dimension gegenüberzustellen – ideal für Vorher-Nachher-Vergleiche oder Soll-Ist-Analysen.

        

Verbesserungen beim Liniendiagramm
Es ist jetzt möglich, manuell Punkte und Linien in Liniendiagrammen zu ergänzen. Damit lassen sich Trends oder wichtige Schwellenwerte visuell hervorheben und besser kommunizieren.

 

Zebra-Streifen für Straight Tables
Für eine verbesserte Lesbarkeit können im neuen Straight Table nun abwechselnde Zeilen farblich hervorgehoben werden. Diese Option lässt sich im Styling-Panel aktivieren.

Erweiterte Exportoptionen im Straight Table
Nutzer haben jetzt die Möglichkeit, Exporte aus dem Straight Table individuell anzupassen.
Zu den neuen Optionen gehören:
– Titel der Tabelle
– Spaltensummen
– Aktuelle Selections

Einstellungen für Nullwerte und Kopfzeile
Neue Konfigurationsmöglichkeiten im Straight Table erlauben es,
– Nullwerte mit benutzerdefinierten Platzhaltern darzustellen
– Die Kopfzeile auszublenden, wenn gewünscht

 

Verbesserungen am Textobjekt
Das Textobjekt im Dashboard Bundle wurde umfassend überarbeitet:
– Zeilen lassen sich in Bullet-Listen umwandeln
– Measures werden beim Bearbeiten hervorgehoben
– Hover- und Detailfunktionen sind standardmäßig aktiviert
– Die maximale Zahl an Measures wurde von 10 auf 100 erhöht

Qlik Answers

Technologie-Upgrades
– Upgrade auf Anthropic Claude Sonnet 3.5 für natürlichere KI-Dialoge
– Upgrade auf Cohere Rerank 3.5 für verbesserte Ergebnispriorisierung

Überarbeitete Summary-Seite für Knowledge Bases
Die neue Zusammenfassungsseite für Knowledge Bases bietet erweiterte Verwaltungsfunktionen. Dazu zählen:
– Intuitive Filtermöglichkeiten zum gezielten Reindizieren oder Entfernen von Dateien
– Einsicht, welche Assistenten auf die Knowledge Base zugreifen
– Transparente Darstellung, wie häufig Inhalte in Antworten genutzt werden

Qlik AutoML

Unterstützung mehrerer Modelle in einem Deployment
Mit dem neuen Multi-Model-Deployment lassen sich mehrere Machine-Learning-Modelle innerhalb eines Deployments parallel ausführen. Die Modelle können flexibel ausgetauscht werden, ohne die Konfiguration ändern oder Integrationen anpassen zu müssen. Dies erhöht die Skalierbarkeit und beschleunigt datengetriebene Entscheidungsprozesse erheblich.

Qlik Application Automation

Projektunterstützung im Qlik Talend Cloud Connector
Der Qlik Talend Cloud Data Integration Connector enthält jetzt Blöcke zum Erstellen, Exportieren und Importieren von Projekten – ideal für automatisierte Deployment-Szenarien.

Neuer „Create Task“-Block im Salesforce Connector
Mit dem neuen Block lassen sich Aufgaben direkt aus Analyseerkenntnissen in Salesforce erstellen – etwa für Renewal Opportunities mit Upsell-Potenzial. Die Aufgaben können gezielt Accounts, Nutzern oder Opportunities zugewiesen werden.

Weitere Neuerungen in Application Automations
– Unterstützung von Custom Groups im Qlik Cloud Services Connector
– Neuer Delete File Block im GitHub Connector

VSME im Sog der Omnibusverordnung

Vom freiwilligen Standard zum strategischen Vorteil

Die Omnibus-Initiative der EU soll die Herausforderungen und bürokratische Hürden der Corporate Sustainability Reporting Directive (CSRD) abschwächen, indem die Berichtspflichten verschlankt und insbesondere kleinere Unternehmen entlasten werden. Das rückt eine freiwillige Alternative ins Rampenlicht: den VSME-Standard (Voluntary Standard for non-listed Micro-, Small- and Medium-sized Undertakings).

Omnibus-Initiative: weniger ist mehr

Die Omnibus-Initiative der EU schwächt die CSRD-Berichtspflicht ab. Künftig sind Unternehmen erst ab 1.000 Mitarbeitenden betroffen, was die Anzahl berichtspflichtiger Unternehmen um 80 % reduziert. Weitere Änderungen:

  • Spätere Berichtspflichten: Erst ab 2028 für das Geschäftsjahr 2027
  • Weniger Berichtsinhalte: 25 % weniger Datenpunkte, keine sektorbezogenen Standards
  • Keine strengere Prüfung: „Reasonable Assurance“ entfällt
  • Vereinfachte EU-Taxonomie: OpEx-Berichtspflicht nur bei ≥ 25 % taxonomiefähigem Umsatz
  • CSDDD-Lockerungen: Sorgfaltspflichten nur für direkte Geschäftspartner, keine EU-weite Haftung

Warum der VSME-Standard an Bedeutung gewinnt

Unabhängig von gesetzlichen Anforderungen bleibt Nachhaltigkeitsberichterstattung für Unternehmen hochgradig relevant, da Investoren, Kunden und Stakeholder weiterhin ESG-Transparenz fordern – Tendenz steigend. Der VSME-Standard ermöglicht es Unternehmen, mit minimalem Aufwand einen Nachhaltigkeitsbericht zu erstellen, der auf ihre Stakeholder zugeschnitten ist.

Was ist der VSME-Standard?

Der VSME-Standard wurde speziell für kleinere Unternehmen entwickelt, um eine einfache, aber dennoch aussagekräftige Nachhaltigkeitsberichterstattung zu ermöglichen. Während die CSRD umfassende Offenlegungspflichten vorsieht, reduziert der VSME-Standard den administrativen Aufwand erheblich. Die über 1.000 Datenpunkte der European Sustainability Reporting Standards (ESRS) entfallen, stattdessen gibt es nur zwei Module mit 20 Berichtskategorien – eine doppelte Wesentlichkeitsanalyse ist nicht erforderlich.

Vorteile einer VSME-Zertifizierung

Unternehmen, die frühzeitig auf freiwillige Berichterstattung setzen, können sich als verantwortungsbewusste Akteure am Markt etablieren und sich aufgrund des CSRD Trickle-down Effekts strategische Vorteile sichern: CSRD-berichtspflichtige Unternehmen, nachhaltig positionierte Firmen und Finanzinstitute mit ESG-Kreditkriterien verlangen zunehmend Nachhaltigkeitszertifizierungen in ihren Kunden- und Lieferantenbeziehungen. Durch diesen Trickle-Down-Effekt wird der VSME-Standard zu einem pragmatischen Instrument, um mit minimalem Aufwand ESG-Transparenz nachzuweisen und wettbewerbsfähig zu bleiben.

Freiwillige Wesentlichkeitsanalyse
im Gegensatz zur CSRD sieht VSME keine verpflichtende Wesentlichkeitsanalyse vor. Unternehmen, die durch die Omnibus Verordnung von der Berichtspflicht befreit sind, haben den Aufwand der doppelten Wesentlichkeit aber nicht umsonst gemacht, sondern in ein strategisch wertvolles Instrument investiert. Die doppelte Wesentlichkeitsanalyse ähnelt einer SWOT-Analyse und kann als effektives Steuerungsinstrument genutzt werden, mit dem Unternehmen Chancen und Risiken identifizieren und gezielte Maßnahmen ableiten können. inem zunehmend datengetriebenen Markt wettbewerbsfähig zu bleiben.

Qlik Data Flow

Effiziente Datenaufbereitung für Analytics und KI

Unternehmen setzen zunehmend auf Lösungen, die es ermöglichen, den gesamten Datenlebenszyklus zu optimieren – von der Datenintegration über die Datenqualität bis hin zu fortschrittlichen Analysen und KI-Anwendungen. Mit Qlik Data Flow ergänzt Qlik seine Cloud-Analytics-Plattform um eine leistungsstarke Funktion zur Datenaufbereitung. Die neue Technologie erleichtert es Unternehmen, Daten effizient zu kombinieren, zu bereinigen und zu transformieren, um schneller fundierte Entscheidungen treffen zu können.

Herausforderung
Traditionell erfordert die Vorbereitung von Daten für Analysen und KI-Anwendungen einen hohen Zeitaufwand und technisches Know-how. Manuelle Prozesse und komplexe Skripte erschweren den Zugang für viele Anwender und verlangsamen den Analyseprozess.

Kernfunktionen
Qlik Data Flow begegnet diesen Herausforderungen mit einer benutzerfreundlichen Drag-and-Drop-Oberfläche, die eine visuelle Datenmodellierung ermöglicht. Die wichtigsten Funktionen umfassen:

Visuelle Datenaufbereitung: Anwender können Datensätze intuitiv zusammenfügen, bereinigen und transformieren.
Automatische Skripterstellung: Jeder Schritt im Prozess wird dokumentiert und lässt sich transparent nachvollziehen.
Flexibler Workflow: Die Plattform unterstützt No-Code-, Low-Code- und Pro-Code-Ansätze, sodass sowohl technische als auch nicht-technische Nutzer effizient arbeiten können.
Nahtlose Integration: Als Bestandteil von Qlik Cloud Analytics können Daten direkt für Visualisierungen, Berichte und KI-Modelle genutzt werden.

Vorteile
Data Flow ermöglicht die schnelle und effiziente Erstellung qualitativ hochwertiger, KI-fähiger Datensätze und bietet handfeste Vorteile: 

Barriere-Freiheit: Daten ohne technisches Skriptens durch Drag-and-Drop-Simplicity
Transparenz und Vertrauen: Jeder visuelle Schritt erzeugt automatisch den zugehörigen Qlik-Skriptcode, was für vollständige Nachvollziehbarkeit und Vertrauen in die Ergebnisse sorgt.
Flexibilität: Data Flow unterstützt verschiedene Herangehensweisen – von No-Code über Low-Code bis hin zu Pro-Code – und passt sich somit an die unterschiedlichen technischen Fähigkeiten der Nutzer an.
End-to-End-Integration: Die nahtlose Integration in Qlik Cloud Analytics ermöglicht einen fließenden Übergang von der Datenaufbereitung hin zu weiterführenden Analysen, Visualisierungen und KI-Anwendungen.

Fazit
Die Einführung von Data Flow ist ein weiterer Schritt der Qlik Strategie zur Vereinfachung von Analytics-Prozessen. Durch eine intuitive, visuelle Herangehensweise und flexible Workflows wird es einem breiteren Anwenderkreis ermöglicht, hochwertige, KI-fähige Datensätze zu erstellen. Diese Innovation überbrückt die Kluft zwischen IT und Fachabteilungen und beschleunigt den Analyseprozess. Das hilft Unternehmen, in einem zunehmend datengetriebenen Markt wettbewerbsfähig zu bleiben.

Partner of the Year 2024 Award

EVACO zum dritten Mal „Partner of the Year“

EVACO wurde nach 2020 und 2021 nun auch im Jahr 2024 von PlatformManager als „Partner of the Year“ ausgezeichnet. Diese wiederholte Ehrung unterstreicht die langjährige, erfolgreiche Zusammenarbeit und das Engagement für stabile und effiziente Governance- und DevOps-Lösungen in Qlik-Umgebungen.

Die Partnerschaft zwischen EVACO und PlatformManager ermöglicht es Unternehmen, ihre BI-Landschaft mit Qlik Sense und QlikView optimal zu verwalten und weiterzuentwickeln. Durch eine strukturierte Versionierung und automatisierte Workflows behalten Unternehmen die volle Kontrolle über ihre BI-Anwendungen und können Entwicklungs-, Test- und Produktivumgebungen effizient verwalten. Gerade in datengetriebenen Organisationen ist eine transparente und nachvollziehbare Entwicklung essenziell, um Compliance-Anforderungen zu erfüllen und gleichzeitig den Entwicklungsprozess zu beschleunigen.

Wir unterstützt Unternehmen dabei, PlatformManager nahtlos in bestehende BI-Strategien zu integrieren und Arbeitsabläufe zu optimieren. Die Lösung sorgt für eine verbesserte Zusammenarbeit zwischen Entwicklern, Analysten und Fachabteilungen und ermöglicht es, Änderungen an Qlik-Applikationen sicher und effizient umzusetzen. Das verkürzt die Entwicklungszyklen und steigert die Qualität der Anwendungen – ein klarer Vorteil für Unternehmen, die schnelle und fundierte Entscheidungen auf Basis ihrer Daten treffen möchten.

Die erneute Auszeichnung als „Partner of the Year“ zeigt, dass die enge Zusammenarbeit von EVACO und PlatformManager für nachhaltigen Mehrwert sorgt. Gemeinsam setzen beide Unternehmen Maßstäbe in der effizienten Verwaltung von BI-Umgebungen und unterstützen Kunden dabei, ihre Datenstrategie mit mehr Transparenz, Kontrolle und Automatisierung auf das nächste Level zu heben. Wir danken PlatformManager für diese Anerkennung und freuen uns darauf, auch in Zukunft Unternehmen mit innovativen Lösungen zu begleiten.

Nächster Halt: Omnibus Verordnung

Positives Signal

Nach massiver Kritik aus Wirtschaftskreisen, dass die Anforderungen der CSRD, CSDDD und der EU-Taxonomie-Verordnung zu komplex und ressourcenintensiv seien, hat die Europäische Kommission die Omnibus-Verordnung auf den Weg gebracht. Vorbehaltlich der Ratifizierung durch das Europäische Parlament und den Rat soll sie die Nachhaltigkeitsberichterstattung für Unternehmen vereinfachen und den administrativen Aufwand reduzieren, um die Unternehmen im EU-Raum zu entlasten und ihre Wettbewerbsfähigkeit zu stärken.

Die wesentlichen Änderungen im Überblick

Die Schwellenwerte für die Corporate Sustainability Reporting Directive (CSRD) wurden entschärft. Erst Unternehmen ab 1.000 Mitarbeitenden und entweder über 50 Millionen Euro Umsatz oder 25 Millionen Euro Bilanzsumme sollen künftig berichtspflichtig sein, was die Zahl direkt betroffener Unternehmen um etwa 80% reduziert. Gleichzeitig werden die Berichtspflichten um 2 Jahre geschoben. Unternehmen, die ursprünglich ab 2025 berichten müssten, haben nun bis 2027 Zeit. Weitere Hürden sollen durch vereinfachte Standards entfallen. Dazu werden die European Sustainability Reporting Standards (ESRS) verschlankt und sektorspezifische Standards entfallen.

Auch die EU-Taxonomie-Verordnung wird modifiziert: Nur Unternehmen ab 1.000 Mitarbeitenden und über 450 Millionen Euro Umsatz müssen ihre Taxonomie-Konformität offenlegen und auch hier wurde der Umfang reduziert: Nur der relevante Anteil von Umsatz und Investitionsausgaben (CapEx) bleibt berichtspflichtig, während das bei Betriebsausgaben (OpEx) zukünftig freiwillig sein soll.

Als letzte Norm wird der Bürokratieaufwand für die Corporate Sustainability Due Diligence Directive (CSDDD) abgeschwächt. Statt wie bisher gefordert die gesamten Lieferkette zu berücksichtigen, müssen Unternehmen nur ihre direkten Geschäftspartner auf Nachhaltigkeitskriterien prüfen – und das mit verlängerten Prüfintervallen: Statt einer jährlichen Kontrolle ist jetzt nur alle fünf Jahre eine Überprüfung vorgesehen.

Nachhaltigkeit zahlt sich aus
Die bisher investierte Arbeit in Wesentlichkeitsanalysen bleibt wertvoll, weil sie regelmäßig zu Effizienzsteigerungen und Innovationen führen. Die pragmatische Ausgestaltung der Omnibus-Verordnung hilft dabei, sich zu fokussieren.
Unternehmen, die Nachhaltigkeit als strategischen Faktor verstehen, profitieren von den gewonnenen Erkenntnissen, unabhängig von regulatorischen Schwellenwerten. Eine fundierte ESG-Strategie hilft Unternehmen Risiken besser zu steuern und langfristig Kosten zu senken. Sie fördert Innovationen, wirkt sich positiv auf Umwelt und Gesellschaft aus und hilft bei der Positionierung als transparenter, nachhaltiger Partner gegenüber Investoren, Kunden und anderen Stakeholdern.

Risiken und Nebenwirkungen

Gelockerte Schwellenwerte entbinden Unternehmen nicht automatisch von der Berichterstattung. Selbst wer durch die neuen Kriterien nicht mehr direkt betroffen ist, kann trotzdem durch Kunden, Lieferanten oder Finanzinstitute zur Offenlegung gezwungen sein. Unternehmen sind gut beraten, Wesentlichkeitsanalysen in ihr Handwerkszeug auf zu nehmen. Als ganzheitliche Anwendung einer SWOT Analyse ist sie ein hervorragendes Werkzeug zur strategischen Unternehmensführung.

Board Signals & Foresight

Echtzeit-Daten statt Rätselraten

Board bereichert Planung mit KI & Marktdaten

Board präsentiert neue Tools: Board Foresight und Board Signals

Der führende Anbieter von Enterprise-Planning-Lösungen hat zwei innovative Produkte nach erfolgreichen Tests auf dem US-amerikanischen Markt weltweit zugänglich gemacht: Board Foresight und Board Signals. Diese Tools unterstützen Unternehmen dabei, wirtschaftliche Veränderungen frühzeitig zu erkennen und entsprechend zu reagieren.

Board Foresight
Foresight kombiniert externe Daten mit kuratierten Wirtschaftsindikatoren, KI-gestützten Korrelationsalgorithmen und Predictive Analytics. Durch Echtzeit-Updates aus Millionen externer Quellen können Unternehmen Marktveränderungen antizipieren, ihre Geschäftsstrategien anpassen und eine kontinuierliche Planung vorantreiben.

Highlights: Durch Experten-kuratierte Indikatoren erhältst Du Zugang zu branchen-spezifischen externen Faktoren, die die jeweilige Industrie maßgeblich beeinflussen. Effiziente Korrelationsalgorithmen werden mit internen Daten verknüpft und helfen so bei der Identifizierung wichtiger Leistungstreiber.

Board Signals
Signals liefert Entscheidungsträgern branchenspezifische Wirtschaftsindikatoren in Echtzeit, um Marktvolatilität besser zu bewältigen. Entwickelt für strategische Planer und Führungskräfte liefert Signals klare, umsetzbare Informationen für fundierte Geschäftsentscheidungen.

Highlights: Von Experten zusammengestellte branchenspezifische Wirtschaftsinformationen liefern planungsrelevante Indikatoren, die regelmäßig aktualisiert werden. Intelligente Warnmeldungen helfen Unternehmen frühzeitig zu reagieren und Marktvolatilität abzufedern.

Namhafte US-Unternehmen haben die Tools bereits im Einsatz, um ihre Entscheidungsprozesse zu optimieren und strategisches Wachstum zu fördern. Board Signals und Board Foresight sind ab sofort auch weltweit verfügbar.
Als Board Partner testen wir beide Tools intensiv und freuen uns auf neugierige Fragen und spannende Anwendungsfälle.

Hidden Champion Feature Engineering

Der Schlüssel zu besseren KI-Modellen

Warum das Feature Engineering oft unterschätzt wird und wie AutoML-Tools wie DataRobot und Qlik AutoML Abhilfe schaffen können

Wenn es um Maschinelles Lernen geht, sind Algorithmen und Rechenleistung die Stars, dabei ist das sogenannte Feature Engineering ein oft unterschätzter Erfolgsfaktor. Schließlich hängt die Genauigkeit und Effizienz von Machine Learning Modellen maßgeblich von der Qualität und Auswahl der Features („Merkmale“) ab, die den Modellen zur späteren Mustererkennung und Vorhersagen dienen. Trotz seiner erfolgskritischen Funktion wird Feature Engineering häufig vernachlässigt. Das kann mehrere Gründe haben:

Mangelndes Fachwissen
Ohne tiefes Verständnis über die Daten und den spezifischen Anwendungsbereichs können wichtige Merkmale übersehen oder falsch interpretiert werden

Zeitaufwand
Der manuelle Prozess ist oft zeitintensiv und erfordert iterative Tests, um die optimalen Features zu identifizieren.

Komplexität
Bei großen und komplexen Datensätzen kann es schwierig sein, die richtigen Transformationen und Merkmalskombinationen zu finden.

Schlüsseltechnologie AutoML-Lösungen
Feature Engineering ist entscheidend für den Erfolg von Machine Learning (ML)-Modellen.
Ein gut durchgeführtes Feature Engineering beeinflusst die Genauigkeit und Effizienz von Modellen erheblich, da es relevante Informationen hervorhebt und irrelevante oder redundante Daten minimiert. Moderne Automated Machine Learning (AutoML) Plattformen automatisieren das Feature Engineering und ermöglichen einen effizienten Zugang zu leistungsstarken Machine-Learning-Modellen.

DataRobot und Qlik AutoML sind zwei prominente AutoML-Plattformen, die den Feature-Engineering-Prozess unterstützen:

DataRobot
Diese Plattform bietet automatisiertes Feature Engineering, bei dem relevante Merkmale identifiziert und transformiert werden, um die Modellleistung zu optimieren. DataRobot nutzt fortschrittliche Algorithmen, um automatisch die besten Features auszuwählen und neue zu generieren, was zu präziseren Vorhersagen führt.

Qlik AutoML
Qlik AutoML integriert automatisiertes maschinelles Lernen nahtlos in bestehende BI-Workflows. Die Plattform ermöglicht es Nutzern, ohne Programmierkenntnisse prädiktive Modelle zu erstellen. Ein besonderes Merkmal ist die automatische Merkmalsgenerierung, bei der aus den vorhandenen Daten neue, aussagekräftige Features abgeleitet werden, um die Modellgenauigkeit zu verbessern.

Mehrwerte
Durch die Automatisierung werden zeitaufwändige manuelle Prozesse reduziert, was die Entwicklungszeit verkürzt. Auch ohne tiefgehende Fachkenntnisse können Nutzer ihre Datenqualität effektiv verbessern. Automatisierte Prozesse minimieren menschliche Fehler und sorgen für reproduzierbare Ergebnisse. Die Erstellung neuer Merkmale mit Hilfe von AutoML eröffnen Zusammenhänge in den Daten, die vorher nicht ersichtlich waren.

Durch den Einsatz von AutoML können Unternehmen schneller und effizienter Modelle entwickeln, die dennoch eine hohe Genauigkeit aufweisen. Wenn Du das volle Potenzial Deiner Daten ausschöpfen und Deiner Machine-Learning-Modelle optimieren möchtest, stehen wir gerne mit unserer Expertise zur Seite. Von der strategischen Beratung bis zur Implementierung leistungsstarker AutoML-Lösungen – wir unterstützen Dich dabei, datengetriebene Entscheidungen effizient und präzise zu gestalten.

Qlik Cloud Analytics

Februar-Updates

Neue Attribute für die GetUserAttr-Funktion
Um eine konsistentere Lokalisierungs- und Sprachsteuerung zwischen der Qlik Cloud-Oberfläche und den Qlik Sense-Anwendungen zu gewährleisten, wurden zwei neue Attribute zur GetUserAttr-Funktion hinzugefügt:

– userLocale: Bevorzugte Sprache des Nutzers (z. B. „en“)
– userZoneinfo: Zeitzoneneinstellung des Nutzers (z. B. „Europe/London“)

Verbesserte Zugriffssteuerung mit benutzerdefinierten Gruppen
Qlik Cloud Analytics unterstützt nun benutzerdefinierte Gruppen für den Section Access. Diese Erweiterung sorgt für eine flexiblere und präzisere Zugriffskontrolle. Administratoren können jetzt wählen zwischen:

– IdP-Gruppen (Identity Provider Gruppen)
– Benutzerdefinierte Gruppen
– Kombination aus beiden

Relative Importance Analysis jetzt verfügbar
Die Relative Importance-Analyse ist jetzt in Qlik Analysen verfügbar. Sie zeigt die Gewichtung einzelner Dimensionen im Gesamtzusammenhang an und kann für Pareto- oder 80/20-Analysen genutzt werden.

Direct Access Gateway 1.7.1 – Neue Funktionen und Verbesserungen
– REST Connector: Sicherer Zugriff auf private REST-API-Endpunkte
– Unterstützung für Google BigQuery & Unity Catalog (Databricks)
– Erweiterte ODBC-Steuerung: Anpassung der Standardtabellenbegrenzung
– Verbesserte Fehlerbehebung bei ODBC-Datenimport
– Optimierte Speicherverwaltung für Cache-Verzeichnisse

Verbesserungen am Navigationsmenü
Basierend auf Nutzer-Feedback wurden folgende Änderungen implementiert:

– Hover-Menü ist standardmäßig deaktiviert
– Verbesserte Gestaltung für separate Menüpunkte
– Überarbeitete Abstands- und Designoptionen

Qlik Answers

Neuer Qlik Answers Connector für Qlik Application Automation
Der neue Qlik Answers Connector ermöglicht die Echtzeit-Indexierung von Daten und erweitert Automatisierungsmöglichkeiten durch unstrukturierte Erkenntnisse.

Download von Feedback aus Qlik Answers
Feedback aus Qlik Answers-Assistenten kann jetzt als CSV-Datei heruntergeladen werden.

Google Drive und OneDrive als Datenquellen in Qlik Answers
Wissensdatenbanken in Qlik Answers unterstützen nun Google Drive und OneDrive als Datenquellen.

Direktzugriff auf Arbeitsblätter  und Lesezeichen
Arbeitsblätter  und Lesezeichen sind wieder standardmäßig über die App-Symbolleiste abrufbar. Diese Einstellung kann in den App-Einstellungen angepasst werden.

Qlik Talend Cloud

Data Lakehouse-Funktionalitäten für Snowflake-Projekte
Qlik Talend Cloud Pipelines bietet zwei neue Funktionen zur Erstellung von offenen Lakehouses mit Snowflake:

  1. Lake-Landing Ingestion: Ermöglicht die Replikation von Daten mit niedriger Latenz in Cloud-Speicher.
  2. Unterstützung für Snowflake Iceberg-Tabellen: Daten können als Snowflake-verwaltete Iceberg-Tabellen gespeichert werden.

Neuer Freshness Indicator
Der Freshness Indicator zeigt an, wann Daten zuletzt aktualisiert wurden, entweder durch eine Dateiänderung oder eine Pipeline-Veröffentlichung. Dies erleichtert die Einschätzung der Datenaktualität und -zuverlässigkeit.

Einführung des Qlik Trust Score™
Mit dem Qlik Trust Score™ wird die Datenqualität auf einer Skala von 0 bis 5 bewertet. Die Berechnung basiert auf mehreren Dimensionen, die individuell angepasst werden können. Vorteile:

– Anpassbare Bewertungskriterien
– Detaillierte Einblicke in Datenqualität
– Transparente Nachverfolgbarkeit von Aktualität und Nutzung

Cross-Project Pipelines
Pipelines in Qlik Talend Cloud können nun aus mehreren Projekten bestehen, was eine effizientere Team-Kollaboration ermöglicht. Diese Funktion unterstützt insbesondere das **Data Mesh Design**.

Ziemlich beste Freunde

ESG Reporting und Meldepflichten

Warum intelligente BI und Data Analytics für beide unverzichtbar sind

Nachhaltigkeit und Transparenz sind zu zentralen Themen in der Unternehmenswelt geworden. Während das ESG-Reporting (Environmental, Social, Governance) darauf abzielt, Unternehmen in ihrem nachhaltigen Handeln zu messen und ihre Fortschritte sichtbar zu machen, bestehen zahlreiche gesetzliche Meldepflichten, die Unternehmen verpflichten, bestimmte Mengen- und Umweltberichte bereitzustellen. Prominente Vertreter sind das Elektro-Altgeräte-Register EAR, Batteriegesetz BattG sowie die Verpackungsverordnung VerpackG. Allen gemeinsam ist in die Notwendigkeit einer präzisen Datenerfassung, -verarbeitung und -meldung. Hier kommt Business Intelligence (BI) und Data Analytics ins Spiel – sie ermöglichen eine effiziente, automatisierte und zuverlässige Bereitstellung dieser Informationen.

ESG Reporting und gesetzliche Meldepflichten: Parallelen und Schnittmengen

Das ESG-Reporting gewinnt durch regulatorische Vorgaben wie die Corporate Sustainability Reporting Directive (CSRD) oder die EU-Taxonomie an Bedeutung. Unternehmen müssen hierbei detaillierte Daten zu Umwelt- und Sozialstandards offenlegen, um ihre Nachhaltigkeitsleistung zu dokumentieren. Gleichzeitig existieren spezifische gesetzliche Berichtspflichten für Unternehmen, insbesondere im Bereich Umwelt- und Produktverantwortung:

  • Elektro-Altgeräte-Register (EAR): Hersteller und Importeure von Elektro- und Elektronikgeräten sind verpflichtet, ihre in Verkehr gebrachten Mengen an die Stiftung EAR zu melden. Ziel ist eine nachhaltige Entsorgung und Rückführung dieser Produkte.
  • Batteriegesetz (BattG): Unternehmen, die Batterien und Akkus vertreiben, müssen jährlich ihre Mengen melden und sich an Rücknahmesystemen beteiligen.
  • Verpackungsgesetz (VerpackG): Hier sind Unternehmen verpflichtet, Verpackungsmengen zu registrieren und an Recycling- und Entsorgungssysteme zu melden.
  • Chemikalienverordnung (REACH): Unternehmen, die Chemikalien herstellen oder importieren, müssen Daten über deren Sicherheit und Umweltverträglichkeit bereitstellen.
  • Emissionsberichterstattung (BEHG – Brennstoffemissionshandelsgesetz): Unternehmen mit CO₂-Emissionen sind zur jährlichen Berichterstattung verpflichtet, um den nationalen Emissionshandel zu unterstützen.
  • Kreislaufwirtschaftsgesetz (KrWG): Regelt die Abfallwirtschaft und verpflichtet Unternehmen zur Dokumentation und Meldung von Abfallmengen.
  • Energieeffizienzgesetz (EnEfG): Große Unternehmen müssen Energieverbräuche und Effizienzmaßnahmen erfassen und melden.
  • Wasserhaushaltsgesetz (WHG): Verpflichtet Unternehmen, wasserrechtliche Meldungen zu erstellen, insbesondere zu Entnahmen und Abwassereinleitungen.
  • Luftreinhalteverordnung (TA Luft): Bestimmt Berichts- und Überwachungspflichten für emissionsrelevante Industrieanlagen.

Gesetzliche Meldepflichten und ESG-Reporting haben nicht nur gemeinsame Herausforderungen, sondern auch zahlreiche Schnittmengen. Emittierte Schadstoffmengen sind relevant für gesetzliche Meldepflichten und Erwähnung in Nachhaltigkeitsberichten. Beides erfordert präzise Erfassung von Mengen- und Verbrauchsdaten, eine strukturierte Verarbeitung der Informationen und eine termingerechte Berichterstattung.

Die Rolle von BI und Data Analytics für effiziente Meldungen

Die manuelle Zusammenstellung und Verarbeitung der für ESG-Reports und gesetzliche Meldungen relevanten Daten ist zeitaufwendig und fehleranfällig. Hier bieten Business Intelligence (BI) und Data Analytics entscheidende Vorteile:

  1. Automatisierte Datenerfassung und -aggregation: BI-Tools ermöglichen die Anbindung unterschiedlicher Datenquellen, wodurch alle relevanten Informationen automatisiert erfasst und strukturiert verarbeitet werden können.
  2. Echtzeit-Überwachung und -Reporting: Durch intelligente Dashboards können Unternehmen jederzeit den aktuellen Stand ihrer Mengenmeldungen einsehen und so frühzeitig auf Abweichungen reagieren.
  3. Konsistente und revisionssichere Berichterstattung: Die Nutzung von BI-Systemen stellt sicher, dass Daten fehlerfrei, standardisiert und im geforderten Format an die Behörden oder an ESG-Berichtsplattformen übermittelt werden.
  4. Effizienzsteigerung durch KI und Predictive Analytics: Künstliche Intelligenz kann Muster in den Daten erkennen, Warnfunktionen übernehmen und Prognosen über zukünftige Mengenmeldungen oder Emissionswerte ermöglichen.
  5. Integration mit Nachhaltigkeitszielen: ESG- und gesetzliche Berichterstattung lassen sich durch BI-gestützte Datenmodelle vereinen, sodass Unternehmen nicht nur gesetzliche Anforderungen erfüllen, sondern auch ihre eigenen Nachhaltigkeitsstrategien messbar machen können.

Planerische Komponente: Ex-Post und Ex-Ante Betrachtung

Ein wesentlicher Aspekt ist die Notwendigkeit, sowohl rückblickende (Ex-Post) als auch vorausschauende (Ex-Ante) Daten bereitzustellen. Unternehmen müssen nicht nur die tatsächlich angefallenen Ist-Mengen eines Berichtszeitraums dokumentieren, sondern auch Prognosen für zukünftige Mengen abgeben. Im Folgejahr werden diese Prognosen mit den tatsächlich angefallenen Werten abgeglichen. BI- und Analytics-Tools sind dabei unerlässlich, um:

  • Historische Daten effizient zu analysieren und als Grundlage für Prognosen zu nutzen.
  • Abweichungen zwischen geplanten und tatsächlichen Mengen frühzeitig zu erkennen.
  • Unternehmen bei der strategischen Planung und Zielerreichung zu unterstützen.
  • Die Genauigkeit von Ex-Ante-Berichten durch Machine Learning kontinuierlich zu verbessern.

Fazit: Digitalisierung als Schlüssel für nachhaltige und gesetzeskonforme Unternehmen

Die steigenden regulatorischen Anforderungen im Bereich ESG-Reporting und gesetzlicher Meldepflichten machen eine effiziente, datengetriebene Berichterstattung unabdingbar. Unternehmen, die auf AI, BI und Data Analytics setzen, profitieren von höherer Genauigkeit, Zeitersparnis und einer verbesserten Entscheidungsgrundlage. Die Digitalisierung dieser Prozesse stellt sicher, dass Nachhaltigkeitsziele nicht nur erfüllt, sondern auch strategisch weiterentwickelt werden können.

Tradition + Innovation

Transformation an der Ruhr

Immer im (am) Fluss

Ruhrort ist ein Ort des Wandels – ein historisches Zentrum des Handels und der Industrie, das sich immer wieder neu erfindet. Mit einem Ureinwohner und einem Zugezogenen sind hier in unmittelbarer Nachbarschaft zwei Unternehmen beheimatet, die auf den ersten Blick unterschiedlich erscheinen, aber bei genauerem Hinsehen spannende Parallelen aufweisen: Haniel und EVACO.

Nachbarschaftliche Parallelen

Mit seiner über 250 jährigen Geschichte als Familienunternehmen hat Haniel nicht nur den Mündungsort der Ruhr (=Ruhrort), sondern das gesamte Ruhrgebiet und die das „Revier“ prägende Montanindustrie entscheidend mitgeprägt. Die Gründung der ersten Tiefbauzeche Zollverein markierte einen Meilenstein der Kohleförderung und damit entscheidend für die industrielle Entwicklung der Region.

EVACO ist ein Pionier in der „Datenförderung“ und unterstützt Unternehmen seit über 20 Jahren dabei, wertvolle Erkenntnisse aus ihren Daten zu gewinnen – quasi moderner Bergbau, der Information zu Tage fördert. Aus Kohle wird Energie gewonnen, wir verandeln Daten in Wissen. Bezeichnend, dass EVACO am 16.09.2025 den jährlichen #datatalk congress zum wiederholten Male „auf Zollverein“ veranstaltet: im Oktogon, einem Veranstaltungsort auf dem achteckigen Fundament des ehemaligen Kühlturm der Zeche – symbolisch für den Strukturwandel im Revier.

Transformationstreiber

Doch das ist nicht die einzige Parallele zwischen den neuen Nachbarn. Während Haniel mit der Initiative Urban Zero daran arbeitet, Ruhrort zum ersten CO₂-neutralen Stadtviertel der Welt zu transformieren, unterstützt EVACO mit Lösungen für ESG-Reporting und Nachhaltigkeitsberichterstattung Transparenz und ganzheitliche Verantwortung in Unternehmen.

Ob durch Förderung von Ressourcen oder Wissen, durch Engagement für nachhaltige Stadtentwicklung oder digitale Transformation – Haniel und EVACO zeigen, dass Tradition und Innovation Hand in Hand gehen – und perfekt zu Ruhrort passen.

Macht Euch auf dem #datatalk congress selbst ein Bild von dieser Transformation

Datenmanagement der Zukunft: TimeXtender Holistic Data Suite

Daten sind der Schlüssel zu fundierten Geschäftsentscheidungen

…vorausgesetzt, sie stehen in der passenden Qualität, Aktualität und Struktur zur Verfügung

In der Praxis ist mangelnde Datenqualität ein Dauerthema. Die TimeXtender Holistic Data Suite bietet einen ganzheitlichen Ansatz für Unternehmen, die ihre Datenprozesse optimieren möchten.

TimeXtender automatisiert Datenintegrations-Workflows mithilfe von Metadaten und fortschrittlicher KI. Die unkomplizierte Low-Code-Lösung ermöglicht selbst kleinen Teams, Daten schnell zu erfassen, aufzubereiten und verwertbar zu machen. Das hält die Kosten überschaubar und sichert die Zukunftsfähigkeit von Investitionen.

Durch die Übernahme und Integration von Exmon hat TimeXtender sein Leistungsangebot um das gesamte Datenmanagement Spektrum erweitert und bildet mit der „Holistic Data Suite“ neben der Automatisierung von Datenintegrationsprozessen auch die Themen Stammdatenverwaltung, Datenqualität und die zentrale Steuerung von Datenprozessen. Alle Produkte stehen als Komplettangebot Holistic Data Suite oder als folgende eigenständige Produkte zur Verfügung, die modular einsetzbar sind und Flexibilität gewährleisten.

  • TimeXtender Integration: Eine leistungsstarke No-Code/Code-Plattform zur Automatisierung von Datenflüssen, die Effizienz und Flexibilität kombiniert.
  • TimeXtender Master Data Management: Ermöglicht eine strukturierte Verwaltung von Stammdaten mit klaren Verantwortlichkeiten und standardisierten Workflows, um die Datenqualität zu verbessern.
  • TimeXtender Data Quality: Ein regelbasiertes System zur automatisierten Sicherstellung der Datenqualität, das Unternehmen dabei unterstützt, konsistente und verlässliche Daten zu nutzen.
  • TimeXtender Orchestration: Die zentrale Steuerung und Überwachung von Datenprozessen, inklusive einer gezielten Bereitstellung und Skalierung von Ressourcen – insbesondere in der Azure Cloud.

Warum TimeXtender?

Unsere Erfahrung zeigt: Unternehmen profitieren von einer flexiblen, integrierten Lösung, die sowohl technologische als auch organisatorische Herausforderungen adressiert. Die TimeXtender Holistic Data Suite bietet eine zukunftssichere Plattform für Unternehmen, die datengetriebene Entscheidungen auf einer verlässlichen Basis treffen möchten.

Interesse geweckt? Lass uns über Deine individuellen Anforderungen sprechen oder die Vorteile der TimeXtender-Lösung in Aktion demonstrieren!

Qlik startet mit aufregenden Neuigkeiten durch

Upsolver Akquisition, Data Flow in Qlik Cloud Analytics™ u.v.m.

Upsolver

Qlik gewinnt mit Upsolver einen der Pioniere im Bereich Echtzeit-Daten-Streaming und Apache Iceberg-Optimierung.  Dieser Schritt stärkt Fähigkeit von Qlik, Unternehmen durchgängige, offene und skalierbare Lösungen für Datenintegration, Analytik und KI auf einer einzigen Plattform anzubieten.

Das offene Tabellenformat Apache Iceberg ermöglicht Unternehmen, offene Lakehouses zu implementieren, die hochleistungsfähige Analysen auf großen Datenbeständen ermöglichen und gleichzeitig eine nahtlose Integration mit verschiedenen Datenverarbeitungs-Engines gewährleisten.

Die Vorteile auf einen Blick:

  • Echtzeit-Fähigkeiten: Optimierte Datenaufnahme für schnellere Entscheidungen und KI-gestützte Workflows.
  • Effiziente Datenverwaltung: Integration des Upsolver Adaptive Iceberg Optimizers zur Reduzierung der Speicherkosten und Steigerung der Abfrageleistung um bis zu 5x.
  • Offene, flexible Architektur: Skalierbare und interoperable Datenlösungen für Unternehmen.

Data Flow: No-Code-Datenaufbereitung in Qlik Cloud Analytics

Mit Data Flow bietet Qlik eine intuitive No-Code-Lösung zur Datenaufbereitung für Analysen, Machine Learning und KI:

  • Visueller Editor mit Drag-and-Drop-Funktionalität für einfache Datenverarbeitung (QVD, Parquet u.v.m.).
  • No-Code-Prozessoren für Bereinigungs-, Aggregations- und Filterfunktionen.
  • Datenvorschau zur Sicherstellung von Genauigkeit und Transparenz.
  • Automatische Skripterstellung zur Integration in Qlik-Skripte.

Direct Access Gateway 1.7.0: Neue Features & Performance-Boost

Die neueste Version des Direct Access Gateway verbessert Leistung und Sicherheit:

  • Neuer File-Connector: Sicherer Dateizugriff und direktes Datenstreaming in Qlik Sense.
  • Bessere Performance: Gleichzeitige Verarbeitung mehrerer Anfragen durch Async Command Support.

Empfehlung: Kunden sollten auf die neueste Version upgraden und mittelfristig von Qlik Data Transfer auf Data Gateway Direct Access umsteigen.

Regex-Unterstützung in Qlik Cloud Analytics

Qlik Cloud Analytics bietet jetzt native Regex-Unterstützung für Skripte und das Frontend. Nutzen Sie diese Funktion für:

  • Mustererkennung und Datenextraktion
  • Validierung von Datenformaten
  • Standardisierung von Daten anhand vordefinierter Muster

Custom Groups: Flexibles Benutzer- & Gruppenmanagement

Mit Custom Groups erhalten Unternehmen mehr Kontrolle über Benutzerberechtigungen, auch ohne Identity Provider (IdP). Vorteile:

  • Verwaltung von Benutzergruppen ohne IT-verwaltete Active Directory-Gruppen.
  • Vereinfachte Integration mit Drittanbieter-Anwendungen.
  • Nutzung für API-gesteuerte Benutzerverwaltung via OAuth2 Machine-to-Machine.

Neues Lizenzmodell für Qlik Application Automation

Gute Nachrichten! Standard-Ausführungen sind jetzt kostenlos, wenn ausschließlich Qlik-Konnektoren genutzt werden. Nur Automationen mit Drittanbieter-Integrationen werden als Lizenzverwendung gewertet.

KI-Power für Qlik Talend Cloud & Snowflake Cortex AI

  • Qlik Talend Cloud bietet jetzt eine GenAI-Dokumentationsfunktion, die automatisch Beschreibungen für Datensätze erstellt.
  • Snowflake Cortex AI-Integration in Qlik Cloud Data Integration mit Funktionen für:
    • Sentiment Analysis
    • Data Classification
    • Text Summarization
    • Translation

Diese strategischen Erweiterungen stärken die Position von Qlik als führendes Unternehmen für Datenintegration und Analytics und heben die KI-gestützte Datenanalyse auf ein neues Level.

 

 

 

DeepSeek – Revolution oder Hype?

DeepSeek und die Mixture-of-Experts Architektur (MoE)

Die KI-Welt ist in Aufruhr – DeepSeek sorgt für Begeisterung und Kontroversen gleichermaßen. Während die technologische Effizienz und Leistungsfähigkeit des Modells beeindruckt, gibt es auch kritische Stimmen zu Datenschutz und Zensur. Doch was macht DeepSeek wirklich einzigartig?

Die Mixture-of-Experts-Architektur: Das Erfolgsgeheimnis von DeepSeek

Große Sprachmodelle (LLMs) basieren auf neuronalen Netzwerken mit mehreren Schichten. Klassische Architekturen verarbeiten jede Eingabe mit allen Neuronen, was enorme Rechenressourcen erfordert. DeepSeek setzt jedoch auf die Mixture-of-Experts (MoE)-Architektur, um diese Herausforderung zu meistern.

MoE teilt das Netzwerk in spezialisierte Experten auf. Ein Gate-Netzwerk entscheidet dynamisch, welcher Experte für welche Eingabe aktiviert wird. Dadurch arbeitet nicht das gesamte Modell gleichzeitig, sondern nur die jeweils relevanten Experten. Das Ergebnis: schnellere Berechnungen, reduzierter Energieverbrauch und eine bessere Spezialisierung.

DeepSeek optimiert das MoE-Prinzip

Obwohl MoE nicht neu ist, verbessert DeepSeek bestehende Schwachstellen. Klassische MoE-Modelle haben oft das Problem einer ungleichen Verteilung: Einige Experten sind überlastet, während andere kaum genutzt werden. Dadurch entstehen Ungleichgewichte im Training und Ineffizienzen im Modell.

DeepSeek begegnet diesem Problem mit einer optimierten Filterung. Anfragen werden in zwei Gruppen unterteilt:

  • Allgemeine Experten: Zuständig für Sprachverständnis und logisches Denken.
  • Spezialisierte Experten: Trainiert für spezifische Aufgaben wie komplexe Mathematik oder Programmierung.

Durch diese Struktur wird sichergestellt, dass alle Experten gleichmäßig genutzt und trainiert werden, was zu einer höheren Gesamtleistung führt.

Zukunftsperspektiven: Was bedeutet DeepSeek für die KI-Entwicklung?

DeepSeek beweist, dass LLMs weiterhin großes Optimierungspotenzial haben. In einer Zeit, in der KI-Agenten immer wichtiger werden, sind Effizienzsteigerungen entscheidend, um im Wettbewerb zu bestehen.

Aber DeepSeek ist nicht allein. Zahlreiche LLMs konkurrieren mit spezialisierten Lösungen für unterschiedliche Anwendungsfälle. Besonders in Kombination mit Wissensdatenbanken gewinnt KI an Bedeutung. Retrieval-Augmented Generation (RAG) ermöglicht es Unternehmen, Dokumente interaktiv zu nutzen, Fachliteratur zu analysieren und komplexe Daten effizient zu verwalten.

Möchten Sie LLMs und RAGs in Ihrem Unternehmen einsetzen? Wir bieten maßgeschneiderte Lösungen, um Sie auf diesem Weg zu unterstützen. Kontaktieren Sie uns für eine individuelle Beratung!

 

Die Highlights im Überblick

Das Qlik Update Q4 hat umfassende Neuerungen und Verbesserungen in allen Bereichen gebracht – von Visualisierungen über Cloud-Funktionen bis hin zu Machine Learning.

Neue Qlik Demo-Website Explore.qlik.com
Explore.qlik.com bietet einen interaktiven Einblick in die Welt von Qlik. Dank Qlik Anonymous Access können Besucher alle Lösungen live erleben, inklusive Demos, Videos und geführter Erlebnisse.

Qlik Sense Enterprise Client Managed
Neu ist die Unterstützung für PostgreSQL-Versionen 15 und 16. Entwickler profitieren von Features wie gruppierbaren Arbeitsblättern, anpassbaren Benutzeroberflächen und neuen Objekten wie dem Registerkarten-Container und Navigationsmenü.
Wichtig: Admins sollten Websocket-Add-ons prüfen, bevor sie das Update installieren.

Erweiterungen für Visualisierungen & Dashboards

  • Gruppierung und Veröffentlichung von Arbeitsblättern.
  • Individuelle Gestaltungsmöglichkeiten für Filterfenster, Tabellen und Dashboards.
  • Neue Objekte: Kombi-Diagramm, Chart-Animationen und verbesserte Stylingoptionen.

Qlik Cloud: Neue Funktionen und Verbesserungen

  • Einführung des Qlik Data Gateway als Nachfolger von Qlik Data Transfer.
  • Neuer Editor mit vereinfachtem Design und Analysefunktionen.
  • PixelPerfect für hochwertige, markenkonforme Berichte.

AutoML & Qlik Answers
Die intelligente Modelloptimierung wurde erweitert und bietet jetzt Anomalie-Erkennung sowie neue Funktionen zur verbesserten Modellverarbeitung und Datenaufbereitung.

QlikView
Oldie, but Goodie – das Evergreen erhält zwar keine neuen Features mehr, aber weiterhin Updates, Bugfixes und Engine-Optimierungen.
Hinweis: Der QlikView Mobile Client ist ab Mai 2024 nicht mehr verfügbar.

Effizientes KPI-Monitoring durch Anomaly Detection

Das Erkennen ungewöhnlicher Muster ist elementarer Bestandteil verschiedener Analyseansätze und hat eine lange Historie. Den Begriff Anomaly Detection kennt man aus spezifischen Bereichen wie der Betrugserkennung im Bankwesen oder der IT-Sicherheit. Wenn z.B. ein Login von einem neuen Gerät erfolgt oder an einem ungewöhnlichen Ort stattfindet, wird das als Anomalie gewertet und der Anwender per E-Mail um die Bestätigung des Vorgangs gebeten.

Anomaly Detection ist mitnichten ein exklusives Thema für die genannten Fachbereiche. Jedes Unternehmen steht vor der Herausforderung, Kennzahlen zu überwachen, um bei Abweichungen schnellstmöglich reagieren zu können. Insbesondere unter Berücksichtigung der ständig wachsenden Datenmengen bietet eine skalierbare Möglichkeit, ungewöhnliche Beobachtungen effizient und automatisiert zu identifizieren, ein großes Potenzial.

Anomaly Detection eröffnet interessante Möglichkeiten für ein effizientes und mehrschichtiges KPI-Monitoring und ist damit die ideale Ergänzung zu Dashboards. Typischerweise wird zwischen drei Arten von Anomalien unterschieden:

Punktuelle Anomalien
Punktuelle Anomalien sind das, was man gemeinhin unter einer Anomalie versteht. Sie liegt dann vor, wenn eine Beobachtung weit außerhalb des üblichen Wertebereichs liegt. Wenn sich bspw. monatliche Kosten normalerweise zwischen 10.000 und 20.000 Euro bewegen, würde ein auftretender Wert von 0 oder 100.000 Euro als punktuelle Anomalie bezeichnet.
Methoden zur punktuellen Anomalie-Identifikation sind: Z-Score, Isolation Forest, Local Outlier Factor (LOF).

Kontextuelle Anomalien
Kontextuelle Anomalien betrachten nicht nur den einzelnen Wert, sondern auch dessen Beziehung zu anderen Variablen. Der Wert selbst mag unauffällig erscheinen, doch im Kontext kann er ungewöhnlich sein. Ein Beispiel: Die Bestellzahlen steigen, während gleichzeitig die durchschnittlichen Bestellwerte plötzlich sinken. Solche Veränderungen bleiben bei einer rein visuellen Analyse von Dashboards oft lange unentdeckt.
Methoden zur kontextuellen Anomalie-Identifikation sind: Conditional Random Fields (CRF), Support Vector Machine (SVM), Bayesian Networks.

Kollektive Anomalien
Kollektive Anomalien treten auf, wenn eine ganze Gruppe von Datenpunkten von der Norm abweicht. Dabei sind die einzelnen Werte für sich genommen oft nicht auffällig. Beispielsweise mag es normal sein, dass bestimmte Produkte an einzelnen Tagen nicht verkauft werden. Sollte jedoch eine ganze Woche lang kein Verkauf stattfinden, deutet dies auf ein größeres Problem hin.
Methoden zur kollektiven Anomalie-Identifikation sind: DBSCAN, Hidden Markov Models (HMM).

Von Statistik bis KI
Um die unterschiedlichen Anomalien erkennen zu können, gibt es eine Vielzahl möglicher Lösungen von klassischer Statistik bis hin zu modernsten KI-Ansätzen. Oftmals lassen sich bereits mit vergleichsweise einfachen Methoden große Erkenntnisse erzielen. Welcher Ansatz der richtige ist, hängt von der Komplexität der Prozesse und der gewünschten Fehlertoleranz ab, ist also eine Einzelfallentscheidung.

Der Einsatz von Anomaly Detection ist in jedem Fall ein echter Wettbewerbsvorteil und bietet eine quantitativ gestützte Lösung zur Risikoreduzierung. Falls Du Anwendungsfälle hast, bei denen Du mittels Anomalie Detection frühzeitig gegensteuern möchtest, kannst Du uns gerne ansprechen. Wir haben das Knowhow und die Tools, Dich pragmatisch und zielführend zu unterstützen.

Make or Buy

Bestehende BI-Tools oder spezialisierte Software – für wen welcher Weg der richtige ist

Das ESG-Reporting (Environmental, Social, Governance) stellt Finanzleiter und Controller vor ein entscheidenden Dilemma: Soll das ESG-Reporting in die bestehende BI-Infrastruktur integriert werden, die bereits für Finanzanalysen genutzt wird, oder lohnt sich die Investition in eine spezialisierte ESG-Software?

Auf der Habenseite bestehender BI-Tools stehen Vorteile wie Kostenersparnis, vertraute Bedienung und die Möglichkeit, ESG- und Finanzdaten in einer zentralen Plattform zu analysieren. Spezialisierte ESG-Lösungen punkten durch vorgefertigte Templates zur Erfassung komplexer Nachhaltigkeitsdaten und erleichtern die Erfüllung regulatorischer Anforderungen.

Die Entscheidung für oder gegen spezialisierte Software hängt stark von den individuellen Anforderungen des Unternehmens, den vorhandenen Ressourcen und der strategischen Bedeutung von ESG-Reporting ab.

ESG Reporting auf Basis bestehender BI-Tools

  • Die Nutzung bestehender BI-Tools für die Abbildung von ESG-Reportings ist effizient, kostensparend und ermöglicht eine zentrale Datenbasis, in der Finanz- und ESG-Daten integriert werden können. Sie bieten Flexibilität und eine vertraute Umgebung, die kosteneffizient ist, die Lernkurve verkürzt und dynamische Anpassungen erlaubt.

Spezialisierte ESG-Software

  • bietet tiefgehende, branchenspezifische Funktionen und vorgefertigte Frameworks, die es leichter machen, ESG-Standards wie GRI oder SASB  einzuhalten. Sie werden mit vorgefertigten Analysen ausgeliefert, bilden häufig Branchenstandards ab und können Benutzerführungen als Hilfestellung beinhalten.

Für wen sich welche Variante lohnt

  • Unternehmen mit hohen regulatorischen Anforderungen, komplexen ESG-Daten (z. B. CO₂-Fußabdruck) oder ambitionierten Nachhaltigkeitsstrategien sollten spezialisierte Tools in Betracht ziehen. Besonders relevant ist dies für Branchen wie Energie, Produktion oder Finanzdienstleistungen, in denen ESG ein strategisches Kernthema darstellt.
  • Mittelständische Unternehmen oder solche mit weniger anspruchsvollen ESG-Anforderungen können bestehende BI-Tools nutzen, insbesondere wenn eine starke BI-Infrastruktur bereits vorhanden ist. Dies ist ideal, wenn ESG-Daten eher ergänzend zu Finanzdaten betrachtet werden und keine hochkomplexen Analysen erforderlich sind.

Kritischer Erfolgsfaktor Datenintegration

  • Nachvollziehbare Datenaggregation ist eine notwendige Bedingung beim ESG-Reporting, unabhängig davon, ob bestehende BI-Tools oder spezialisierte ESG-Software eingesetzt werden. Dies liegt daran, dass ESG-Daten aus einer Vielzahl von internen und externen Quellen stammen und mit Finanz- sowie operativen Daten konsistent verknüpft werden müssen.

 

EVACO goes Urban Zero

Ruhrort wird enkelfähig und wir sind dabei

Stadtteil im Wandel
Mit dem neuen Firmensitz in Duisburg Ruhrort steht EVACO sinnbildlich für die Transformation des traditionsreichen Stadtteils. Ruhrort, einst geprägt durch die industrielle Blütezeit, steht heute im Mittelpunkt von Transformation und Innovation. Das städtebauliche Vorhaben Urban Zero markiert dabei einen entscheidenden Schritt, um Ruhrort zu einer Modellregion für nachhaltige Stadtentwicklung zu machen. Die neue EVACO Zentrale reiht sich nahtlos in die Dynamik des Stadtteils ein und verstärkt den positiven Wandel.

Ruhrort im Fokus: Vergangenheit und Zukunft verbinden
Als historischer Hafenstandort ist Duisburg Ruhrort durch einen einzigartigen Charakter gekennzeichnet, der Tradition und Moderne vereint. Urban Zero markiert den Versuch, diesen Stadtteil zu einem Vorreiter für klimaneutrales und zukunftsorientiertes Leben und Arbeiten zu machen und als erster Stadtteil weltweit bis 2029 in die vollständige Klimaneutralität zu transformieren. Energieeffiziente Gebäude, nachhaltige Mobilität und innovative Technologien bilden das Fundament dieser Vision.

EVACO ist ein weiterer Innovationstreiber in Ruhrort
Die Ansiedlung von Unternehmen wie EVACO zeigt, dass Ruhrort zunehmend als attraktiver Standort für zukunftsgerichtete Wirtschaftszweige wahrgenommen wird. Das neue Quartier symbolisiert die Verbindung von technologischer Expertise und regionaler Verankerung. Der Anbieter für Datenanalyse, Business-Intelligence und KI-Lösungen beweist mit seinen Kunden, dass Digitalisierung ein integraler Bestandteil wirtschaftlichen Aufbruchs und nachhaltigen Wirtschaftens ist. EVACO unterstützt Unternehmen bei der Nachhaltigskeitsberichterstattung wie z.B. ESG-Reporting.

Ein Ausblick auf das Ruhrort von morgen
Das neue EVACO-Hauptquartier in der Nähe des Enkelfähig Campus ist ein weiterer Baustein in der Revitalisierung von Duisburg Ruhrort. Gemeinsam mit Initiativen wie Urban Zero trägt EVACO dazu bei, die Zukunftsfähigkeit des Stadtteils zu sichern und einen Ort zu schaffen, an dem Tradition, Innovation und Nachhaltigkeit harmonisch miteinander verbunden werden. Die Synergie zwischen wirtschaftlichem Fortschritt und nachhaltiger Stadtentwicklung schafft eine Umgebung, die sowohl Unternehmen als auch Bewohnern neue Perspektiven eröffnet und beweist, dass Ruhrort mehr ist als ein Ort mit Geschichte – es ist ein Stadtteil mit Zukunft.

QlikCloud PixelPerfect

Adressaten ohne Qlik-Zugang professionell mit Daten versorgen

Pixelgenaues Reporting ist ein Begriff aus der Datenvisualisierung. Gemeint ist die präzise und akkurate Darstellung von Berichten, die jedes Element von Inhalt bis Layout und Formatierung exakt wiedergibt. Zielsetzung ist, Diskrepanzen und Inkonsistenzen, die die Qualität von Berichten beeinträchtigen können, zu beseitigen, um Reports zu einem zuverlässigen Werkzeug zur Entscheidungsfindung zu machen.

Qlik Cloud PixelPerfect

Qlik Cloud PixelPerfect ist eine „perfekte“ Möglichkeit, einen Adressatenkreis ohne Zugriff auf die Qlik-Platform automatisiert, individualisiert und ohne Qualitätsverlust mit Informationen zu versorgen.
Durch ein hohes Maß an Genauigkeit und Detailtiefe ist Qlik PixelPerfect ideal für Berichte, die exakte Layouts und präzise Formatierungen erfordern, wie z.B. Finanz- oder Unternehmensberichte.

Merkmale von Qlik PixelPerfect:

  • Detailgenaue Layouts: Ermöglicht pixelgenaue Designs, wodurch Berichte präzise den Anforderungen entsprechen
  • Vielfältige Formatierungsoptionen: Sie können komplexe Tabellen, Diagramme und Textblöcke mit spezifischen Schriftarten, Farben und Layouts erstellen
  • Integration mit Qlik-Daten: Daten können direkt in den Berichten verwendet werden
  • Exportmöglichkeiten: PixelPerfect-Berichte können in verschiedenen Formaten wie PDF, Word oder Excel exportiert werden
  • Automatisierter Versand: per Mail oder Upload in Kommunikationsprozesse integrierbar
  • Komplexe Designs: Unterstützt die Erstellung anspruchsvoller Berichte, die auch Logos, Kopf- und Fußzeilen sowie Wasserzeichen enthalten können

Typische Anwendungsfälle:

  • Finanzberichte: Hochformatierte Dokumente für externe oder interne Stakeholder
  • Compliance-Dokumente: Berichte, die strengen regulatorischen Vorgaben entsprechen müssen
  • Visuell anspruchsvolle Berichte: Designs, die exakt an die Corporate Identity eines Unternehmens angepasst sind

 

Datenstrategie-Workshop

To Tool or Not to Tool

Für viele Unternehmen ist der Bereich Datenanalyse und Reporting ein reines Cost-Center: es wird nicht über den Nutzen nachgedacht, sondern nur über die entstehenden Kosten. Und wenn dann etwas nicht funktioniert? Dann ist das eingesetzte Tool schuld und es muss ein neues her. Und genau hier liegt oft der Gedankenfehler: Ob es um die Einführung eines neuen Tools oder die Ablösung eines bestehenden Systems geht, der Fokus liegt häufig rein auf der Technologie. In der Betrachtung und der Entscheidungsfindung dreht sich alles um die Features und Funktionen, die das nächste große Werkzeug bieten soll. Doch dieser Ansatz ist ein Trugschluss – und kann sogar fatale Folgen haben.

Rein auf das einzusetzende Tool fokussierte Projekte laufen Gefahr, zu teuer zu werden oder gar zu scheitern. Der Grund liegt auf der Hand: Ohne eine klare Zielsetzung und ohne eine durchdachte Datenstrategie bleibt der Einsatz eines Tools eine punktuelle Maßnahme ohne nachhaltigen Mehrwert.

Klare Zielsetzung ist entscheidend
Stellen Sie sich die Frage: Wofür mache ich das eigentlich? Was soll ein neues Reporting leisten? Welche Entscheidungen sollen unterstützt, welche Prozesse verbessert werden? Ohne eine präzise Antwort auf diese Fragen bleibt jedes noch so moderne Tool ein stumpfes Schwert.

Denn Datenprojekte sind niemals nur eine technische Herausforderung. Sie betreffen immer die drei Säulen People, Process und Technology. Es reicht nicht, ein Tool auszuwählen, wenn gleichzeitig die organisatorischen Prozesse und die Mitarbeitenden nicht eingebunden werden. Auch andersherum gilt: gegeben einem vordefinierten Toolstack kann über eine Anpassung der anderen beiden Säulen maximaler Nutzen erzielt werden.

Ganzheitliches Denken führt zum Erfolg
Wer sich statt auf die Technologie auf die Strategie fokussiert, denkt ganzheitlich und langfristig. Mit einem klaren Ziel vor Augen – etwa die Transformation zur datengetriebenen Organisation – lässt sich ein Weg definieren, der die gesamte Organisation einbindet. Das Tooling wird dabei zu einem Baustein unter vielen, aber eben nicht zum alles bestimmenden Faktor.

Entscheidende Vorteile
Effizienz: Neue Analysen können schneller erstellt werden, da die Prozesse standardisiert und aufeinander abgestimmt sind
Geschwindigkeit: Agilität und Marktfähigkeit des Unternehmens nehmen zu, da datengetriebene Prozesse schneller angepasst werden können
Wirtschaftlichkeit: Ungenutzte Umsatzpotenziale werden erschlossen, Kosteneinsparungen können realisiert werden

Insgesamt kehrt mehr Rationalität in die Entscheidungen ein, da Analysen mit überschaubarem Aufwand für alle verfügbar sind und dadurch leicht als Entscheidungsgrundlage genutzt werden können.

Faktor Mensch
Eines darf dabei nicht übersehen werden: Datenprojekte bedeuten immer Veränderung – und Veränderungen treffen häufig auf Widerstand. Der Erfolg einer Datenstrategie hängt maßgeblich davon ab, wie gut die Prinzipien des Change Managements eingehalten werden. Mitarbeiter müssen frühzeitig einbezogen und befähigt werden, mit neuen Prozessen und Technologien zu arbeiten. Dabei sollte man die Entscheidungen transparent kommunizieren und den Nutzen für das Unternehmen und den Einzelnen herausarbeiten.

Fazit
Die reine Fokussierung auf die Toolauswahl mag verlockend erscheinen, doch ohne eine übergreifende Datenstrategie bleibt der Nutzen begrenzt. Unternehmen, die das Potenzial ihrer Daten vollständig ausschöpfen wollen, müssen den Fokus auf klare Zielsetzungen, Prozesse und eine organisationsweite Strategie legen. So wird die Grundlage geschaffen, um datengetriebene Entscheidungen zu treffen – und das mit maximaler Geschwindigkeit und Effizienz.

Monitoring und Anpassung

ESG-Reporting ist keine Hürde in einem Hindernislauf, sondern ein Training, das man aufnimmt, um kontinuierlich und langfristig besser zu werden.

Managementprinzipien für erfolgreiches ESG-Reporting. Folge 5: Kontinuierliche Überwachung und Anpassung

Die kontinuierliche Überwachung und Bewertung erhobener Daten und mögliche Anpassung der Routinen und Maßnahmen ist aus mehreren Gründen ein Schlüsselprinzip für erfolgreiches ESG Reporting:

Agilität und Resilienz fördern
Unternehmen operieren in dynamischen Umfeldern und müssen auf veränderliche Marktbedingungen und Stakeholder-Erwartungen reagieren. Engmaschiges und umfassendes Monitoring stärkt die Reaktions- und Widerstandsfähigkeit. Gesetze und regulatorische Anforderungen entwickeln sich ständig weiter (z. B. EU-Taxonomie, CSRD). Eine kontinuierliche Überwachung stellt sicher, dass das unternehmerische Handeln den relevanten Normen entspricht und auf Änderungen vorbereitet ist.

Entscheidungsgrundlage verbessern
Hochwertige und aktuelle Daten, Plan-Ist-Abgleiche und fundierte Prognosen ermöglichen robuste Managemententscheidungen. Anpassungen, die auf dieser Grundlage vorgenommen werden, verbessern die Effektivität der ESG-Strategie und tragen zur Zielerreichung bei.

Risiken minimieren
Klimarisiken, Lieferkettenprobleme oder veränderte regulatorische Rahmenbedingungen können fortlaufend berücksichtigt und bewertet werden. Dieser kontinuierliche Prozess hilft, frühzeitig zu reagieren und Strategien anzupassen.

Wettbewerbsvorteile schaffen
Unternehmen, die flexibel auf Markt- und Umweltveränderungen reagieren können, sind oft innovativer und wettbewerbsfähiger. Dynamisches ESG-Reporting stärkt die Marktposition und Zukunftsfähigkeit

Nachhaltige Wertschöpfung sicherstellen
ESG-Themen wie Ressourceneffizienz, soziale Verantwortung und gute Unternehmensführung sind eng mit langfristiger Wertschöpfung verknüpft. Kontinuierliches Reporting stellt sicher, dass ESG-relevante Themen nachverfolgt und umgesetzt werden.

Vertrauen und Glaubwürdigkeit aufbauen
ESG-Daten sind komplex und stammen aus einer Vielzahl an Quellen. Eine fortlaufende Überprüfung stellt sicher, dass die Datenqualität hochwertig ist, Fehler korrigiert und ESG-Themen ernst genommen werden. Dies fördert Vertrauen bei Investoren, Kunden und Mitarbeitern, was wiederum die Reputation und die Attraktivität des Unternehmens stärkt.

Effektive Zielsteuerung
ESG-Strategien und -Ziele sind oft langfristig angelegt. Ohne kontinuierliche Überwachung und Anpassung können Abweichungen unbemerkt bleiben und die Zielerreichung gefährdet werden.

Fazit
ESG-Reporting ist ein Effizienz- und Optimierungswerkzeug, das nachhaltiges Wirtschaften ermöglicht, Risiken minimiert und die Marktposition von Unternehmen stärkt. Durch kontinuierliches Monitoring erlaubt das die Anpassung und Feinjustierung von Strategien und geht daher weit über die reine Erfüllung von Compliance-Themen hinaus.

 

Allianz für Entwicklung und Klima

EVACO ist Unterstützer der Initiative des Bundesministeriums für wirtschaftliche Zusammenarbeit und Entwicklung.

Jetzt ist es offiziell: wir sind stolz darauf, der Allianz für Entwicklung und Klima als offizieller Unterstützer anzugehören. Diese Auszeichnung unterstreicht das EVACO-Engagement, Unternehmen und Organisationen mit innovativen Technologien bei Nachhaltigkeitsprojekten zu unterstützen.

Die Allianz für Entwicklung und Klima ist eine Initiative des Bundesministeriums für wirtschaftliche Zusammenarbeit und Entwicklung und hat sich zum Ziel gesetzt, Klimaschutz mit nachhaltiger Entwicklung zu verbinden. Die Mitglieder und Unterstützer der Allianz verpflichten sich, durch Klimaschutzmaßnahmen nicht nur CO₂-Emissionen zu reduzieren, sondern gleichzeitig Entwicklungsprozesse zu fördern und so die Agenda 2030 der UNO umzusetzen.

Daten und Künstliche Intelligenz sind unverzichtbar

EVACO bringt umfassendes Know-how im Bereich Daten und Business Intelligence (BI) in die Allianz ein und unterstützt Unternehmen und Organisationen dabei, die richtigen Entscheidungen zur Erreichung der Sustainable Development Goals (SDG) zu treffen. Daten und der Einsatz Künstlicher Intelligenz tragen zur Verbesserung von Prognosen und Optimierung von Prozessen bei. Analysetools ermöglichen transparentes Monitoring von Emissionen und deren Kompensation.

EVACO unterstützt mit dem ESG-Hub bei der praktischen Umsetzung von Data-Driven Sustainability. Anwenderbeispiele sind Energieverbrauchs-Dashboards oder KI-gestützte Steuerung zum Messen und Reduzieren des Energieverbrauchs. HR-Cockpits liefern Kennzahlen im „Sozialen Sektor“, während Prozessanalysen Zahlungsströme überwachen und übermitteln.

Nachhaltigkeitsberichte wie das ESG Reporting mit wenig Aufwand und validen Daten sind die logische Konsequenz. Für regulatorisches Wissen oder die Wesentlichkeitsanalyse arbeiten wir in einer strategischen Partnerschaft mit der Ingdilligenz GmbH zusammen. Die Abgrenzung liegt in den Kernkompetenzen inhaltliche Analyse (Ingdilligenz) und Tool-Kompetenz und technische Umsetzung (EVACO GmbH).

Auch nicht berichtspflichtige Unternehmen profitieren vom ESG-Hub bei der Erfüllung staatlicher Normen. Meldepflichtige Informationen gemäß Abfallrecht, Kreislaufwirtschaftsgesetz, Verpackungsgesetz etc. werden als automatisierte Mengenmeldungen übermittelt.

Schulung und Weiterbildung

Aktuelles Know-how stellt sicher, dass alle Ebenen einer Organisation die Bedeutung von ESG verstehen und erkennen, wie sie dazu beitragen können.

Managementprinzipien für erfolgreiches ESG-Reporting. Folge 4: Schulung und Weiterbildung

ESG-Reporting ist ein dynamisches Thema. Die Ergebnisqualität hängt eng mit den Kenntnissen und Fähigkeiten der involvierten Personen und unternehmensweiter Aufklärung zusammen – aus folgenden Gründen:

Komplexität der ESG-Anforderungen 

ESG-Reporting erfordert umfassende Kenntnisse über relevante Standards, wie CSRD (Corporate Sustainability Reporting Directive). GRI (Global Reporting Initiative) oder SASB (Sustainability Accounting Standards Board). Diese Standards sind komplex und werden permanent novelliert. Durch regelmäßige Weiterbildung stellen Unternehmen sicher, dass ihre Berichterstattung den aktuellen regulatorischen Anforderungen und internationalen Best-Practices entspricht.

Vermeidung von Compliance-Risiken 

Unternehmen, die ESG-Reporting nicht korrekt umsetzen, riskieren finanzielle und rechtliche Konsequenzen. Durch gezielte Schulungen können Mitarbeitende Compliance-Vorgaben besser verstehen und umsetzen, wodurch potenzielle Risiken minimiert werden.

Datenqualität und Genauigkeit 

Eine zentrale Herausforderung im ESG-Reporting ist die Verlässlichkeit der erhobenen Daten. Mitarbeitende, die geschult sind, lernen, wie sie Daten korrekt erheben, analysieren und berichten, was die Genauigkeit und Glaubwürdigkeit des ESG-Reports erhöht.

Förderung einer nachhaltigen Unternehmenskultur 

Durch Schulungen zum Thema ESG wird das Bewusstsein für Nachhaltigkeit und soziale Verantwortung auf allen Ebenen des Unternehmens geschärft. Mitarbeitende verstehen besser, wie ihre Arbeit zur Gesamtstrategie und den ESG-Zielen des Unternehmens beiträgt, was wiederum eine nachhaltige Unternehmenskultur fördert.

Steigerung der Wettbewerbsfähigkeit 

Unternehmen, die ESG-Reporting professionell und glaubwürdig betreiben, gewinnen nicht nur das Vertrauen von Investoren, sondern auch von Kunden und anderen Stakeholdern. Weiterbildungen im ESG-Bereich helfen, die Erwartungen dieser Interessengruppen zu erfüllen und dadurch die Wettbewerbsfähigkeit zu stärken.

Verbesserung der strategischen Entscheidungsfindung 

Schulungen vermitteln Führungskräften die nötigen Fähigkeiten, um ESG-Daten als strategisches Werkzeug zu nutzen. Fundiertes Wissen über ESG-Kriterien ermöglicht es, Risiken und Chancen frühzeitig zu erkennen und nachhaltige Entscheidungen zu treffen, die den langfristigen Erfolg des Unternehmens unterstützen.

Aktuelles und breit gestreutes ESG-Know-how ist nicht nur Basis für einen formal korrekten Nachhaltigkeitsbericht. Es erhöht die unternehmensweite Identifikation mit dem Thema und damit die Motivation, sich einzubringen. Das mündet in qualitativ besseren Ergebnissen, minimiert Fehlerrisiken und verbessert die Wettbewerbsfähigkeit im Interesse aller Stakeholder.

 

Demokratisierung von Wissen: Qlik launcht „Anonymous Access“

Qlik präsentiert innovative Funktion für barrierefreies Teilen von Daten und Informationen

Angesichts der steigenden Anforderungen an Transparenz und Rechenschaftspflicht wird die Veröffentlichung und Weitergabe von Daten für Unternehmen und Institutionen zunehmend zu einem strategischen Vorteil. Unternehmen und Organisationen beweisen Transparenz und Glaubwürdigkeit, wenn sie ihre Informationen möglichst einfach zugänglich machen. Stakeholder und Kunden danken es mit Imagegewinn, Vertrauen und Loyalität. Qlik hat eine innovative Funktion vorgestellt, um genau diesen Bedürfnissen gerecht zu werden: den anonymen und barrierefreien Zugriff auf Daten.

Qlik-Anonymous Access ermöglicht Unternehmen und Institutionen, Daten über Dashboards, Berichte oder Apps öffentlich zugänglich zu machen – ganz ohne Anmeldung. Nutzer können jederzeit über Webseiten oder Portale auf aktuelle Informationen zugreifen – einfach, sicher und ohne Hürden.

Der barrierefreie Qlik-Zugriff bietet entscheidende Vorteile:

  • keinen Anmeldeprozess, keine Nutzerverwaltung, keine Passwörter
  • Skalierbarkeit und Flexibilität durch Cloud-basierte Struktur
  • nahtlos in Web, App etc. integrierbar
  • sichere Interaktion (Daten können nicht verändert werden)
  • Erhöhung der Data Literacy
  • Demokratisierung von Wissen

Funktionsweise:

Qlik stellt jedem Kunden einen speziellen Cloud-Bereich bereit, in dem öffentliche Daten gespeichert werden. Dank No-Code/Low-Code-Einbettung lassen sich Dashboards einfach auf Webseiten integrieren. Die automatische Datenaktualisierung stellt sicher, dass alle Inhalte stets aktuell bleiben, während benutzerdefinierte Rollen den sicheren Zugriff auf Daten regeln

Anwendungsfälle:

  • Transparenz und Rechenschaftspflicht: Qlik Anonymous Access erfüllt Offenlegungspflichten aktuell und transparent
  • Corporate Social Responsibility (CSR) und Nachhaltigkeit: Glaubwürdige Kommunikation von Status Quo und Engagements in den ESG Segmenten Umweltschutz, Soziales und Rechtskonformität.
  • Echtzeit-Monitoring: Organisationen veröffentlichen Echtzeitdaten zu Umweltfaktoren wie Verschmutzung oder Biodiversität, um ein Bewusstsein zu schaffen und politische Veränderungen anzustoßen.
  • Forschung und akademische Zusammenarbeit: Hochschulen und Forschungsinstitute teilen Datensätze, um Austausch und Innovation in der wissenschaftlichen Gemeinschaft zu fördern.
  • Interne Kommunikation: Qlik Anonymous Access macht Daten und Analysen öffentlich zugänglich und ermöglicht Zugriff auf Informationen und Wissen

Klare Verantworlichkeiten

Klare Zuständigkeiten sorgen dafür, dass die Nachhaltigkeitsberichterstattung effektiv umgesetzt, überwacht und kommuniziert werden kann. 

Managementprinzipien für erfolgreiches ESG-Reporting: Folge 3: Zuweisung von Verantwortlichkeiten

Die Zuweisung von Verantwortlichkeiten ist aus mehreren Gründen entscheidend für ein erfolgreiches ESG-Reporting:

Klare Kompetenzen, Rechte und Pflichten

Wenn klar ist, wer für bestimmte ESG-Bereiche verantwortlich ist, gibt es eindeutige Anlaufstelle für Fragen, Entscheidungen und Berichte. Dies verhindert Reporting-Lücken, Kompetenzgerangel und Überschneidungen.

Eindeutige Rollenverteilung

Verantwortlichkeiten stellen sicher, dass ESG-Ziele nicht nur formuliert, sondern auch tatsächlich umgesetzt werden. Ohne klare Zuweisungen ist die Gefahr größer, dass ESG-Themen nicht weiter verfolgt und keine Fortschritte erzielt werden.

Verbesserungsmanagement

Durch klare Verantwortlichkeiten können gezielt Maßnahmen zur Verbesserung der ESG-Performance ergriffen und Fortschritte regelmäßig bewertet werden.

Transparenz

Klare Zuständigkeiten erhöhen die Transparenz und ermöglichen es Stakeholdern, Details bei Bedarf konkret nachzuvollziehen. Das erhöht die Glaubwürdigkeit und Kompetenz des Unternehmens.

Risikomanagement

Verantwortlichkeiten im ESG-Reporting helfen, potenzielle Risiken frühzeitig zu erkennen und entsprechende Gegenmaßnahmen zu ergreifen. Zum Beispiel kann ein verantwortlicher Mitarbeiter für Umweltfragen schneller auf regulatorische Änderungen reagieren.

Eindeutige und kompetente Kommunikation

Klare Verantwortlichkeiten erleichtern die Kommunikation innerhalb des Unternehmens und mit externen Stakeholdern, da klar geregelt ist, wer welche Informationen liefert und für deren Richtigkeit sorgt.

Glaubwürdige Unternehmenskultur

Wenn ESG-Verantwortlichkeiten auf allen Ebenen klar definiert sind, wird das Thema besser in die Unternehmenskultur integriert und im Alltag gelebt.

Lohnende Vorabeit
Unternehmen, die Verantwortlichkeiten vorab festlegen, profitieren von einer höheren Umsetzungsgeschwindigkeit und Ergebnisqualität von ESG Reportings und Initiativen. Positive Nebeneffekte sind eine hohe Identifikation und Sachkompetenz in den jeweiligen Fachbereichen, die in Kosteneinsparungen durch Effizienzsteigerung münden.

GenAI ohne Halluzinationen

Retrieval-Augmented Generation überwindet bisherige Limitationen von GenAI im Unternehmenskontext

Generative Künstliche Intelligenz (GenAI) ist derzeit das Gesprächsthema und hat das Potenzial, unsere Arbeits- und Lebensweise grundlegend zu verändern. Obwohl GenAI bereits in der Lage ist, Texte zu erzeugen, die kaum von denen menschlicher Autoren zu unterscheiden sind, reicht die Qualität oft nicht aus, um im beruflichen Alltag zuverlässig eingesetzt zu werden. Unvollständige oder fehlerhafte Antworten von Sprachmodellen wie ChatGPT haben zu Unsicherheiten geführt und das Vertrauen in diese Technologien beeinträchtigt. Doch das muss nicht so bleiben: Mit einem neuen Ansatz lassen sich diese Herausforderungen leicht überwinden, sodass Unternehmen das Potenzial von GenAI bereits heute voll ausschöpfen können.

Eine anschauliche Analogie hilft, die Grenzen von Sprachmodellen besser zu verstehen: Stellen Sie sich einen Bibliothekar vor, der Zugang zu einer riesigen Sammlung von Büchern und Dokumenten hat. Er kennt den Inhalt jedes zugänglichen Buches auswendig und kann auf jede Frage basierend auf diesem Wissen antworten. Wird ihm jedoch eine Frage zu einem aktuellen Ereignis gestellt, das nach der letzten Aktualisierung seiner Sammlung eingetreten ist, oder nach Informationen aus Büchern gefragt, die er noch nie gesehen hat, kann er keine präzise Antwort geben. Dieses Phänomen ähnelt dem „Halluzinieren“ von Large Language Models (LLMs), bei dem Modelle Texte generieren, indem sie das nächste wahrscheinliche Wort vorhersagen – selbst dann, wenn sie unsicher sind, anstatt eine Wissenslücke zu erkennen.

Wie lässt sich dieses Problem lösen? Ähnlich wie beim Onboarding eines neuen Mitarbeiters, der mit den notwendigen Informationen ausgestattet wird, stellen wir dem Sprachmodell die für unseren Anwendungsfall relevanten Daten zur Verfügung. Dieser Ansatz, bekannt als Retrieval-Augmented Generation (RAG), ergänzt das Modell mit einer Vektordatenbank, die gesammelte Texte durchsuchbar macht. Bei einer Anfrage durchsucht das Modell diese Bibliothek und kombiniert die Ergebnisse mit seinem vorhandenen Wissen. Dadurch werden präzise Antworten inklusive Quellenangaben ermöglicht.

Die Einsatzmöglichkeiten von RAG sind vielfältig: Medizinische oder rechtliche Fachberatungen können in Sekundenschnelle mit verlässlichen Quellverweisen erfolgen. Tausende Zeilen Code lassen sich effizient durchsuchen und analysieren, sodass neu generierter Code direkt den unternehmerischen Standards entspricht. Zudem können Chatbots entwickelt werden, die rund um die Uhr alle unternehmensspezifischen Informationen bereitstellen. Es gibt für jedes Unternehmen schon heute viele Gründe sich mit GenAI und RAG auseinanderzusetzen.

Wie diese innovativen Lösungen mit DataRobot umgesetzt werden können, demonstrieren wir in diesem Video.

Neue Funktionen in DataRobot Workbench

Automatische Beziehungserkennung und Wrangle-Rezepte für Batch-Vorhersagen

Die automatische Beziehungserkennung (ARD) in DataRobot Workbench ermöglicht Ihnen die automatische Erkennung und Generierung von Beziehungen zwischen Ihren Primärdatensätzen und allen Sekundärdatensätzen. Die Funktion „Automatische Beziehungserkennung“ (ARD) analysiert Ihre Datensätze und erstellt automatisch die benötigten Beziehungen. Nachdem Sie alle relevanten Datensätze hinzugefügt haben, klicken Sie einfach auf „Generate Relationships“, um die Erstellung der Beziehungen durch DataRobot zu starten. Die sekundären Datensätze werden automatisch hinzugefügt und die Beziehungen konfiguriert.

Ein weiteres leistungsstarkes Feature der Workbench ist die Integration von „Wrangle“-Templates in Batch-Vorhersagen. Über die Registerkarte „Vorhersagen > Vorhersagen erstellen“ können Sie nun Vorhersagen für große Datensätze effizient erstellen, indem Sie vorbereitete Datensätze in Batch-Prozesse integrieren. Mit „Wrangler“, der visuellen Schnittstelle von DataRobot für die Datenaufbereitung, können Sie Daten nahtlos und sicher transformieren. Sie haben die Möglichkeit, die Auswirkungen Ihrer Transformationen in Echtzeit zu überwachen, bevor Sie diese auf den gesamten Datensatz anwenden.

Die Wrangling-Funktionen von DataRobot bieten Ihnen eine skalierbare und sichere Methode zur Datenaufbereitung. Hierbei wird die Rechenleistung Ihrer Datenquelle genutzt, um Datenbewegungen zu minimieren. Dies führt zu schnelleren Ergebnissen und erhöht die Leistung, ohne die Sicherheit zu beeinträchtigen.

 

Partnerschaft im Sinne unserer Kunden

Mail & Deploy ist eine leistungsstarke Reporting-Lösung, die speziell für Qlik Plattformen entwickelt wurde und Prozesse durch automatisierte Erstellung, Verteilung und Sicherung von Berichten optimiert.

Nahtlos in bestehende Qlik Infrastrukturen integrierbar, extrahiert Mail & Deploy automatisch Daten als Reports. Durch die Möglichkeit, maßgeschneiderte Berichte in einer Vielzahl von Formaten zu generieren und zu verteilen, wird die operative Arbeit mit Unternehmensdaten verbessert. Vordefinierte Workflow organisieren die Weiterverarbeitung per E-Mail Verteiler, Belegablage, Nutzung in weiteren Prozessschritten, Speicherung, etc.

„Wir freuen uns sehr, Mail & Deploy als neuen Partner an unserer Seite zu haben“, sagt Alexander Willinek, Geschäftsführer der EVACO GmbH. „Die Zusammenarbeit bereichert unser Angebot an Reporting-Lösungen und wir können noch besser auf die Bedürfnisse unserer Kunden eingehen.“

„Wir sind begeistert, Evaco in unserem Partnernetzwerk willkommen zu heißen. Sie bringen nicht nur tiefgehende Fachkenntnisse und langjährige Erfahrung im Bereich Qlik mit, sondern auch ein starkes Engagement für erstklassigen Kundenservice. Wir sind überzeugt, dass die Expertise von EVACO und unser Tool eine leistungsstarke Kombination darstellen, die den Erfolg für Qlik Usern weiter vorantreiben wird.“ Andreas Luger, CEO der MaD Reporting GmbH

Ausgelegt auf Effizienz, Nachvollziehbarkeit und einfache Bedienbarkeit ist Mail and Deploy eine perfekte Ergänzung des EVACO Angebots an innovativen Reporting-Lösungen, um unsere Kunden auf dem Weg zu datengetriebenen Entscheidungen zu unterstützen.

www.mail-and-deploy.com

 

Teamwork: ein Muss für erfolgreiches ESG-Reporting

Aus Unternehmenssicht ist ESG ein Querschnittsthema, weil die Inhalte so komplex und vielfältig sind, dass sie das Fachwissen und die Perspektiven mehrerer Disziplinen erfordern.

Managementprinzipien für erfolgreiches ESG-Reporting: Folge 2: Interdisziplinäre Zusammenarbeit

Die Verbindungen ziehen sich quer durch alle Abteilungen – unabhängig von Unternehmensgröße oder Branche. Interdisziplinäre Zusammenarbeit ist aus mehreren Gründen ein entscheidender Faktor für den Erfolg des ESG-Reportings:

Umfassende Datenerfassung und -analyse:
ESG-Reporting erfordert die Sammlung und Analyse aller als wesentlich identifizierten Daten. Das kann jeden Bereich von Einkauf über Personal und Umweltmanagement bis Controlling betreffen. Nur Experten der jeweiligen Fachgebieten können beurteilen, welche Daten relevant sein können, wo sie korrekt erfasst werden können und wie sie zu interpretieren sind

Wechselseitige Abhängigkeiten:
ESG-Themen sind oft über Abteilungsgrenzen hinweg miteinander verwoben. Z.B. haben Änderungen der Beschaffungswege und -quellen Auswirkungen auf CO2 Emissionen, Abfallmengen oder Arbeits- und Sozialstandards. Interdisziplinäre Zusammenarbeit ermöglicht es, solche Wechselwirkungen zu erkennen und umfassende, kohärente Berichte zu erstellen, die alle relevanten Aspekte berücksichtigen. Das gilt insbesondere für planungsrelevante Entscheidungen.

Regulatorischer Anforderungen:
ESG-Reporting unterliegt gesetzlichen Normen, aber auch branchenspezifischen Besonderheiten. Das macht die frühzeitige Abstimmung von Compliance-Experten, Branchenkennern und Wirtschaftsprüfern unabdingbar, um sicherzustellen, dass die bereitgestellten Daten allen Berichtsanforderungen entsprechen..

Strategische Entscheidungsfindung:
Um jenseits der Berichtspflicht Optimierungspotenzial aus den Ergebnissen eines ESG-Reportings auszuschöpfen, müssen Fachleute aller Bereiche und Entscheider zusammen arbeiten. Nur so können fundierte unternehmerische Entscheidungen getroffen werden, die sowohl wirtschaftlich sinnvoll als auch sozial und ökologisch nachhaltig sind.

Ganzheitliche Kommunikation:
ESG-Berichte richten sich an unterschiedliche Zielgruppen wie Gesetzgeber, Investoren, Kunden, Mitarbeiter oder allgemeine Öffentlichkeit. Eine effektive Kommunikation der erzielten Erkenntnisse, Verbesserungen, Einsparungen und Effekte erfordert das Zusammenspiel von Fachleuten aller Bereiche, um die gewonnenen Informationen verständlich zu kommunizieren.

ESG & CSRD: Return on Investment

Mehr Chancen als Risiken

Mit Einführung der Corporate Sustainability Reporting Directive CSRD werden Non-Financial Reportings mit Finanzkennzahlen gleichgestellt. Unternehmen sind Berichts-pflichtig in den Themenfeldern Environment, Social und Governance. Der Aufwand für ein ESG Reporting ist erheblich und umfasst unmittelbare und mittelbare Investitionen.

Unmittelbare Investitionen umfassen Personal, Softwaretools und Dienstleistungen, die zur Berichterstellung benötigt werden. Qualifiziertes Personal wird rekrutiert oder intern geschult. Die Reporting-Infrastruktur kann durch Einführung spezialisierter Software oder Modifikation bestehender Tools aufgebaut werden. Externe Berater sind in der Initialphase eines ESG-Reportings ratsam (Wesentlichkeitsanalyse etc.) und als Wirtschaftsprüfer unabdingbar.

Mittelbare Investitionen ergeben sich durch indirekt verursachte Kosten.
Dazu zählen Stakeholder-Kommunikation, Öffentlichkeitsarbeit und Nachhaltigkeitsprojekte, aber auch soziale Initiativen zur Förderung von Diversität, Gleichberechtigung oder Inklusion. Auch Governance-Maßnahmen wie Compliance-Programme und Ethik-Richtlinien sind mittelbaren Investitionen zuzurechnen.

Lohnende Investition ESG Reporting
Unternehmen, die in ESG Reporting investieren, profitieren von Effekten, die zu einem positiven Return on Investment (ROI) führen. Early Adopters und ESG Champions weisen eine 6 %-Punkte höhere EBIT-Marge aus als der Branchendurchschnitt.

Preis-Premium durch grüne Differenzierung
Produkte mit hohem Nachhaltigkeitswert erzielen aufgrund von Nachfrage- und Imagevorteilen höhere Preise – insbesondere im B2B-Segment und institutionellen Einkaufsprozessen.

Markenwert und Kundenloyalität
Verbraucher und Geschäftspartner bevorzugen zunehmend verantwortungsvoll handelnde Unternehmen. Eine starke ESG-Performance verbessert das Markenimage und steigert die Kundenloyalität.

Effizienzsteigerungen und Kosteneinsparungen
Durch ESG-Performance Management können Unternehmen operative Effizienzsteigerungen und Kosteneinsparungen realisieren. Energieeinsparungen
und Recyclingquoten haben Mehrfacheffekte in Form reduzierter Materialeinsätze und CO2-Kosten.

Zugang zu Kapital
Unternehmen mit robusten ESG-Praktiken gelten als weniger risikobehaftet, was den Zugang zu günstigen Finanzierungskonditionen erleichtert. Börsennotierte Unternehmen mit hohen ESG-Ratings ziehen ESG-orientierte Investoren an, was die Nachfrage nach den Aktien dieser Unternehmen erhöht und deren Zugang zu Kapital verbessert.

Attraktivität als Arbeitgeber
Unternehmen mit etablierten ESG-Praktiken sind attraktive Arbeitgeber, die leichter talentierte Mitarbeiter finden und binden. Das steigert Produktivität und Innovationskraft.

Transparente Risikosteuerung
ESG Reporting hilft Unternehmen, potenzielle Risiken zu identifizieren und zu managen. Das führt langfristig zu Kosteneinsparungen und zur Vermeidung von Reputationsverlusten.

Regulatorische Compliance:
Das ESG-Reporting unterstützt Unternehmen, gesetzliche Anforderungen zu erfüllen und sich auf zukünftige Regulierungen vorzubereiten. Dies reduziert das Risiko von Strafen und Rechtskosten.

Die tatsächliche Höhe des ROI von ESG-Investitionen variiert nach Branche und Einzelfall. Studien und Berichte von z.B. Harvard Business School und McKinsey zeigen aber deutlich, dass Unternehmen mit soliden ESG-Praktiken resilienter gegenüber Krisen sind und eine höhere Aktienkursperformance aufweisen. Early Adopters wie Unilever und Patagonia setzten früh auf ESG-Praktiken und haben wiederholt gezeigt, dass sie nicht nur nachhaltiger, sondern auch profitabler sind. Unilever berichtete beispielsweise, dass ihre nachhaltigen Marken schneller wachsen und höhere Margen erzielen als der Rest des Geschäfts.

ESG & CSRD: Daten nachhaltig denken

Game-changer Ganzheitlichkeit
ESG-Reporting ermittelt Kennzahlen aus den Bereichen Environment, Social und Governance. Die Datenbasis umfasst das gesamte Unternehmen: Beschaffung, Produktion, Vertrieb und Logistik sind ebenso relevant wie Informationen aus Bereichen wie HR, Compliance oder Auditing, etc.

Neben eigenen Daten sind seit Inkrafttreten des Lieferkettensorgfaltspflichtengesetz (LkSG) vor und nachgelagerte Lieferketten zu berücksichtigen. Zusätzlich verpflichten Normen wie Verpackungs-, Batterie, Elektronikgeräte- und Kreislaufwirtschaftsgesetz nicht nur Hersteller, sondern jeden In-Verkehr-Bringer zu Mengenmeldungen. Das von Wirtschaftsprüfern abzusegnende Plan- und Ist-Mengen-Reporting bedeutet nicht nur einen immensen Aufwand, sondern enthüllt durch permanentes Monitoring und Analysen Chancen auf Müllvermeidung, CO2-Reduzierung, etc. Damit einher geht ein erhebliches Kosten-Optimierungspotenzial.

Ein ESG-Hub ermöglicht ganzheitliches CSR-Data-Management von der Integration über Analytik und Simulation bis Planung und Bereitstellung aller relevanter Daten. Neben dieser Pflichtübung ermöglichen der Einsatz KI-gestützter Business Intelligence Software Effizienzsteigerungen und Energieeinsparungen. ESG-Reporting als Baustein der Unternehmensstrategie ist nicht nur gesetzliche Vorgabe, sondern eröffnet handfeste Wettbewerbsvorteile.

Relevante Daten
Intelligentes Management ermöglicht Datenintegration und Bereitstellung unterschiedlichster Daten-Formate und Strukturen, sichert die Datenqualität und gewährleistet die Nachvollziehbarkeit (Data Lineage) und Auswertbarkeit. Gleichzeitig wird der Schutz persönlicher Daten und vor Datendiebstahl etabliert.

Performance Management
Analytics- und Planungstools ermöglichen Messen, Planen und Steuern aller ESG-relevanter Aktivitäten. Die Betrachtung macht Faktoren wie Produktionsstandorte, Warenströme, Arbeits- und Sozialstandards oder Umwelteffekte von Materialeinsatz, Produktionsverfahren und Transportwege quantifizierbar und liefert so ganzheitliche Entscheidungsgrundlagen.

ESG-Publishing und Reporting meldepflichtiger Informationen
Visualisierungstools und Reports ermöglichen eine automatisierte Nachhaltigkeits-Berichterstellung. Meldepflichtige Daten aus Abfallrecht, Kreislaufwirtschaftsgesetz, Verpackungsgesetz etc. werden als automatisierte Mengenmeldungen übermittelt.

Kundenszenario
Ganzheitliches Datenmanagement inkl. Frühwarnsystem bei Abweichungen bildet die Qualitätssicherung aller relevanten Informationen. KI-gestützte Planung optimiert die Balance zwischen gebundenem Kapital an Lagerbeständen und optimalen Frachtkosten.

Kennzahlen-basierte Simulation von Nachhaltigkeitseffekten verbessert die Entscheidungsgrundlage unternehmerischen Handelns, indem Umweltkosten in Deckungsbeiträge eingepreist werden und so eine ganzheitliche Betrachtung erlauben.

Die Identifikation maßgeblicher Datenquellen, -formate und -zyklen reduziert den manuellen Aufwand dramatisch und vermeidet Strafzahlungen für versäumte oder verspätete Mengenmeldungen.

Dashboards, definierte Reports und Schnittstellen ermöglichen die Erstellung eines permanenten oder on-demand ESG-Reportings und ISO14001 Audits, etc.

ESG & CSRD: ESG-Hub mit Mehrfachnutzen

Ressourcen schonen neu gedacht
Verantwortungsvoller Umgang mit Ressourcen ist seit je her unternehmerische Kerntugend, wo dem ökonomischen Prinzip folgend das günstigste Verhältnis zwischen eingesetzten Inputfaktoren und Erträgen angestrebt wird, sprich: mit einem festen Ressourceneinsatz einen maximalen Ertrag zu erzielen, oder aber ein gegebenes Ziel unter Einsatz minimaler Ressourcen zu erreichen. Die globalen Herausforderungen und Abhängigkeiten aus Klimawandel, Lieferketten, sozialem Ungleichgewicht und daraus resultierenden Migrationsströmungen gehen weit über klassische Kennzahlen der Unternehmenssteuerung hinaus. Das erforderliche Umdenken findet seinen Niederschlag im ESG-Reporting und der Corporate Social Responsibility Directive, die das non-financial Reporting auf eine Stufe mit dem financial Reporting hebt.

Data-driven Sustainability
Im Zuge des ESG-Reporting werden klassische Kennzahlen wie Effizienz, Produktivität oder Rentabilität durch völlig neue Daten aus den Gebieten Environment, Social und Governance komplettiert. Kennzahlen aus Logistik- und Lieferketten, Energieverbräuchen oder Personalstatistiken gilt es ebenso abzubilden wie Compliance, Corporate Governance und Risikoeinschätzungen unter dem Gesichtspunkt der doppelten Wesentlichkeit.

CSRD Reporting betrifft den gesamten Daten-Lebenszyklus
ESG-Kennzahlen sind für jedes Unternehmen unterschiedlich und es gibt keinerlei Standards für die Datenbeschaffung oder -erhebung. Wenig überraschend wird Umfragen zur Folge die Datensammlung und Integration als größte Herausforderung gesehen, gefolgt von der Konsolidierung und KPI-Ermittlung. Die monetäre Bewertung folgt erst an dritter Stelle – hier kann man großenteils auf Marktstandards zugreifen. ESG-Daten müssen identifiziert, erhoben, aufbereitet und vorgehalten werden (Data Management), bevor Kennzahlen definiert, Planwerte festgelegt, Ist-Werte gemessen und Unternehmen danach gesteuert werden können (Performance Management). Dieser ganzheitliche Ansatz ist Grundvoraussetzung für data-driven Sustainability.

Data Management
Die ESG Data Integration muss in der Lage sein, selbst verteilte Daten in unterschiedlichen Formaten und Strukturen vereinnahmen und konsolidieren zu können. Hier können vorgeschaltete Tools hilfreich sein. Um die Datenqualität sicherzustellen, ist Data Preparation auch im Bereich non-financial Reporting elementar. Data Governance stellt sicher, dass die Daten nachvollziehbar (Data Lineage), ganzheitlich auswertbar (Data Catalog) und sicher sind (Data Security als Schutz persönlicher Daten und vor Datendiebstahl).

Performance Management
Analyse, Simulation und Prognostik der Datenbasis ermöglicht Planen, Steuern und Messen unternehmerischer Aktivitäten anhand festgelegter Kennzahlen. Ganzheitliche Planungen und Simulationen ermöglichen eine bessere Entscheidungsvorbereitung. Optimierte Planungen schonen Ressourcen durch Vermeidung von Überproduktionen oder Umsatz- und Margenverluste in Folge von Nichtverfügbarkeiten. Produktionsstandorte und Warenströme können ganzheitlich betrachtet werden inkl. Arbeits- und Sozialstandards und Umwelteffekten wie Transportwege und -medien.

Mehrere Fliegen mit einer Klappe: das ESG-Hub
Unabhängig von der Corporate Sustainability Reporting Directive CSRD gibt es eine Reihe von Gesetzen und Normen, die für den Aufbau eines ESG-Hubs sprechen, weil sie Unternehmen zur Meldung bestimmter Informationen zwingend verpflichten, wie beispielsweise:

Environment
Batteriegesetz – BattG
Elektro- und Elektronikgerätegesetz – ElektroG
Verpackungsgesetz – VerpackG
Kreislaufwirtschaftsgesetz – KrWG

Social
Arbeitszeitgesetz (ArbZG)
Jugendarbeitsschutzgesetz (JArbSchG)

Governance
Bundesdatenschutzgesetz (BDSG)
Datenschutzgrundverordnung (DSGVO)

Meldestellen
Zentrale Stelle Verpackungsregister (ZSVR)
BattG-Melderegister
Stiftung elektro-altgeräte register (ear)

Fazit
Ein ESG-Hub als festen Baustein in das unternehmensweite Reporting zu integrieren, hilft nicht nur gesetzliche Vorgaben zu erfüllen, sondern ermöglicht ein 360 Grad Performance Management und ist das Fundament für echte data-driven Sustainability.

EVACO weltweit erster Certified Installation Partner

PlatformManager etabliert Partnerprogramm für professionelle Installationen
PlatformManager hat die Erstinstallation auf Kundenseite als kritischen Erfolgsfaktor identifiziert und räumt diesem Projektschritt zukünftig ein besonderes Augenmerk ein. Zur Sicherstellung der nötigen Qualität wurde das Certified Installation Partner Program aufgelegt.

Besseres Onboarding für Kunden
Kunden brauchen einen Partner, der die Installation und Konfiguration kompetent durchführen kann, um Projekte von Anfang an optimal aufsetzen zu können. Das Programm zertifiziert Partner, die die notwendigen Fähigkeiten und Fachkenntnisse für die Installation von PlatformManager aufweisen. EVACO GmbH ist als weltweit erster Certified Installation Partner autorisiert worden und begleitet Kunden kompetent bei Remote- oder Vor-Ort-Installationen.

Warum das wichtig ist
Die Erfahrung in Kundenprojekten hat gezeigt, dass die Installation keine singuläre Routine, sondern Ergebnis eines Prozesses ist. Entscheidend für den späteren Projekterfolg ist die Vorarbeit: passgenaue System-Architekturen und durchdachte Datenstrategien ebnen den Weg für einen reibungslosen und effizienten Integrationsprozess.

Flexibilität für den Kunden wird erhöht
Die zertifizierte Erstinstallation macht aus PlatformManager das universal nutzbare Werkzeug zur Änderung & Veröffentlichung von Apps, für eine integrierte Versionskontrolle, für Recovery-Prozesse, Datenquellen-Monitoring, u.v.m.

Mehr erfahren

ESG & CSRD: Wesentlichkeit ist die neue Ganzheitlichkeit

Doppelt hält (wesentlich) besser

Wesentlichkeit in der Nachhaltigkeitsberichterstattung
Eine der bedeutenden Neuerungen, die mit der CSRD einhergehen, ist die Einführung des Konzepts der „Double Materiality“, auf Deutsch „Doppelte Wesentlichkeit” oder „Doppelte Materialität“ genannt.

Analog zu finanziellen Rechenschaftspflichten sollten Nachhaltigkeitsberichte Informationen enthalten, die für den Adressatenkreis relevant und bewertbar sind. Dieses Gebot der aussagekräftigen Informationen wird als „Wesentlichkeit“ bezeichnet. Eine Wesentlichkeitsanalyse sollte immer auch die Sicht aller Stakeholder eines Unternehmens umfassen. Relevante Stakeholder können Aktionäre, Banken, Investoren, Lieferanten, Geschäftspartner, Kunden, Mitarbeitende, Arbeitnehmervertreter, Anwohner, etc. sein.

Doppelte Wesentlichkeit
Das Prinzip der doppelten Wesentlichkeit zwingt Unternehmen dazu, die Nachhaltigkeitsaspekte ihrer Geschäftstätigkeit grundsätzlich aus zwei Perspektiven (=doppelt) zu betrachten: der Inside-Out Perspektive (= Impact Materiality), und der Outside-In Perspektive, (= Financial Materiality).

Die Inside-Out Betrachtung beziffert die tatsächlichen und potenziellen Auswirkungen („impacts“) des unternehmerisches Handeln auf unterschiedliche Nachhaltigkeitsthemen. Die Outside-In-Perspektive („finanzielle Wesentlichkeit“) betrachtet Chancen und Risiken von Nachhaltigkeitsthemen auf die finanzielle Lage und die Zukunftsfähigkeit eines Unternehmens.

Wesentlichkeit und Berichtspflicht
Ein Thema gilt als wesentlich, sobald es Risiken und Chancen für den Geschäftserfolg birgt (Outside-In Perspektive) oder die Geschäftstätigkeit signifikante Auswirkungen auf Umwelt und Umfeld hat (Inside-Out-Perspektive). Ein Thema ist also bereits zwingend berichterstattungspflichtig, wenn nur aus Sicht einer der beiden Perspektiven als wesentlich gilt.

Unternehmen sind verpflichtet, alle als „wesentlich“ identifizierte Themen gemäß der maßgeblichen European Sustainable Reporting Standards (ESRS) offenzulegen und durch Wirtschaftsprüfer testieren zu lassen. Der Bericht beinhaltet neben der Ist-Analyse Angaben zu Strategie und Governance, Informationen zu umgesetzten Maßnahmen sowie Ziele und Kennzahlen.

Nachvollziehbarkeit und jährliche Überprüfung
Die Wesentlichkeitsanalyse ist ein kontinuierlicher Prozess, dessen Inhalte regelmäßig aktualisiert und überprüft werden. Im Rahmen der CSRD ist auch Transparenz in Bezug auf die Methodik gefordert, wie die Wesentlichkeitsanalyse nach der Doppelten Materialität durchgeführt wurde.

Exemplarische Anwendung der Doppelten Wesentlichkeit
Um die praktische Anwendung der doppelten Wesentlichkeit darzustellen, soll das Beispiel eines Herstellers und Fullservice-Providers von Seilbahnen dienen.

Outside-In Perspektive: Aus Sicht der finanziellen Wesentlichkeit kann sich in unserem Beispiel beispielsweise das Thema Klimawandel auf die kurz-, mittel- und langfristige Einnahmen- und Ertragssituation auswirken. Die globale Erwärmung stellt eine Bedrohung für den Skitourismus dar, die zu einem sinkenden Absatzmarkt für den Seilbahnhersteller führen kann. Als sozialer Aspekt sei der Fachkräftemangel angeführt, der zu Engpässen in Produktion oder Servicegeschäft führen kann. Aus Governance-Gesichtspunkten können unternehmerische Risiken entstehen, wenn Genehmigungsverfahren verschärft und bspw. Neubauprojekte verhindert werden.

Inside-Out Perspektive: Aus Sicht der Impact Materiality kann die Geschäftstätigkeit des Unternehmens negative Auswirkungen auf Umwelt und Gesellschaft haben. Hauptreiber sind Treibhausgasemissionen bei Produktion und Betrieb der Anlagen, Umweltschäden durch deren Bau, aber auch Arbeits- und Sozialstandards entlang der Lieferkette oder Compliance Themen (z.B. bei der Auftragsvergabe).

ESRS- und Branchenstandards als Kriterien-Kompass
Risiken und Chancen liegen also nicht nur in der direkten Geschäftstätigkeit, sondern auch vorgelagert in der Lieferkette und nachgelagert in der Nutzungsphase eines Produktes. Um zu ermitteln, welche Themen aus Sicht eines Unternehmens im Sinne der Doppelten Materialität wesentlich sind, hat das Unternehmen eine Wesentlichkeitsanalyse nach den Vorgaben der CSRD durchzuführen.

Im Rahmen der Berichtspflicht sind die thematischen ESRS-Standards Grundlage der Überprüfung und bieten eine Liste potenziell wesentlicher Themen. Darüber hinaus helfen branchenspezifische Standards und Nachhaltigkeitsratings bei der Einschätzung, welche Themen typischerweise für ein Unternehmen einer bestimmten Industrie wesentlich sind.

Mittels einer weitergehenden Umfeldanalyse können die ermittelten Themen in eine Rangfolge gebracht werden. Guter Ausgangspunkt einer Priorisierung sind erfahrungsgemäß die wesentlichen Umsatzquellen, Kostentreiber und Investitionsfelder der Unternehmen. Nach der Priorisierung muss eine Wesentlichkeitsschwelle festgelegt werden. Alle Themen, die diese Schwelle überschreiten, sind Berichterstattungs-pflichtig und müssen aufgeführt werden.

ESG beinhaltet zahlreiche Synergien
Die Wesentlichkeitsanalyse ermöglicht es Unternehmen, neben relevanten Nachhaltigkeitsthemen auch Unternehmens-strategische und operatives Optimierungspotenziale zu identifizieren. Dadurch können Unternehmen ihre Ressourcen effektiver einsetzen und neben ihrer Nachhaltigkeit auch ihre Wettbewerbsfähigkeit zu verbessern.

Weil die Ergebnisse von Wesentlichkeitsanalysen sehr individuell sind, gibt es im Gegensatz zu Finanzkennzahlen kaum Standards und Automatismen. Heterogene Datenquellen, -typen, -formate sind die Regel, und die erste Meile der Datenintegration entsprechend komplex. Neben internen Quellen gilt es externe zu berücksichtigen. Einige Daten können direkt ermittelt, andere nur indirekt erhoben oder kalkulatorisch bestimmt werden. Datenformate reichen von Papierform bis zu strukturierten Reporting-Standards und Datenzyklen sind beliebig von permanent bis mehrjährig, wodurch Abgrenzungen erforderlich werden.

Aus Daten Wissen machen

Digitalisierung und unternehmerische Nachhaltigkeit sind nicht nur untrennbar miteinander verbunden, sondern bilden eine Symbiose. Digitale Technologien ermöglichen Effizienzsteigerungen und Energieeinsparungen. Künstliche Intelligenz kann Umweltentwicklungen und Geschäftsereignisse prognostizieren und in Echtzeit Prozesse beeinflussen.

Durch Business Analytics und den Einsatz von AI lassen sich Synergien materialisieren, die bei allen Stakeholdern punkten und Nachhaltigkeit im Wortsinn verkörpern: wirtschaftliche Nachhaltigkeit ebenso wie verantwortungsbewusster und Ressourcen-schonender Umgang mit der Umwelt sowie Verantwortungsbewusstsein gegenüber nachfolgenden Generationen.

Rechtzeitig anfangen
Die Komplexität einer Wesentlichkeitsanalyse wird oft unterschätzt, weil die gesamte Wertschöpfungskette betrachtet werden muss und die Outside-in Betrachtung Neuland darstellt. Um fundierte Ergebnisse durch die Wesentlichkeitsanalyse zu erhalten, müssen verschiedenste Informations- und Datenquellen angezapft und abgebildet werden. Neben geeigneten Reporting- und Planungstools braucht man Zeit für Vorbereitung, Datenerhebung und -konsolidierung.

Die Wesentlichkeitsanalysemehr ist dabei mehr als nur gesetzliche Auflage: sie liefert wichtige Einsichten zu Risiken und Chancen, die zur Weiterentwicklung der Unternehmensstrategie beitragen und Ausgangspunkt eines Stakeholderdialogs sein können. An dieser Stelle schlagen Business Analytics und der Einsatz von KI neue Kapitel der digitalen Transformation auf.

EVACO 4ward Mining

DataRobot adelt Process Mining Lösung von EVACO als Partner Solution

EVACO ist stolz auf seinen DataRobot Status als einer von nur 17 Gold-Partnern in Europa. Dass der AutoML Pionier die EVACO Process Mining Lösung 4ward Mining offiziell autorisiert hat und noch im Dezember in den erlesenen Kreis der DataRobot Partner Solutions aufnimmt, empfinden wir als vorgezogenes Weihnachtsgeschenk.

EVACO 4ward Mining ermöglicht adaptives Geschäftsprozessmanagement. Die Process-Mining-Lösung prognostiziert und visualisiert die nächsten Schritte sowie den Endzustand eines Prozesses in Echtzeit, noch während der Prozess läuft. Dazu extrahiert DataRobot ML alle Informationen aus logisch zusammenhängenden Prozessschritten und Datenspuren aus früheren Prozessabläufen.

Benötigt werden lediglich drei Informationen aus vorgelagerten Prozessschritten: Prozess-ID, Zeitstempel und die zugeordnete Statusinformation. Basierend auf diesem Wissen ermittelt und visualisiert 4ward Mining den nächsten Schritt, das Endergebnis und Zeitverlauf eines Prozesses in der EVACO-eigenen Qlik-Erweiterung.

Das KI-gestützte Process Mining unterstützt Kunden aus allen Branchen dabei, datenbasierte Geschäftsentscheidungen on-the-fly zu treffen, indem Maßnahmen im laufenden Prozess eingeleitet werden. Dies hilft, alle logisch zusammenhängenden Aktivitäten zu verbessern, sowohl interne Prozesse als auch die Interaktion mit externen Partnern (Lieferanten, Kunden, Interessenten, IoT-Maschine-Interaktion etc.)

Anwendungsfälle sind Purchase-to-Pay/ Procure-to-Pay (P2P); Order-to-Cash (O2C); HR-Anwendungsprozesse, Lead-to-Cash; Churn & Retention Rate, IoT, etc.

EVACO 4ward Mining ersetzt Ex-post Reaktionen durch prozessimmanente, proaktive Optimierung. Potenzielle Probleme können frühzeitig erkannt und Gegenmaßnahmen eingeleitet werden.

Wesentliche Ergebnisse

– ML-Modelle in DataRobot

– Alle prozessrelevanten Daten in Qlik Extension verfügbar

– Visualisierung in EVACO’s eigener Qlik Extension* (* = optional)

– Beratungs- und Implementierungsexpertise für DataRobot und Qlik.

 

 

 

ESG & CSRD: Herangehensweise

In 8 Schritten zum CSRD Reporting

Die Corporate Sustainability Reporting Directive (CSRD) wird für eine Vielzahl von Unternehmen bindend. ESG-Reportings müssen nach den European Sustainability Reporting Standards (ESRS) erfolgen und unterliegt der Testatpflicht durch Wirtschaftsprüfer. Die Rechnungslegung umfasst Umweltfaktoren (Environment) , soziale Aspekte (Social) sowie Risikomanagement und Compliance-Kriterien (Governance). Hierfür werden in Form der „doppelten Wesentlichkeitsanalyse“ sowohl die Risiken der unternehmerischen Tätigkeit für die „Außenwelt“ (inside-out) als auch potenzielle externe Risiken für das Unternehmen (outside-in) identifiziert und bewertet.

„Der Anfang ist die Hälfte des Ganzen“ (Aristoteles)

Es ist ratsam, die zukünftigen Regelungen frühzeitig zu analysieren und in die Umsetzungsplanung zu gehen. Viele Reporting-pflichtige Daten und Informationen werden zukünftig von Personen bereitgestellt, die keinerlei Erfahrung mit Berichterstattung haben. Gleichzeitig ist die technische Umsetzung von Datenerhebung, Integration, Analyse, Planung und Berichtslegung zeitaufwändig, da es anders als bei finanziellen Kennzahlen kaum Vorlagen und Automatisierungsansätze gibt.

Unternehmen, die bereits Nachhaltigkeitsberichte erstellt haben oder ISO 14001 zertifiziert sind, haben einen Erfahrungsvorsprung. Daraus abgeleitet empfehlen Experten folgendes Vorgehen:

1. Rechtliche Betroffenheit, interne Kommunikation und Schulung

Prüfen Sie, ob und ab wann für Ihr Unternehmen eine gesetzliche Berichtspflicht besteht. Planen Sie ein Jahr Vorbereitung auf das ESG-Reporting, um Zeit für den Aufbau von Strukturen, Datensammlung und Prozessgestaltung zu haben. Schaffen Sie unter den Mitarbeitern ein breites Verständnis für ESG und seine weitreichende Bedeutung für Ihr Unternehmen. Schulungen können das ESG-Bewusstsein schärfen und damit Motivation und Qualität der Datenerhebung positiv beeinflussen.

2. Erwartungen und Zielhorizont

Identifizieren Sie die wichtigsten Stakeholder, für die Ihr ESG-Bericht relevant sein könnte und priorisieren Sie deren Erwartungen in Bezug auf ESG-Themen. Potenzielle Stakeholder sind Investoren, Kunden, Mitarbeiter, Lieferanten, Interessenten, Bewerber, etc.

3. Relevante ESG-Indikatoren

Definieren Sie die für Ihr Unternehmen wichtigsten ESG-Indikatoren unter dem Aspekt der doppelten Wesentlichkeit. Neben Ihrer Business Perspektive (Inside Out) müssen Sie auch die Stakeholder Perspektive (Outside In) berücksichtigen. Anhaltspunkte bieten internationale Standards wie die Global Reporting Initiative (GRI), Task Force on Climate-related Financial Disclosures (TCFD) und branchenspezifische Indizes.

4. Relevante Daten: Beschaffung und ganzheitliches Datenmanagement

Identifizieren Sie für die für Sie relevanten ESG-Indikatoren die maßgeblichen Datenquellen, -Formate und -Zyklen. Konzipieren Sie die Erhebung, Erfassung, Konsolidierung und Qualitätssicherung der benötigten Informationen (Aktualität, Genauigkeit, Datenschutz).

5. Berichtstruktur

Entwickeln Sie eine klare ESG-Berichtsstruktur für Ihr Unternehmen, z.B. gegliedert nach Allgemein, Umwelt, Soziales und Governance. Halten Sie dazu frühzeitig Rücksprache mit Ihrem Wirtschaftsprüfer, um die Richtigkeit und Verständlich und Relevanz der geplanten Berichtsstrukur sicherzustellen.

6. Zieldefinition und permanentes Monitoring der Zielerreichung

Setzen Sie klare Ziele für Ihre ESG-Initiativen und identifizieren Sie unterjährige Kontroll-KPI, um die langfristige Zielerreichung durch Messen von Etappenzielen zu kontrollieren und die Nachhaltigkeitsbemühungen Ihres Unternehmens zu steuern.

7. Veröffentlichung und Kommunikation

Publizieren Sie Ihren ESG-Bericht fristgerecht und kommunizieren Sie die Ergebnisse und Erkenntnisse proaktiv, um Transparenz und Vertrauen in Richtung der Stakeholder zu bestätigen und zu festigen. Nutzen Sie erfolgreiche Nachhaltigkeitsbemühungen für die Unternehmenskommunikation und binden Sie Marketing, HR und Vertrieb aktiv ein. Stellen Sie sicher, dass die ESG-Strategie als Verkaufsargument genutzt und in Ausschreibung aktiv als Bieterfrage eingefordert wird.

8. Rückkopplung und Nachbesserung

Installieren Sie einen Verbesserungsprozess. Sammeln Sie Feedback von intern, Stakeholdern, Wettbewerbern und branchenfremden Benchmarks, um den Prozess der Berichterstattung zu verbessern. Nutzen Sie die gewonnenen ESG-Erkenntnisse, um Ihre Unternehmensstrategie zu reflektieren und ggf. anzupassen.

ESG-Berichterstattung ist ein fortlaufender Prozess. Durch kontinuierliche Verbesserung und Anpassung an sich ändernde Standards und Erwartungen können Unternehmen ihre ESG-Leistung transparent und wirksam kommunizieren. Diese ersten Schritte bilden die Grundlage für ein erfolgreiches ESG Reporting-Projekt, das die Transparenz, Glaubwürdigkeit und Wettbewerbsfähigkeit Ihres Unternehmens verbessert.

ESG & CSRD: Rechtliche Rahmenbedingungen

Nachhaltigkeitsmanagement umfasst Strategien und Maßnahmen von Unternehmen zur Umsetzung der Sustainable Development Goals (SDGs) der UNO. Zwei Begriffe werden in diesem Zusammenhang fast synonym verwendet: CSR (Corporate Social Responsibility) und ESG (Environmental, Social and Governance). Die Begriffe hängen zwar zusammen, sind aber nicht identisch. Während sich hinter dem Kürzel CSR ein eher normatives Konzept verbirgt, das Unternehmen Orientierung für ihr gesellschaftliches Engagement gibt, ist ESG darauf angelegt, Aktivitäten zu quantifizieren und Ziele konkret zu messen.

ESG-Kriterien und geltendes Recht
Die CSRD (Corporate Sustainability Reporting Directive) ist eine EU-Verordnung, die darauf abzielt, die Transparenz und Vergleichbarkeit von Nachhaltigkeitsinformationen von Unternehmen zu verbessern. Aus Unternehmenssicht ist ESG ein Querschnittsthema, das mit zahlreichen bestehenden Gesetzen und Normen korreliert. Die Verbindungen sind vielfältig und ziehen sich quer durch alle wirtschaftsjuristischen Disziplinen – unabhängig von Unternehmensgröße oder Branche.

Beispiele sind (unvollständige Aufzählung):

Environment
Batteriegesetz (BattG) zu Inverkehrbringen, Rücknahme und Entsorgung von Batterien und Akkumulatoren
Elektro- und Elektronikgerätegesetz (ElektroG) zu Inverkehrbringen, Rücknahme und Entsorgung von Elektro- und Elektronikgeräten
Verpackungsgesetz (VerpackG) zu Inverkehrbringen, Rücknahme und Entsorgung von Verpackungen
Kreislaufwirtschaftsgesetz (KrWG) zur Regelung des Abfallkreislaufs mit dem Ziel von Abfallvermeidung und Recycling.

Social
Arbeitszeitgesetz (ArbZG) für Sicherheit und Gesundheitsschutz der Arbeitnehmer
Jugendarbeitsschutzgesetz (JArbSchG) zum Schutz von Kindern und Jugendlichen
Behindertengleichstellungsgesetz (BGG) gegen Benachteiligung von Menschen mit Behinderungen
Allgemeines Gleichbehandlungsgesetz (AGG) gegen Antidiskriminierung aufgrund von Rasse, Ethnie, Geschlecht, Religion, Behinderung, Alter oder sexueller Identität.
Bundesgleichstellungsgesetz (BGleiG)

Governance
Bundesdatenschutzgesetz (BDSG)
Datenschutzgrundverordnung (DSGVO)
Corporate Governance Kodex
Kartellrecht
Aktiengesetz (AktG)
GmbH-Gesetz (GmbHG)
Geldwäschegesetz (GwG)
Gesetz gegen Wettbewerbsbeschränkungen (GWB)

Klammerfunktion mit Anreizsystem
In Analogie zur 2-Faktoren-Theorie von Herzberg sind Gesetze Hygienefaktoren und ESG-Kriterien Motivatoren für nachhaltiges Wirtschaften. Das Einhalten gesetzlicher Rahmenbedingungen ist obligatorisch, während ESG die inhaltliche Klammer zwischen unterschiedlichsten Normen bildet, Transparenz schafft und so nachhaltiges unternehmerisches Handeln fördert.

Wettbewerbsfähigkeit
Gesetze wie die Corporate Sustainability Reporting Directive (CSRD) der EU erfordern von Unternehmen die Offenlegung spezifischer ESG-Informationen. Die Standardisierung und Harmonisierung der Berichterstattung ermöglicht eine Vergleichbarkeit des ESG-Reifegrades verschiedener Unternehmen. Das schafft Transparenz und erhöht den Wettbewerbsdruck in puncto Nachhaltigkeit – und damit auch die Wettbewerbsfähigkeit von Unternehmen.

Risikomanagement
ESG-Reporting beinhaltet das Abschätzen unternehmerischer Risiken. Die Analyse von Bedrohungsszenarien ist Grundvoraussetzung für effektives Risikomanagement und damit für unternehmerische Resilienz.

Stakeholder-Erwartungen
ESG-Kriterien sind multidimensional und adressieren daher die Erwartungen unterschiedlichster Stakeholder. Neben bestehenden Kunden und Mitarbeitern zählen dazu vor allem potenzielle Kreditgeber, Investoren und Bewerber.

Förderung nachhaltiger Praktiken
Durch konkrete Zielsetzungen und Vergleichbarkeit ermöglicht das ESG-Reporting die Messbarkeit von Nachhaltigkeitsmanagement. Unternehmen können dadurch sowohl den rechtlichen Anforderungen als auch ihrer gesellschaftlichen Verantwortung gerecht werden und drohende Sanktionen durch Stakeholder oder Gesetzgeber bei Nichteinhaltung vermeiden.

Von der CSR-Richtlinie zur CSRD-Regelung
2014  EU-Strategie für die soziale Verantwortung in Unternehmen (CSR)
2017  Nachhaltigkeits- und Diversitätsverbesserungsgesetz (NaDiVeG)
2020  Sustainable Finance Disclosure Regulation (SFDR) EU-Taxonomie Verordnung
2021  Entwurf der Corporate Sustainability Reporting Directive (CSRD)
2022  Umsetzung in nationales Recht
2024  Verpflichtende Anwendung für das Geschäftsjahr 2023

Geltungsbereich
Berichtspflichtig sind ab Berichtsjahr 2025 alle Firmen, die mindestens zwei der drei folgenden Kriterien erfüllen:

  • mehr als 250 Mitarbeiter*innen
  • mehr als 20 Mio. Euro Bilanzsumme
  • mehr als 40 Mio. Euro Umsatz

 

Upgrade mit Quantensprung

Machine Learning Pionier DataRobot mit genAI, verbesserter Usability und erweitertem Funktionsumfang

DataRobot ist eine Plattform für automatisiertes Maschinelles Lernen (AutoML), mit der Unternehmen auch ohne tiefgehende Expertise schnell und effizient maschinelle Lernmodelle erstellen können.

Integration von generativer KI
Die neueste Ausbaustufe ergänzt die Plattform um standardisierte Komponenten und Funktionen zur Einbindung generativer AI. Der API-Ansatz von DataRobot ermöglicht die nahtlose Integration großer Sprachmodelle (LLMs), Vektordatenbanken und Prompting-Strategien in einer offenen und Multi-Cloud-Umgebung.

Vorgefertigte Assistenten, vordefinierte End-to-End-Standards und Rapid Prototyping ermöglichen das Erstellen von KI-Anwendungen ohne kompliziertes Coding. Durch Toxizitäts- und Plausibilitäts-Checks bietet DataRobot fallspezifische Leitplanken und unterstützt die Überwachung, Verwaltung sowie Governance von predictive- und genAI-erzeugten Assets.

Intuitive Benutzeroberfläche
Ausgangspunkt ist das neue User Interface „Workbench“ (=Werkbank), eine übersichtliche Oberfläche, die den Anwender durch alle notwendigen Schritte der Projekterstellung und Modellüberprüfung leitet. Dabei werden modernste ML-Techniken genutzt, ohne Anwender-seitig tiefgehendes Data-Science-Knowhow vorauszusetzen.

Workbench ahmt die iterativen Arbeitsabläufe von Datenwissenschaftlern nach, was den Modellierungsprozess rationalisiert und die Zeit bis zur Wertschöpfung minimiert. Hierzu werden Modellierungsansätze gruppiert, organisiert und genutzt. Diese „Assets“ in Form von Experimenten, Notebooks und No-Code-Anwendungen sind in ordnerähnlichen Containern untergebracht, die als Use-Cases bezeichnet werden.

Da der Modellierungsprozess über das reine Modelltraining hinausgeht, umfasst Workbench auch die Datenvorbereitung, das Trainieren von Modellen und die Nutzung der Ergebnisse für Business Entscheidungen. Dabei folgt Workbench der Grundidee von Experimenten, potenzielle Lösungen so lange zu durchlaufen, bis ein Ergebnis mit einem Business Value erreicht ist.

Barrierefreier Auto-ML-Zugang
Die Kombination von UX-Design, neuen Funktionen und API-orientiertem Ansatz erfordert wenig Data Science Expertise. Dieser niedrigschwellige Ansatz vergrößert die Schnittmenge aus Anwendern und Fachentscheidern. Durch Automatisierung der einzelnen Prozessschritte minimiert DataRobot die Zeit bis zur Modellauswahl und Ergebnispräsentation.

Effizienzgewinn durch Form & Function

  • übersichtliche Navigation, alle wichtigen Informationen an einem Ort
  • Zugriff auf Daten sowohl über eine intuitive Benutzeroberfläche als auch über eine Notebook-Umgebung
  • Umwandlung von Rohdaten in modellierfähige, aufbereitete und partitionierte Daten
  • Beschleunigung der Iteration und Zusammenarbeit mit wiederholbaren, gemessenen Experimenten
  • Automatisierung für schnelle Erkenntnisgewinnung und Vorhersagen aus den besten Modellen
  • teilen von Reports und Dashboards, um Feedback und Genehmigungen zu erhalten

ESG und Nachhaltigkeit im Bereich Data Analytics und BI

Aus der Pflicht eine Tugend machen

Die Nachhaltigkeit-Berichterstattung ist in aller Munde und wird von der EU in den letzten Jahren stark forciert. Ab dem Fiskaljahr 2023 greift die Corporate Sustainability Reporting Directive (CSRD), die zukünftig Unternehmen in immer größerem Umfang zum Thema ESG Reporting verpflichtet. ESG steht für Environmental, Social und Governance und bewertet Geschäftsaktivitäten bezüglich ihrer Auswirkungen auf Umwelt und ihr wirtschaftliches und soziales Umfeld. Dies soll nach den European Sustainability Reporting Standards (ESRS) erfolgen.

Ausgewählte Unternehmen in der EU müssen ihre Nachhaltigkeitsaktivitäten schon seit 2014 gemäß der Non-Financial Reporting Directive (NFRD) dokumentieren. Diese Berichtspflicht wird zukünftig durch die CSRD geregelt und sukzessive ausgeweitet. Betroffen sind ab Berichtsjahr 2025 alle Firmen, die zwei der drei folgenden Kriterien erfüllen:

  • mehr als 250 Mitarbeiter*innen
  • mehr als 20 Mio. Euro Bilanzsumme
  • mehr als 40 Mio. Euro Umsatz

Nach Schätzungen der EU steigt die Zahl der berichtspflichtigen Unternehmen damit auf rund 50.000, davon 15.000 allein in Deutschland.

CSRD führt erstmals verbindliche Nachhaltigkeits- und Berichtsstandards auf EU-Ebene ein, um bestehende Lücken bei den ESG-Berichtsvorschriften zu schließen. Wesentliche Unterschiede zwischen der vormals freiwilligen CSR Richtlinie liegen in der doppelten Wesentlichkeitsanalyse und der Testatpflicht durch Wirtschaftsprüfer.

Double Materiality
Unternehmen sind gemäß der doppelten Wesentlichkeitsanalyse verpflichtet, sowohl über die Auswirkungen ihres Geschäftsbetriebs auf Mensch und Umwelt als auch über die Einflussrisiken von Nachhaltigkeitsaspekten auf ihr Gewerbe zu berichten. Bisher war das nur dann verpflichtend, wenn beide Aspekte wesentlich für den Unternehmenszweck waren.

Unabhängige Wirtschaftsprüfung
Zukünftig muss die Nachhaltigkeitsberichterstattung analog zur Finanzberichterstattung von externen Experten geprüft werden. Dazu greifen EU-Standards, deren Prüfungstiefe schrittweise erweitert wird. Das hebt non-financial und financial Reporting von der Wertigkeit auf dieselbe Stufe.

Einheitliches elektronisches Berichtsformat
Seit 2020 müssen bestimmte Unternehmen ihre Rechnungslegungsunterlagen im European Single Electronic Format (ESEF) bereitstellen. Dieses Format ist sowohl für den Menschen als auch für Maschinen lesbar und verwendet XHTML-Format mit sogenannten XBRL-Tags zur Markierung von Konzernabschlüssen. CSRD weitet diese Anforderung auf die Nachhaltigkeitsberichterstattung aus, weshalb die Europäische Kommission die Veröffentlichung einer eigenen XBRL-Taxonomie plant.

Non-financial Reporting steckt in den Kinderschuhen
Während finanzielle Kennzahlen standardisiert und deren zugrundeliegende Prozesse längst weitestgehend automatisiert sind, sind Nachhaltigkeitskennzahlen heterogen, da sie von Unternehmen zu Unternehmen variieren können. Produzierende Unternehmen weisen andere Kriterien auf als Handel oder Finanzsektor. Auch die Erhebung der Daten ist weder standardisiert noch automatisiert.

ESG-relevante Daten: überall und nirgends
Der unternehmerische Aufwand zur Erstellung eines ESG Reporting ist enorm. Herausforderungen liegen besonders in der ersten Meile (Data Collection and Integration) und der letzten Meile (Konsolidierung und Berichtsveröffentlichung) der Datenzyklen. Das stellt alle berichtspflichtigen Unternehmen vor besondere Herausforderungen: von der Datenintegration bis zur Berichtslegung sind inklusive Data Analytics und Business Planning alle BI-Disziplinen relevant und gefordert

E wie Environmental
Hierzu zählen Daten über Ressourcenverbräuche, Carbon Footprint, Abfallmengen, etc. entlang der gesamten Produktlebenszyklen.

S wie Social
Hierzu zählen Kennzahlen für Mitarbeiterverantwortung, Arbeitssicherheit und Gesundheitsschutz, aber auch Themen wie Vielfalt, gesellschaftliches Engagement und die Einhaltung von Arbeits- und Sozialstandards.

G wie Governance
Governance Kennzahlen messen den Grad verantwortungsvoller Unternehmensführung und umfassen Themen wie Steuerungs- und Kontrollprozesse. Hierzu zählen neben Sourcing und der Zusammenarbeit mit Partnern auch IT-Sicherheit, Datenschutz und Compliance.

Heterogene Datenquellen, -typen, -formate
Die erste Meile der Datenintegration ist insofern komplex, als unterschiedlichste Daten vereinnahmt werden müssen. Neben internen Quellen gilt es externe zu berücksichtigen. Einige Daten können direkt ermittelt, andere nur indirekt erhoben oder kalkulatorisch bestimmt werden. Datenformate reichen von Papierform bis zu strukturierten Reporting-Standards und Datenzyklen sind beliebig von permanent bis mehrjährig, wodurch Abgrenzungen erforderlich werden.

ESG beinhaltet zahlreiche Synergien
Digitalisierung und unternehmerische Nachhaltigkeit sind nicht nur untrennbar miteinander verbunden, sondern bilden eine Symbiose. Digitale Technologien ermöglichen Effizienzsteigerungen und Energieeinsparungen. Künstliche Intelligenz kann Umweltentwicklungen und Geschäftsereignisse prognostizieren und in Echtzeit Prozesse beeinflussen.

Durch Business Analytics und den Einsatz von AI lassen sich Synergien materialisieren, die bei allen Stakeholdern punkten und Nachhaltigkeit im Wortsinn verkörpern: wirtschaftliche Nachhaltigkeit ebenso wie verantwortungsbewusster und Ressourcen-schonender Umgang mit der Umwelt sowie Verantwortungsbewusstsein gegenüber nachfolgenden Generationen.

Pflicht oder Tugend?

Die Erreichung jeglicher Unternehmensziele setzt funktionierende Datenmanagement-Prozesse voraus. ESG Reporting als festen Baustein in die Unternehmensstrategie zu integrieren, ist nicht nur ab 2024 gesetzliche Vorgabe, sondern eröffnet echte Chancen.
Wie man aus der Pflicht eine Tugend macht und welche Bausteine des Datenzyklus besonders Augenmerk verlangen, um Aufwände zu reduzieren, gesetzlichen Vorgaben zu entsprechen und Chancen zu verwandeln, wird EVACO im kommenden Jahr regelmäßig vorstellen.

Review: #datatalk congress 2023 mit Rekordbeteiligung

Von Künstlicher Intelligenz bei Ewigkeitsaufgaben bis Business Analytics bei den Special Olympics World Games: Besucher aus dem ganzen Bundesgebiet profitierten am 26.09.2023 von persönlichem Austausch mit BI-Experten. Vorgeschaltete Hands-on Workshops ausgebucht.

Dass der EVACO #datatalk congress eine etablierte Plattform für Datenbegeisterte und den branchenübergreifenden Dialog ist, hat die diesjährige Auflage erneut bewiesen. Selbst steigende Corona-Ausbrüche konnten einem neuerlichen Besucherrekord nichts anhaben.

Das Oktogon der Zeche Zollverein als Sinnbild von Vergangenheit und Zukunft bot erneut einen passenden Rahmen für spannende Insights und Vorträge aus so unterschiedlichen Branchen wie Handel, Multi-Sportevent, Pharma und Wasserwirtschaft. Geboten wurde ein ganzheitlicher Blickwinkel auf die rasante Entwicklung im BI-Umfeld und Antworten auf die Frage: Wie kann ich am besten mithalten?

Vorgeschalteten Workshop, Break-out-Sessions und Praxisvorträge
Frühaufsteher konnten in 2 vorgeschalteten Workshops selbst Hand anlegen, bevor alle Besucher Praxisnähe in Form von Kundenvorträgen und Break-out Sessions der Partner erfuhren. Einsatzfelder und Vorteile von KI, Self-Service BI, Kollaboration, Business Planning, Datenmanagement oder Cloud-Strategien wurden anhand konkreter Beispiele verständlich. Großzügige Pausen und die entspannte Atmosphäre bei Mittagessen, Kaffee und Kaltgetränken flankierten den persönlichen Austausch zwischen Kunden, Interessenten und Lösungsanbietern.

Bei Bier, Currywurst und Popcorn führte EVACO Geschäftsführer Jens Merget durch die abschließende Podiumsdiskussion. Fragen aus dem Auditorium wurden kurzweilig von Kai-Uwe Stahl, BI or DIE und Matthias Wiciok, bei EVACO verantwortlich für AI Analytics, beantwortet.

Kompetenter Blick über den Tellerrand
„Kompetent und authentisch“ lautete der Kommentar eines Besuchers. „Ziel erreicht“ antwortet Alexander Willinek, Gründer und Geschäftsführer von EVACO. „Datenkompetenz ist das Gebot der Stunde. Automatisierung und künstliche Intelligenz lassen die Grenzen der verschiedenen Disziplinen zusehends verschwimmen und es ist wichtiger denn je, über den Tellerrand zu gucken“ ist Willinek überzeugt.

To be continued
Auch die eingebundenen Partner Qlik®, TimeXtender, PRODATIC, DocuWare, Diamant Software, OROCOMMERCE, netresearch, K4 Analytics, PlatformManager, Vizlib und ThoughtSpot nutzen Workshops und ihre Infopoints für Erfahrungsaustausch und sind vom Erfolg der Veranstaltung überzeugt, deren Neuauflage in 2024 beschlossene Sache ist.

Weitere Informationen finden Sie hier: #datatalk congress Eventseite

KI made in Germany – powered by EVACO

KI made in Germany – powered by EVACO

Aktuelle Bitkom Studie unterstreicht großes Interesse an Künstliche Intelligenz aus Deutschland. 80% aller Unternehmen machen demnach die Entscheidung für KI-Anbieter von deren Firmensitz abhängig. Deutschland und USA genießen dabei größten Vertrauensvorsprung.

Zahlreiche Experten verorten Künstliche Intelligenz (KI) nach Dampfmaschinen, Elektrifizierung und Internet als nächste Basistechnologie. 15 Prozent der Unternehmen in Deutschland setzen bereits KI ein, weitere 28 Prozent planen oder evaluieren die Nutzung.

Einigkeit herrscht dahingehend, dass Künstliche Intelligenz menschliche Arbeit transformiert und nicht ersetzt. Die International Labour Organization (ILO) rechnet sogar mittelfristig mit weltweit 427 Millionen zusätzlichen Jobs durch den Technologiesprung.

Deutsche Entscheider sind traditionell vorsichtig und glauben KI-erzeugten Inhalten nur zu 70 % (weltweiter Durchschnitt: 73 %). Noch entscheidender ist die Nationalität des KI-Anbieters (81 %). EU-Unternehmen wird zu 74 % vertraut, aus Großbritannien zu 50 %, China lediglich zu 5 %. Auf Ergebnisse russischer KI würde sich aktuell niemand verlassen.

KI aus Deutschland und USA am vertrauenswürdigsten
Die branchenübergreifende Befragung von über 600 Unternehmen belegt, dass nur zwei Staaten als „sichere Herkunftsländer“ für KI gelten und 100 % Vertrauen genießen: Deutschland und die USA. „Software aus den USA ist in vielen Bereichen de facto Standard und wird nicht hinterfragt. Ansonsten glaubt man natürlich keinem mehr als sich selbst“ erklärt Alexander Willinek, Geschäftsführer von EVACO, einem Anbieter modernster BI-Analysesysteme und KI-Technologien.

„Digitalisierungs- und Technologiefragen werden immer stärker Teil geopolitischer Überlegungen. Deshalb haben hiesige KI-Anbieter einen echten Standortvorteil, weil Themen wie IT-Sicherheit und Datenschutz eine mindestens so große Rolle spielen wie Leistungsfähigkeit und Preis von KI-Systemen“ so Willinek, denn „gerade im Bereich KI ist Vertrauen Grundvoraussetzung jeglicher Zusammenarbeit“.

Chatbots und Self-Service gegen Fachkräftemangel
„Marketing, Produktentwicklung und Kundenservices wie Chatbots sind aktuell die zentralen Einsatzgebiete für generative KI” erläutert Matthias Wiciok, bei EVACO verantwortlich für AI Analytics. „Stark wachsend sind KI-basierte Wissensdatenbanken, die mit Unternehmensdaten trainiert werden, um Onboarding-Prozesse zu beschleunigen, den Fachkräftemangel zu kompensieren und den Self-Service Gedanken zu unterstützen”.

„Weil wir unseren Kunden neben Beratung und Implementierung auch Hosting-Dienstleistungen anbieten, hat Informationssicherheit oberste Priorität“ ergänzt Willinek und verweist auf die ISO 27001 Zertifizierung und deren regelmäßige Überprüfung.

KI-Bundesverband: EVACO Teil des größten KI-Netzwerks Deutschlands

Als Mitglied des KI-Bundesverbands ist EVACO Teil des größten KI-Netzwerks Deutschlands. Mehr als 400 assoziierte Unternehmen bilden die Schnittstelle zwischen innovativen KI- und Deep-Tech-Firmen und Unternehmen, die bereits auf KI setzen. Der KI-Bundesverband hat das Ziel, „KI Made in Germany“ zu einer internationalen Marke für Qualität, Innovationskraft und Erfindertum zu machen, und den Wirtschaftsstandort Deutschland zu stärken.