Back to top

EVACO ist Qlik „Overall Best Partner of the Year 2024“

Ein starkes Zeichen für Kompetenz, Innovation und Partnerschaft:
Wir haben den Vogel abgeschossen und wurden zum besten Partner im DACH Raum gekürt! Die Auszeichnung wurde am 02. Juli 2025 in Anwesenheit aller relevanten Qlik-Partner aus Deutschland, Österreich und der Schweiz auf dem Qlik Regional Partner Summit DACH verliehen und steht für das, was EVACO ausmacht: fundiertes Know-how, kundennahe Beratung und ein echter Innovationsdrang.

Pionierarbeit in Data Analytics – von Anfang an

Als Qlik Partner der ersten Stunde in Deutschland ist EVACO seit vielen Jahren ein zentraler Treiber für Business Intelligence und Data Analytics. Das Unternehmen begleitet seine Kunden von der strategischen Beratung bis zur technischen Umsetzung – immer mit dem Ziel, Daten in greifbare Entscheidungen zu übersetzen. Die engen Bande zu Qlik unterstreicht der Status Partner Ambassador unseres Head of Consulting Simon Schellartz.

Mit einem interdisziplinären Team aus erfahrenen Qlik-Entwicklern, KI-Experten und Data Engineers bringt EVACO seit Jahren wegweisende Analytics-Projekte auf den Weg – von Self-Service BI über Advanced Analytics bis hin zu automatisierten Vorhersagen mit Qlik AutoML.

Fokus auf KI, Cloud und Data Literacy

Besonders im Fokus stehen seit 2024 die Themen Künstliche Intelligenz, Predictive Analytics und Cloud Analytics. In zahlreichen Projekten mit Kunden unterschiedlichster Branchen haben wir KI-basierte Modelle wie Forecasting, Anomalie-Erkennung oder RAG-gestützte Berichtsgenerierung nahtlos in bestehende Qlik-Umgebungen integriert. Unsere Kunden honorieren, dass wir Data Literacy fördern, Mitarbeitende befähigen und Lösungen so gestalten, dass sie nachhaltig wirken.

Auszeichnung mit Signalwirkung

Die Verleihung des Titels „Overall Best Partner of the Year“ ist ein deutliches Zeichen für die Qualität der Zusammenarbeit zwischen EVACO und Qlik und die hohe Zufriedenheit auf Kundenseite. Für die Auszeichnung und das damit verbundene Vertrauen bedanken wir uns herzlich bei allen Kunden, Partnern und Mitarbeitenden, die diesen Erfolg möglich gemacht haben.

Wenn Du mehr über unsere Qlik-Kompetenz oder aktuelle KI-Projekte erfahren möchtest, nimm Kontakt mit uns auf – oder besuche uns im Rahmen des datatalk congress am 16. & 17. September, wo wir u. a. zu Qlik AutoML, RAG & KI in der Praxis sprechen.

 

Momentary laps of Reason? Not!

Was sind eigentlich Reasoning Modelle? 

Sprachmodelle wie GPT-4o sind heute in vielen Unternehmen angekommen. Sie schreiben E-Mails, fassen Meetings zusammen oder helfen beim Programmieren. Doch was passiert, wenn es nicht nur um Sprachverständnis oder die nächste Textvervollständigung geht, sondern um echtes Problemlösen – um das, was man klassisch unter Denken oder Schlussfolgern versteht? 

Genau hier beginnt der Unterschied zwischen klassischen Sprachmodellen und sogenannten Reasoning-Modellen. 

Sprachmodelle wie GPT-4o – stark in Sprache, begrenzt im „Denken“ 

Modelle wie GPT-4o basieren im Kern auf einer simplen, aber mächtigen Idee: Sie sagen Wort für Wort vorher, was statistisch wahrscheinlich als nächstes kommt – sogenanntes Next Token Prediction. Das funktioniert gut für viele Aufgaben – solange die Aufgaben nicht zu komplex sind oder sich die Lösung direkt aus dem Kontext ergibt. 

Doch sobald es mehrstufige Überlegungen braucht, etwa in der Datenanalyse, bei der Planung oder bei technischen Entscheidungen, geraten diese Modelle an Grenzen. Sie „denken“ nicht im eigentlichen Sinn, sondern vervollständigen Muster. Und das kann leicht zu oberflächlichen oder fehlerhaften Antworten führen. 

Der Zwischenschritt: Chain-of-Thought 

Um Sprachmodelle dennoch zu mehr Tiefe zu bringen, entwickelte man ein einfaches, aber wirksames Prinzip: Chain-of-Thought (CoT). Statt direkt eine Antwort zu geben, wird das Modell im Prompt dazu aufgefordert, seine Gedankengänge Schritt für Schritt zu formulieren. Das wirkt wie ein externes Notizbuch, in dem das Modell Zwischenüberlegungen sichtbar macht – vergleichbar mit einem Schüler, der nicht nur das Ergebnis hinschreibt, sondern auch den Rechenweg. 

CoT ist allerdings kein Teil der Architektur des Modells – es ist eine clevere Prompting-Technik. Und genau hier setzen Reasoning-Modelle an. 

Der nächste Schritt: Reasoning-Modelle wie GPT-o1 oder o3 

Mit Modellen wie GPT-o1 oder dem aktuellen GPT-o3 geht OpenAI einen Schritt weiter. Diese Modelle wurden gezielt auf reasoning tasks trainiert – also auf Aufgaben, die logisches Denken, schrittweises Ableiten und strategische Planung erfordern. Der technische Unterschied liegt in mehreren Aspekten: 

  • Trainingsdaten und Aufgabenstruktur: Reasoning-Modelle bekommen speziell kuratierte Daten, bei denen Denkprozesse im Vordergrund stehen – etwa mathematische Beweise, logische Ketten oder komplexe Planungsszenarien. 
  • Verstärkendes Lernen (Reinforcement Learning): Statt nur „Was ist das wahrscheinlich nächste Wort?“ zu lernen, werden diese Modelle durch Feedback verstärkt – etwa durch menschliche Bewertungen (Human Feedback) oder durch automatisierte Bewertungen, ob ein Denkweg korrekt ist (reasoning traces). 
  • Explizites Denken als Teil der Modelllogik: Anders als bei CoT, wo das Denken nur nach außen sichtbar gemacht wird, ist bei Reasoning-Modellen das „Denken in Schritten“ Teil der inneren Verarbeitung.  

Das Ergebnis: Reasoning-Modelle sind deutlich besser darin, komplexe Aufgaben zu lösen – sei es in der technischen Analyse, bei strategischen Fragestellungen oder in der Automatisierung mehrstufiger Prozesse. 

Was bedeutet das für Dein Unternehmen? 

Der Einsatz von Reasoning-Modellen eröffnet völlig neue Möglichkeiten – von KI-Systemen, die komplexe Anfragen durchdringen, bis hin zu Agenten, die ganze Aufgabenketten eigenständig bearbeiten. Doch diese Modelle entfalten ihr Potenzial erst dann richtig, wenn man versteht, wie man sie richtig nutzt – durch geeignetes Prompting, durch Strukturierung von Aufgaben, durch sinnvolle Modellwahl. 

Genau das vermitteln wir in unseren ChatGPT Prompting-Trainings: Dort zeigen wir, wie man mit den richtigen Techniken aus einem Sprachmodell ein denkendes Werkzeug macht – ob mit GPT-4o, CoT-Prompting oder mit einem echten Reasoning-Modell wie GPT-o3. 

KI trifft Berichtspflichten

Wie RAG Berichtspflichten revolutioniert

Die Anforderungen an Nachhaltigkeitsberichte steigen – nicht nur durch die CSRD und ESRS, sondern auch durch zahlreiche gesetzliche Berichtspflichten wie z.B. die EU-Verordnung zur Entwaldungsfreiheit (EUDR), das ElektroG / EAR oder das Kreislaufwirtschaftsgesetz (KrWG). In der Konsequenz stehen Unternehmen zunehmend unter Druck, komplexe Daten aus unterschiedlichen Quellen konsistent, prüfbar und regelkonform aufzubereiten.

Genau hier kommt Künstliche Intelligenz ins Spiel – genauer gesagt: Retrieval-Augmented Generation (RAG).

RAG – KI-basierte Textgenerierung auf Basis verlässlicher Daten

RAG ist ein innovativer Ansatz der generativen KI, der zwei Technologien kombiniert:

  1. Retrieval (Abruf): Die KI durchsucht gezielt relevante Dokumente – von Richtlinien über ESG-Kennzahlen bis hin zu regulatorischen Vorgaben.
  2. Augmented Generation (verstärkte Textgenerierung): Auf Basis der gefundenen Inhalte generiert sie kontextbezogene, faktenbasierte Textbausteine – z. B. für ESG-Berichte, Lieferkettennachweise oder Umwelterklärungen.

Im Gegensatz zu klassischen Sprachmodellen „halluziniert“ RAG keine Inhalte, sondern nutzt ausschließlich unternehmensinterne oder offiziell vorgegebene Quellen. Das Ergebnis: nachvollziehbare, korrekte und KI-gestützte Texte.

Ein KI-System für viele Berichtspflichten

Ob ESG, Kreislaufwirtschaft oder Lieferkettenreporting – RAG kann vielfältig eingesetzt werden:

  • CSRD-/ESRS-konforme Nachhaltigkeitsberichte
  • Lieferkettengesetz-Reportings
  • EUDR-Meldungen zu entwaldungsfreien Lieferketten
  • EAR-Berichte im Rahmen des ElektroG
  • Umwelterklärungen nach dem KrWG
  • Produktverantwortungsnachweise
  • Corporate Carbon Footprints / Scope-Emissionen

Durch den dokumentengestützten Ansatz lassen sich unternehmensspezifische Inhalte mit regulatorischen Anforderungen präzise verknüpfen – auch über Landesgrenzen und Sprachräume hinweg.

So funktioniert KI-gestützte Berichtserstellung mit RAG

Die Grundlage bildet ein zentraler ESG-Daten- und Dokumentenpool: Richtlinien, Energie- und HR-Berichte, Lieferantenerklärungen, Nachhaltigkeitsziele, regulatorische Anforderungen. Diese Inhalte werden KI-lesbar gemacht – etwa über Vektordatenbanken oder graphbasierte Strukturen wie GraphRAG.

Dann kommt die eigentliche Stärke von RAG zum Tragen:

Mit gezielten Prompts wie
„Fasse alle Maßnahmen zur Reduktion von Scope-3-Emissionen zusammen“
oder
„Welche Berichtspflichten betreffen unsere Produkte gemäß EAR und KrWG?“
liefert die KI vollständige, konsistente Textvorschläge – optional mit Quellverweisen und in verschiedenen Sprachen.

Die Vorteile im Überblick

  • KI-basiert und faktengetrieben: Inhalte stammen aus realen Daten, keine Halluzinationen
  • Transparent & nachvollziehbar: Quellenangaben möglich
  • Effizient & skalierbar: Ideal für Unternehmensgruppen oder internationale Reportings
  • Rechtskonform: Inhalte lassen sich entlang gesetzlicher Vorgaben strukturieren
  • Mehrsprachig: Automatische Textgenerierung in DE, EN und weiteren Sprachen

Integration in bestehende ESG-Tools

RAG kann nahtlos an bestehende Plattformen wie Power Platform, Qlik, Nachhaltigkeitsdatenbanken oder Lieferantenportale angebunden werden. So fließen strukturierte ESG-Kennzahlen, gesetzliche Vorgaben und Richtliniendokumente direkt in die KI-gestützte Berichtserstellung ein – automatisiert und prüfbar.

Neugierig geworden?

Erlebe live, wie KI – und speziell RAG – die ESG- und Nachhaltigkeitsberichterstattung auf ein neues Level hebt: Beim #datatalk congress am 16. & 17. September zeigen wir in einem Praxisvortrag konkrete Use Cases, Technologie-Insights und Lessons Learned aus realen KI-Projekten.

#datatalk congress 2025 – Daten. Austausch. Inspiration.