Back to top
EVACO Weihnachten 2024

News

Haben Sie die Neuigkeiten schon gehört?

EVACO News halten Sie immer auf dem Laufenden

Alles zu neuen BI-Themen, Produkten, Partnern und Events erfahren Sie genau hier.

Newsletter abonnieren

AutoML in der Praxis mit Qlik Predict

Zukunft vorhersagen mit Qlik Predict und AutoML Wie lassen sich...

TEILEN facebook twitter linkedin mail

Neu: Writeback Funktion in Qlik Cloud

Write Table ist da – so nutzt Du’s sicher Mit...

TEILEN facebook twitter linkedin mail

KI-Strategie 2026

Vom Hype zur strukturellen Wertschöpfung Künstliche Intelligenz hat die Phase...

TEILEN facebook twitter linkedin mail

Logistik-Mehrwerte durch KI

Vom Reporting zur echten Prozesswirkung KI kann Logistikprozesse spürbar verbessern...

TEILEN facebook twitter linkedin mail

ESG Jahresrückblick

Orientierung statt Aktionismus 2025 war für ESG ein Jahr zwischen...

TEILEN facebook twitter linkedin mail

Data Literacy Training

Warum Data Literacy zur Schlüsselkompetenz wird – und wie EVACO...

TEILEN facebook twitter linkedin mail

Qlik und AWS: Strategische Zusammenarbeit für EU-Cloud

Qlik und AWS bringen KI-Analysen in die neue europäische Sovereign...

TEILEN facebook twitter linkedin mail

Qlik®November Update: das ist neu

Neuerungen in Qlik Sense November 2025 – Zusammenfassung  Qlik Sense Enterprise für Windows bringt...

TEILEN facebook twitter linkedin mail

close

AutoML in der Praxis mit Qlik Predict

Zukunft vorhersagen mit Qlik Predict und AutoML

Wie lassen sich Zeitreihen einfach und zuverlässig prognostizieren – ganz ohne Programmierung? Qlik Predict ermöglicht datenbasierte Vorhersagen „mit Bordmitteln“.

AutoML verständlich erklärt

Qlik Predict™ bringt eine integrierte AutoML-Engine in die Qlik Cloud Analytics™. Sie automatisiert zentrale Schritte des Machine-Learning-Prozesses: von der Datenaufbereitung über Feature Engineering und Modellauswahl bis hin zu Training, Bewertung und Deployment. Das Ergebnis: belastbare Prognosen ohne Data-Science-Know-how.

Typische Einsatzszenarien für Zeitreihen

Zeitreihenprognosen sind in vielen Bereichen ein entscheidender Erfolgsfaktor. Typische Anwendungsfälle sind unter anderem:

  • Absatz-, Umsatz- und Cashflow-Prognosen
  • Produktions- und Materialbedarfsplanung
  • Predictive Maintenance und Wartungsplanung
  • Nachfrage-, Lieferzeit- und Lagerbestandsprognosen
  • Energieverbrauchs- und Lastspitzenprognosen

Modellbewertung: Genauigkeit zählt

Die Bewertung der Modelle erfolgt unter anderem mit dem MASE-Wert (Mean Absolute Scaled Error). Er zeigt, wie gut ein Modell im Vergleich zu einer einfachen naiven Prognose abschneidet. Je kleiner der MASE-Wert, desto zuverlässiger ist die Vorhersage – ein entscheidender Faktor für fundierte Planungsentscheidungen.

Integration in Qlik Cloud Analytics

Die erstellten Prognosen lassen sich flexibel integrieren:

  • direkt im Load Script über den Qlik Analytics Connector
  • interaktiv im Frontend mit dem Predict-Objekt
  • automatisiert über Qlik Automate
  • oder per REST API in externe Anwendungen

Call-to-Action

Wenn Du Zeitreihenprognosen anwenden möchtest: wir unterstützen gerne. Sehr zu empfehlen ist hierfür unser Qlik AI Training als Einstieg in die Materie.

TEILEN facebook twitter linkedin mail

close

Neu: Writeback Funktion in Qlik Cloud

Write Table ist da – so nutzt Du’s sicher

Mit Write Table kannst Du Werte oder Kommentare direkt im Analysekontext erfassen – inklusive Echtzeit-Synchronisierung, Change Store und optionaler Weiterverarbeitung über Qlik Automate.

Was ist „Write Table“ – und wofür ist es gedacht?

Write Table ist eine editierbare Tabellen-Chart in Qlik Cloud Analytics. Der Clou: Eingaben passieren dort, wo Entscheidungen getroffen werden – in der App, im Kontext der Analyse. Qlik nennt als Beispiele u. a. Inventory- und Delivery-Management, Mitarbeitenden-Feedback sowie das Bearbeiten von Sales Opportunities.

So läuft das technisch: Echtzeit-Sync + Change Store

Änderungen werden in einem von Qlik verwalteten Change Store gespeichert und über aktive Sessions in Echtzeit synchronisiert. Das ermöglicht kollaboratives Arbeiten – und schafft die Grundlage, um Änderungen anschließend in Prozesse zu überführen (z. B. mit Qlik Automate).

Governance & Rechte: Darauf solltest Du unbedingt achten

Writeback ist mächtig – und braucht klare Leitplanken. Diese Punkte sind aus EVACO-Sicht besonders wichtig:

  • Edition/Verfügbarkeit: Write Table ist eine Cloud-Funktion und in bestimmten Qlik-Cloud-Editionen enthalten.
  • Berechtigungen: Für Setup/Verwaltung sind spezifische Rechte relevant (u. a. „Manage write table charts“).
  • Datenlebensdauer: Der Change Store hat eine TTL von 90 Tagen – wichtig für Audits, Nachvollziehbarkeit und Betriebsmodelle.
  • Section Access: Section Access greift nicht auf Change Store bzw. die Change-Store-API – das solltest Du im Sicherheits- und Rollenmodell berücksichtigen.

EVACO-Praxis: So bringst Du Write Table sauber in den Betrieb

Wenn Du Write Table einführen willst, empfehlen wir einen pragmatischen Ansatz:

  1. Use-Case auswählen (z. B. Kommentar-Writeback vs. „echtes“ Daten-Update)
  2. Rechte/Rollenmodell definieren (wer darf was – und wo?)
  3. Governance klären (TTL, Nachvollziehbarkeit, Freigaben)
  4. Automatisierung anbinden (z. B. Übergabe in Tickets/Workflows via Qlik Automate)

Auf einen Blick

  • Editierbare Tabelle in Qlik Cloud Analytics (Write Table)
  • Änderungen synchronisieren live, Speicherung im Change Store
  • Weiterverarbeitung/Prozesse per Qlik Automate möglich
  • Wichtig: Rechte, TTL (90 Tage), Section-Access-Grenzen

Du willst Write Table nutzen – aber Governance, Berechtigungen und Automate-Workflows von Anfang an sauber aufsetzen?
Dann machen wir’s pragmatisch: 30-Minuten-Writeback-Check (Use Case, Rechte, Risiken, nächster Schritt). Anruf genügt!

TEILEN facebook twitter linkedin mail

close

KI-Strategie 2026

Vom Hype zur strukturellen Wertschöpfung

Künstliche Intelligenz hat die Phase der bloßen Begeisterung verlassen. In der heutigen Unternehmenswelt ist KI kein reines IT-Projekt mehr, sondern ein zentraler Hebel für Wettbewerbsfähigkeit, operative Exzellenz und neue Geschäftsmodelle. Doch während viele Unternehmen bereits mit Tools wie ChatGPT experimentieren, scheitern die meisten daran, KI skalierbar und wertstiftend einzusetzen. Der Grund: Es fehlt eine ganzheitliche Strategie.

Eine erfolgreiche KI-Strategie basiert nicht auf der Auswahl der „besten“ Software, sondern auf der Synchronisation von Technologie, Organisation und Unternehmenskultur. Die folgenden sieben Säulen bilden das Fundament für eine Transformation, die über bloße Effizienzgewinne hinausgeht.

  1. Vision & Business Value: Der Nordstern deiner Transformation

Jede KI-Initiative muss mit der Frage nach dem „Warum“ beginnen. Ohne eine klare Ausrichtung an der Unternehmensstrategie riskierst du teure Insellösungen ohne messbaren Impact.

  • Die Kernfrage: Welches strategische Problem lösen wir mit KI?
  • Das Ziel: Definiere klare KPIs. Geht es um die Senkung der Prozesskosten, die Steigerung der Kundenzufriedenheit oder die Erschließung völlig neuer Erlösströme? Nur was messbar ist, kann skaliert werden.
  1. Use Case Portfolio: Priorisierung statt Gießkanne

Die Möglichkeiten von KI sind nahezu unbegrenzt, die Ressourcen eines Unternehmens jedoch nicht. Entscheidungsträger müssen lernen, Use Cases nach zwei Kriterien zu bewerten: Business Impact und Machbarkeit. Starte nicht mit dem komplexesten Projekt. Identifiziere „Quick Wins“ (MVPs), die innerhalb weniger Monate Wert stiften. Ein gut gepflegtes Portfolio balanciert kurzfristige Erfolge mit langfristigen, disruptiven Innovationen.

  1. Daten & Infrastruktur: Das Fundament des Erfolgs

KI ist nur so gut wie die Daten, mit denen sie gefüttert wird. „Garbage in, garbage out“ gilt heute mehr denn je.

  • Infrastruktur: Entscheide strategisch zwischen Cloud-Lösungen für maximale Flexibilität und On-Premise-Lösungen für maximale Datensouveränität.
  • Datenqualität: Eine moderne Datenstrategie muss Silos aufbrechen und eine „Single Source of Truth“ schaffen. Investitionen in die Datenarchitektur sind das notwendige Investment in die Intelligenz deiner zukünftigen Systeme.
  1. Organisation & Talente: Die menschliche Komponente

Die technologische Hürde ist oft niedriger als die kompetenzbezogene. Du benötigst nicht nur Data Scientists, sondern „KI-Übersetzer“, die Brücken zwischen Fachabteilungen und Technik schlagen. Bau ein AI Center of Excellence (CoE) auf, das Best Practices bündelt. Gleichzeitig muss ein breites Upskilling-Programm sicherstellen, dass die gesamte Belegschaft die nötige „AI Literacy“ erwirbt, um KI im Alltag produktiv zu nutzen.

  1. Governance & Ethik: Vertrauen als Wettbewerbsvorteil

In Zeiten des EU AI Acts ist Compliance keine Option, sondern eine Notwendigkeit. Eine klare Governance regelt den Datenschutz, die Sicherheit und die ethische Verantwortbarkeit von KI-Entscheidungen. Unternehmen, die transparent mit Bias-Risiken und Datenschutz umgehen, gewinnen das Vertrauen von Kunden und Mitarbeitern. Betrachte Regulatorik nicht als Bremse, sondern als Leitplanke für nachhaltiges Wachstum.

  1. Change Management: Die Kulturreise

Die größte Barriere für KI ist oft die Angst vor Arbeitsplatzverlust oder Kontrollverlust. KI-Transformation ist zu 20 % Technologie und zu 80 % Psychologie. Führungskräfte müssen eine Experimentierkultur vorleben, in der Fehler als Lernschritte akzeptiert werden. Kommuniziere offen: KI soll den Menschen nicht ersetzen, sondern ihn von repetitiven Aufgaben befreien, um Raum für Kreativität und strategisches Denken zu schaffen.

  1. Roadmap & Skalierung: Der Weg zur AI-First-Company

Eine KI-Strategie ist kein einmaliges Dokument, sondern ein lebender Prozess. Beginne mit Pilotprojekten, aber plane von Tag eins an die Skalierung ein. Stell sicher, dass das Budget nicht nach der Pilotphase endet. Eine klare Roadmap definiert Meilensteine für die nächsten 12 bis 36 Monate und stellt sicher, dass die technologische Entwicklung mit den organisatorischen Kapazitäten Schritt hält.

Quintessenz & unsere Empfehlung an Dich

KI ist die Dampfmaschine des 21. Jahrhunderts. Wer sie nur als Werkzeug betrachtet, wird abgehängt. Wer sie als strategischen Partner begreift, positioniert sein Unternehmen für eine Ära beispielloser Produktivität. Eine KI-Strategie entwickelt sich nicht nebenher im Tagesgeschäft. Sie erfordert Fokus, Expertise und den Mut zur Priorisierung.

Wenn du diesen Prozess beschleunigen und auf ein solides Fundament stellen möchtest, unterstützen wir dich gerne persönlich. Wir bieten einen exklusiven 2-Tages-Workshop zum Thema KI-Strategie an. In diesem intensiven Format gehen wir gemeinsam mit deinem Führungsteam tief in alle oben genannten Kategorien.

TEILEN facebook twitter linkedin mail

close

Logistik-Mehrwerte durch KI

Vom Reporting zur echten Prozesswirkung

KI kann Logistikprozesse spürbar verbessern – von der schnelleren Reaktion im Leitstand bis zur stabileren Planung in Lager und Transport. In der Praxis entscheidet aber nicht das „KI-Feature“ allein über den Erfolg, sondern die Grundlage darunter: klare Kennzahlenlogik, saubere Daten, Governance und ein konsistenter Semantic Layer. Genau dieser BI-Unterbau liefert Struktur und Kontext – und macht KI-Ergebnisse erst belastbar und wiederholbar.

Umgekehrt hebt KI die Analytics-Nutzung auf ein neues Niveau: Statt sich durch Reports zu klicken, stellen Teams Fragen in natürlicher Sprache, bekommen automatische Insights, Prognosen und handlungsorientierte Antworten – schneller und näher am operativen Prozess. Gleichzeitig wird entscheidend, dass KI und Analytics auditierbar, nachvollziehbar und regelkonform umgesetzt werden – inklusive Berechtigungen, Lineage und regulatorischer Anforderungen.

Im Beitrag schauen wir auf vier Bereiche, in denen dieser Zusammenschluss aus Datenfundament und KI besonders wirksam wird: Data Analytics, Data Integration & Governance, KI Agents und Data Literacy.

Data Analytics: Vom Dashboard zu Conversational Analytics – direkt im Prozess

Der Trend geht zu Natural-Language-Analytics und GenAI-Copilots als „nächster Self-Service-BI-Stufe“. In der Logistik heißt das: weniger Suchen in Reports, mehr Antworten „auf Zuruf“ – dort, wo Entscheidungen entstehen.

Beispiele aus dem Logistik-Alltag:

  • Leitstand / Transportsteuerung: Disponent fragt im Chat: „Welche Sendungen reißen heute bis 16:00 Uhr voraussichtlich das SLA – und warum?“ KI kombiniert Echtzeitstatus, Cut-off-Zeiten, historische Laufzeiten und liefert eine priorisierte Ausnahmeliste inkl. Ursachen (Stau, fehlender Scan, Rampenengpass).
  • Warehouse Operations: Schichtleitung fragt: „Wo stauen sich heute die Picks?“ → KI erkennt Hotspots (Zone, Artikelgruppe, Gerätetyp), erzeugt automatisch Insights und schlägt Gegenmaßnahmen vor (Rebalancing, Nachschubpriorisierung).
  • Write-back / Entscheidungen dokumentieren: Statt nur zu analysieren, können verantwortliche Teams Maßnahmen direkt im BI-/Planungs-Frontend zurückschreiben (z. B. Kapazitätsanpassung, Slotting-Änderung, Sonderfahrt-Freigabe). (Tool-Beispiele aus dem Themenkanon: u. a. Conversational/BI-Ansätze, Predict & Answers, Write-Back-Lösungen).

Data Integration & Governance: Saubere Daten. Klare Regeln. Sichere KI.

Wenn KI operative Empfehlungen geben soll (z. B. Priorisierung, Forecast, Re-Routing), braucht es eine belastbare Datenbasis: Auditability, Lineage, Rollen-/Berechtigungsmodelle, DSGVO und AI-Governance müssen von Anfang an mitgedacht werden.

Übersetzt in den Logistik-Alltag:

  • End-to-End-Transparenz: WMS, TMS, ERP, Yard, Telematik/IoT und Carrier-Events werden integriert – damit „ETA“, „OTIF“ oder „Perfect Order“ nicht je Bereich anders berechnet werden. Ergebnis: ein konsistenter Semantic Layer, der KI sauber „füttert“.

  • Compliance & Nachvollziehbarkeit: Bei KI-gestützten Priorisierungen (z. B. knappe Rampenkapazität, Gefahrgut-Slots, temperaturgeführte Ware) muss erklärbar sein, warum eine Entscheidung so getroffen wurde – inklusive Datenherkunft und Regelwerk (Lineage/Audit).

  • Regulation-ready: Gerade im deutschsprachigen Raum (DSGVO, EU AI Act) ist Governance nicht „nice to have“, sondern Voraussetzung für skalierbare KI in produktiven Logistikprozessen.

KI Agents: Von Insights zu Aktionen – kontrolliert, integriert, wirksam

Der nächste Schritt nach „Erkennen“ ist „Handeln“: KI-Agenten können Insights in Workflows übersetzen – sicher integriert und mit respektierten Zugriffsrechten statt „Shadow-KI“. Protokolle wie A2A und MCP stehen dabei für die Idee, dass Agenten kontrolliert mit Systemen und Kontext arbeiten.

Praxisbeispiele in Logistikprozessen:

  • Exception Handling als Agent-Workflow: Agent überwacht Abweichungen (fehlender Scan, Temperaturalarm, ETA-Risiko), öffnet automatisch ein Ticket im TMS/WMS, hängt relevante Belege an, schlägt Maßnahmen vor (Umplanung, Sonderfahrt, Alternativdepot) und erstellt eine Carrier-/Kundeninfo zur Freigabe.
  • Dokumente & SOPs per RAG: Agent beantwortet Fragen wie „Welche SOP gilt bei Gefahrgut-Umverpackung?“ oder „Welche Incoterms-Regel greift bei Kunde X?“ auf Basis interner Dokumente – mit Quellen und Berechtigungen. (Im Themenkanon: RAG-/Enterprise-Agents, Agentic AI).
  • Procurement & Bestandsmanagement: Agent identifiziert drohende Stockouts, prüft Lieferanten-Lead-Times, erstellt Bestellvorschläge und stößt Genehmigungsprozesse an – statt dass Teams täglich manuell Listen pflegen.

Data Literacy: Vom Bauchgefühl zur daten- und KI-kompetenten Organisation

KI erhöht die technische und organisatorische Komplexität. Ohne Kompetenz verpuffen KI-Initiativen, deshalb zählen Data Culture und Data Literacy zu den wichtigsten Langfrist-Trends.

Praxisbeispiele in Logistikprozessen

Schicht- & Leitstands-Teams befähigen: Nicht jede:r braucht Python – aber jede:r sollte KI-Ergebnisse einordnen, kritisch prüfen und verantwortungsvoll nutzen können (z. B. bei Prognosen, Ursachenanalysen, automatischen Empfehlungen).

„Trust“-Mechanik im Alltag: Trainings zu KPI-Logik, Datenqualität, „Halluzinationen“ und sicheren Prompts sorgen dafür, dass KI als Assistenz wirkt – nicht als Black Box.

Henne oder  Ei? All of the above! 

KI in der Logistik ist dann besonders stark, wenn sie auf einer belastbaren BI- und Datenbasis aufsetzt – und wenn sie vom Insight zur Aktion kommt: Conversational Analytics für schnelle Antworten, Governance für Vertrauen, Agents für Prozesswirkung und Data Literacy für nachhaltige Verankerung.

Wenn Du KI in Lager, Transport oder Planung produktiv nutzen willst, ohne das Ristiko einer Schatten-IT und Governance-Probleme einzugehen, dann sprich uns gerne an.

 

TEILEN facebook twitter linkedin mail

close

ESG Jahresrückblick

Orientierung statt Aktionismus

2025 war für ESG ein Jahr zwischen Unsicherheit und Aufbruch. Politische Diskussionen rund um CSRD, Lieferketten- und Berichtsstandards sorgten für Bewegung bei Fristen und Schwellenwerten. Gleichzeitig ist klar: Nachhaltigkeit ist in den meisten Unternehmen strategisch gesetzt – und der Bedarf an verlässlichen ESG-Daten wächst weiter.

Für uns bei EVACO stand das Jahr deshalb unter einem Leitmotiv:

Nicht ob, sondern wie – ESG verlässlich und datenbasiert umsetzen.

Regeln ändern sich, die Richtung bleibt: mehr Transparenz, mehr Verantwortung entlang der Wertschöpfungskette, mehr Nachvollziehbarkeit von Kennzahlen.

Unsere zentrale Botschaft 2025:

  • Regulatorische „Atempause“ ≠ Pause im Unternehmen. Wer jetzt an Wesentlichkeit, Datenstrukturen und Prozessen weiterarbeitet, reduziert zukünftigen Druck.
  • Lieferketten und Datenqualität rücken ins Zentrum. Vorgaben wie Entwaldungs- oder Sorgfaltspflichten machen deutlich, dass ESG nicht am Werkstor endet.
  • Wichtig ist ein klarer Kurs statt hektischer Reaktionen auf jede Detailänderung im Gesetzgebungsprozess.

ESG als Managementaufgabe – mehr als ein statischer Bericht

Erfolgreiches ESG-Reporting beginnt nicht mit einer neuen Software, sondern mit der Art, wie ein Unternehmen geführt wird. Über das Jahr hinweg haben sich einige Grundsätze herauskristallisiert:

  • Führung zeigt Haltung. ESG braucht sichtbare Priorität im Top-Management.
  • Teams arbeiten über Silos hinweg. Einkauf, HR, Finanzen, Umwelt, Compliance und IT tragen gemeinsam zu einem stimmigen Bild bei.
  • Rollen sind klar. Es ist definiert, wer Daten liefert, prüft, freigibt und verantwortet.
  • Wissen wird aufgebaut. ESG-Kompetenz ist kein Einmalprojekt, sondern Teil der Organisationsentwicklung.

So wird aus ESG-Reporting ein Steuerungsinstrument – und nicht nur ein jährlicher Abgabe-Termin.

ESG ist ein Datenprojekt

Ein roter Faden in unseren ESG-Aktivitäten 2025: Ohne belastbare Datenbasis bleibt ESG abstrakt.

Worauf wir setzen:

  • Zentrale Plattform statt Tool-Zoo. ESG-Daten aus unterschiedlichen Systemen werden zusammengeführt, versioniert und nachvollziehbar gehalten.
  • Daten einmal sauber, mehrfach nutzbar. Für Berichte, Management-Informationen, Banken, Ratings oder Kund:innenkommunikation.
  • Flexibilität durch Integration. Bestehende BI- und Analytics-Landschaften bilden das Rückgrat; neue Anforderungen lassen sich modular andocken.

Damit lässt sich ESG nicht nur „erfüllen“, sondern aktiv für Strategie und Steuerung nutzen.

ESG meets KI – der nächste Schritt

Zum Jahresende gewinnt ein Thema an Fahrt, das uns 2026 noch stärker begleiten wird: ESG meets KI.

KI-Ansätze wie Retrieval-Augmented Generation (RAG) können helfen, aus einem gut strukturierten ESG-Daten- und Dokumentenfundus konsistente Textvorschläge zu erzeugen, Quellen zuzuordnen und Wiederholarbeiten zu reduzieren. Verantwortung, Plausibilisierung und Freigabe bleiben beim Menschen – die Effizienz im Prozess steigt.

Ausblick: Einladung zum Unternehmensnetzwerk Region West

Besonders freuen wir uns, dass unsere Arbeit in diesem Feld auch außerhalb von EVACO aufgegriffen wird:

Wir sind von der Stiftung Allianz für Entwicklung und Klima eingeladen worden, beim Treffen des Unternehmensnetzwerks Region West am 05.02.2026 in Köln gemeinsam mit dem Gastgeber ACV Automobil-Club Verkehr e. V. einen Impulsvortrag zum Thema

„ESG meets KI: Intelligente Unterstützung bei der Berichtserstellung“

zu halten. Wir werden dort Einblicke in die unternehmerische Nachhaltigkeitspraxis und in KI-gestützte ESG-Berichterstattung geben.

ESG Reporting ist kein Image- oder Ökothema, sondern dreht sich um Nachhaltigkeit im Wortsinn. Es ist ein ganzheitliches Effizienzprogamm, das den Umgang mit Ressourcen optimiert. Unternehmen, die jetzt in Strukturen, Daten und Kompetenzen investieren, verschieben den Fokus weg von „Pflichterfüllung“ hin zu spürbarem Mehrwert für Strategie, Steuerung und Glaubwürdigkeit. Diesen Weg wollen wir 2026 gemeinsam weitergehen.

TEILEN facebook twitter linkedin mail

close

Data Literacy Training

Warum Data Literacy zur Schlüsselkompetenz wird – und wie EVACO dabei unterstützt

Unternehmen investieren massiv in Datenplattformen, BI-Lösungen und KI und der Einsatz von KI hat die Möglichkeiten so explodieren lassen, dass der limitierende Faktor immer häufiger bei den Menschen liegt, nicht bei der Technologie. Der berühmte Satz „wenn Siemens wüsste, was Siemens weiß“ ist aktueller denn je und die Bedeutung der Data Literacy Kompetenz nimmt kontinuierlich zu.

Die aktuelle BARC-Studie “Data, BI and Analytics Trend Monitor 2026” zeigt: Data & AI Literacy gehört mittlerweile zu den wichtigsten Trends im Umfeld von Data & Analytics und wird in einem Atemzug mit Themen wie Datenqualität, Datensicherheit und Governance genannt. In der Studie wird deutlich:

  • Best-in-Class-Unternehmen bewerten Data & AI Literacy deutlich höher als der Durchschnitt.
  • Organisationen, in denen Datenkompetenz breit verankert ist, können Innovationen schneller vorantreiben.
  • Unternehmen mit niedriger Data Literacy haben Schwierigkeiten, Daten in handlungsrelevante Entscheidungen zu übersetzen – trotz vorhandener Tools und Technologien.

Ohne ein breites, gemeinsames Datenverständnis bleiben viele Data-, BI- und AI-Initiativen unter ihren Möglichkeiten.

Unser Ansatz: Data Literacy als gemeinsame Sprache für Daten

Das EVACO Data Literacy Training schafft die Basis, bereits zu Projektbeginn ein gemeinsames Datenverständnis entwickeln. Teilnehmende werden:

  • sprachfähig im Umgang mit Daten und BI-Begriffen,
  • realistisch in ihren Erwartungen an Daten- und Analytics-Projekte,
  • in die Lage versetzt, auf Augenhöhe mit IT, BI und externen Partnern zusammenzuarbeiten.

Das reduziert Reibungsverluste, macht Projekte effizienter und erhöht die Erfolgswahrscheinlichkeit – noch bevor das erste Dashboard gebaut oder das erste Datenmodell modelliert wird.

Was das EVACO Data Literacy Training auszeichnet

Das zweitägige Präsenz-Training ist bewusst toolunabhängig konzipiert: Im Mittelpunkt stehen Konzepte, Begriffe und Zusammenhänge – nicht die Bedienung einer bestimmten Software.

Kernmerkmale des Trainings:

  • Zielgruppe
    Mitarbeitende aus Fachbereichen (z. B. Controlling, Vertrieb, Marketing, HR, Produktion) und IT/BI, die künftig stärker mit Daten, Reports, Dashboards oder KI-Lösungen arbeiten – ohne Data-Science- oder BI-Vorkenntnisse.
  • Inhalte (Auszug)
    • Grundlagen von Daten, Kennzahlen und Datenqualität
    • Rollen & Verantwortlichkeiten in Data- & BI-Projekten
    • Realistische Erwartungshaltungen an BI, Analytics und KI
    • Data Literacy als persönliche Kompetenz im Arbeitsalltag
    • Wie man Daten kritisch interpretiert und verantwortungsvoll nutzt
  • Didaktik
    • Praxisnah und anschaulich
    • Viele Beispiele aus Kundenprojekten
    • Fokussiert auf Verständlichkeit und Übertragbarkeit in den Arbeitsalltag
  • Begleitmaterial
    Jede:r Teilnehmende erhält ein umfangreiches Handbuch als Nachschlagewerk, das die Inhalte strukturiert zusammenfasst und nach dem Training im Alltag unterstützt.

Warum sich das für Unternehmen lohnt

  • Bessere Zusammenarbeit zwischen Fachbereichen und IT/BI durch ein gemeinsames Verständnis und Vokabular
  • Höhere Akzeptanz für BI-, Analytics- und AI-Lösungen, weil Zusammenhänge verstanden werden
  • Weniger Schleifen und Missverständnisse in Projekten
  • Bessere Entscheidungen, weil Daten kompetent gelesen, hinterfragt und genutzt werden

Das sagen unsere Teilnehmer:

„Das Training sollte jeder machen, der Berichte liest oder Zugang zu einem BI-System hat.“
„Besonders wertvoll waren die vielen praktischen Beispiele zu jedem Themenblock, durch die sich Inhalte direkt auf meinen Arbeitsalltag übertragen ließen.“
„Anhand von Beispielen werden Zusammenhänge, Kennzahlen und Begriffe sehr gut erklärt. Am Ende wird sehr gut klar wie wir Daten aufbereiten müssen, um diese transparent zeigen zu können.

Data Literacy ist keine „nice to have“- Kompetenz, sondern entscheidender Erfolgsfaktor für datengetriebene Organisationen
.

Termine:
09.+10.03. 2026
01.+02.06. 2026

TEILEN facebook twitter linkedin mail

close

Qlik und AWS: Strategische Zusammenarbeit für EU-Cloud

Qlik und AWS bringen KI-Analysen in die neue europäische Sovereign Cloud

Qlik hat eine strategische Zusammenarbeit mit Amazon Web Services (AWS) angekündigt, um seine KI- und Analytics-Lösungen in der AWS European Sovereign Cloud bereitzustellen. Die neue, vollständig in der EU betriebene Cloud-Infrastruktur richtet sich speziell an Organisationen mit hohen Anforderungen an Datenschutz, Datenhoheit und regulatorische Vorgaben.

Im Rahmen seiner KI-Strategie plant Qlik, innerhalb der nächsten fünf Jahre rund 1,5 Milliarden US-Dollar in den Ausbau seiner KI- und Analytics-Fähigkeiten in Europa zu investieren. Diese Investitionen sollen die Weiterentwicklung von vertrauenswürdiger, sicherer und hochperformanter KI beschleunigen und europäischen Unternehmen modernste Datenanalysen in souveränen Umgebungen ermöglichen.

Die Partnerschaft mit AWS erlaubt es, eine souveräne Version von Qlik Cloud anzubieten, die vollständig innerhalb der EU betrieben und ausschließlich von EU-Personal administriert wird. Dadurch bleiben alle Kundendaten in Europa, während KI-gestützte Analysefunktionen, Automatisierungen und Data-Integration ohne Abstriche bei Sicherheit oder Compliance bereitstehen.

Parallel dazu erweitert Qlik sein europäisches Compliance-Portfolio. Geplant sind Zertifizierungen nach BSI C5ISO/IEC 42001 für KI-Managementsysteme sowie die Unterstützung weiterer nationaler und EU-weiter Anforderungen wie NIS2HDS (Frankreich) und ACN (Italien). Damit stärkt Qlik seine Position als Anbieter vertrauenswürdiger KI-Lösungen für regulierte Branchen.

Mit der Kombination aus groß angelegten KI-Investitionen und der Integration in die AWS European Sovereign Cloud setzt Qlik ein deutliches Signal: Europäische Unternehmen sollen Zugang zu innovativer KI und fortgeschrittener Datenanalyse erhalten – ohne Kompromisse bei Datenschutz, Souveränität oder regulatorischer Sicherheit.

TEILEN facebook twitter linkedin mail

close

Qlik®November Update: das ist neu

Neuerungen in Qlik Sense November 2025 – Zusammenfassung 

Qlik Sense Enterprise für Windows bringt eine Reihe von Verbesserungen und neuen Funktionen für AppKonfiguration, Visualisierungen und Dashboards. Wichtige Neuerungen sind ein überarbeitetes AppEinstellungsmenü, ein effizienteres BlattEditing, eine neue Standard-Tabellenvisualisierung sowie erweiterte Design und Analyseoptionen. 

Daten und Plattform 

  • Modernisiertes App-Einstellungsmenü
    App-Einstellungen wurden neu strukturiert; Kategorien lassen sich jetzt per Reiter ansteuern.
  • Verbesserungen beim Bearbeiten von Arbeitsblatt
    Beim Bearbeiten von Sheets erscheint der Datenquellen-Viewer mit Tabellen und Feldern direkt im Bearbeitungsbereich; außerdem lassen sich Filter jetzt im Eigenschaften-Panel erstellen und anwenden.
  • Neue Tabelle als Standard
    Die neue Straight-Table aus dem ChartBundle ersetzt die alte Tabellenvisualisierung als Standard. Die alte Tabelle bleibt vorerst im Asset-Panel verfügbar; eine spätere Ausphasung wird frühzeitig angekündigt.
  • Markierung des aktiven Felds
    Im Daten-Asset-Panel der geraden Tabelle wird nun die aktuelle Spalte deutlich hervorgehoben.
  • Custom-CSSStyling
    Nach der Abschaffung des Multi-KPI Objekts gibt es einen neuen Weg, Custom CSS auf Arbeitsblättern einzuschleusen. Arbeitsblätter erhalten einen Bereich für benutzerdefiniertes CSS. Qlik weist darauf hin, dass CSS-Klassen nicht als API gedacht sind, Änderungen kurz gehalten werden sollten und native Einstellungen Vorrang haben. In den Sheet-Eigenschaften unter „Styling“ lässt sich Custom Styles einschalten. Schriftgrößen sind auf 18 px begrenzt, HTML-Tags, Pseudo-Selektoren und @Regeln sind verboten, und die Funktion wird in mobilen Apps nicht unterstützt.

 Visualisierungen und Dashboards 

  • PivotTable Verbesserungen
    Die neue Pivot-Tabelle bietet eine „Indent rows“Option: verschachtelte Dimensionen können eingerückt und kompakt dargestellt werden (Bilder/Links werden dabei nicht unterstützt). Zudem lassen sich Indikatoren hinzufügen, um Zellen abhängig von Grenzwerten mit Icons oder Farben zu versehen; Details zu Farbbereichen, Symbolen und Anzeigeoptionen erläutert die Hilfeseite. 
  • Shapes in Bar und Kombinationsdiagrammen
    Punkte und Linien (Shapes), bisher auf Liniendiagramme beschränkt, können jetzt auch in Balken und Kombi-Charts eingesetzt werden. Anwender können einzelne Punkte mit Label, Symbol, Farbe und Größe versehen oder Linien aus mehreren Punkten erstellen und Farbe, Dicke und Kurventyp (linear/monoton) einstellen.
     
  • Erweiterte Shapes in Liniendiagrammen
    Beim Hinzufügen von Shapes zu Liniendiagrammen können jetzt zusätzliche Labels und Symbole gesetzt und deren Größe, Farbe und Position angepasst werden.
     
  • Neue Kategorie „Alle anzeigen“
    In der Übersicht für Arbeitsblätter und Bookmarks gibt es nun die Kategorie „Alle“; hier werden öffentliche, Community und private Elemente gemeinsam angezeigt, sodass Nutzende alles an einem Ort finden.
     
  • OrgChart mit Bildern und Styling
    Die OrgChart-Visualisierung unterstützt jetzt das Einfügen von Bildern per URL und erweiterte Stiloptionen. In der Datensektion lässt sich ein 
    Image URL für jede Karte hinterlegen; die Präsentations-Einstellungen erlauben, Bilder auf der Karte, nur in Tooltips oder beidem zu zeigen, ihre Ausrichtung und Form (rechteckig oder rund) sowie die Anpassung von Rahmen, Eckenradius und Schatten. 
  • Stabilere Karten
    MapCharts nutzen statt eines externen QlikMapServers jetzt einen lokalen WebMapDienst, was Startzeiten verkürzt und die Stabilität verbessert.
     
  • Entfernung veralteter Objekte
    Qlik kündigt an, dass die alten Diagrammtypen Bar & Area, BulletChart (alt), Heatmap, NavigationsButton, ShareButton, Show/HideContainer und der alte Container im Mai 2027 endgültig aus der Distribution entfernt werden.
     

 

TEILEN facebook twitter linkedin mail




IMMER UP
TO DATE
MIT UNSEREM

NEWSLETTER

Abonnieren Sie unsere Newsletter

In unserem EVACOletter geben wir regelmäßig einen Überblick zu aktuellen News & Events, unseren Webinaren oder unserem Trainingsangebot. Wir berichten über Messen und auch Partneraktivitäten, um Ihnen so die Möglichkeit zu bieten, sich über unser vielfältiges Angebot zu informieren. Sie möchten von uns auf dem Laufenden gehalten werden?




[newsletter2go]