consenso Intelligent Data Modelling

Unser digitaler Baukasten für die Optimierung der Anlage & Pflege von Stamm- und Bewegungsdaten in Ihrem SAP System.

Erfolgsfaktor Datenqualität. Schlüssel für steigende Umsätze und niedrigere Kosten

Mängel in Ihren Stammdatenprozessen und in der Qualität Ihrer Stamm- und Bewegungsdaten führen spätestens nachgelagert zu Umsatzeinbußen und höheren Kosten. Nicht erreichte Kunden, fehlerhafte Preise, Probleme in der Lieferkette, erhöhte Aufwände durch eine komplexe und häufig manuelle (Nach-) Pflege der Daten.

Die Probleme lassen sich beziffern. So führt eine mangelnde Datenqualität in US-Unternehmen jährlich zu 1,3 Billionen Dollar Verlusten. 47 % der Unternehmen geben an, durch schlechte Daten Kunden verloren zu haben und 33 % berichten negative Auswirkungen auf den Umsatz.

Aber auch das Thema Digitalisierung ist eng mit der Datenqualität verknüpft. Wenn Sie von den Vorteilen der Künstlichen Intelligenz in Ihrem Unternehmen schnell und dauerhaft nutzbringend profitieren wollen, sind qualitativ hochwertige Daten der Schüssel zum Erfolg. Ohne hochwertige, strukturierte und relevante Daten kann auch das beste KI-Modell keine verlässlichen oder wirtschaftlich sinnvollen Ergebnisse liefern.

Mit dem Intelligent Data Modelling (iDM) bietet consenso Ihnen eine Beratungslösung, mit der Sie die Qualität Ihrer Stamm- und Bewegungsdaten in Ihrem SAP S/4HANA-System nachhaltig verbessern - integriert in den SAP-Standard, auf alle SAP Objekte anwendbar und ohne zusätzliche Lizenzkosten.

Ein Service - viele Bausteine. Passende Lösungen für Ihre Anforderungen, vielfach praxiserprobt

Einer der vielen Vorteile unseres Intelligent Data Modelling ist der modulare Aufbau. Unser Service kommt als Baukasten mit mehreren unabhängigen Modulen bzw. Apps, die flexibe. einzeln oder im Prozess anwendbar sind. Ein No-Code-Ansatz stellt die eigenständige, individuelle Nutzung ohne IT-Unterstützung sicher.

Unsere Referenzbeispiele verdeutlichen, in welchen Bereichen die Module unseres Intelligent Data Modelling-Baukastens bereits nutzbringend für unsere Kunden im Einsatz sind:

Use Cases DATA MINING & PROFILING

  • VERKAUFSPREISE: Existieren für alle Artikel festgelegte Verkaufspreise? Ist ein gültiger Preisinformationssatz für jeden Artikel vorhanden?
  • MATERIALSTAMMDSATZ: Ist die Marke gemäß dem Markenverzeichnis hinterlegt? Ist der Hersteller am Material festgelegt?
  • GESCHÄFTSPARTNER: Enthalten Vor- und Nachnamen Sonderzeichen? Entspricht die Postleitzahl der länderspezifischen Syntax?
  • SERIALNUMMER: Werden dieselben Seriennummern verschiedenen Geräten zugeordnet? Im positiven Fall erfolgt die Ausgabe der Geräte mit einer entsprechenden Meldung.

Use Cases KI & ANOMALIEN

  • WARENGRUPPEN & SERIALNUMMERN: KI-basierte Warengruppenzuordnungen und eine automatisierte KI-Klassifizierung von Seriennummern optimieren die Qualitätsstandards.
  • BASIS- UND VERKAUFSMENGEN: KI-unterstützt werden Basis- und Verkaufsmengeneinheiten zur präzisen Bestandsführung durch automatische Einheitenklassifizierung unterschieden.
  • ZAHLUNGSVORGÄNGE: Automatisiert erfolgt die Erkennung von doppelt angelegten Zahlungsvorgängen und die Identifikation von Ausreißern (Anomalien) in den Zahlungsprozessen.
  • BESTANDSABWEICHUNGEN: Mit Hilfe von Data Science-Methoden werden Abweichungen zwischen System- und Ist-Bestand erkannt, um Anomalien in bestandsverändernden Warenwirtschaftsprozessen frühzeitig zu identifizieren.

Use Cases INTELLIGENT DATA MODELLING

  • ARTIKELANLAGE: Verschiedene Lieferanten-Preislisten werden mittels ETL (Extract-Transform-Load) transformiert, via DDC (Data Duplicate Check) mit vorhandenen Artikeln
    abgeglichen und mit Hilfe von DMP (Data Mining & Profiling) überprüft und ins System integriert.
  • IMMOBILIENWIRTSCHAFT: Verschiedene Nebenkostenabrechnungen mit unterschiedlichen Strukturen werden mit Hilfe von ETL transformiert, auf Anomalien geprüft und anschließend automatisch kontiert und den Kostenstellen zugewiesen.
  • BESTELLANLAGE: Bestellungen mit verschiedenen Formaten und Strukturen werden über ETL ins System geladen. Via DDC wird überprüft, ob Artikel aktualisiert oder neu angelegt werden müssen, bevor automatisch eine Bestellung erstellt wird.
  • VERKAUFSDATEN: Partner laden täglich ihre Verkaufsdaten hoch, die durch das ETL automatisch transformiert, auf Anomalien und Korrektheit geprüft und anschließend im System verbucht werden.

Unsere Kunden sprechen für uns: Erfolgreiche iDM-Projekte

Um die Artikelpflege bei unserem Kunden AGRAVIS Raiffeisen AG dauerhaft mit einem möglichst geringen Aufwand sicherstellen zu können, werden die manuellen Leistungen der Mitarbeitenden im Stammdatenmanagement zukünftig durch künstliche Intelligenz unterstützt.

Mehr erfahren

Die Stammdatenoptimierung bei unserem Kunden ERDINGER Weißbräu erfolgte in zwei Phasen:

  • In Phase 1 stand die gezielte Verbesserung der Qualität der Geschäftspartner- und Artikelstammdaten mithilfe unseres Data Mining & Profiling (DMP)-Tools im Fokus.
  • In Phase 2 widmeten wir uns intensiv der Neuanlage von Materialien und konnten damit den Prozess grundlegend optimieren.

Mehr erfahren

Für unseren Kunden SAGAFLOR konnten wir mit tatkräftiger Unterstützung unseres ETL (Extract-Transform-Load)-Tools die Prozesse rund um die Stamm- und Bewegungsdaten verbessern.

Mehr erfahren

Die Module des consenso Intelligent Data Modelling im Detail

EXTRACT - TRANSFORM - LOAD (ETL)

Unsere Lösung für die Datenintegration. Mit ETL können Sie Echtzeitdaten in vielfältigen Formaten und Inhalten laden und dabei eine umfassende Validierung und Bereinigung der Daten durchführen.

Die Details:

Unser ETL-Tool ermöglicht Ihnen eine umfassende Verarbeitung von Dateien, unabhängig von deren Format oder Struktur. Es kann strukturierte Datenbanktabellen oder semi-strukturierte Excel-, csv.- oder txt.-Dateien nahtlos verarbeiten, was die Integration von Daten aus verschiedenen Quellen stark vereinfacht. Und Sie haben die Möglichkeit, verschiedene Arten von Schnittstellen anzubinden.

Die ETL-Flexibilität erlaubt es, die gelieferten Felder der Inputdatei (z.B. Preislisten von Lieferanten) nach Bedarf zu mappen und zu gestalten. Dies erfolgt benutzerfreundlich durch Drag & Drop. Eine Vielzahl von verschiedenen Funktionen steht zur Verfügung, um die Daten der Quelldatei so zu transformieren, dass sie den verschiedenen Datenschemata und Geschäftsanforderungen entsprechen. Durch die Option, Bedingungen mit den Funktionen zu verknüpfen, kann die Ausgabe weiter präzisiert werden.

Die strukturierte und intuitive Oberfläche der Fiori-App erlaubt es auch Anwendern ohne IT-Kenntnisse, die Transformationsschritte und den Zeitpunkt der Zuordnung zu definieren. So wird zur Verarbeitung einer neuen Preisliste einfach ein Lauf erstellt und angestoßen, der die vordefinierten Schritte des Mappings ausführt. Durch das Delta-Laden werden dabei nur die Daten angelegt oder aktualisiert, die sich seit dem letzten Update geändert haben. Nach der initialen Definition kann das ETL-Tool weitere Daten automatisiert in das System integrieren.

schliessen-BITTE NICHT LÖSCHEN

 

ARTICLE MANAGER & REQUEST MANAGER ARTICLE (ARM & RQM AR)

Während der Artikel Manager die Fachbereiche bei der Erfassung von Materialdaten KI-gestützt und inkl. Doublettencheck unterstützt, bietet der Request Manager eine Übersicht über Neu- und Änderungsanträge und hilft bei der Steuerung der Prozesse.

Die Details:

Mit Hilfe des Artikelmanagers (ARM) werden Neuanlagen und Änderungen von Artikel (Materialien) von den verschiedenen Fachbereichen in einem einheitlichen Layout erfasst.

Abhängig von der Materialart und weiteren Eigenschaften können spezifische Workflows definiert werden. Je nach Status lassen sich Feldeigenschaften mit unterschiedlichen Berechtigungen steuern.

Durch die Integration weiterer iDM-Apps können Prüfregeln, KI-gestützte Anreicherung (z. B. Warengruppen) sowie ein automatischer Dublettencheck den Prozess unterstützen.

schliessen-BITTE NICHT LÖSCHEN

 

DATA MINING & PROFILING (DMP)

Das DMP hilft Ihnen, Daten zu analysieren, um ein klares Verständnis und einen Überblick über deren Struktur, Inhalt und Qualität zu gewinnen.

Die Details:

Durch die Definition von Datenqualitätsregeln und deren systematische Katalogisierung im Repository entsteht eine klare Strukturierung der Qualitätsrichtlinien. Das im S/4HANA enthaltene BRF+ sowie eine integrierte Funktion im DMP ermöglichen eine intuitive Modellierung und Verwaltung, um die Regeln umzusetzen und komplexe Geschäftslogiken in das System zu integrieren. Über die Benutzeroberfläche der Fiori-App können auch Anwender ohne IT-Kenntnisse die Qualitätsprüfung der Daten managen.

Ein integraler Bestandteil des Regelverwaltungsprozesses ist die Konfiguration eines Datenqualitätsindex. Hierbei wird festgelegt, wie dieser Index auf Basis von Stammdaten und in Verbindung mit den definierten Datenqualitätsregeln berechnet wird. Der Datenqualitätsindex bietet eine quantitative Metrik zur Bewertung der Qualität der Daten - Basis für die Einleitung gezielter Maßnahmen zu deren Verbesserung.

Die definierten Datenqualitätsregeln werden dabei für aktive Auswertungen und Prüfungen von Daten verwendet. Die Durchführung der Prüfungsläufe kann einfach und effizient in einer übersichtlichen Benutzeroberfläche gesteuert und als Job eingerichtet werden. Dies ermöglicht eine kontinuierliche Überwachung und Bewertung der Datenqualität. Potenzielle Qualitätsprobleme können so frühzeitig erkannt und behoben werden.

Durch Integration in das Data Process Stream (DPS)-Modul ist eine automatisierte Bereinigung fehlerhafter Daten möglich. Zudem ermöglicht eine Anbindung weiterer Systeme über Mechanismen wie Smart Data Access den Zugriff auf externe Daten und entsprechende Prüfungen. Eine Integration der definierten Regeln in den Prozess der Neuanlage ermöglicht es, potenziell fehlerhafte Eingaben bereits im Ansatz zu verhindern.

schliessen-BITTE NICHT LÖSCHEN

 

DUPLICATE DETECTION (DDC)

Unser Data Duplicate Check (Doublettenprüfung) unterstützt Sie bei Identifizierung, Erkennung und Bearbeitung von Duplikaten in Ihren Stamm- und Bewegungsdaten.

Die Details:

Der DDC ermöglicht Ihnen eine effiziente Verwaltung individueller Dublettenläufe. Via Customizing werden maßgeschneiderte Auswertungen mit verschiedenen Prüfregeln definiert. Das Modul ermöglicht die Überprüfung aller SAP-Tabellen - und damit sowohl Stamm- als auch Bewegungsdaten - anhand dieser Regeln. Nach der initialen Definition können die Prüfungen über eine benutzerfreundliche Oberfläche automatisiert durchgeführt werden.

Neben der Überprüfung interner Daten im System ermöglicht die Integration einer Importfunktion auch das direkte Importieren von Daten aus beispielsweise einer Excel-Datei und den Abgleich mit den Datenbanktabellen im System. Use Cases sind u.a. klassische Migrationsarbeiten (z.B. im Rahmen einer S/4HANA Conversion) oder Preisvergleiche (z.B. Zuordnung von Artikelpreisen aus einem Web Crawling und den bereits im System vorhandenen Artikeln).

Bei der Ausführung einer Prüfung werden Bedingungen festgelegt, um die untersuchten Daten zu begrenzen und das Ergebnis weiter zu verfeinern. Nach erfolgreichem Abschluss der Dublettenprüfung werden klare Ergebniswerte für jede potenzielle Dublette präsentiert. Diese Ergebnisse bieten eine strukturierte Grundlage für die gezielte Bearbeitung und Bereinigung von Duplikaten.

Die Dublettenprüfung kann nicht nur auf Bestandsdaten angewendet, sondern bereits in den Dialog zur Neuanlage integriert werden.

schliessen-BITTE NICHT LÖSCHEN

 

DATA EXPLORER (DEX)

Der Data Explorer unterstützt die Anomalieerkennung und das Rule Mining. Es lassen sich versteckte Muster in großen Stammdatensätzen erkennen, um mit Hilfe von Künstlicher Intelligenz Korrekturvorschläge für Stamm- und Bewegungsdaten zu generieren, Regeln abzuleiten und darauf basierend weitere Schritte festzulegen.

Die Details:

Zusätzlich zu unserem bestehenden Regelwerk präsentieren wir erweiterte Lösungen im Bereich Data Mining auf Grundlage von PAL (Predictive Analysis Library) und APL (Analytic Processing Library). Diese Lösungen ermöglichen eine facettenreiche Datenanalyse, einschließlich Klassifizierung, Clustering (Profiling) und Anomalieerkennung.

Die Predictive Analysis Bibliothek bietet leistungsstarke statistische Algorithmen für umfassende Datenanalysen. Der Assoziationsalgorithmus im Rule Mining erkennt Muster und Regeln in Daten, bewertet sie statistisch und ermöglicht die Identifizierung versteckter Muster sowie Anomalien. Nach Überprüfung der Plausibilität liefern die ermittelten Regeln klare Einblicke in Datenzusammenhänge. In Stamm- und Bewegungsdaten deckt der Assoziationsalgorithmus auf, wie und warum bestimmte Datenelemente miteinander verbunden sind. Ein praktisches Beispiel hierfür ist die Analyse von Warenkörben, um festzustellen, welche Artikel häufig gemeinsam in Transaktionen auftreten. Der Anwender profitiert somit von einer automatisierten Analyse zur Entdeckung von Zusammenhängen in seinen Daten. Zusätzlich zum PAL-Algorithmus setzen wir verschiedene statistische Verfahren ein, darunter KI-Bibliotheken in Python, um Anomalien in den Daten zu identifizieren. Use Case hier ist z.B. die Analyse von Ausreißern in Bestell- oder Überweisungsvorgängen.

Die präsentierten Daten werden in übersichtlichen Dashboards dargestellt, die eine benutzerfreundliche Visualisierung und Interpretation ermöglichen. Von hier aus können Benutzer die Daten nahtlos weiterverarbeiten, um schnell fundierte Entscheidungen zu treffen und Maßnahmen abzuleiten. Die Ergebnisse integrieren wir je nach Anwendungsfall in die verschiedenen Module unseres iDM-Baukastens.

schliessen-BITTE NICHT LÖSCHEN

 

DATA PROCESS STREAM (DPS)

DPS ist als eine Klammer über die Module unseres Intelligent Data Modelling zu verstehen. Transformierte Daten aus dem ETL werden durch das DMP geprüft, mit passenden Artikeln gematcht (DDC), mithilfe von KI angereichert und ins System integriert.

Die Details:

DPS ermöglicht die Abbildung von Prozessen, um Daten zu prüfen, zu bereinigen und Transaktionen durchzuführen. Dadurch ist es möglich, Stammdaten zu aktualisieren oder neu anzulegen oder Bewegungsdaten wie beispielsweise Bestellungen zu generieren.

Die einzelnen Schritte und ihre Reihenfolge lassen sich über das Customizing individuell anpassen. Unsere Anwendungen Data Mining und Profiling wie auch die Dublettenprüfung können hierbei nahtlos integriert und bestehende Auswertungen so in den verschiedenen Apps wiederverwendet werden. Durch die Integration von KI-Algorithmen ist es z.B. möglich, intelligente Vorhersagen für Warengruppen zu treffen oder Materialbezeichnungen sinnvoll auf 40 Zeichen zu kürzen. Vorschläge des Systems können durch den Anwender jederzeit übersteuert werden.

Die Anwendung bietet somit die Möglichkeit, zahlreiche Prozesse abzubilden, bei denen Daten transformiert, aufbereitet und anschließend im System weiterverarbeitet werden. Zusätzlich zur Anlage von Artikeln und Geschäftspartnern umfassen weitere Beispiele die Erfassung von Bestellungen über Excel sowie die Prüfung und Verbuchung von Verkaufsdaten aus verschiedenen Geschäften.

schliessen-BITTE NICHT LÖSCHEN

 

MASS DATA EDITOR (MDE)

Der Massenänderungsmodus kann identische Änderungen für mehrere Artikel oder Geschäftspartner automatisiert vornehmen - schnell, effizient und qualitätsgesichert.

Die Details:

Gleichartige Änderungsbedarfe, die mehrere Artikel oder. Geschäftspartner betreffen, sind aufwändig und fehleranfällig. Mit Unterstützung durch die unsere MDE-App zur Massenänderung kann der Aufwand reduziert und gleichzeitig die Qualität deutlich gesteigert werden.

Die Navigation in die App erfolgt direkt aus dem Artikelmanager oder Geschäftspartnermanager heraus. Dort können mit dem Massenänderungsmodus identische Anpassungen für mehrere Artikel oder Geschäftspartner gleichzeitig vorgenommen werden.

Durch eine separate Freigabe wird das Vier-Augen-Prinzip sichergestellt. Eine Integration weiterer iDM-Apps stellt Qualitätsstandards bei Änderungen sicher.

schliessen-BITTE NICHT LÖSCHEN

 

BUSINESS PARTNER MANAGER & REQUEST MANAGER BUSINESS PARTNER (BPM & RQM BP)

Eine App speziell für die Anlage und Pflege von Geschäftspartnerdaten - ergänzt um Workflows, die die Prozesse rund um den Business Partner effizient stützen.

Die Details:

Der Business Partner Manager erleichtert sowohl die Neuanlagen als auch die Änderung von Geschäftspartnerdaten. Diese werden mit Hilfe der Lösung von den verschiedenen Fachbereichen in einem einheitlichen Layout erfasst.

Je nach Partnerart können spezifische Workflows inklusive Freigabe gezielt gesteuert werden. Und durch die Integration weiterer iDM-Apps wird der Prozess durch Prüfregeln, KI-gestützte Anreicherung und einen automatischen Dublettencheck optimiert.

schliessen-BITTE NICHT LÖSCHEN

 

Das Wichtigste in Kürze

Unseren Service auf einen Blick finden Sie hier: PDF

Gerne bringen wir Ihnen die vielfältigen Funktionen und Nutzenpotenziale des consenso INTELLIGENT DATA MODELLING aber auch persönlich näher und evaluieren mit Ihnen gemeinsam, wie wir Ihre individuellen Anforderungen am besten erfüllen können. Kommen Sie einfach auf uns zu!

 

 

 

*) Pflichtfelder

-->