Data Governance & Management

Was sind Digital Twins? Digitale Zwillinge einfach erklärt

Was sind Digital Twins? Definition und Abgrenzung digitaler Zwillinge Ein Digital Twin, auf Deutsch “digitaler Zwilling”, ist eine möglichst detailgetreue, individuelle digitale Repräsentation eines physischen Objekts. Als Objekt kann vieles dienen: Menschen, Maschinen, Fahrzeuge oder Produkte. Geprägt ist das Konzept “Digital Twins” davon, dass Daten nicht für die Allgemeinheit an …

Read moreWas sind Digital Twins? Digitale Zwillinge einfach erklärt

Data Governance: Alles was man wissen muss

Data Governance ist die Grundlage für nachhaltige, hochqualitative Arbeit mit Daten. Sie beschäftigt sich strategisch mit Themen wie Sicherheit, Qualität und Dokumentation und etabliert Meta-Prozesse, um diese Aktivitäten zu steuern. Ganzheitlich ist Data Governance die Basis für eine langfristige datenbasierte Arbeit und es gilt, sich möglichst früh dem Thema zu …

Read moreData Governance: Alles was man wissen muss

Was ist ein Data Lake? Definition, Architektur und Use Cases

Der Data Lake ist ein neueres Konzept zur Erfassung, Speicherung und Verarbeitung von Daten. In diesem Artikel stellen wir eine Definition des Data Lakes zur Verfügung, diskutieren Vor- und Nachteile, gehen auf konkrete Anwendungsfälle ein und zeigen Möglichkeiten auf, wie die Infrastruktur bzw. Architektur eines Data Lakes aussehen kann.  Inhaltsverzeichnis …

Read moreWas ist ein Data Lake? Definition, Architektur und Use Cases

Feature Engineering: Erklärung, Methoden und Beispiele

Als Feature Engineering bezeichnet man die Vorbereitung von Daten für die Verarbeitung in Machine Learning Algorithmen. Dabei ist Feature Engineering mitunter der wichtigste Teil im gesamten Machine Learning Prozess: Nur anhand hochqualitativer Features mit großem Informationsgehalt kann ein Modell mit hohem Erfolg trainiert werden. In diesem Artikel möchten wir Feature …

Read moreFeature Engineering: Erklärung, Methoden und Beispiele

CRISP DM: Das Modell einfach erklärt und visualisiert

CRISP DM ist ein standardisierter Prozess zur Durchführung von Data Mining. Er besteht aus sechs Phasen von dem Verstehen des Anwendungsfalls bis zur Operationalisierung des (Machine Learning basierten) Datenprodukts. In diesem Artikel möchten wir erklären wie der Prozess definiert ist, welche Rollen beteiligt sind und anhand eines Beispiels aufzeigen, wie …

Read moreCRISP DM: Das Modell einfach erklärt und visualisiert

Die Bedeutung von Datenqualität für Unternehmen

Datenqualität wird in Unternehmen immer wichtiger. Einerseits werden viele Probleme durch schlechte Datenqualität verursacht, andererseits bietet eine hohe Qualität der Daten eine Vielzahl an Vorteilen für Unternehmen, die mit den Daten arbeiten möchten. In diesem Artikel gehen wir auf die Definition von Datenqualität ein, bevor wir Merkmale, Probleme und auch …

Read moreDie Bedeutung von Datenqualität für Unternehmen