Kilian

Machine Learning vs. AI: Was ist der Unterschied?

Der Unterschied zwischen Machine Learning und Artificial Intelligence (AI) ist, dass maschinelles Lernen eine von vielen Methoden im übergeordneten Feld der künstlichen Intelligenz darstellt. Einfach erklärt: Was ist Artificial Intelligence (AI)? Artificial Intelligence (Abkürzung A.I.), auf Deutsch “künstliche Intelligenz” ist die umfassende Beschreibung von Software, Robotern oder anderen Systemen, die …

Read moreMachine Learning vs. AI: Was ist der Unterschied?

Was sind Deep Fakes und wie funktionieren sie?

Deepfakes sind künstlich erzeugte Inhalte (z.B. Videos), die sich von realem Material kaum unterscheiden lassen. Ihre Erstellung basiert auf künstlicher Intelligenz, genauer neuronalen Netzen, und kann aus existierendem Material neue Versionen mit anderen Personen, Sprachen oder Inhalten erstellen. Die Gefahr von Deepfakes ist dabei nicht gering: Sowohl für Privatpersonen als …

Read moreWas sind Deep Fakes und wie funktionieren sie?

Künstliche neuronale Netze und Deep Learning einfach erklärt

Data Science wäre nicht komplett ohne künstliche neuronale Netze und Deep Learning. Daher möchten wir in diesem Artikel die beiden Konzepte einfach erklären, die Bestandteile und den Algorithmus vorstellen und Probleme vorstellen. Unser Ziel ist es, eine einfache Definition zur Verfügung zu stellen, die dennoch die Tragweite eines der wichtigsten …

Read moreKünstliche neuronale Netze und Deep Learning einfach erklärt

Feature Engineering: Erklärung, Methoden und Beispiele

Als Feature Engineering bezeichnet man die Vorbereitung von Daten für die Verarbeitung in Machine Learning Algorithmen. Dabei ist Feature Engineering mitunter der wichtigste Teil im gesamten Machine Learning Prozess: Nur anhand hochqualitativer Features mit großem Informationsgehalt kann ein Modell mit hohem Erfolg trainiert werden. In diesem Artikel möchten wir Feature …

Read moreFeature Engineering: Erklärung, Methoden und Beispiele

CRISP DM: Das Data Mining Modell einfach erklärt

CRISP-DM steht für CRoss Industry Standard Process for Data Mining und ist ein standardisierter Prozess zur Durchführung von Data Mining. Er besteht aus sechs Phasen von dem Verstehen des Anwendungsfalls bis zur Operationalisierung des (Machine Learning basierten) Datenprodukts. In diesem Artikel möchten wir erklären wie der Prozess definiert ist, welche …

Read moreCRISP DM: Das Data Mining Modell einfach erklärt

Die Bedeutung von Datenqualität für Unternehmen

Datenqualität wird in Unternehmen immer wichtiger. Einerseits werden viele Probleme durch schlechte Datenqualität verursacht, andererseits bietet eine hohe Qualität der Daten eine Vielzahl an Vorteilen für Unternehmen, die mit den Daten arbeiten möchten. In diesem Artikel gehen wir auf die Definition von Datenqualität ein, bevor wir Merkmale, Probleme und auch …

Read moreDie Bedeutung von Datenqualität für Unternehmen

Batch Processing vs. Event Stream Processing in Big Data Infrastruktur

Wer sich um die Planung einer Big Data Infrastruktur kümmert, wird sehr schnell an die Frage kommen, ob er Batch Processing oder Event Stream Processing einsetzt. Die Unterschiede sind oberflächlich klar: Batch Processing arbeitet diskret größere Mengen an angefallenen Daten ab, während Stream Processing einen kontinuierlichen Strom von Daten verarbeitet. …

Read moreBatch Processing vs. Event Stream Processing in Big Data Infrastruktur