Dieser Beitrag hat eine Top-10 Platzierung in unserem Essaywettbewerb 2021 erzielt. Die Jury bewertete anhand einer Vielzahl an Kriterien wie Relevanz, Fachlichkeit, Horizont und Kreativität, in denen dieser Essay besonders überzeugt hat.
Ein Algorithmus im Teufelskreis des Populismus, Autonomer Warenverkehr, Androide Ärzte und die Heilung von Krebs: Ein Essay über die Zukunft der Datenwissenschaft und ein Plädoyer für Datenethik.
Ein Algorithmus im Teufelskreis des Populismus.
Daten sind das neue Rohöl — Ein Mantra, dass in den letzten Jahren oft wiederholt und vielfältig interpretiert wurde. Was gemeint ist, wenn Daten mit Rohöl verglichen werden, sind vor allem digitale Daten: Zu jeder Zeit wenn wir ein Computerprogramm nutzen, einen Anruf tätigen oder das Internet betreten, produzieren wir Daten, die weiterverarbeitet und nutzbar gemacht werden können. Tech-Giganten wie Google, Facebook und Amazon verdanken ihren Erfolg nicht zuletzt der innovativer Nutzung der Daten, die wir tagtäglich produzieren. Googles Suchalgorithmus lernt selbständig, wenn er uns ein passendes Ergebnis gezeigt hat, und rankt dieses bei der nächsten Suchanfrage höher.
Die Algorithmen der sozialen Medien, die Inhalte im Newsfeed aussteuern funktionieren ähnlich. Unsere Interaktionen mit bestimmten Inhalten lehren die Algorithmen was uns interessiert, wodurch uns zukünftig mehr Inhalte aus diesem Themenkomplex gezeigt werden und hält uns damit auf der Plattform, was den Betreibern wiederum ermöglicht uns mehr Werbeinhalte einzuspielen und damit schlussendlich ihre Profite zu maximieren.
Der Algorithmus lernt durch unsere Interaktion. Wenn wir auf Inhalte reagieren, auch wenn diese uns ärgern, bekommen wir mehr dieser Inhalte ausgespielt. Wir geraten in einen datenbasierten Teufelskreis, aus dem der Algorithmus uns keinen Ausweg zeigt. Es ist nicht die Aufgabe des Algorithmus’ auf unsere psychische Gesundheit Rücksicht zu nehmen. Seine Aufgabe ist schlussendlich die, uns mögliches lange auf der Platform zu halten, um uns möglichst viele Werbeimpressionen ab zu ringen.
Die algorithmischen Aussteuerungen von Inhalten auf Basis von Verhaltensdaten bringt Probleme mit sich. Der medienwirksame Cambridge Analytica Skandal rund um die Präsidentschaftswahl der Vereinigten Staaten in 2016 und den „Brexit“ sind nur ein Beispiel. Auch brandaktuelle gesellschaftliche Strömungen radikalisieren bedenklich grosse Teile der Bevölkerung mit Hilfe der Kommunikationsmethoden der sozialen Medien, was ein Klima der Angst und des Misstrauens und eine gesellschaftliche Polarisierung fördert.
Daten spielen hierbei nicht nur eine Rolle bei der Aussteuerung der Inhalte — sie selbst werden auch als Argumentationsgrundlage für bestimmte Positionen ge- und missbraucht. Teilstatistiken werden aus dem Zusammenhang gerissen um bestimmte Narrative zu stützen. Der normale Leser, der meistens nur begrenzte Erfahrung in der Interpretation von Statistiken hat, kann echte Nachrichten kaum noch von Fake News unterscheiden. Welchen Daten Vertrauen geschenkt wird, wird damit zu einer ideologischen Entscheidung.
Das Problem der Subjektivität geht aber noch tiefer. Der Journalist Alan Woods schreibt:
„Viele Menschen fühlen sich nur dann sicher, wenn sie sich auf die Fakten beziehen können. Doch die „Fakten“ wählen sich nicht von selbst aus. Es bedarf einer konkreten Methode, die uns hilft, über das unmittelbar Gegebene hinauszuschauen und die Prozesse, die über die „Fakten“ hinausgehen, blosszulegen. Trotz gegenteiliger Behauptungen ist es unmöglich, ohne eine vorgefasste Meinung einfach die „Fakten“ als Ausgangspunkt zu nehmen. Eine solche vermeintliche Objektivität hat es nie gegeben und wird es auch nie geben.“
Auch wenn man gute Intention unterstellt, sind Daten niemals objektiv. In jedem Verarbeitungsschritt von der Erhebung über die Wahl der Metriken, Analyse Methodik bis zur finalen Darstellung sind Menschen involviert, die diese Daten durch ihre eigene subjektive Brille hindurch erheben, analysieren und darstellen. Das kann im schlimmsten Fall dazu führen, dass die selbe Datenbasis zwei gänzlich verschiedene Geschichten erzählt. Daten schaffen keinen Konsens. Sie werden im Gegenteil dazu missbraucht um wissenschaftsfeindlichen Ideologien einen seriösen Anstrich zu verleihen. Manövriert uns unsere Datennutzung in eine Sackgasse oder gibt es einen Ausweg?
Autonomer Warenverkehr und Sozialwesen.
Daten gibt es schon viel länger als digitale Technologien. Das Wort Daten ist die Pluralform von „Datum“, dem lateinischem Wort für „gegeben“. Dies hat nicht nur eine zeitliche Dimension, auch wenn das Wort in unserem Sprachgebrauch dafür genutzt wird. Daten sind vielmehr als Datumswerte, sondern alles was man als gegeben betrachten kann, also Fakten, Werte und Messungen. Schon Höhlenmenschen zeichneten nach dieser Definition also „Daten“ an ihre Wände, um Berichte von dem, was sie für gegeben hielten, an die Nachwelt zu hinterlassen.
Natürlich hat sich die Qualität der Daten im Laufe der Menschheitsgeschichte gewandelt. Die systematische Erhebung von Daten beginnt in der Neuzeit und schafft das Fundament für die Naturwissenschaft. Die Wissenschaft entwickelt sich in dieser Zeit von der antiken und mittelalterlichen Erkenntnisgewinnung durch Beobachtung hin zur gezielten Hypothesentestung mittels Meßbarmachung von Naturphänomenen. Sie läutet das Zeitalter der Industrialisierung ein und verändert das Verhältnis zwischen Mensch, Natur und Technik in ihren Grundfesten. Der Mensch fängt an die Erkenntnisse über die Physik zu nutzen, um Maschinen zu entwicklen, die seinen eigenes Wirken potenzieren und die menschliche Arbeitskraft bei weitem übertreffen.
Die industrielle Revolution bleibt nicht ohne gesellschaftliche Folgen: Die Entwicklung der Maschinen verändert die Produktionsverhältnisse, wodurch grosser Wohlstand ermöglicht wird, jedoch gleichzeitig viele Arbeiter überflüssig werden und in lebensbedrohliche Armut stürzen.
Die gezielte Erhebung digitaler Daten läutet ein neues technologisches Zeitalter ein; Die Entwicklung der künstlichen Intelligenz. Die Furcht vor ebenso verheerenden gesellschaftlichen Veränderungen wie während der industriellen Revolution schwingt stets mit. Diese Angst ist berechtigt — schon heute schlagen künstlich-intelligente Technologien Menschen in spezifischen Feldern: Schachcomputer können schon seit vielen Jahren Schwachweltmeister besiegen. Maschinelles Lernen ermöglicht die Verarbeitung von hochabstrakten Daten auf einer Größenordnung, die der menschlichen Wahrnehmung nicht zugänglich ist. Viele Jobs könnten schon heute von Maschinen übernommen werden: Es ist leicht denkbar, dass selbstfahrende Autos den Warenverkehr übernehmen und Berufsfahrer überflüssig würden. Kaum ein Sozialstaat der Industrienationen ist Stand heute einer solchen Entwicklung gewachsen. Neben den Herausforderungen, die solche neuen Technologien an Politik und Gesellschaft stellen, kann die datengetriebene Automatisierung auch eine Chance für die Menschheit darstellen.
Androide Ärzte und die Heilung von Krebs.
Ein Beispiel aus dem Gesundheitswesen zeichnet ein positiveres Bild: Die künstliche Intelligenz kann eine grosse Rolle in der Forschung einnehmen, da sie Erkenntnisse aus Daten generieren kann, die dem Menschen auf Grund ihrer schieren Mengen oder ihres hohen Abstraktionsgrades ohne technische Hilfe nicht zugänglich sind. Künstliche-intelligente Algorithmen sind in der Lage Krebszellen weit akkurater und schneller zu identifizieren, als menschliche Experten es vermögen. Es gibt sogar Ansätze mittels Algorithmen automatisiert Metastasen zu erkennen und somit die Ausbreitung von Krebs im menschlichen Körper zu
verstehen. Diese Algorithmen sind weit davon entfernt Ärzte zu ersetzen, aber sie könnten eine entscheidende Rolle zum Verständnis tödlicher Krankheiten und damit auch ihrer Heilung und Prävention spielen.
Künstliche Intelligenz hat das Potenzial das Leben der Menschen ebenso grundlegend zu verbessern wie die Erfindung der Waschmaschine und diejenigen Aufgaben zu übernehmende, die repetitiv und nicht kreativ sind. Dadurch hätten wir mehr Zeit zum Müßiggang und die Verwirklichung unser Fantasie in kreativen Leistungen.
Durch die Automatisierung von Aufgaben, die KI’s besser können als Menschen, können wir uns auf die Aufgaben konzentrieren, die Maschinen noch nicht können und möglicherweise niemals können werden. Zum Beispiel lernen Kleinkinder um ein vielfaches schneller als künstliche Intelligenzen: Sie sind schon nach wenigen Beobachtungen in der Lage einen Begriff zu erfassen und diesen auf neue Beobachtungen an zu wenden. Künstlich-intelligente Algorithmen, die mittels der Methode des maschinellen Lernens ähnliche Klassifikationen durch führen, brauchen riesengrosse Datenmengen, um einigermassen zuverlässig einen Hund von einer Katze zu unterscheiden. Maschinen können nur einen Teil des menschlichen Verstandes imitieren, aber weder Philosophen, Anthropologen noch Biologen können den menschlichen Verstand in Gänze erklären. Ihn künstlich nach zu bauen, wird erstmal im Bereich der Science Fiction bleiben.
Die Macht der Daten ist unbestreitbar. Die gezielte Erhebung von Daten bildet die Grundlage der Naturwissenschaft. Auf deren Basis war es dem Menschen möglich sich die Gesetze der Physik zu eigen zu machen und Maschinen zu entwicklen, die den menschlichen Wirkungshorizont um vielfaches übersteigen. Digitale Daten ermöglichen die Entwicklung von künstlicher Intelligenz, die den menschlichen Erkenntnishorizont um eine neue Dimension erweitern könnte. Verbesserte Medizintechnik auf der einen Seite und gesellschaftliche Spaltungen auf der anderen Seite — In Hinblick auf die Zukunft der Datenwissenschaften, werden sowohl utopische als auch dystopische Fantasien befeuert. Sind wir dem Einen oder dem Anderen auf Gedeih und Verderb ausgeliefert?
Daten im Jahre 2030: Die Verantwortung liegt bei uns.
Schon die Philosophen der Antike beschäftigten sich mit der Frage nach dem Wesen der Technik und ob sie inhärent gut oder schlecht ist. Sie erkannten die Macht die sie dem Menschen gegenüber der Natur verlieh. Sie erkannten, dass das Wesen der Technik nichts ist, was aus sich selbst heraus wirkt. Technik ist der künstlich verlängerte Arm des Menschen. Sie wirkt nur durch ihn und macht ihn auf der an deren Seite zu dem was er ist. Der Verstand des Menschen und seine Technik geben ihm die evolutionären Vorteile die er braucht, um in der Wildnis zu überleben.1
Seit der systematischen Erforschung der Natur bauen wir Menschen immer mehr Technik, die uns von der natürlichen Welt und uns selbst entfremdet. Folgen wie der Atommüll, Klimawandel und soziale Polarisierung sind Auswirkungen unserer eignen Überheblichkeit, in der wir die Langzeitfolgen unserer Entwicklungen nicht ab zu schätzen vermögen oder es versäumen angemessen zu reagieren. Im Angesicht der Entwicklung der Atombombe und der geistigen Entleerung der Arbeit durch die Fliessbandarbeit, prognostiziert der Philosoph Günther Anders die Versklavung des Menschen durch Technik. Auch Herbert Marcuse betrachtet die2 technische Entwicklung im Industriezeitalter mit Argwohn: Er sieht die grösste Gefahr in dem Verlust des individuellem Urteilsvermögens gegenüber der Manipulation durch die suggestive Kraft der Konsumwerbung, die wir auch schon im Kontext der sozialen Netzwerke mit skeptischem Blick betrachteten. Einen Ausweg sieht er nur in der Konsumverweigerung und einer radikalen Veränderung der gesellschaftlichen Verhältnisse. Jedoch haftet der Technik an sich auch bei3 den Technik-Pessimisten kein boshafter Charakter an — ihre negativen Auswirkungen wirken erst durch die Menschen und die gesellschaftlichen Verhältnisse. Wenn wir also das Gefühl bekommen Sklaven unserer eigenen Entwicklungen zu werden, so ist es eine Selbstversklavung, aus der nur wir selbst uns wieder befreien können. Wie kann solch ein Wandel in den Datenwissenschaften gelingen?
Oft ist sind die technischen Entwicklungen entweder von wirtschaftlichen Interessen oder aus purer Neugier getrieben, ethische Bedenken sind meist eher nebensächlich. Die Frage was mit den Daten die uns heute zugänglich sind alles gemacht werden kann, steht hinter der Frage was mit den Daten gemacht werden darf oder sollte. Die Betreiber der sozialen Netzwerke konnten Probleme wie Filterblasen, Fake News und Hate-Speech nicht vorher sehen. Durch gesetzliche Regulierungen werden sie mehr oder weniger dazu genötigt ihre unbeteiligte Rolle zu verlassen und gegen hetzende Äusserungen und Falschmeldungen vor zu gehen. Diese Probleme algorithmisch zu lösen, stellt eine grosse Herausforderung für die Datenwissenschaft dar, da hierfür menschliches Urteilsvermögen gefragt ist. Unsere Technik braucht uns also als urteilsvermögenden Richter.
Dennoch bleiben diese Bemühungen eher zaghafte Behandlung von Symptomen, die Krankheit selbst wird nicht geheilt. Was wir brauchen ist mehr Menschlichkeit in der Produktentwicklung selber. Auch wenn die negativen Aspekte mehr Schlagzeilen machen, zeigen wir als Menschheit immer wieder, dass wir das Potenzial haben, Techniken zu entwickeln, die unser Leben verbessert. Wir haben in der Hand, in was für einer Welt wir leben wollen. Jedes Individuum, vom Endnutzer über Programmierer, Datenwissenschaftler, Manager oder Aktionär hat die Macht eine Veränderung herbei zu führen, indem er bei sich selbst beginnt und eine Haltung einnimmt. Die Macht der Menschen zum Wandel liegt seit jeher in ihrer Fähigkeit zu lernen und gemeinsam neue Wege zu beschreiten.
Bis 2030 werden Fragen nach der Qualität der Daten oder ihrer Verarbeitungsgeschwindigkeit keine Rolle mehr spielen. Das Informationszeitalter lehrt uns, dass die technologische Entwicklung exponentiell an Geschwindigkeit gewinnt. Quantencomputer werden alle technischen Hindernisse in der Datentechnik, der künstlichen Intelligenz und ihren Anwendungsbereichen lösen. Unsere Fantasie und unser Verantwortungsbewusstsein bleiben unsere letzten und stärksten Hürden, die uns davon abhalten können die Technologie zu erschaffen, die uns die Welt ermöglicht, die wir uns wünschen. Wir werden unser Selbstbewusstsein gegenüber unseren eigenen Schöpfungen wiedererobert haben. Wir werden nicht alle Daten nutzen, weil wir es können. Wir werden gezielte Daten nutzen, die es uns ermöglichen unser Leben besser zu machen. Wenn wir diese Zukunft wollen, werden wir in den kommenden zehn Jahren unsere Werte hinterfragen müssen. Die Datenethik als Disziplin der Wissenschaft wird hierbei eine entscheidende Rollen spielen. Die Werte die wir entwickeln werden, werden wir auch in Gesetzen verankert müssen, um sie zum Leben zu erwecken und ihnen Macht zu verleihen. Der Philosoph Hans Jonas schreibt treffend:
„Wenn wir fragen welche Werte von gestern brauchbar und wichtig bleiben für die Welt von morgen, so fragen wir zugleich, welche vielleicht veraltet oder unwichtig werden — damit aber auch umgekehrt, welche neuen etwa vom neuartigen Morgen auf den Plan gerufen werden. Dabei ist denn, wo nicht ein Wissen, so doch irgendeine Vorstellung davon, wie die Welt von morgen aussehen wird vorausgesetzt.“ 4
Mit einem kritischem Blick in die Gegenwart, Vergangenheit und Zukunft, aber nicht ohne Hoffnung, wird es gelingen, dass unsere Daten nicht unsere Versklavung sondern unsere Befreiung werden. Die künstliche Intelligenz kann uns auf diesem Weg ein Verbündeter werden und uns dabei helfen unsere zunehmende Entfremdung zu uns selbst und der natürlichen Welt zu heilen. Auf diesem Weg gehen wir in ein gesundes Leben, ein glückliches Leben, im Einklang mit uns selbst, mit zukünftigen Generationen, den Geschöpfen mit denen wir unseren Planeten teilen und der natürlichen Welt, die wir alle zum leben brauchen.

Lilli-Marlene Groeneveld wurde 1991 in Hamburg geboren.
Als Tochter von Künstlern begleiten sie die Liebe zu den schönen Künsten und besonders dem Schreiben klein auf. Sie studierte Ökonomie in Hamburg und Melbourne und arbeitet als Data Scientist und Unternehmensberaterin bevor sie zusätzlich das Studium der Philosophie begann. Sie ist Mutter von zwei Kindern und Aktivistin für Tier-, Umweltschutz und soziale Gerechtigkeit.
Quellen
- Vgl. Erlach K.: Antike Technikphilosophie. In: Grunwald A., Simonidis-Puschmann M.: Handbuch Technikethik. J.B. Metzler, 2013, Stuttgart.
- Vgl. Anders, G.: Die Antiquiertheit des Menschen (Band 1), C.H. Beck, 1956, München.
- Vgl. Marcuse, H.: One-Dimensional Man. Studies in the ideologie of Advanced Industrial Society, Beacon Press, 1964, Boston.
- Jonas, H.: „Technik, Medizin und Ethik. Praxis des Prinzips Verantwortung“, Suhrkamp, 1987, S. 53.