Hinweis

Für dieses multimediale Reportage-Format nutzen wir neben Texten und Fotos auch Audios und Videos. Daher sollten die Lautsprecher des Systems eingeschaltet sein.

Mit dem Mausrad oder den Pfeiltasten auf der Tastatur wird die jeweils nächste Kapitelseite aufgerufen.

Durch Wischen wird die jeweils nächste Kapitelseite aufgerufen.

Los geht's

Versteckte Begleiter? Wie Big Data und Algorithmen unsere Gesellschaft beeinflussen

Logo http://multimedia.hd-campus.tv/versteckte-begleiter-wie-big-data-und-algorithmen-unsere-gesellschaft-beeinflussen

Zum Anfang

Algorithmen und Big Data. Zwei Begriffe, die sehr viele Menschen schon einmal gehört haben. Google und Facebook sind wohl zwei der bekanntesten Vertreter, wenn es um dieses Thema geht. Wo sich das alles abspielt? Mittlerweile fast überall. Die Digitalisierung hat in den letzten Jahren zu einer umfassenden Vernetzung aller Lebensbereiche geführt. Das Internet macht diese rasante Entwicklung möglich.

Täglich, von morgens bis abends, begegnen uns Algorithmen und Big Data. Dank moderner Technologie kommen wir fast nicht mehr um sie herum. Doch um was genau handelt es sich bei diesen beiden Begrifflichkeiten? Wo genau begegnen sie uns? Und wie beeinflussen sie unseren Alltag?  

Diese Arbeit soll einen Einblick in die komplexe Welt von Big Data und Algorithmen geben. Sie soll Chancen aufzeigen, Risiken darlegen und wenn man am Ende angelangt ist, für ein wenig mehr Klarheit sorgen.  

Obwohl Facebook und Google die Vorzeigebeispiele dieses Themenbereiches sind, sollen sie nicht im Mittelpunkt stehen. Von vielem, was auf den kommenden Seiten beschrieben wird, sind sie Teil. Trotzdem sind Algorithmen und Big Data mehr als diese beiden Unternehmen.

Auf der nächsten Seite erwartet Dich ein kleiner Überblick der Interviewpartner, die Dir im Laufe dieser Pageflow begegnen werden. 

 


Zum Anfang
Nach oben scrollen
Nach links scrollen
Nach rechts scrollen
Nach unten scrollen
Zum Anfang

Wann ist Data big?

Prof. Dr. Moritz Grosse-Wentrup, LMU München, Lehrstuhl Data Science

0:00
/
0:00
Audio jetzt starten

Zuallererst ist Big Data ein Hype-Begriff, der sehr inflationär benutzt wird. Es handelt sich mehr um ein Schlagwort. Oft steht es im direkten Zusammenhang mit der durchgängigen Digitalisierung und Überwachung aller Lebensbereiche. Diese Möglichkeit besteht durchaus - doch dazu später. Es geht vielmehr darum, die vorhandenen Datenmassen zu analysieren, zu verarbeiten und in Echtzeit auszuwerten. So gelangt man zu neuen Erkenntnissen, die man zuvor nicht hatte.

Big Data ermöglicht es Heterogenität abzubilden. Das bedeutet, dass Methoden entwickeln werden können, die persönlich auf Menschen zugeschnitten sind. In der Medizin entstehen hier zum Beispiel große Chancen. Außerdem gibt es Methoden, die dabei helfen in Datensätzen Zusammenhänge zu finden, die ein Mensch gar nicht, oder erst nach langer Zeit gefunden hätte. 

Auch die Menge an Daten kann sehr variieren. Spricht man von "Big", so entsteht oft der Eindruck man rede in Größenordnungen wie Terra- oder Petabyte. Pauschal lässt sich das aber nicht beantworten. Die Menge an Daten unterscheidet sich von Anwendung zu Anwendung. Es kann sein, dass ein Bereich tatsächlich einen Datensatz von einem Petabyte verschlingt, wohingegen es in einem anderen nur wenige Gigabyte sein können.  

Allgemein ist das Feld von Big Data sehr sensorgetrieben. Das heißt: in welchen Bereichen gibt es Möglichkeiten Daten aufzuzeichnen? So ein Sensor kann beispielsweise ein Smartphone sein. Das Gerät und die Apps zeichnen alle möglichen Daten über seine Besitzerin/ seinen Besitzer auf: Namen, Telefonnummern, Standorte, soziale Beziehungen, Interessensfelder...


Audio öffnen

Zum Anfang

Catch-All-Begriff

Lorenz Matzat, Co-Founder Algorithmwatch

0:00
/
0:00
Audio jetzt starten

Algorithmen sind keine neue Erscheinung des 21. Jahrhunderts. So ist zum Beispiel der Euklidische Algorithmus ein Verfahren, um den größten gemeinsamen Teiler einer Zahl zu bestimmen. Euklid von Alexandria lebte von ca. 365 – 300 v. Chr.

Heute begegnen uns Algorithmen aber täglich. Eine Studie der Bertelsmann Stiftung von Januar 2018 hat ergeben, dass trotz des ständigen Kontakts mit Algorithmen, viele Deutsche nichts mit dem Begriff anfangen können. 72% der Befragten haben schon von diesem Begriff gehört. Davon gaben 56% an kaum etwas über Algorithmen zu wissen und 31% behaupteten eine ungefähre Vorstellung des Begriffs zu haben. Nur 10% wussten recht genau wie ein Algorithmus funktioniert.  

Im Grunde ist ein Algorithmus eine Handlungsvorschrift, die wenig Raum für Interpretation lässt - ähnlich wie ein Kochrezept. Jeder Schritt ist eindeutig definiert. Das Kochrezept, als auch der Algorithmus, hat einen Startpunkt und einen klar definierten Endpunkt. Wie koche ich aus einem rohen Ei ein Spiegelei? Damit der Koch das Ziel erreicht, sind klar definierte Schritte nötig.

Wie auch bei Big Data wird dieser Begriff sehr inflationär benutzt. Oft denkt man bei Algorithmen an komplizierte Anwendungen, wie Facebook oder künstliche Intelligenz. Doch man findet sie auch in "banalen" Anwendungen, wie dem Sortieren einer Liste. Beispielhaft ist hier die digitale Musiksammlung zu nennen, die man am Computer mit einem Klick von A nach Z sortieren kann. Das Computerprogramm ist dabei nichts anderes, als ein Algorithmus, der in die Sprache der Maschine übersetzt wurde. 


Audio öffnen

Zum Anfang
Zum Anfang
Zum Anfang
Zum Anfang

Gefahren der Zukunft

Prof. Dr. Moritz Grosse-Wentrup, LMU München, Lehrstuhl Data Science

0:00
/
0:00
Audio jetzt starten

Wie kann man die Zukunft so gestalten, dass wir diesen drohenden Risiken nicht ausgesetzt werden? Auf diese Frage gibt es leider keine konkrete Antwort. Es wäre aber Unsinn, die neuen Technologien zu verteufeln und zu fordern, die Digitalisierung rückgängig zu machen. Das wäre nicht machbar. Mittlerweile sind nahezu alle Lebensbereiche mit ihr verstrickt. Außerdem würden wir die Chancen verschenken, die sie uns bietet. 

Was also dann? Schwarz- oder Weiß-Denken bietet keine konkrete Antwort oder gar Lösung. Es ist wichtig den Einzelfall zu prüfen. Jede Anwendung muss in Zusammenhang mit ihrem Einsatzgebiet gesehen werden. Das mag im ersten Augenblick ernüchternd klingen, ist aber aufgrund der Komplexität dieser Anwendungen von Nöten. Am Ende sind wir es, die entscheiden, wie wir eine Technologie einsetzen. Ein Roboter kann als Pfleger in einem Altenheim eingesetzt werden, aber auch im Krieg, um auf weite Entfernung zu töten. 

Es ist mit Sicherheit eine gute Überlegung sich klar zu machen, wie eine Anwendung funktioniert. Das heißt, ob sie Handlungsunterstützend wirkt oder ob sie die Handlungsfähigkeit einer Person einschränkt. 

Alles in allem ist es ein politischer Prozess, der mit Gesetzen den Handlungsspielraum vorgibt und über die digitale Zukunft entscheidet. Es gilt immer abzuwägen, was die Technik leisten kann und wie wir in der Lage sind, damit gesellschaftlich als auch rechtlich umzugehen.

Audio öffnen

Zum Anfang
Zum Anfang

Reinhard Heil, Karlsruher Institut für Technologie

Forschungsbereich Innovationsprozesse und Technikfolgen

0:00
/
0:00
Video jetzt starten
Zum Anfang

An dieser Stelle möchte ich mich bei allen bedanken, die dieses Projekt möglich gemacht haben. Zum einen sind das meine Interviewpartner. Besonderer Dank geht an: 

- Christian von Entropia e.V., Chaos Computer Club Karlsruhe
- Prof. Dr. Moritz Grosse-Wentrup von der LMU München
- Reinhard Heil vom Karlsruher Institut für Technologie
- Kay Cepera von der Technischen Universität Dortmund
- Lorenz Matzat von Algorithmwatch

Zum anderen möchte ich bei meinen Kommilitoninnen und Komilitonen bedanken, die mich bei der ein oder anderen Aufgabe unterstützt haben:

- Rosalie Kopp, Videointerview und Modell stehen 
- Hannah Radgen, Videointerview
- Rune Weisser, Modell stehen

Und zum Schluss möchte ich noch weiterführende Links angeben, unter denen man mehr zum Thema findet:

Algorithmwatch
ABIDA - Assessing Big Data
Chaos Computer Club
Es sind Ihre Daten – übernehmen Sie die Kontrolle

Felix Klein









Zum Anfang

Der gläserne Mensch ist die Vorstellung eines Menschen, über den alles bekannt ist. In der Welt der Daten hat er so gut wie keine Geheimnisse und soziale Netzwerke wissen nur nach kurzer Zeit mehr über ihn, als die meisten seiner Freunde. 

Personenbezogene Daten sind hier ein wichtiger Begriff. Das sind Daten, mit denen es möglich wird, eine Person eindeutig zu identifizieren. Der bürgerliche Name, Benutzernamen in sozialen Netzwerken oder auch die Krankenversicherungsnummer zählen dazu. Alle diese Informationen machen es möglich, eine große Anzahl von Personen auf eine einzige einzugrenzen. 

Einigen Leuten scheint es gleichgültig zu sein, wenn Daten über sie gesammelt werden. Das Motto: "Ich habe doch eh nichts zu verbergen." Die Privatsphäre des Einzelnen schrumpft. Warum ist genau sie so ein schätzenswertes Gut?


Zum Anfang
Zum Anfang

Spuren im Internet

Prof. Dr. Moritz Grosse-Wentrup, LMU München, Lehrstuhl Data Science

0:00
/
0:00
Audio jetzt starten

Eine Studie aus dem Jahr 2013 macht deutlich wie viele Informationen man aus einfachen Facebook-Likes ziehen kann. Hierzu wurden von 58.000 Freiwilligen die Daten ausgewertet. Die nebenstehende Grafik zeigt, mit welcher Genauigkeit es möglich ist solche Vorhersagen zu treffen.

So ist es zum Beispiel mit 93-prozentiger Genauigkeit möglich, das Geschlecht einer Person zu identifizieren. Darüber hinaus ist auch auf die sexuelle Orientierung, Religion oder die politische Einstellung zu schließen. Selbst Drogenkonsum ließ sich ableiten - wenn auch nicht mit so hoher Genauigkeit. 

Je mehr eine Person auf den Like-Button drückt, desto genauer wurden die getroffenen Vorhersagen. Bei dieser Studie betrug die durchschnittliche Anzahl 68 Likes pro Person, bei einer Spanne von einem bis 700 Likes.

Die Studie weist klar auf die Chancen hin, die sich hier bieten. Durch die genauen Vorhersagen wird es möglich, Services und Produkte zu verbessern. Besonders im Marketing-Bereich ist das verlockend. Auf der anderen Seite veranschaulicht diese Studie aber auch, dass es möglich ist, Daten von Personen ohne deren Zustimmung oder Wissen auszuwerten. Und das sehr präzise.


Audio öffnen

Zum Anfang

In unserer modernen Welt gibt es immer das Bestreben nach mehr Sicherheit. Und dank der Digitalisierung gibt es Werkzeuge, wie die Videoüberwachung mit softwarebasierter Gesichtserkennung, um für diese zu sorgen. 

Es ist wichtig, den Nutzen dieser Technologien zu hinterfragen und die Folgen, die aus ihnen entstehen könnten. 

Oft sorgen diese Werkzeuge nicht zwingend für mehr Sicherheit, sondern schränken vielmehr unsere Freiheit ein - vielleicht noch nicht heute, aber dafür in der Zukunft. 


Zum Anfang
Nach oben scrollen
Nach links scrollen
Nach rechts scrollen
Nach unten scrollen
Zum Anfang

Christian S.

Entropia e. V. / Chaos Computer Club Karlsruhe

0:00
/
0:00
Video jetzt starten
Zum Anfang

Christian S.

Entropia e. V. / Chaos Computer Club Karlsruhe

0:00
/
0:00
Video jetzt starten
Zum Anfang

Christian S.

Entropia e. V. / Chaos Computer Club Karlsruhe

0:00
/
0:00
Video jetzt starten
Zum Anfang

Christian S.

Entropia e. V. / Chaos Computer Club Karlsruhe

0:00
/
0:00
Video jetzt starten
Zum Anfang

Ob zukünftige Pläne mit Erfolg belohnt werden, hängt oft nicht mehr an uns oder unseren Mitmenschen. Algorithmen berechnen, ob jemand zum Beispiel kreditwürdig oder für einen Job geeignet ist. 

Für uns ist in der Mehrheit der Fälle nicht nachvollziehbar, wie algorithmisch generierte Empfehlungen entstehen. Denn diese bleiben meist der Öffentlichkeit vorenthalten. In diesem Zusammenhang spricht man von einer Blackbox, da der Betroffene nicht durchblicken kann, wie eine Empfehlung zu Stande kam. 

Das kann gefährlich sein, da schon kleinste Fehler großen Einfluss auf unser Leben haben können, ohne dass wir uns des "Warum?" bewusst sind. Doch genau das gilt es zu wissen. 

Zum Anfang
Zum Anfang

Wir befinden uns im Informationszeitalter. Was früher einmal Gold gewesen sein mag, ist heutzutage Information. Besonders in sozialen Netzwerken können Nutzern aufgrund der über sie gesammelten Daten und der Algorithmen passende Informationen zugespielt werden. 

Doch wer was zu sehen bekommt bestimmt oft nicht mehr der Mensch selbst, sondern der Algorithmus. Es gibt also nicht mehr zwingend eine Wahrheit zu einer Sache, sondern gleich mehrere. 

Zum Anfang
Zum Anfang

Reinhard Heil, Karlsruher Institut für Technologie

Forschungsbereich Innovationsprozesse und Technikfolgen

0:00
/
0:00
Video jetzt starten
Zum Anfang

Reinhard Heil, Karlsruher Institut für Technologie

Forschungsbereich Innovationsprozesse und Technikfolgen

0:00
/
0:00
Video jetzt starten
Zum Anfang

Reinhard Heil, Karlsruher Institut für Technologie

Forschungsbereich Innovationsprozesse und Technikfolgen

0:00
/
0:00
Video jetzt starten
Zum Anfang

Vertrauen wird grundsätzlich dort benötigt, wo es ein Risiko zu überbrücken gilt. Es gibt zwei Parteien: den Treugeber, der vertraut und den Treuhänder, dem das Vertrauen entgegengebracht wird. 

Zwischen diesen beiden Parteien besteht eine Unsicherheit, die es für den Treugeber zu überbrücken gilt. Auch bei vielen Big Data Anwendungen muss diese Unsicherheit überbrückt werden. 

Mögliche Unsicherheiten können die Güte des Resultats angehen oder die Ungewissheit, welche Daten man preisgibt und wie diese später verwendet werden. 

Zum Anfang
Zum Anfang

Neue Technik wirft Erkenntnisse über eine Gesellschaft auf. Hier begibt man sich auch in den Bereich der Ethik. Die Ethik selbst ist hierbei nicht technikbestimmt. Sie reflektiert, zeigt Probleme auf und macht diese diskutierbar. Die Ethik gibt keine endgültigen Antworten auf die aktuell gestellten Fragen.

Überall dort, wo es nahe an eine Person herangeht und Daten intransparent erhoben, gesammelt und weiterverarbeitet werden, finden ethische Konflikte statt. Zudem kommt es in den Bereichen der Überwachung, die durch den Gebrauch von neuen Medien vereinfacht wird, zu weiteren Herausforderungen.

Wichtig bei solchen Erkenntnissen ist es, sich stets bewusst zu sein, dass die gesammelten Daten eine ganz bestimmte Gesellschaft widerspiegeln und die Datenbewertung deshalb auch nicht neutral ist. 




Zum Anfang
Nach oben scrollen
Nach links scrollen
Nach rechts scrollen
Nach unten scrollen
Zum Anfang

Reinhard Heil, Karlsruher Institut für Technologie

Forschungsbereich Innovationsprozesse und Technikfolgen

0:00
/
0:00
Video jetzt starten
Zum Anfang

Reinhard Heil, Karlsruher Institut für Technologie

Forschungsbereich Innovationsprozesse und Technikfolgen

0:00
/
0:00
Video jetzt starten
Zum Anfang

Reinhard Heil, Karlsruher Institut für Technologie

Forschungsbereich Innovationsprozesse und Technikfolgen 

0:00
/
0:00
Video jetzt starten
Zum Anfang

Reinhard Heil, Karlsruher Institut für Technologie

Forschungsbereich Innovationsprozesse und Technikfolgen 

0:00
/
0:00
Video jetzt starten
Zum Anfang
Nach oben scrollen
Nach links scrollen
Nach rechts scrollen
Nach unten scrollen
Zum Anfang
Nach oben scrollen
Nach links scrollen
Nach rechts scrollen
Nach unten scrollen
Zum Anfang

Freiheit im System des Social Scoring in China

Kay Cepera, Techniksoziologie, TU Dortmund.

0:00
/
0:00
Audio jetzt starten

In China zeigt sich was mit Big Data und Algorithmen möglich ist und wie solche Systeme zur Überwachung und Normierung seiner Bürger genutzt werden.

Die Regierung setzt auf so genanntes Social Scoring, ein Bewertungssystem für Bürger, das flächendeckend bis 2020 eingeführt werden soll. Schon heute wird es getestet. 

Solch ein System fördert die Überwachung und minimiert die Privatsphäre aufs Geringste. Durch die gesteigerte Überwachung verliert jeder Einzelne an persönlicher Freiheit. 


Audio öffnen

Zum Anfang

Reinhard Heil, Karlsruher Institut für Technologie

Forschungsbereich Innovationsprozesse und Technikfolgen

0:00
/
0:00
Video jetzt starten

An dieser Stelle muss gesagt sein, dass wir uns, im Gegensatz zu China, nicht in einer sozialistischen Volksrepublik befinden. Trotzdem: Das Beispiel zeigt, zu was man mit der heutigen Technologie in der Lage ist. 

Zunehmende Überwachung kann im Beispiel China, als auch auf demokratische Gesellschaften bezogen, zum sogenannten Chilling Effekt führen, der weitreichende Folgen auf das Verhalten einzelner Personen ausübt. 

Video öffnen

Zum Anfang
Zum Anfang
Nach oben scrollen
Nach links scrollen
Nach rechts scrollen
Nach unten scrollen
Zum Anfang

Einflussnahme auf die Demokratie

Prof. Dr. Moritz Grosse-Wentrup, LMU München, Lehrstuhl Data Science

0:00
/
0:00
Audio jetzt starten

Cambridge Analytica ist eine Datananalysefirma, die Anfang des Jahres 2018 in die Schlagzeilen geriet, da sie Daten von 87 Millionen Facebooknutzern ausgewertet haben soll, um Persönlichkeitsprofile zu erstellen. Ziel war es den US-Wahlkampf mit sogenanntem Microtargeting, also personalisierten Botschaften, zu Trumps Gunsten zu beeinflussen. 

Doch wie hatte das Unternehmen Zugang zu diesen Informationen? Oft wurde von einem Datenleck oder Datenklau berichtet. Doch dieser Ausdruck ist nicht der Richtige, denn niemand drang in das Netzwerk ein und stahl Daten.  

Forschern ist es erlaubt auf die Daten von Facebook zuzugreifen. So auch im Falle von Aleksandr Kogan. Er hatte im Zuge seiner Forschung diese Möglichkeit. Kogan war im Bereich Psychologie an der Cambridge University tätig. Er hat eine Anwendung für Facebook entwickelt. Diese nannte sich „thisisyourdigitallife“ - ein Psychotest. Um diesen zu belegen gaben User ihre persönlichen Informationen preis. Was nicht bekannt war: Die Anwendung konnte auch auf die Informationen von Freunden der Benutzer zugreifen.  

Die daraus resultierenden Informationen und Daten hat Kogan an Cambridge Analytica weitergeleitet - das ist illegal. Er soll dafür mehr als 800.000 Dollar erhalten haben. Das Ganze fand im Jahr 2014 statt. Doch erst 2018 wurde alles durch den Whistleblower Christopher Whyley, einem ehemaligen Mitarbeiter von Cambridge Analytica, enthüllt.    












Audio öffnen

Zum Anfang
Nach oben scrollen
Nach links scrollen
Nach rechts scrollen
Nach unten scrollen
Zum Anfang
Nach oben scrollen
Nach links scrollen
Nach rechts scrollen
Nach unten scrollen
Zum Anfang
Scrollen, um weiterzulesen
Wischen, um Text einzublenden

Neue Seiten

Seit dem letzten Besuch wurden diesem Pageflow neue Seiten hinzugefügt:

...und weitere

Hinweis schließen