In diesem Interview erklärt Professor Heisenberg die Grundlagen von Big Data, Predictive Profiling und Social Scoring. Auch gibt er einen Ausblick über die Entwicklung der Datentechnologie.
Gernot Heisenberg ist Professor für Information Research und Data Analytics an der TH Köln. Er forscht unter anderem daran, Hungerkatastrophen und Migration vorherzusagen, entwickelt Daten-Modelle für verschiedene Business-Bereiche und untersucht, wie Werbung sich auf das Gehirn auswirkt.
OR: Herr Heisenberg, können Sie die Begriffe „Big Data“, „Predictive Profiling“ und „Social Scoring“ kurz erklären und einen Zusammenhang herstellen?
Prof. Heisenberg: Ich möchte mit den Grundlagen zu „Big Data“ anfangen, weil „Social Scoring“ und „Predictive Profiling“ auch darauf basieren. Big Data heißt nichts anderes, als das große Datenmengen analysiert werden müssen. Die Grundlagen für Data-Analytics sind immer die gleichen: Es gibt im wesentlichen vier Standpfeiler dafür.
Ein Ansatz ist es, nach Ähnlichkeiten zu suchen, indem man Datensätze unterscheidet. Es könnte sein, dass der eine Datensatz für einen bestimmten Käufer oder Wähler steht. Man nimmt die Datensätze dieser Gruppen und ermittelt so, welche Eigenschaften sie jeweils haben. Dieses Vorgehen nennt man auch Cluster-Analyse.
Der zweite Ansatz ist, die Folgen von Ereignissen in Beziehung zueinander zu setzen. Das heißt, wenn Ereignis „A“ eintritt, fragen wir uns wie wahrscheinlich es ist, dass „B“ und „C“ eintreten. Man nennt das Verfahren die „Assoziationsanalyse“
Beispielsweise kauft jemand eine Zahnbürste: Wir fragen uns, wie wahrscheinlich ist es, dass er dann auch Zahnpasta oder Kaffee oder Tee kauft? Und wie verlässlich ist dieser Kauf für eine Vorhersage in einem bestimmten Zeitraum? Dieses Vorgehen wird häufig für Warenkörbe eingesetzt.
Das sind beides Verfahren, die aus dem „Unsupervised Learning“ kommen. Das heißt, es gibt keine Hypothesen und Bedingungen. Man beobachtet nur Datenpunkte und versucht diese, in Beziehung zu setzen.
Wenn wir aber schon wissen, dass ein bestimmter Typ eine bestimmte Entscheidung trifft dann können wir davon lernen und das auf andere Betrachtungen übertragen. Man spricht dann von “Supervised Learning”.
Zum Beispiel haben Sie zwei Töpfe: Sie wissen „A“ wählt die eine Partei und „B“ wählt die andere Partei. Daten werden also voneinander abgegrenzt. Wenn dann eine neue Beobachtung dazukommt, in diesem Beispiel ein Neuwähler, dann können sie berechnen, wie wahrscheinlich er entweder „A“ oder „B“ wählt. Das ist die Methode der Klassifikation.
Man kann dieses Verfahren bei Wahlen und der Auswertung von Kaufverhalten oder auch auf die Haltbarkeit von Maschinen anwenden.
Der letzte der vier Standpfeiler ist die Regressionsanalyse. Wieder hat man verschiedene Dimensionen und versucht einen Zusammenhang zu finden. Ein einfaches Beispiel wäre; man weiß, dass der Umsatz steigt, wenn die Verkäufe steigen. Man untersucht aber vor allem, ob eine lineare Beziehung besteht, und was wahrscheinlich die Entwicklung in der Zukunft ist.
Letztlich basiert Datenanalyse, also der Nutzen von “Big Data” immer auf Methoden wie diesen. Hinter dem Begriff steht also nicht mehr – aber auch nicht weniger.
OR: Was ist „Predictive Profiling“ und wie funktioniert es?
Prof. Heisenberg: „Predictive Profiling“ funktioniert nach dem gleichen Schema. Es werden immer diese Methoden der Datenanalyse verwendet. Zum Beispiel wissen Sie, dass jemand straffällig ist und wie er sich entwickelt hat. Dann haben Sie bestimmte Datenpunkte bis zu dem Zeitpunkt, wo er straffällig geworden ist.
Dann würden Sie Menschen klassifizieren, die noch nicht straffällig geworden sind und schauen, wo Übereinstimmungen liegen. Das ist wieder „Supervised Learning“. Sie schauen also, wie wahrscheinlich es ist, ob „Der Neue“ auch straffällig wird.
Dieses Verfahren wird schon länger zum Beispiel in der Medizin für das Krebs-Screening eingesetzt.
Bei diesem Screening könnten Sie rein theoretisch die Parameter so festlegen, dass alle als krank eingestuft werden und eine OP brauchen. Dann haben Sie in jedem Fall alle Kranken erwischt. Aber das ist natürlich nicht gut, weil Sie dann auch viele Gesunde therapieren würden.
Im Falle der Straftäter wäre das genauso. Entweder stehen alle unter Grundverdacht, also alle sind Straftäter oder die Parameter müssen sehr spezifisch werden.
Und wenn nicht exakt die Datenpunkte vorliegen, die einen Straftäter klassifizieren, dann ist die Frage, ob es sich dennoch um einen Straftäter handelt. Das ist durchaus möglich. Damit ein Mensch ein Straftäter ist, gibt es aber eventuell mehr oder andere Zusammensetzungen von Faktoren, als man in dem Datensatz erfasst hat.
Und genau da fängt es an, interessant zu werden. Wie stellen Sie das System ein? Soll die Person nur bei hundertprozentiger Übereinstimmung als Straftäter klassifiziert werden? Bei 90 Prozent? Bei 80 Prozent?
Beispiel: Sie klassifizieren falsch und eine Person wird vom System nicht erkannt. Wird sie trotzdem straffällig, fällt eine Mitschuld auf Sie und Ihre Analyse.
OR: Halten Sie „Predictive Profiling“ in diesem Bereich für eine gute Idee?
Prof. Heisenberg: Das ist eine ganz andere Frage. Also technisch gesehen ist es nicht einfach zu entscheiden, ab wann man sicher genug ist, um eine Person nach „A“ oder „B“ zu klassifizieren. Und das ist wichtig in der Medizin, in der Epidemiologie und in der Crime-Science. Denn wenn ich zum Beispiel einen Virus nicht richtig erkenne und klassifiziere, wird jeder krank, weil es infektiös ist. Und genauso kann man sagen, wenn ein Terrorist nicht richtig klassifiziert wird, kann er auch die halbe Welt in die Luft jagen.
Ob ich das moralisch darf oder tun sollte, steht auf einem anderen Blatt. Da bin ich zu der Überzeugung gelangt, seitdem ich diese Methoden kennengelernt habe, dass ich das nicht befürworten würde. Denn Sie sind sich niemals sicher genug. Es ist keine Lösung, alle unter Generalverdacht zu stellen oder das System so empfindlich einzustellen. Das beschneidet die Freiheit von uns allen, bedroht unsere Demokratie und führt schnell zu dystopischen Szenarien, wie Sie im Fernsehen sehen können.
OR: „Social Scoring“ funktioniert sehr ähnlich, oder?
Prof. Heisenberg: „Scoring“ ist keine neue Erfindung. Das gibt es schon sehr lange von kreditvergebenden Instituten.
Dabei ist ja der wesentliche Aspekt, ob jemand in der Lage ist, seinen jeweiligen Kredit überhaupt zurückzuzahlen.
Es wird wieder auf Grundlage der vorangegangenen Messungen geschaut, wie man Personen in „A-Kreditwürdig“ und „B-Nicht-Kreditwürdig“ klassifizieren kann. Und jetzt ist die Frage, was geht in diese Messungen mit ein. Und da gibt es Methoden, die einem genau sagen können, warum man keinen Kredit bekommt. Aber es gibt auch welche, wo das nicht mehr nachvollziehbar ist. Das ist erstmal nichts Neues, aber die Frage ist, wie weit Sie das ausdehnen wollen.
In China wird es ja momentan vorgelebt. Dass zum Beispiel gesagt wird, jemand zahlt zwar seine Kredite zurück, aber er geht bei Rot über die Ampel und verhält sich nicht systemkonform. Dann ist er eben auch in allen anderen Bereichen ein schlechter Mensch oder ein schlechter Bürger. Und da fängt es an, dass einzelne „Fehlverhalten“ auf andere Bereiche abstrahlen, wie auf die Kreditvergabe.
Beim „Social Scoring“ kommt dann auch noch der soziale Druck hinzu. Gerade in China ist es verbreitet, dass nicht nur die jeweilige Person bestraft wird, sondern alle im persönlichen Umfeld. Wodurch der soziale Druck erhöht wird, die Person wieder auf „die richtige Spur“ zu bringen. Das ist ein ganz wichtiger Punkt.
OR: Sie persönlich forschen auch daran, wie man Hunger- und Flüchtlingskrisen vorhersagen kann. Wie funktioniert das?
Prof. Heisenberg: Die Frage ist dabei immer, was kommt zuerst. Ist es die Dürre, ist es der bewaffnete Konflikt, ist es vielleicht ein religiöser Konflikt oder Misswirtschaft oder Korruption?
Diese Ereignisse treten nie singulär auf, sondern es ist immer eine Kombination. Mal ist eins zuerst da, mal das andere. Aus der gesamtheitlichen Betrachtung von solchen Ereignissen kann man einen Wert für die Vulnerabilität, also die Verletzbarkeit berechnen.
Wir versuchen also zu berechnen, wie wahrscheinlich es ist, dass bei einem bestimmten Ereignis – wenn zum Beispiel wiederholt eine Dürre auftritt – Menschen aus ihrem Land fliehen.
Wir benutzen dafür Fernerkundungsdaten, also Satellitenbilder, die wir auswählen und auswerten. Und zusätzlich kommen sozioökonomische Daten hinzu. Zum Beispiel Kindersterblichkeit, Unterernährung, Bildungsniveau. All das verarbeiten wir mit den Methoden der Regression und der Klassifikation
Wir wissen also in dieser Region, mit diesen Daten, war eine Hungersnot. Oder in einer anderen Region mit anderen Daten war keine Hungersnot. Das heißt, wir können die historischen Daten sehr genau unterscheiden. Und dementsprechend kann unser System, das über ein neuronales Netz funktioniert, versuchen zu lernen, was es bedingt, damit eine Hungersnot eintritt.
Damit können wir im Vorfeld verletzbare Regionen identifizieren und dann schon Hilfsgelder sammeln, Flüchtlingscamps planen und die Energieversorgung sicherstellen. Das heißt Sie haben mehr Vorlaufzeit.
OR: Werden Wahlen zukünftig immer mehr durch Daten-Technologie beeinflusst?
Prof Heisenberg: Beeinflussung findet immer statt. Überall, wo man die Möglichkeit hat, Daten zu bekommen, können Werbungen detaillierter auf einen zugeschnitten werden. Die Frage ist eben, ob es eine Manipulation ist.
Wo ist da der Grenzbereich? Was ist erlaubt und was nicht? Diese unlauteren Methoden sind es ja, die in der Kritik stehen. Denn, wenn sie einen Werbeclip einer Partei im Fernsehen sehen, dann werden sie auch manipuliert.
Wichtig ist, ob jeder die gleichen Möglichkeiten hat. Wenn Sie zum Beispiel Cambridge Analytica nehmen, dann haben die sehr fein austariert, wo die Wahlpräferenz liegt.
Wenn dieses Unternehmen dann nur für eine Partei arbeitet, dann haben sie eine Verfälschung mit drin. Und das ist auf jeden Fall ein Problem. Entweder gleiches Recht für alle oder wir als Bürger müssten uns gegen diese Form der Datennutzung wehren.
Im Wesentlichen geht es darum, Transparenz zu schaffen. Diese Daten-Analysen finden bereits permanent statt und sie werden auch für Politik genutzt.
OR: Gibt es wegen der künstlichen Intelligenz ein neues technologisches Wettrüsten? Und hinkt Deutschland hinterher?
Prof. Heisenberg: Man kann schon sagen, dass ein Wettrüsten stattfindet. Man muss sich nur die Forschungsausgaben der großen Unternehmen anschauen. Mittlerweile spricht man da von den „Big 15“, davon kommen drei aus China und zwölf aus den USA.
Also zum Beispiel Amazon oder Alibaba auf der chinesischen Seite, die eine Menge Daten haben. Denn genau das ist das Wichtige.
Diese 15 Firmen geben im Durchschnitt jeweils 10 Milliarden Dollar für Forschung und Entwicklung pro Jahr aus. Zum Vergleich: die gesamte Bundesrepublik gibt durch die neue KI-Initiative von Frau Merkel 500 Millionen aus.
Apple, eine einzelne Firma, gibt 15 Milliarden aus. Wir geben 500 Millionen für ein gesamtes Land aus. Da kann man schon sehen, dass da eine Diskrepanz ist. Und das ist auch eines der Kernprobleme, warum Deutschland hinterherhinkt.
Zum Abschluss haben wir Professor Heisenberg gefragt, wie sich die Datentechnologie wohl in den nächsten 10 Jahren entwickeln wird. Die Frage wird detailliert beantwortet und Professor Heisenberg beendet seine Erläuterung mit einem eindrücklichen Appell. Die Antwort liegt in Video- und Textform vor.
OR: Können Sie einen Ausblick über die Entwicklung der Daten-Technologie in den nächsten zehn Jahren wagen?
Prof Heisenberg: Das kann glaube ich keiner. Auch wenn Sie mich vor zehn Jahren gefragt hätten, was wäre denn heute, dann hätte ich vollständig falsch gelegen.
Ich glaube, dass sich ein paar Trends abzeichnen. Im Suchmaschinen-Umfeld wird glaube ich die gesprochene Suche, also überhaupt die Spracheingabe zunehmend wichtiger.
Auch können wir gerade schon beobachten, dass es einen Trend zum „Explainable Machine Learning“ gibt. Bisher ist es so, dass eine Bank bei der Kreditvergabe Ihnen teilweise gar nicht sagen kann, warum sie keinen Kredit bekommen. Und als Bürger ist es aber ihr gutes Recht das zu erfahren und es gibt auch gesellschaftlichen Druck. Deswegen gibt es momentan viele Forschungsgruppen, die sich mit diesem „Machine Learning“ beschäftigen. Sie wollen bei diesem Vorgang bestimmte Parameter identifizieren, um dann genau sagen zu können, warum man keinen Kredit bekommen hat.
So eine Nachvollziehbarkeit ist natürlich auch besonders wichtig für selbstfahrende Fahrzeuge. Weswegen war es jetzt besser Person A umzufahren und nicht Person B? Das ist ja ein gängiges Beispiel und diese Entscheidung muss verständlich gemacht werden.
Ein drittes Phänomen, dass sich abzeichnet, ist „Augmented Intelligence“. Und das bedeutet, dass man maschinelle mit menschlicher Kognition kombiniert. Menschen sind dem Computer noch wahnsinnig überlegen, wenn es um Entscheidungen geht, die ad hoc getroffen werden müssen. Man versucht sich also die Rechenleistung nutzbar zu machen, aber die Entscheidungshoheit soll beim Menschen bleiben und das ist auch sinnvoll.
Ein übergeordnetes Ziel ist es, datengetriebene Entscheidungen nachvollziehbarer zu machen. Da muss man sich aber nichts vormachen, denn wir können das niemals für die gesamte Gesellschaft tun. Es gibt Menschen, die haben Probleme, normale Sprache zu verstehen. Da muss schon in einfache Sprache übersetzt werden. Aber auch diese Menschen nicht abzuhängen, ist ganz wichtig für den sozialen Frieden. Und auch hier muss nachvollziehbar gemacht werden, warum es bestimmte Entscheidungen gibt. Und das ist eine Herausforderung für die Gesellschaft. Dass also nicht nur ein kleiner Club von Mathematikern und Informatikern mitgenommen wird, sondern die Gesellschaft als Ganzes.
Autor: Philipp Fielauf