Seite auswählen

Ein Kommentar – Teil 1

Im November 2018 hat die Bundesregierung auf dem sogenannten Digitalgipfel die Strategie Künstliche Intelligenz (KI) für Deutschland verabschiedet mit der Zielsetzung „den exzellenten Forschungsstandort Deutschland zu sichern, die Wettbewerbsfähigkeit der deutschen Wirtschaft auszubauen und die vielfältigen Anwendungsmöglichkeiten von KI in allen Bereichen der Gesellschaft zu fördern“[1]. Trotz der gigantischen Fördersumme von 3 Milliarden Euro wird dieses Ziel nicht erreichbar sein. Und zwar nicht, weil Deutschland zu wenig oder gar schlechte Forscher und KI-Entwickler hätte, sondern weil man geflissentlich ein „Grundgesetz“, dem die meisten Methoden der Künstlichen Intelligenz unterliegen, ignoriert: Alles beruht auf Daten.

Denn die meisten Anwendungen, die vereinfachend unter dem Schlagwort der KI zusammengefasst werden, sind eigentlich Methoden des Maschinellen Lernens oder des Deep Learnings. Beides kann man sich als Unterkategorien der KI vorstellen, die darauf beruhen aus großen historischen Daten Muster und Abfolgen zu erkennen – zu „lernen“. Beispielweise beruhen alle selbstfahrenden Autos (äußerst vereinfacht dargestellt) darauf, dass die Kamerabilder in Strukturen aus Nullen und Einsen zerlegt werden, die dann mit einer gigantischen Datenbasis von gespeicherten Beispielen auf gleiche Muster verglichen werden, um so mit einer gewissen Wahrscheinlichkeit das Bild einem gewissen Straßenschild zu zuordnen.

Die Krux an der Sache ist, dass hierfür möglichst große und umfangreiche Datenmengen benötigt werden. Je mehr Straßenschilder ich als Vergleichsbasis habe, je besser wird mein System. Das ist auch der Grund warum beispielsweise Google uns mit seinem Anti-Spam-Dienst „reCAPTCHA“ Bilder zu Ampeln, Autos und Geschäften zuzuordnen. Diese von Menschen zugeordnete Bilder dienen dabei als Lernbasis für Künstliche Neuronale Netze.

Und genau das ist der Punkt, an dem die Datenschutz-Grundverordnung (DSVGO) jeder KI-Strategie in Europa einen Strich durch die Rechnung macht. Mit Umsetzung der DSGVO im Mai 2018 wird das Prinzip der „Datenminimierung“ als Maxim ausgerufen. Dem Paragraphen folgend müssen Firmen nun unter der Maßgabe arbeiten, nur so viele Daten zu speichern, zu nutzen oder zu verarbeiten, wie für den jeweiligen Zweck vonnöten. 

Um das Google Beispiel wieder aufzugreifen würde sich durchaus die Frage ergeben, warum für den Spamschutz jetzt die Lösung des Rätsels überhaupt gespeichert werden muss – nach einer strengen Auslegung der DSGVO ist dies nicht erlaubt. Es fehlen natürlich zwar wichtige Urteile, wie die Grundverordnung auszulegen ist und auch beschreibt dieses Beispiel keine personenbezogenen Daten, auf die der Paragraph der DSGVO eigentlich abzielt; dennoch sollte die Grundlogik hier klar werden.

Was macht digitale Geschäftsmodelle aus?

Wenn nun die Bundesregierung deutsche KI und digitale Geschäftsmodelle aus dem Boden stapfen will, darf man gerade nicht vergessen, was diese ausmacht. 

Das Kerngeschäftsmodell der Social-Media-Plattformen wie Facebookoder LinkedInist es die Kommunikation zwischen Menschen herzustellen und zu vereinfachen. Monetarisiert wird dies mit Werbung, die den Anforderungen der Werbetreibenden entsprechend segmentiert wird. Dies reicht von der Ausspielung von Werbung an Gruppen von Usern mit ähnlichen Merkmalen (gleiche Interessen) bis hin zu individueller Ausspielung von Werbung mit sogenannten Retargeting-Ads die einen gefühlt im ganzen Internet verfolgen. Ohne die Bekanntgabe von persönlichen Daten und die der direkten Kontakte wäre das Geschäftsmodells undenkbar.

Ein zweites Beispiel für ein digitales Geschäftsmodell sind die Streaminganbieter wie Netflixoder Spotify. Gerade Netflix ist hier hervorzuheben, da der Videostreamingdienst, im Gegensatz zum Musikstreaming, massiv auf selbstproduzierte Inhalte setzt. Das Angebot von Musikstreaming definiert sich weiterhin durch extern aufgebaute Künstlern 

und hier ist vor allem die Angebotsbreite, im Sinne von Verträgen mit den die Musiker vertretenden Musikfirmen entscheidend. Netflix setzt dementgegen im großen Stil (im Jahr 2018 bis zu 18 Milliarden US-Dollar) auf Eigenproduktionen, die auf die Zielgruppen zugeschnitten sind.  Von jedem Nutzer erhält Netflix eine gigantische Menge an detaillierten Informationen über ihren Geschmack, ihre Gewohnheiten und Interessen. Alles was in der App oder Webseite passiert speichert der Videostreamingdienst ab. Neben der Historie aller geschauten Serien umfasst dies: An-, Abmeldungen, Positionsdaten, Suchbegriffe, Navigationspfade, Abbruchstellen, Pausen, oder die Frequenz des Konsums.

Netflix verwendet diese Daten, um einen Empfehlungsalgorithmus zu optimieren, der Vorschläge für weitere Serien oder Filme bereithält. Die Interaktion mit diesem Algorithmus des Maschinellen Lernens verbessert wiederum das Unternehmen nicht nur die Vorschläge, sondern auch die Details eines jeden individuellen Nutzerprofils. Wenn Netflix also Deals für Eigenproduktionen mit Josh Duhamel (Unsolved), Ryan Murphy (Pose) oder den Obamas abschließt, dann nicht auf der Grundlage von Bauchgefühl oder Intuition. Vielmehr steht ein mächtiges Datenmodells dahinter, dass für bestimmte Kombination von Talenten, möglichen Plots und anderen beinflussbaren Faktoren eine Wahrscheinlichkeit vorhersagt wie vielen Nutzer der Inhalt zusagt und diese an den Anbieter binden können. Tatsächlich kann das Modell nicht nur die Erfolgswahrscheinlichkeit vorhersagen, sondern es gibt Netflix auch eine sehr gute Vorstellung davon, welcher Abonnenten eine bestimmte Serie sehen wird.

Im Gegensatz dazu hängt die traditionelle Filmindustrie typischerweise von aggregierten Daten aus verschiedenen Plattformen und auf wesentlich grundlegenderen soziodemografischen Daten ab, welche aber kein individuelles Nutzerprofil ansprechen kann.

Eins der am kontroversesten Diskutierten digitalen Geschäftsmodelle umfasst die der Gesundheitsplattformen. Auch wenn viele Kritiker dieser KI-unterstützen Medizin jetzt sofort auf das offenkundige Versagen von IBM Watsons Künstlicher Intelligenz in den ersten praktischen Einsätzen in Krankenhäusern, wie der Krebsvorhersage mit dem Deutschen Krebsforschungszentrum, hinweisen werden, so weist der Autor hier darauf hin, dass genau dies das Maschinelle Lerne ausmacht: aus großen Datenmengen lernen. Dazu gehört auch, dass die ersten Ergebnisse aus kleineren Datenmengen immer schlechter sind.

Dies haben auch Branchengrößen in den USA erkannt. So gaben die CVS Health Corp.] , ein amerikanisches Pharma- und Gesundheitsunternehmen, und Aetna ihre Fusion bekannt, um 2017 ein vertikal integriertes Unternehmen von digitalen Dienstleistungen im Gesundheitswesen anzubieten. Das Analytikunternehmen Aetna bringt dabei eine komplette Analyseplattform und einen riesigen Datenpool, der eine personalisierte Medizin und einen prädiktiven Gesundheitsdienst ermöglicht, mit in das neue Unternehmen ein. Die schweizerisch-niederländische Onlineapotheke DocMorris geht mit seiner mobile Applikation „Mobile Pharmacy App“ einen ähnlichen Weg. 

Zuletzt das Beispiel von Fahrgastvermittlernwie Uber, die das größte Taxiunternehmen der Welt sind, ohne dabei ein einziges Taxi zu besitzen. Wobei Uber genauso eine Analytics-Firma, wie ein Plattformbetreiber ist. Denn im Gegensatz zum klassischen Plattform Ansatz, wie beispielsweise ebay, greift Uber aktiv in den Marktplatz ein. Zumindest für die Anbieterseite, also die Fahrer, die auf der Plattform unterwegs sind, ist Uber ein aktiver Gestalter. Uber betreibt eine riesige Datenbank von Fahrern, Nutzern, Fahrten und externen Daten, wie beispielsweise Verkehrs- oder Wetterdaten. Sobald ein Auto angefordert wird findet der Algorithmus einen passenden Fahrer in der Nähe und kalkuliert einen individuellen Preis für diese Fahrt. Im Hintergrund werden diese Daten aber auch genutzt um Angebot und Nachfrage vorherzusagen und die Tarife festzulegen. Diese Vorhersagen gehen sogar so weit, dass einzelnen Fahrern, die gerade ihre Schicht beenden wollen besondere Incentives angeboten werden, wenn ein passender Bedarf vom Algorithmus vorausgesagt wird. Das könnten Sie mit der Gewohnheit, jeden Mittwoch bei gutem Wetter vom Park aus nach Hause zu fahren sein.

Nehmen wir jetzt einmal an, dass die DSGVO grundlegend hier keinerlei Restriktionen für deutsche und europäische Unternehmen hätte und die Nutzer aller von den Firmen gewünschten Datennutzung einfach nur zustimmen müssen. Dann stehen trotzdem zwei fundamentale Theorien dem Ziel im Weg:  die Theorie der Netzwerkeffekte und die Theorie der Pfadabhängigkeit.

ENDE TEIL 1 – Teil 2 ist in Arbeit und erscheint bald.


[1]https://www.bmwi.de/Redaktion/DE/Artikel/Technologie/kuenstliche-intelligenz.html