Ist künstliche Intelligenz gefährlich?

„Lassen Sie uns über Algorithmen sprechen“, sagt am Ende einer Medien- und Computerkunde-Stunde die Schülerin der 11. Klasse. Vor meinem geistigen Auge tauchen unendliche Zeilen Programmcode auf, wie ich sie in den vierzig Jahren vor meiner Tätigkeit an der Schule Tag für Tag geschrieben hatte. Gleichzeitig denke ich an die wenigen verbleibenden Wochen für diesen Kurs. „Algorithmen? Was willst Du über Algorithmen lernen? Willst Du einen Schnellkurs in Programmieren?“ Die Antwort ist eindeutig: „YouTube, Instagram … so was.“

Puh. Ich bin erleichtert. Es geht „lediglich“ um künstliche Intelligenz (KI). „Das kriegen wir hin“, sage ich und überlege in den folgenden Tagen, wie man diese absolut einfache Funktion, in der primär numerische Matrizen mit Vektoren multipliziert werden, vermitteln kann.

Das Thema ist mir wichtig, und ich bin froh, dass der Vorschlag von einer Schülerin kommt. So einfach die Funktionsweise von KI mit seinen neuronalen Netzen auch ist, so sehr wundere ich mich darüber, wie wenig ausgerechnet wir Erwachsenen davon verstehen. Schließlich vertrauen wir den Algorithmen einen Großteil unseres täglichen Lebens an, indem wir beispielsweise das Smartphone mit uns herumtragen, damit fotografieren und Nachrichten an Kollegen, Eltern, Freunde und Bekannte schicken.

Sobald wir Inhalte von und mit werbefinanzierten Medien konsumieren, nehmen wir an einem Spiel teil, bei dem wir nur verlieren können. Auf dem Spiel steht unsere Vernunft.

„Alexa spiel Musik zum Aufstehen.“ Und Alexa legt los. Genauso wie Siri und die übrigen Sprachassistenten von Microsoft und Google. Aber sie spielen nicht irgendeine Musik zum Aufstehen, sondern die Musik, die uns sehr wahrscheinlich in dieser Situation am besten gefällt. Und ist die Musik kostenlos, so bezahlen wir mit unserer Aufmerksamkeit, die wir Werbeeinblendungen schenken.

Gleich nach dem Duschen checken wir die sozialen Netzwerke. Tweets und Posts. Lachen und Empörung. Die Emotionen kommen auf Trab. Dazwischen Werbung.

Noch ein kurzer Blick auf YouTube. Bayern hat gegen Mönchengladbach verloren. Und Mai Thi Nguyen-Kim hat eine neue Wissenschaftsshow im ZDF. Genau die Themen, die mich interessieren und mich verweilen lassen. Bevor die Zusammenfassung vom gestrigen Fußballspiel kommt, erst einmal Werbung für eine Kaffeesorte. Es ist früh am Morgen. Da passt Kaffee.

Im Auto zeigt mir das Display die jeweilige Geschwindigkeitsbeschränkung an und warnt, wenn ich zu schnell fahre. Ich könnte die Geschwindigkeit auch automatisch anhand der jeweiligen Beschränkung wählen, aber ich liebe das Gefühl, auf das Pedal zu treten. Es ist nur eine Frage der Zeit, wann diese Technik der Verkehrszeichenerkennung kostenlos angeboten wird und Geschwindigkeitshinweise mit Werbung angereichert werden.

Im Büro spreche ich den Text für einen Beitrag über das geplante Frühlingsfest in mein Handy, das die Sprache zeitgleich transkribiert. In meinen über 40.000 Fotos suche ich nach „Feier“, „Fest“ und schließlich nach „Blumen“. Ich könnte auch nach Willi Müller oder Maria Meyer suchen. Die Mediathek auf meinem Tablet hat jedes Bild mit Datum, Ort und diversen Kategorien markiert.

Nachmittag. Ich habe einen Arzttermin. Die geschätzte Fahrzeit beträgt 40 Minuten. Also, Sachen packen und los. Der Arzt hat meine Vitalwerte in sein Diagnosesystem eingegeben. Dieses vermutet bei mir Schlafmangel. Schlafe ich gut? Nein … im Moment nicht. Wirklich nicht.

Draußen im Wartezimmer starren alle auf ihre stumm geschalteten Smartphones. Die Gesichter verraten dennoch die Emotionen. Erregung und Heiterkeit. Gesichter, wie ich sie aus Spielcasinos kenne.

In dem Moment, in dem wir Google, Bing, Ecosia, WhatsApp, Instagram, Facebook, YouTube und wie sie alle heißen mögen, nutzen, geben wir zahlreiche Informationen über uns preis und verfeinern unseren digitalen Klon, den unsere Gegner im Spiel unbemerkt pflegen. Der Trick ist, dass unsere Spielgegner eigentlich nicht mit uns, sondern mit eben diesem digitalen Klon von uns spielen, der ihnen in Bruchteilen von Sekunden verrät, wie wir wahrscheinlich auf jedes Einzelne einer Reihe von Ereignissen reagieren: auf die E-Mail, die uns nachts erreicht, auf die Nachricht in einem Messenger, auf den Banner einer Webseite, auf eine bestimmte Nachricht in einem Tweet oder Post, auf einen Film, eine Musik und, und, und.

Dabei besteht unser Klon lediglich aus einer mehrdimensionalen Zahlenmatrix mit unendlich vielen Spalten und Zeilen. Mit etwas Abstand und mathematischem Sachverstand betrachtet hat der Klon sehr viel Ähnlichkeit mit uns, obwohl er nur aus einer riesigen, mehrdimensionalen numerischen Matrix besteht. An deren Eingang werden komplexe Daten in numerische Einzelteile zerlegt, die scheinbar völlig unabhängig voneinander durch ein unüberschaubares Geflecht aus mathematischen Funktionen laufen und von jedem einzelnen Element manipuliert werden. Heraus kommen Wahrscheinlichkeitswerte. Wie hoch ist die Wahrscheinlichkeit, dass ich diese Musik mag oder jenen Film, diese Partei oder jenes Produkt?

Etwaige Abweichungen zwischen Prognose und meiner Entscheidung modifizieren direkt das mathematische Modell. Die nächste Prognose meines Klons wird ein wenig besser.

Da die Elemente dieser Modelle so simple sind, können sie leicht gehandelt werden. Es existiert ein lukrativer Markt für virtuelle Modelle von uns, auf denen große Konzerne die Angebote von vielen kleinen Datenhändlern aufkaufen. Wichtig ist nur, dass die Modelle eindeutige Hinweise auf unsere Identität enthalten, um sie mit vorhandenen Daten zusammenführen zu können.

So faszinierend diese simple Technik auch ist – wirklich hilfreich ist sie nur bei der schnellen Analyse und Kategorisierung von Bekanntem, beispielsweise in der medizinischen Diagnose, in der Wettervorhersage und der Vorhersage möglicher Gefahren. Unterhaltsam ist sie vielleicht bei Spielen wie Schach und Go, wenn uns mal der Gegner fehlt.

Aber … wenn das System mit unserem Klon und nicht mit uns spricht, dann kommunizieren wir zwangsläufig mit dem von uns genährten Spiegelbild.

Künstliche Intelligenz kann Prozesse optimieren, aber für Innovation fehlt ihr jeglicher Verstand. Gefährlich wird KI dann, wenn wir unsere Vernunft abschalten und womöglich werbefinanzierten oder parteifinanzierten Systemen unsere Entscheidungen überlassen.

So wird künstliche Intelligenz auch die nächste Katastrophe schneller und zuverlässiger vorhersagen, uns aber nicht die Frage beantworten, wie wir künftig zusammenleben wollen.

Wenn man weiß, wie Dinge wirklich funktionieren, verlieren sie ihren bedrohlichen Mythos. Man kann sie bewusst nutzen oder sie geflissentlich ignorieren. Wundern sollte man sich allenfalls über die Dummheit jener, die nicht wissen, was sie da in den Händen halten und ekstatisch bewundern. Derweil freue ich mich auf den nächsten Unterricht.

Jürgen Beckmerhagen.

Bild: Jürgen Beckmerhagen