22.08.2019 | Rezension

Menschsein im Zeitalter künstlicher Intelligenz

Teletax

"[...] als ein lebendes Wesen bleibt der Mensch dem Reich des Lebendigen verhaftet, von dem er sich doch dauernd auf eine künstliche, von ihm selbst errichtete Welt hin entfernt." (Hannah Arendt)

Von Manuel Maurer, STB Web

Rezension zu Hannah Fry: "Hello World: Was Algorithmen können und wie sie unser Leben verändern"

Die britische Mathematikerin Hannah Fry beschäftigt sich in ihrem Buch mit der Bandbreite an Algorithmen, die in nahezu alle Lebensbereiche vordringen: Sie folgen und leiten uns nicht nur, wenn wir uns durchs Internet bewegen, sondern halten in wachsendem Ausmaß Einzug in Medizin, Justiz und Demokratie, in Supermärkte und in Autos – ja, sogar in die Kunst.

Doch was kann sogenannte künstliche Intelligenz (KI) tatsächlich und welche Fragen und Probleme werfen deren Entwicklung und Anwendung auf? Welches Ausmaß an Einflussnahme und Entscheidungsbefugnissen von Algorithmen ist überhaupt wünschenswert - aus ethischen Gesichtspunkten ebenso wie hinsichtlich ihrer "geheimen Macht" – denn, so die Autorin, "sie verändern langsam und unmerklich, was es heißt, ein Mensch zu sein."

"Kein Buch über die 'Bedrohung durch eine KI-Apokalypse'"

Hannah Fry stellt allerdings gleich zu Anfang klar, dass dies kein Buch über die "Bedrohung durch eine KI-Apokalypse" sei. Algorithmen seien nicht von Natur aus schlecht – und intelligent schon mal gar nicht, "nur in der engsten Bedeutung des Wortes". Im Moment könne "man sich genauso gut Sorgen wegen einer Überbevölkerung auf dem Mars machen wie wegen einer bösen KI." Dass beide Szenarien dem selben menschlichen Größenwahn entspringen, legt allein schon der Vergleich nahe. Und dass diese Entwicklungen meine menschlichen Handlungs- und Wahrnehmungsfähigkeiten – und die meiner Mitmenschen – wahrscheinlich zunehmend beeinträchtigen, ist mir offen gestanden schon Apokalypse genug.

Die Beziehung zwischen Mensch und Maschine verstehen

Foto: Hannah Fry, © Peter Bartlett

Doch – und dies ist eine der Kernthesen von Hannah Fry ­­– sind deshalb wir Menschen gefordert, mitzugestalten, indem wir die Macht und Autorität von Maschinen hinterfragen, Nützliches von Schädlichem zu unterscheiden lernen und immer wieder die eigenen Emotionen angesichts der technischen Entwicklung reflektieren. Wenn man sich eine Meinung über Algorithmen bilden wolle, müsse man die Beziehung zwischen Mensch und Maschine verstehen, so Fry, die ihr Buch selbst daher eher als "ein Buch über Menschen" einordnet.

Nichtsdestotrotz sollten Menschen auch verstehen, was Algorithmen und KI überhaupt sind und so lässt es sich die Mathematik-Professorin nicht nehmen, diese im Wesentlichen zu kategorisieren und deren Funktionsweise für Laien verständlich zu erläutern. Dem folgt eine kritische Betrachtung der Macht, die wir Algorithmen schon heute einräumen und des teils blinden Vertrauens, mit dem Anweisungen und Entscheidungen von Algorithmen geradezu hörig befolgt werden. Dies illustriert die Autorin am scheinbar banalen Beispiel eines Mannes namens Robert Jones, der eine Abkürzung nehmen wollte und sich von seinem GPS-Navi entgegen aller wahrnehmbaren Anzeichen in der Umgebung immer weiter in die Wildnis und einen Berg hinauf schicken ließ und fast einen tödlichen Abgrund hinunter gestürzt wäre. Doch, so Fry, wir alle begehen solche Fehler, wenn auch subtiler, beispielsweise in der Art, wie wir Suchergebnissen vertrauen und dabei überzeugt sind, uns eine eigene Meinung gebildet zu haben.

Wir sind umgeben von Algorithmen, die uns eine bequeme Autoritätsquelle bieten. Eine einfache Möglichkeit, um Verantwortung zu delegieren; ein Abkürzung, die wir nehmen, ohne nachzudenken.

Menschliche Fehlbarkeit und die von Algorithmen

Dem stellt sie das gegenüber, was Forschende als Algorithmusaversion bezeichnen. Gemeint ist damit, dass oft überreagiert wird, wenn Algorithmen mal einen Fehler machen und diese dann rundheraus abgelehnt werden: "Menschen tolerieren Fehler bei einem Algorithmus weniger als bei sich selbst – sogar dann, wenn ihre eigenen Fehler größer sind." Das scheint mir allerdings auch durchaus berechtigt, denn der Mensch ist von je her fehlbar, und in vielen Fällen verspricht man sich gerade von der Technologie eine Kompensation etwaiger Defizite. Wozu sollte man sie sonst einsetzen?

Hannah Fry: Hello World - Was Algorithmen können und wie sie unser Leben verändern, Verlag: C. H. Beck

Und so leitet die Autorin die Leser*innen mit einem beständigen Für und Wider durch wesentliche Bereiche, die zunehmend durch Algorithmen und KI geprägt werden: Daten, Justiz, Medizin, Autos, Kriminalität und Kunst. Sie zeigt anhand zahlreicher anekdotisch erzählter Tatsachenberichte, was Algorithmen können (und was nicht) und was durch sie schon für Schäden angerichtet wurden. Die Beispiele sind manchmal amüsant, häufig jedoch bestürzend bis bedrückend. Etwa die Geschichte des Piloten, der verlernt hatte, wie ein Flugzeug zu steuern ist und beim Ausfall des Autopiloten komplett versagte. Beim Absturz des Airbus A330 in den Atlantik im Jahr 2009 sind 228 Menschen ums Leben gekommen.

Weitere Beispiele handeln von in der US-Verwaltung eingesetzten Algorithmen, die behinderten Menschen nahezu willkürlich Leistungen kürzten; von Algorithmen, die unschuldige Menschen als Verbrecher oder Terroristinnen identifizierten und wie deren Leben buchstäblich zerstört wurde von den Folgen dieser Fehleinschätzungen; von Algorithmen, die Rassismus und Vorurteile reproduzieren, was zu verzerrten, diskriminierenden Ergebnissen bei der Prognose der Wahrscheinlichkeit zukünftiger Straffälligkeit in amerikanischen Kautionsverfahren führte.

Wohl und Wehe: Algorithmen in der Medizin

Dargestellt werden auch nach Einschätzung der Autorin Beispiele nützlicher Algorithmen, etwa in der Medizin, wenn es um das Erkennen auffälliger Muster in pathologischen Proben geht, die jedoch abschließend vom Menschen beurteilt werden. Hier können Algorithmen und menschliche Patholog*innen offenbar konstruktiv zusammen arbeiten, ohne Patient*innen zu schädigen. Im Bereich der digitalen Diagnosen zeigt sich die Autorin allerdings zu euphorisch darüber, nach welchen Krankheiten Algorithmen bereits suchen und diese wahrscheinlich genauer diagnostizieren könnten als menschliche Ärzt*innen; denn die Begeisterung über diesen maschinellen Elan muss man keineswegs teilen, angesichts des ohnehin schon ausufernden, systematischen Früherkennungs-Betriebs und der damit einhergehenden "Schnüffelei in Gesundheitsrisiken", wie Ivan Illich es in seiner "Kritik der Medikalisierung des Lebens" treffend formulierte.

Die Autorin zeigt allerdings auch gerade im Bereich der Medizin die sehr heikle Datenschutzproblematik auf oder zu welch unterschiedlichen Ergebnissen in Form von beispielsweise Behandlungsvorschlägen Algorithmen gelangen können, je nachdem, ob sie mehr dem Allgemeinwohl oder dem des Einzelnen dienen sollen, und je nachdem welche Institution hinter der Entwicklung eines Programms steht: denn der Computer einer Versicherung verfolgt vermutlich andere Ziele, als der eines Pharmaunternehmens.

Vom "Traum vom autonomen Fahren"...

Besonders gespannt erwartete ich das Kapitel "Autos" - nicht etwa, weil ich diesen "Traum vom autonomen Fahren" herbeisehne, wie es die Autorin uns allen salopp unterstellt, sondern vielmehr weil für mich "autonomes Fahren" Radfahren bedeutet und es mir völlig unbegreiflich ist, wie Autofahrer*innen sich schon heute von ihren computerisierten Fahrzeugen bevormunden lassen. Ich möchte noch nicht so ganz glauben, dass sie so weit gehen werden, sich ohne Gegenwehr zum Transportgut künstlicher Intelligenz degradieren zu lassen.

Denn die Technologie des autonomen Fahrens wird in verschiedene Stufen eingeteilt. Umgangssprachlich gelte folgende Abstufung, so Fry: "Stufe 1 - ohne Füße; Stufe 2 - ohne Hände; Stufe 3 - ohne Augen; Stufe 4 - ohne Hirn". Menschsein.

Tatsächlich und glücklicherweise ist man offenbar von diesem Endstadium noch weit entfernt, die technischen Probleme sind ebenso wenig gelöst wie die ethischen Fragen; Störfaktoren wie Fußgänger und Radfahrende, die die Autonomie der Fahrzeuge einschränken könnten, sind noch nicht von den Straßen eliminiert. Und so verwundert es auch nicht, dass von der großen Vision am Ende dieses Kapitels nicht mehr viel übrig bleibt. Fry zitiert dazu aus der amerikanischen Automobilzeitschrift "Car and Driver": "Das wird noch Jahrzehnte dauern. Aber sie [die Autokonzerne] wollen an den Wertpapierbörsen ernst genommen werden und die Fantasie einer Öffentlichkeit, die sich immer weniger fürs Autofahren interessiert, anregen. Und bis es so weit ist, wollen sie viele Fahrzeuge mit der modernsten Fahrerassistenztechnologie verkaufen."

Bedauerlicherweise lese ich nichts darüber, wie KI die Entwicklung autofreier Infrastrukturen unterstützen könnte.

Zurück zum menschlichen Maß

Als ich schließlich in das Kapitel Kunst starte, bin ich kurz davor, die Lektüre abzubrechen. Die theoretische Parallelwelt eines Justin Timberlake oder die mittels Algorithmen unterstützte Jagd nach erfolgreichen Kino-Hits interessiert mich nun wirklich nicht. Doch das Kapitel nimmt noch eine unerwartete Wende, die wieder zum Menschsein führt. Der Frage nachgehend, was die Essenz künstlerischer Qualität ausmacht und ob ein Algorithmus kreativ sein kann, möchte Hannah Fry schließlich lieber Leo Tolstoi den Vortritt lassen: "Kunst ist kein Handwerk, sondern die Mitteilung von Gefühlen, die der Künstler erfahren hat." Und so kommt sie zu dem Schluss, dass Daten und Statistiken zwar alle möglichen "atemberaubend beeindruckenden und verblüffenden Dinge verraten" können, "aber nicht, wie es sich anfühlt, ein Mensch zu sein."

"Algorithmen machen Fehler"

Insofern gelingt es der Autorin doch immer wieder, auf ein menschliches Maß zurückzukommen. Das Buch ist auch deshalb empfehlenswert, weil es dem derzeitigen KI-Brei, mit dem Wirtschaft und Wissenschaft uns Hand in Hand überziehen, mit Struktur und Kompetenz und eben dieser beständigen Schärfung des Blicks für die Beziehung zwischen Mensch und Maschine Form gibt. Ihren grundsätzlichen Optimismus kann ich jedoch nicht teilen. Hannah Fry idealisiert letztlich die Vision einer Art partnerschaftlichen und transparenten Zusammenarbeit von Menschen und Algorithmen, die sich gegenseitig unterstützen, und einer KI-Entwicklung, die "den Menschen in jeder Phase berücksichtigt". Gleichzeitig wirbt sie um Verständnis für die Fehler, die Algorithmen machen – als wolle sie sagen: Es sind doch auch nur Menschen! Sie argumentiert, man sollte sie besser und unvoreingenommener machen, wo immer es geht, und doch anerkennen, dass sie fehlbar sind; man soll ihre Autorität und ihre Entscheidungen hinterfragen und Auskunft verlangen, wer die Nutznießer sind.

Ich halte dies für den Schlüssel zu einer Zukunft, in der Algorithmen unterm Strich eine positive Wirkung für die Gesellschaft haben. Und diese Aufgabe fällt völlig zu Recht uns zu.

Alternativlose Übereffizienz?

Dabei unangesprochen bleibt, dass die KI-Entwicklung institutionellem und industriellem Effizienz-, Wachstums- und Produktivitätsstreben unterworfen ist. Und aus dieser Konstellation heraus erwächst eine ganz andere Autorität, die es zu hinterfragen gilt, nämlich die, mit der Algorithmen uns aufgezwungen werden – stets mit dem Etikett, KI würde unser Leben verbessern und uns in eine bessere Zukunft führen. Dabei ist es häufig auch einfach so, dass in Anbetracht internationalen Wettbewerbs und der hohen KI-Entwicklungskosten Märkte geschaffen werden müssen – und ganz nebenbei sehr große Mengen an Daten von uns benötigt werden, damit KI sich überhaupt entfalten kann.

Es ist natürlich bei alledem viel von Ethik und Werten sowie Datenschutz die Rede. Doch wenn KI-Entwicklung wirklich die Menschen in den Mittelpunkt stellen möchte, dann sollten den Menschen Alternativen bleiben, wenn sie an dieser Dynamik nicht oder nicht immer teilnehmen möchten – anstatt flächendeckend damit überzogen zu werden; Menschen sollten KI nutzen können, wenn sie darin individuell Vorteile und sinnvolle Unterstützung sehen, sich aber ebenso für ihr fehlbares Menschsein und ihre menschlichen Fähigkeiten, Dinge zu verrichten und sich fortzubewegen, entscheiden können; sie sollten jederzeit die Möglichkeit haben, auch wieder mehr Autonomie von technologischen Entwicklungen anzustreben, anstatt dauerhaft von ihnen abhängig zu sein – und ohne dadurch ins gesellschaftliche Abseits und berufliche Hintertreffen zu geraten. Das wäre meine Vision von einer positiven Zukunft.

Hinweis: Beachten Sie bitte das Datum dieses Artikels. Er stammt vom 22.08.2019, sodass die Inhalte ggf. nicht mehr dem aktuellsten (Rechts-) Stand entsprechen.