136 40 3MB
German Pages 232 Year 2023
Alice Schmidt Claudia Winkler Florian Schütz Jeroen Dobbelaere FAST FORWARD
Schmidt - Fast Forward 150x210 KORR3.indd 1
18.01.24 18:18
Schmidt - Fast Forward 150x210 KORR3.indd 2
18.01.24 18:18
Alice Schmidt • Claudia Winkler • Florian Schütz • Jeroen Dobbelaere
FAST FORWARD DIE KI-REVOLUTION: CHANCEN UND RISIKEN
Schmidt - Fast Forward 150x210 KORR3.indd 3
18.01.24 18:18
Englische Originalausgabe, 2023 FAST FORWARD How to harness the power of AI für societal progress and a sustainable future ISBN 9798399366159
Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar. Copyright © 2024 maudrich Verlag Facultas Verlags- und Buchhandels AG, Wien, Austria Alle Rechte, insbesondere das Recht der Vervielfältigung und der Verbreitung sowie der Übersetzung, sind vorbehalten. Das Buchcover wurde mit Hilfe modernster KI-Technologien erstellt. Die generative KI-Software Midjourney wurde eingesetzt, um die visuellen Komponenten für das Buchcover zu erzeugen. removebg wurde verwendet, um die generierten Bildelemente von ihren Hintergründen zu trennen. PixelBin, das Bilder optimiert und skaliert, indem es Details schärft und Artefakte minimiert, wurde verwendet, um die generierten Bildelemente zu vergrößern. Lektorat: Mag. Katharina Schindl, Wien Umschlaggestaltung, Typografie und Satz: Florian Spielauer, Wien Druck: Finidr, Tschechien ISBN 978-3-99002-170-5 (Print) ISBN 978-3-99111-855-8 (E-Pub) ISBN 978-3-99111-901-2 (Online Leserecht)
Schmidt - Fast Forward 150x210 KORR3.indd 4
18.01.24 18:18
Unseren Kindern Arthur, Carla, Juno und Luis wünschen wir, dass sie in eine Welt hineinwachsen, in der KI regeneratives und inklusives Wirtschaften fördert und dazu beiträgt, Gesundheit, Wohlstand und Wohlbefinden für alle im Einklang mit den planetaren Grenzen zu erreichen.
Schmidt - Fast Forward 150x210 KORR3.indd 5
18.01.24 18:18
Schmidt - Fast Forward 150x210 KORR3.indd 6
18.01.24 18:18
VORWORT Spätestens als Ende 2022 der Hype um ChatGPT losbrach und KI plötzlich in aller Munde war, wurde uns klar, dass wir die Entwicklung dieser Technologie nicht ausschließlich Tech-Expert:innen überlassen dürfen. Wir erkannten, dass sich Expert:innen aus allen wesentlichen Bereichen mit dem Thema auseinandersetzen müssen. Daher haben wir, die neben KI so unterschiedliche Bereiche wie soziale Innovation, nachhaltige Entwicklung, Bildung, Naturwissenschaft, Klimaaktivismus und Kunst abdecken, begonnen, uns intensiv mit den Chancen und Risiken von KI auf den gesellschaftlichen Wandel und die nachhaltige Transformation zu beschäftigen. Daraus ist dieses Buch entstanden, von dem wir hoffen, dass es dazu beiträgt, besseres interdisziplinäres Verständnis für das Thema zu schaffen und einen positiven Wandel herbeizuführen. In Kapitel 1 dieses Buches befassen wir uns mit der Beziehung zwischen KI und Nachhaltigkeit und untersuchen, warum diese beiden Themen nicht isoliert betrachtet werden dürfen. In Kapitel 2 erörtern wir die Grundlagen von KI, einschließlich einiger wichtiger Risiken und Herausforderungen. Ab Kapitel 3 gehen wir ins Detail und diskutieren die Beziehung zwischen KI und sozialen Fragen. Hier erklären wir zum Beispiel, wie sich der Verlust eines Beins sogar als Vorteil erweisen könnte. Kapitel 4 befasst sich mit der Arbeitswelt und fordert uns auf, neue Denkansätze für die Arbeit zu entwickeln. Kapitel 5 befasst sich mit dem Einsatz von KI in den Bereichen Bildung und Wissenschaft. Hier wird zum Beispiel erläutert, wie Lehrende in einigen chinesischen Schulen bereits die Gehirnsignale ihrer Schüler:innen überwachen. Der ökologische Fußabdruck von KI wird in Kapitel 6 erörtert, ebenso wie die vielen Möglichkeiten, KI für den Schutz und die Wiederherstellung von Ökosystemen einzusetzen. Wir erklären zum Beispiel, wie KI dazu beitragen kann, das „Messproblem“ der Natur zu lösen. In den Kapiteln 7 und 8 begeben wir uns auf eine andere Ebene und erklären die KI-Ethik und die Grundsätze einer verantwortungsvollen KI, bevor wir uns den Schattenseiten von KI zuwenden, z. B. ihrer Verwendung für Fehlinformationen, Wahlmanipulation,
Schmidt - Fast Forward 150x210 KORR3.indd 7
18.01.24 18:18
staatliche Überwachung, Cyberkriminalität, Kriegsführung und anderen Machtmissbrauch. Wir beschäftigen uns damit, wie KI schwule Männer erkennen kann, und erzählen die Geschichte eines Vorfalls, bei dem Menschen aufgefordert wurden, den Holocaust mit einem Cheeseburger zu „feiern“. In Kapitel 9 stellen wir einige unserer Schlussfolgerungen vor, zeigen einen Weg in die Zukunft auf und geben Empfehlungen für Leser:innen, die sich weiter mit dem Thema beschäftigen möchten. Ein AI-Glossar befindet sich am Ende des Buches. Wir stehen heute vielleicht vor einem Wendepunkt, der so wichtig ist wie die Industrielle Revolution, eine Zeit, in der die Welt durch den Aufstieg der Maschinen für immer verändert wurde. Für die Menschen damals und die nachfolgenden Generationen war dies eine Zeit großer Unsicherheit und tiefgreifender Veränderungen. Das Gleiche gilt auch heute. Es geht also nicht um die Frage, ob wir uns mit KI beschäftigen sollten oder nicht, sondern vielmehr darum, wie schnell wir den Wandel akzeptieren und entsprechende Maßnahmen ergreifen. Wenn wir jetzt nicht klug handeln und die Entwicklung und Umsetzung dieser Technologie nicht aktiv gestalten, riskieren wir eine Zukunft, in der sie missbraucht wird, was zu Folgen wie der Verdrängung von Arbeitsplätzen, der Verletzung der Privatsphäre, der Beschleunigung des Klimawandels und dem Verlust der biologischen Vielfalt sowie zu noch größerer sozialer Ungleichheit führen kann. Der Weg in eine wirtschaftlich, ökologisch und sozial nachhaltige Zukunft ist voller Magie, aber auch voller Stolpersteine und Herausforderungen. Es ist eine Reise, die wir ohne Verzögerung antreten müssen. Wir wollten ein Buch schaffen, das nicht nur informativ, sondern auch verständlich und für jeden zugänglich ist. Deshalb basiert dieses Buch nicht nur auf Fakten und Forschung, sondern auch auf unseren persönlichen Erfahrungen und Emotionen. Wir sind daher stolz darauf, Ihnen heute „Fast Forward. Die KI-Revolution: Chancen und Risiken“ vorstellen zu können. Ganz gleich, ob Sie eine Führungskraft in der Wirtschaft oder eine politische Entscheidungsträgerin sind, oder einfach jemand, der neugierig auf die Zukunft ist – dieses Buch ist für Sie. Vielleicht sind Sie ein Technikexperte, der bisher wenig Zeit hatte, über Nachhaltigkeit nachzudenken,
Schmidt - Fast Forward 150x210 KORR3.indd 8
18.01.24 18:18
oder eine Expertin für soziale Entwicklung und Nachhaltigkeit, die sich in der Welt der Technik eher fremd fühlt. Vielleicht sind Sie aber auch ein Elternteil oder ein besorgter Bürger, der einfach das Gefühl hat, dass er sich auf den neuesten Stand bringen muss. Unser Ziel ist es, Sie mit Wissen und Inspiration auszustatten, um die Zukunft von KI aktiv zu gestalten und Gesundheit, Wohlstand und Wohlbefinden für alle zu verbessern. Wir laden Sie ein, uns auf dieser Reise zu begleiten und zu entdecken, wie wir die Macht von KI nutzen können, um eine bessere Zukunft zu schaffen! Wien, im Dezember 2023
Alice Schmidt Claudia Winkler Florian Schütz Jeroen Dobbelaere
Schmidt - Fast Forward 150x210 KORR3.indd 9
18.01.24 18:18
Schmidt - Fast Forward 150x210 KORR3.indd 10
18.01.24 18:18
INHALT Vorwort Kapitel 1: KI – Freund oder Feind?
7 15
Sind Sie bereit für The Line?...................................................................................................................................15 Von der Nische zum Mainstream......................................................................................................................... 18 Im Panikmodus................................................................................................................................................................. 21 Technologie als Teil des Nachhaltigkeitspuzzles....................................................................................23 Auswirkungen von KI auf Arbeit, Soziales, Bildung und Umwelt................................................25 So geht’s weiter............................................................................................................................................................... 27
Kapitel 2: Hintergrund, Grundlagen und Blade Runner
30
Das Geheimnis lüften – die Grundlagen von KI verstehen..............................................................30 KI in Aktion..........................................................................................................................................................................33 Wie Tech-Titanen KI bereits nutzen..................................................................................................................34 KI-Entwicklungen weltweit...................................................................................................................................... 37 Der Turing-Test, ChatGPT, AGI und die Singularität..............................................................................38 Die Diskrepanz zwischen Wahrnehmung und Dringlichkeit..........................................................40 Blade Runner – das pessimistische Szenario............................................................................................43 Das optimistische Szenario.....................................................................................................................................44 So geht’s weiter...............................................................................................................................................................46
Kapitel 3: Ein Wundermittel für soziale Gerechtigkeit?
47
Die Anfänge der Chatbots........................................................................................................................................48 KI im Gesundheitsbereich........................................................................................................................................49 Wenn KI Kinder in Pflegefamilien unterbringt........................................................................................... 51 Das Leben von Menschen mit Behinderung verbessern..................................................................53 Wird Behinderung abgeschafft?.........................................................................................................................55 KI im globalen Süden.................................................................................................................................................. 57 Digital Divide.....................................................................................................................................................................59
Schmidt - Fast Forward 150x210 KORR3.indd 11
18.01.24 18:18
Ich würde erröten, wenn ich könnte.................................................................................................................60 Unerwünschte Nebenwirkungen in der Wertschöpfungskette....................................................62 Das schmutzige Geheimnis von KI....................................................................................................................63 So geht’s weiter...............................................................................................................................................................66
Kapitel 4: Die Zukunft der Arbeit
68
Werden Maschinen unsere Arbeitsplätze übernehmen?..................................................................69 Nicht Mensch ODER Computer, sondern Mensch UND Computer ......................................... 71 Wie verändert sich die Art und Weise, wie wir arbeiten? ............................................................... 73 Der Automatisierungscluster................................................................................................................................. 75 Der Augmentationscluster....................................................................................................................................... 78 Ein kleiner Ausflug in die Kreativität.................................................................................................................. 81 Der Kreationscluster....................................................................................................................................................84 Was geschieht mit der Gesellschaft im weiteren Sinne?.................................................................. 87 So geht’s weiter...............................................................................................................................................................90
Kapitel 5: Too cool for school – KI in Bildung und Wissenschaft
92
Wenn ChatGPT Hausübungen schreibt.........................................................................................................92 Unterricht mit VR-Brille..............................................................................................................................................94 Entspannung für Lehrende?................................................................................................................................... 97 Sind Sprachkenntnisse bald obsolet?...........................................................................................................100 Orwell in der Schule.................................................................................................................................................... 101 Nach den Sternen greifen......................................................................................................................................104 Science oder Science-Fiction? ..........................................................................................................................107 Fächerübergreifende KI............................................................................................................................................ 110 Chancen und Fallen von KI in der Wissenschaft.................................................................................... 113 So geht’s weiter.............................................................................................................................................................. 116
Kapitel 6: Do look up – die komplizierte Beziehung von KI zur Umwelt 118 Das Effizienzparadoxon............................................................................................................................................. 118 KI und ihr ökologischer Fußabdruck ............................................................................................................ 119 Auf Life-Cycle-Analyse setzen............................................................................................................................ 122 KI und Klimawandel................................................................................................................................................... 125
Schmidt - Fast Forward 150x210 KORR3.indd 12
18.01.24 18:18
Wie KI Ökosysteme schützen kann................................................................................................................. 126 Einen Schritt voraus: KI und Renaturierung ........................................................................................... 129 Energie durch KI .......................................................................................................................................................... 132 Beschleunigung der Kreislaufwirtschaft.....................................................................................................134 KI für politisches Erwachen? ..............................................................................................................................137 So geht’s weiter............................................................................................................................................................. 139
Kapitel 7: Ethik und Verantwortung
140
Deus ex machina.......................................................................................................................................................... 142 Wahrheit, Objektivität und Perspektive........................................................................................................144 Prüfen, und zwar doppelt und dreifach........................................................................................................ 146 Bias und falsche Anreize..........................................................................................................................................147 Wenn KI Fake News generiert............................................................................................................................150 Open Source, Transparenz und Datenschutz ......................................................................................... 151 Wer ist verantwortlich?............................................................................................................................................155 Erlaubt oder nicht erlaubt?...................................................................................................................................156 Grenzenlose Autonomie?.......................................................................................................................................160 Wenn KI KI baut............................................................................................................................................................. 162 So geht’s weiter.............................................................................................................................................................165
Kapitel 8: Politik, Power und Peace
167
KI und Cyberkriminalität.........................................................................................................................................168 Die Fake-News-Industrie von KI........................................................................................................................ 170 Wie man Wahlen manipuliert...............................................................................................................................172 Militärtechnologie und wachsende Polarisierung ............................................................................. 173 Wo militärische Macht auf Big Tech trifft.....................................................................................................176 Die Zukunft von Verteidigung und Angriff................................................................................................. 179 Die dunkle Seite von Big Tech............................................................................................................................. 181 KI wie ein Medikament behandeln ................................................................................................................ 184 Regulierung ist möglich: Das KI-Gesetz der EU.....................................................................................187 So geht’s weiter............................................................................................................................................................. 189
Schmidt - Fast Forward 150x210 KORR3.indd 13
18.01.24 18:18
Kapitel 9: Auf in die Zukunft
191
Alles ist möglich............................................................................................................................................................ 192 KI-Vorteile schaffen und messen...................................................................................................................... 194 Das große Ganze sehen..........................................................................................................................................195 Zusammenarbeit, Inklusion und Vielfalt...................................................................................................... 196 Digitaler Humanismus: der Mensch im Mittelpunkt ......................................................................... 199 Langsame KI? Regulierung eine Chance geben................................................................................... 201 Die Zukunft positiv gestalten..............................................................................................................................204
Quellen.................................................................................................................................................................................. 211 Begriffserklärungen .................................................................................................................................................. 213 Stichwortverzeichnis................................................................................................................................................ 225 Danksagung.................................................................................................................................................................... 228 Über die Autor:innen.................................................................................................................................................230
Schmidt - Fast Forward 150x210 KORR3.indd 14
18.01.24 18:18
KAPITEL 1: KI – FREUND ODER FEIND? Fragen Sie nicht, ob künstliche Intelligenz gut oder gerecht ist, sondern wie sie Macht verlagert. Pratusyha Kalluri, Informatikerin an der Stanford University1
Sind Sie bereit für The Line? Haben Sie schon von The Line gehört, dem neuesten Giga-Projekt Saudi-Arabiens? Diese KI-gesteuerte „vertikale Stadt“, die gerade in der Wüste entsteht, soll das Konzept der Stadtentwicklung neu definieren und unsere Vorstellung von den Städten der Zukunft verändern. Die Stadt ist als schmale „Linie“ mit einer Länge von 170 Kilometern und einer Breite von nur 200 Metern geplant, die auf beiden Seiten mit Spiegeln bedeckt ist. Von außen sollen die Spiegel dafür sorgen, dass die Stadt mit ihrer malerischen natürlichen Umgebung verschmilzt. Die Spiegel sollen auch die Wärme reflektieren und so die Temperaturen im Inneren senken. Im Inneren ist The Line als „vertikale Stadt“ konzipiert, die auf mehreren Ebenen gebaut wird und viel Platz für Grünflächen lässt. Die Entwickler:innen betonen den minimalen Platzbedarf und die geringen Auswirkungen auf das umliegende Ökosystem. Sie haben große Ambitionen und vermarkten das Projekt als „zivilisatorische Revolution, die den Menschen an die erste Stelle setzt und ein noch nie dagewesenes urbanes Lebensgefühl bietet, während die umgebende Natur erhalten bleibt“. 2 Den Hochglanzbroschüren zufolge wird es ein Ort sein, an dem „die Menschheit voranschreitet, ohne die Gesundheit des Planeten zu gefährden“.3 Als ob das nicht schon genug wäre, gibt es auch noch Pläne für im Dunkeln leuchtende Strände und Skipisten in der Nähe sowie für einen künstlichen Mond, Roboter-Butler und fliegende Taxis.4 Aber Moment mal. Wie nachhaltig kann ein gigantisches Bauprojekt in der Wüste eigentlich sein? Und selbst wenn der ökologische Fußabdruck so gering wie mög-
15
Schmidt - Fast Forward 150x210 KORR3.indd 15
18.01.24 18:18
lich ausfällt: Wird The Line auch anderen Menschen als den wohlhabenden Eliten zugutekommen? Wie steht es um die Wahrung der Menschenrechte der Arbeitskräfte in einem Land, das nicht gerade dafür bekannt ist, ideale Arbeitsbedingungen für Wanderarbeiter zu bieten?5 Und wie steht es um die Aussichten von The Line auf Demokratie? Immerhin befindet sie sich innerhalb der NEOM, einer Sonderwirtschaftszone, die „völlig außerhalb der Grenzen des derzeitigen saudischen Rechtssystems existieren und von einem autonomen Rechtssystem geregelt werden soll, das von Investoren ausgearbeitet wird“.6 Einige der Ideen, die hinter The Line stehen – und die die fantasievollen Visionen der superreichen arabischen Anführer zum Ausdruck bringen – sind sehr überzeugend. Die grundlegende Nachhaltigkeitsprämisse lautet, dass Städte verdichtet werden müssen, um ihren ökologischen Fußabdruck zu minimieren. The Line verfolgt die Vision einer auto- und CO2-freien Stadt für 9 Millionen Einwohner:innen. Sie sollen ihre täglichen Bedürfnisse innerhalb von nur fünf Minuten zu Fuß oder mit dem Fahrrad erledigen können. Ein Hochgeschwindigkeitszug soll eine Verbindung vom einen Ende der Stadt zum anderen in nur 20 Minuten bieten. Die Entwickler:innen versprechen, dass The Line frei von Umweltverschmutzung und geschützt vor Wüstenwinden sein wird. Sie soll angenehme Temperaturen bieten und über zahlreiche KI-gesteuerte Dienste verfügen, die die Lebensqualität der Bewohner:innen verbessern. Anders als in herkömmlichen Städten würden Gesundheit und Wohlbefinden der Menschen Vorrang vor Verkehrs- und Infrastrukturfragen haben, heißt es. Die Entwickler:innen versprechen außerdem, dass The Line zu 100 % mit erneuerbaren Energien betrieben wird und dass 95 % der Natur in der Umgebung unberührt bleiben. The Line ist zwar eine faszinierende Idee und die Entwürfe sind beeindruckend, aber der Bau hat gerade erst begonnen. Es gibt viele Gründe, dem Projekt skeptisch gegenüberzustehen, angefangen von ungelösten Fragen der Umwelt und der sozialen Gerechtigkeit bis hin zu Bedenken zu Überwachung und Regierung im weiteren Sinne. In vielerlei Hinsicht veranschaulicht die ungewisse Zukunft des Projekts wichtige Punkte, die in diesem Buch über KI thematisiert werden sollen. Wie die KI-Revolution im Allgemeinen ist auch The Line visionär und von fantasievollen Ideen einer nachhaltigen, von KI unterstützten Zukunft inspiriert. KI hat bei
16
Schmidt - Fast Forward 150x210 KORR3.indd 16
18.01.24 18:18
der Konzeption des Projekts eine große Rolle gespielt und das wird sie auch in Zukunft beim Bau und Betrieb. Wir brauchen große Ideen wie The Line, um die Art und Weise zu revolutionieren, wie wir auf diesem Planeten leben, arbeiten und reisen. Das Design von The Line zeigt das Potenzial von KI, uns dabei zu helfen, den Klimawandel zu bekämpfen, unseren ökologischen Fußabdruck zu verringern und angesichts rauer klimatischer Bedingungen widerstandsfähig zu sein. KI kann uns auch dabei helfen, Menschen auf eine nie dagewesene Art und Weise einzubeziehen und zu verbinden. Großes Denken allein reicht jedoch nicht aus, und gute Absichten führen nicht immer zu guten Ergebnissen. Wir dürfen keine ausgefallenen KI-Modelle oder andere digitale Werkzeuge einsetzen, nur weil sie verfügbar oder „cool“ sind. Wir müssen große Ambitionen mit einem klaren Bekenntnis zur Maximierung von Gesundheit, Wohlstand und Wohlbefinden für alle verbinden. Dies wird nur gelingen, wenn wir Expert:innen auf dem Gebiet der nachhaltigen Transformation, der sozialen Inklusion und des Impact Measurement einbeziehen. Darüber hinaus müssen wir die Ergebnisse messen und überwachen – sowohl die beabsichtigten als auch die unbeabsichtigten – und eine nachhaltige Entwicklung anstreben, anstatt innovative Technologien um ihrer selbst willen einzusetzen oder weil sie Gewinne und Macht bringen. Es sei darauf hingewiesen, dass die Schaffung eines Staates, der „so konzipiert, aufgebaut und unabhängig verwaltet wird, dass er frei von veralteten wirtschaftlichen und ökologischen Infrastrukturen ist, die andere Länder auf der Welt einschränken“, bestenfalls riskant ist. 7 Ebenso riskant ist es, sich auf ein autonomes Rechtssystem zu verlassen, das von Investoren ausgearbeitet wird. Die Regulierung durch Regierungen, die volle demokratische Unterstützung genießen, ist ein wesentlicher Teil des Nachhaltigkeitspuzzles. Einige Analyst:innen befürchten, dass NEOM und The Line der Demokratie und den bürgerlichen Freiheiten wenig Bedeutung beimessen und ihre Bewohner:innen unter Totalüberwachung stellen werden.8 Das erklärte Ziel von The Line ist es, die Themen ökologische Nachhaltigkeit und Digitalisierung miteinander zu verbinden. Wie wir in diesem Buch darlegen, ist dies ein äußerst wichtiges Ziel. Auf diese Weise könnte The Line als Test für eine Revolution in der KI-gestützten Stadtplanung dienen oder diese sogar anführen.
17
Schmidt - Fast Forward 150x210 KORR3.indd 17
18.01.24 18:18
Ob es sich dabei jedoch um eine echte sozial und ökologisch nachhaltige urbane Revolution handelt oder nur um eine weitere Demonstration von Ölreichtum und Extravaganz, bleibt abzuwarten.
Von der Nische zum Mainstream Haben Sie sich schon einmal gefragt, wie künstliche Intelligenz, eine Technologie, die einst als geheimnisvoll und obskur galt und nur Expert:innen, Wissenschaftler:innen, Nerds und Science-Fiction-Filmen vorbehalten war, so schnell zu einem festen Bestandteil unseres täglichen Lebens geworden ist? Wie konnte das, was vor nicht allzu langer Zeit noch ein weit entfernter Zukunftstraum war, so schnell Realität werden? Unter KI verstehen wir Computersysteme, die Aufgaben ausführen, die traditionell menschliche Intelligenz erfordern, z. B. visuelle Wahrnehmung, Spracherkennung, Entscheidungsfindung oder Übersetzung.9 Wie in Kapitel 2 (s. S. 30) näher erläutert wird, konzentriert sich dieses Buch auf Anwendungen in den Bereichen maschinelles Lernen, Verarbeitung natürlicher Sprache und Robotik. Der derzeitige Hype um KI hat viele Menschen erkennen lassen, dass KI das Potenzial zur transformativen Kraft hat und verschiedene Branchen und Aspekte des täglichen Lebens revolutionieren kann. Während wir Autor:innen dieses Buch geschrieben haben, ist beispielsweise die KI-Anwendung ChatGPT die am schnellsten wachsende Internet-App der Geschichte geworden. Sie hatte weniger als drei Monate nach ihrer Veröffentlichung bereits 100 Millionen Nutzer:innen weltweit.10 KI wird auch schnell zu einem integralen Bestandteil unseres täglichen Lebens. Selbst diejenigen, die in scheinbar nicht verwandten Bereichen arbeiten, beginnen ihre Bedeutung zu begreifen. So hätte zum Beispiel Nachhaltigkeitsexpertin Alice Schmidt nie gedacht, dass sie in ihrem Berufsleben viel mit KI zu tun haben würde. Nachdem sie jedoch erkannt hatte, dass es sehr riskant wäre, die KI nur der TechWelt zu überlassen, setzte sie sich mit dem Thema auseinander. Heute beschäftigt sie sich nicht nur intensiv damit, sondern ermutigt auch Expert:innen aus anderen Disziplinen dazu.
18
Schmidt - Fast Forward 150x210 KORR3.indd 18
18.01.24 18:18
Gespräche über KI finden in allen Bereichen unseres Lebens statt. In Schulen werden Debatten über generative KI-Tools wie ChatGPT und ihre Auswirkungen auf das Lernen geführt. In der Unterhaltungsbranche haben gefälschte, KI-generierte Kanye-West- und Drake-Songs zu heftigen Diskussionen in den sozialen Medien geführt, und ein KI-generiertes Bild von Papst Franziskus in einer modischen langen Daunenjacke (natürlich weiß!) hat einen weltweiten Hype ausgelöst. Diese Entwicklungen werfen Fragen über KI-Technologien und die zunehmende Gefahr auf, dass Fehlinformationen und Fake News unser Leben beeinflussen. Auch die Auswirkungen von KI auf den Arbeitsmarkt sind ein wichtiges Thema. Darüber hinaus haben sich die Diskussionen über die Auswirkungen von KI auf die Umwelt, einschließlich ihres CO2-Fußabdrucks, über die Fachkreise hinaus ausgeweitet und sind nun häufiger in den Mainstream-Medien zu finden. Im Alltag sind wir oft einfach fasziniert von coolen neuen Tools und Technologien. Die meisten Menschen würden sich zwar nicht als KI-Expert:innen bezeichnen, aber immer mehr Institutionen und Einzelpersonen beschäftigen sich mit dem Thema, weil sie spüren, dass sich etwas ändern wird. Viele Menschen beginnen zu begreifen, dass unsere Zukunft auf dem Spiel stehen könnte. Einige der dringendsten Fragen, die sich die Menschen stellen, sind: Was sind die potenziellen Chancen und Risiken von KI? Wie können wir sicherstellen, dass KI auf ethische und verantwortungsvolle Weise entwickelt und eingesetzt wird? Welche Auswirkungen wird KI auf den Arbeitsmarkt haben, und wie können wir uns auf diese Veränderungen vorbereiten? Und was vielleicht am wichtigsten ist: Wie können wir sicherstellen, dass die Vorteile von KI allen Mitgliedern der Gesellschaft zugutekommen und nicht nur einigen wenigen? Die tiefgreifenden Auswirkungen auf unser Leben und unsere Zukunft, die eine einzige Technologie verspricht, haben unsere Neugier geweckt. Da die Entwicklungen im Bereich von KI weiter voranschreiten, wird es entscheidend sein, dass wir uns alle an der Gestaltung ihrer Zukunft beteiligen. Die Entwicklung von künstlicher Intelligenz wird oft als Revolution bezeichnet. Einige Expert:innen behaupten, dass KI das Potenzial hat, so umfassende Veränderungen zu bringen wie die Erfindung des Rades oder der Druckerpresse. KI
19
Schmidt - Fast Forward 150x210 KORR3.indd 19
18.01.24 18:18
wird bereits in vielen Branchen und Aspekten des täglichen Lebens eingesetzt, um Entscheidungen zu erleichtern, Prozesse zu automatisieren und die Effizienz zu steigern. Wir sehen dies in so unterschiedlichen Bereichen wie dem Gesundheitswesen, dem Finanzwesen und dem Transportwesen. So werden beispielsweise KIgestützte medizinische Geräte und Software-Tools eingesetzt, um die Genauigkeit von Diagnosen und Behandlungen zu verbessern. Dies wird wahrscheinlich große Auswirkungen auf das Gesundheitswesen im Allgemeinen haben und die Art und Weise, wie wir Krankheiten diagnostizieren und behandeln, revolutionieren. KI hat auch das Potenzial, neue Branchen und Beschäftigungsmöglichkeiten zu schaffen sowie die Produktivität und das Wirtschaftswachstum zu steigern. Einer der Hauptvorteile von KI ist ihre Fähigkeit, repetitive und alltägliche Aufgaben zu automatisieren, sodass sich Menschen auf kreativere und bereichernde Tätigkeiten konzentrieren können. Dies könnte die Produktivität und Effizienz steigern, was wiederum zu Wirtschaftswachstum und zur Schaffung von Arbeitsplätzen führt. Die Vorhersagen über die Zukunft der Arbeitsplätze durch KI und andere Technologien gehen jedoch weit auseinander. Das Weltwirtschaftsforum (WEF) prognostiziert zum Beispiel erhebliche Auswirkungen auf den Arbeitsmarkt innerhalb der nächsten fünf Jahre; etwa ein Viertel aller Arbeitsplätze wird sich aufgrund von KI, Digitalisierung und anderen wirtschaftlichen Entwicklungen verändern. Die WEF-Studie sagt aber auch voraus, dass neue Arbeitsplätze geschaffen werden, die möglicherweise die durch KI verloren gehenden Arbeitsplätze ausgleichen.11 Eine aktuelle Forschungsarbeit von OpenAI, OpenResearch und der University of Pennsylvania präsentiert einen Ausblick aus einer anderen Perspektive. Sie untersucht die möglichen Auswirkungen von Large Language Models (LLM) wie ChatGPT, die sich zu Allzwecktechnologien entwickeln, auf den Arbeitsmarkt. Die Ergebnisse deuten darauf hin, dass mindestens 10 % der Arbeitsaufgaben von etwa 80 % der USArbeitskräfte durch KI-Tools wie ChatGPT beeinträchtigt werden könnten. Etwa 19 % der Arbeitnehmer:innen könnten von erheblichen Auswirkungen betroffen sein, da mindestens 50 % ihrer Aufgaben betroffen sind. Diese unterschiedlichen Studien verdeutlichen die anhaltende Debatte über den transformativen Einfluss von KI und ihre möglichen Auswirkungen auf die Zukunft der Arbeit.12 Wie bei jedem technologischen Fortschritt gibt es auch bei KI Schattenseiten und Risiken. Es gibt ethische
20
Schmidt - Fast Forward 150x210 KORR3.indd 20
18.01.24 18:18
und gesellschaftliche Überlegungen, die berücksichtigt werden müssen. Mit der zunehmenden Integration von KI in verschiedene Aspekte des täglichen Lebens wird die Menge der gesammelten und analysierten personenbezogenen Daten zunehmen, was wichtige Fragen darüber aufwirft, wie diese Daten erzeugt, genutzt, weitergegeben und verwertet werden und wer Zugang zu ihnen hat. Es gibt auch Bedenken hinsichtlich der Fairness von KI-Algorithmen und des Potenzials von KI, für bösartige Zwecke missbraucht zu werden. Dies ist ein Grund, warum es so wichtig ist, Menschen aus allen Sektoren und sozialen Schichten in die weitere Entwicklung dieser Technologie einzubeziehen, denn es ist nicht garantiert, dass alle Menschen und alle Regionen der Welt gleichermaßen davon profitieren werden.
Im Panikmodus Künstliche Intelligenz war einst ein ferner Traum, doch schon bald könnte sie unsere Welt neu gestalten. Aber wir müssen uns fragen: Wird sie uns in einen utopischen Zustand der Glückseligkeit oder in einen zivilisatorischen Zusammenbruch führen? Die Vorstellung von abtrünnigen KI-Systemen ist seit Langem ein beliebtes Thema in Science-Fiction-Filmen, z. B. „2001: Odyssee im Weltraum“ 13 oder der Terminator-Filmreihe14. Die Vorstellung, dass Maschinen immer intelligenter werden, bis zu dem Punkt, an dem sie sich unserer Kontrolle entziehen, ist für viele beunruhigend. Die Menschen fürchten sich vor dem, was sie nicht vorhersagen können, und die sich schnell entwickelnde KI-Landschaft verstärkt diese Angst nur noch. KI-Pessimist:innen ziehen unsere Aufmerksamkeit auf sich, besonders wenn sie bekannt und mächtig sind. Sogar Elon Musk, der CEO von Tesla, X (ehemals Twitter) und SpaceX, hat zur Vorsicht aufgerufen. Sollten wir uns seine Bedenken zu Herzen nehmen? Um sich in der aktuellen Ära der künstlichen Intelligenz zurechtzufinden, ist es sinnvoll, einen Blick in die Geschichte zu werfen. Von der landwirtschaftlichen Revolution bis zur Industriellen Revolution und darüber hinaus hat der technische Fortschritt die Gesellschaft drastisch verändert. Aus jeder dieser Revolutionen lassen sich wertvolle Lehren ziehen, die sich auch auf die aktuelle KI-Revolution anwenden lassen. Man kann die Auswirkungen von KI auf die Gesellschaft mit
21
Schmidt - Fast Forward 150x210 KORR3.indd 21
18.01.24 18:18
denen des Buchdrucks vergleichen, der die Art und Weise der Verbreitung von Informationen und Bildung veränderte. KI hat das Potenzial, den Zugang zu Informationen und Bildung in ähnlicher Weise zu verbessern. Es muss jedoch sichergestellt werden, dass sie so entwickelt wird, dass sie alle einbezieht und gerecht ist, anstatt bestehende Vorurteile und Ungleichheiten zu verstärken. Die Industrielle Revolution brachte neue und innovative Produktions- und Arbeitsformen hervor, verursachte gleichzeitig aber auch Umweltschäden und schlechte Arbeitsbedingungen und vergrößerte die Kluft zwischen der wohlhabenden und der arbeitenden Klasse. Um zu verhindern, dass die KI-Revolution ähnliche negative Auswirkungen hat, müssen rechtliche Rahmenbedingungen und Leitlinien zur verantwortungsvollen und nachhaltigen Nutzung von KI geschaffen und weltweit umgesetzt werden. Darüber hinaus wird Bildung eine entscheidende Rolle spielen, um sicherzustellen, dass Arbeitskräfte mit den notwendigen Fähigkeiten ausgestattet sind, um sich an die durch KI verursachten Veränderungen anzupassen. Historische Entwicklungen dienen auch als Warnung. Das aktuelle Wettrennen um KI erinnert an das atomare Wettrüsten zu Zeiten des Kalten Krieges. So wie einst zwei Nationen um nukleare Vorteile wetteiferten (und das nun teilweise wieder tun), wetteifern die USA, China und einige große Technologieunternehmen um die Vorherrschaft von KI, angetrieben von der Aussicht, Industrien, Volkswirtschaften und Militärmächte zu revolutionieren. Im Gegensatz zum atomaren Wettrüsten hat KI jedoch zumindest das Potenzial, die Gesellschaft positiv zu verändern. Die Herausforderung wird darin bestehen, der Ethik oberste Priorität einzuräumen, den Menschen in den Mittelpunkt zu stellen, einer Polarisierung von Macht und Ressourcen entgegenzuwirken und eine weitere Verschärfung der globalen Spannungen zu vermeiden. Historische Lehren können zwar wertvolle Einsichten vermitteln und uns bei der Entscheidungsfindung unterstützen, aber sie allein können uns nicht bei der Lösung von Problemen helfen, die auch als „Wicked Problems“ bezeichnet werden, wie z. B. die globale soziale Ungerechtigkeit oder multiple ökologische Krisen. Bei diesen Problemen handelt es sich um komplexe und vielschichtige Fragestellungen, die schwer zu definieren, geschweige denn zu lösen sind. Es liegt in der Natur dieser Probleme, dass es für sie keine alleinige, klar umrissene Lösung gibt.
22
Schmidt - Fast Forward 150x210 KORR3.indd 22
18.01.24 18:18
Stattdessen erfordern sie ein kontinuierliches Management und eine Anpassung an sich ändernde Umstände. Auch wenn es schwierig ist, ein komplexes Problem zu lösen, so ist es doch möglich, negative Auswirkungen zu mildern und durch sorgfältige Analyse, Zusammenarbeit und laufende Überwachung und Bewertung auf ein positives Ergebnis hinzuarbeiten. Dazu bedarf es eines systemischen und interdisziplinären Ansatzes, der die Bedürfnisse der verschiedenen Interessengruppen in Einklang bringt. Der Schlüssel dazu ist die Einsicht, dass es keine Einheitslösung gibt und kontinuierliche Anstrengungen und die Bereitschaft zur Anpassung und Veränderung erforderlich sind.
Technologie als Teil des Nachhaltigkeitspuzzles Die Vision einer Zukunft, in der sich unsere Gesellschaft im Einklang mit der Natur entwickelt und Innovation und Technologie uns befähigen, selbst die größten Herausforderungen zu meistern, hat Alice Schmidt und Claudia Winkler im Jahr 2020 zusammengebracht. Ihre gemeinsame Leidenschaft und ihr Engagement für eine nachhaltige Entwicklung veranlassten sie dazu, das Buch The Sustainability Puzzle zu schreiben. Darin präsentierten sie eine fesselnde und hoffnungsvolle Vision einer Zukunft, in der Systemdenken, Klimaschutz, eine Kreislaufwirtschaft und der verantwortungsvolle Einsatz von Technologie zusammenwirken, um globale Gerechtigkeit und einen nachhaltigen Wandel zu schaffen. Sie betonten die Verflechtung wirtschaftlicher, sozialer und ökologischer Herausforderungen sowie die Notwendigkeit einer ganzheitlichen Perspektive bei der Bewältigung dieser Probleme. Wenn Technologien wie KI verantwortungsbewusst, ethisch korrekt und nicht um ihrer selbst willen eingesetzt werden, haben sie das Potenzial, einen bedeutenden Beitrag zur nachhaltigen Entwicklung im sozialen, ökologischen und wirtschaftlichen Bereich zu leisten. Die Technologie ist jedoch nicht das einzige Puzzlestück. Es müssen noch andere Teile vorhanden sein, um die wachsende Umweltzerstörung, soziale Ungleichheiten und die Gefahr einer fehlgeleiteten Technologie zu vermeiden. Deshalb brauchen wir verschiedene Perspektiven und Stimmen, die sich an der Diskussion beteiligen und gemeinsam an der Zusammenstellung des Nachhaltigkeitspuzzles arbeiten.
23
Schmidt - Fast Forward 150x210 KORR3.indd 23
18.01.24 18:18
Leider wird die technologische Entwicklung heute hauptsächlich von Leuten aus der Technik und der Wirtschaft vorangetrieben. Expert:innen aus anderen Disziplinen werden in der Regel nicht einbezogen. Die Agenden der Nachhaltigkeit und der Digitalisierung scheinen oft nicht miteinander verbunden zu sein. Dies behindert die Schaffung von Synergien, die den Fortschritt in beiden Bereichen vorantreiben könnten. Es ist daher von entscheidender Bedeutung, Wege zur Überbrückung dieser Kluft zu finden. Einer der Hauptgründe für diese Diskrepanz ist die Konzentration auf kurzfristige Gewinne und technologischen Fortschritt, die oft auf Kosten einer langfristigen nachhaltigen Entwicklung oder eines Blicks auf das große Ganze geht. Im Wettlauf um Innovationen und die Nutzung neuer digitaler Technologien werden deren ökologische und soziale Folgen oft übersehen. Technikbegeisterte gehen oft davon aus, dass neue technologische Entwicklungen Vorteile mit sich bringen, auch wenn es keine konkreten Beweise dafür gibt. Umgekehrt wird bei den Bemühungen des öffentlichen und privaten Sektors im Bereich der Nachhaltigkeit das Potenzial der Digitalisierung, einen bedeutenderen und dauerhaften Wandel herbeizuführen, möglicherweise nicht voll ausgeschöpft. Die Städte von heute sind voll von den neuesten Gadgets und technologischen Innovationen. Wir Menschen sind begierig darauf, die neuesten Smartphones, Computer und Smart-Home-Geräte zu nutzen. Doch in unserem Streben nach digitalem Fortschritt verursachen wir ungewollt ein wachsendes Problem: Elektroschrott. Wenn Geräte veraltet sind oder kaputt gehen, landen sie viel zu schnell auf Mülldeponien und geben gefährliche Stoffe an die Umwelt ab. Wäre die Digitalisierungsagenda enger mit Nachhaltigkeitsbelangen und Kreislaufwirtschaftskampagnen verknüpft, könnten Unternehmen der Entwicklung langlebigerer, leichter reparierbarer Geräte Vorrang einräumen oder sicherstellen, dass Einrichtungen für Wiederverwendung, Aufarbeitung und Recycling vorhanden sind. Ein weiteres Beispiel für diese Kluft ist in der Landwirtschaft zu beobachten. Angetrieben von der Notwendigkeit, die Ernteerträge und die Produktivität zu steigern, setzen Landwirte digitale Hilfsmittel wie Drohnen, Sensoren und Satellitenbilder zur Überwachung ihrer Felder ein. Wenn wir jedoch die Auswirkungen dieser Technologien auf die Umwelt nicht berücksichtigen und stattdessen auf ihren „Rat“ hin handeln, ohne das Gesamtbild einer nachhaltigen und regenerativen
24
Schmidt - Fast Forward 150x210 KORR3.indd 24
18.01.24 18:18
Landwirtschaft im Auge zu behalten, laufen wir Gefahr, Probleme wie Bodenverschlechterung, Wasserverschmutzung und den Verlust der biologischen Vielfalt noch zu verschärfen. Würden die Bemühungen um Nachhaltigkeit und Digitalisierung stärker miteinander verknüpft, könnten Landwirte Zugang zu Instrumenten erhalten, die ihnen helfen, regenerative Anbaumethoden einzuführen, Wasser zu sparen und Ökosysteme zu schützen, ohne ihre Produktivität zu beeinträchtigen. Synergien können geschaffen werden, aber sie ergeben sich nicht von selbst. Vielmehr erfordert die Schaffung von Synergien proaktives Engagement und konkrete Maßnahmen.
Auswirkungen von KI auf Arbeit, Soziales, Bildung und Umwelt Durch die Integration von Nachhaltigkeit und Digitalisierung können wir eine Welt schaffen, in der Fortschritt und Innovation gleichbedeutend sind mit ökologischem Verantwortungsbewusstsein und sozialer Gerechtigkeit. Dies ist eine Zukunft, die wir alle anstreben können, in der Hoffnung, dass wir einen nachhaltigen Wandel herbeiführen. Allerdings birgt jede Chance auch Risiken, und der Einsatz von KI führt nicht automatisch zu einer besseren Zukunft. Um die positive Kraft von KI zu nutzen, müssen wir auch ihre negativen Auswirkungen verstehen, auch in Schlüsselbereichen wie Arbeit, soziale Gerechtigkeit, Bildung, Wissenschaft und Umwelt. Außerdem müssen wir uns ihrer Schattenseiten bewusst sein, einschließlich ihrer potenziellen Verwendung in der Kriegsführung und der Cyberkriminalität. Wir müssen verstehen, wie sie zur Verbreitung von Fehlinformationen genutzt werden kann, wie sie Spaltungen und Vorurteile hervorrufen kann und wie sie die Risiken der Entmenschlichung verschärfen kann. Bei der Gestaltung der Arbeitsplätze der Zukunft sehen wir uns zunächst mit den Herausforderungen der Automatisierung und Robotisierung konfrontiert, die die Art und Weise, wie wir arbeiten, neu definieren und letztlich zu massiven Arbeitsplatzverlagerungen führen können. Außerdem besteht die Gefahr, dass die Einkom-
25
Schmidt - Fast Forward 150x210 KORR3.indd 25
18.01.24 18:18
mensungleichheit zunimmt, da hoch qualifizierte Arbeitnehmer von den Vorteilen von KI profitieren, während andere zurückbleiben. Wenn wir uns jedoch auf diese technologischen Veränderungen einlassen, können wir Türen zu neuen Möglichkeiten öffnen und die Zusammenarbeit zwischen Menschen und Maschinen fördern. Wir haben das Potenzial, völlig neue Berufskategorien zu schaffen, die Innovation und Wirtschaftswachstum vorantreiben. So bieten beispielsweise aufstrebende Bereiche wie Datenwissenschaft, Cybersicherheit und virtuelle Realität spannende Perspektiven für Menschen, die sich auf Spitzentechnologien spezialisieren und neue Tätigkeitsbereiche entwickeln wollen. Diese Berufskategorien werden nicht nur Beschäftigungsmöglichkeiten schaffen, sondern auch die Kreativität anregen und die Grenzen dessen erweitern, was im digitalen Zeitalter möglich ist. Wenn wir das Potenzial von KI in den Bereichen Bildung und Wissenschaft untersuchen, stoßen wir zunächst auf Bedenken, etwa was Datenschutz, den Verlust von menschlicher Interaktion im Unterricht oder das Potenzial von Tools wie ChatGPT für Betrug betrifft. KI kann jedoch auch personalisiertes und lebenslanges Lernen ermöglichen und die Vermittlung der für die Welt von morgen erforderlichen Fähigkeiten erleichtern. Indem sie die Lehrmethoden revolutioniert und maßgeschneiderte Bildungspraktiken ermöglicht, kann KI Schüler:innen helfen, ihr volles Potenzial auszuschöpfen. Bildung kann auch eine wichtige Rolle bei der Überbrückung der Kluft zwischen Nachhaltigkeit und Digitalisierung spielen. Kurse über nachhaltige Entwicklung und digitale Innovation könnten miteinander verknüpft werden, um die nächste Generation von Führungskräften zur Entwicklung umweltfreundlicher Technologien zu inspirieren. An Universitäten und außerhalb des formalen Bildungssektors könnten Workshops die breite Öffentlichkeit, Unternehmen und politische Entscheidungsträger über die Notwendigkeit aufklären, mehrere Disziplinen in die digitale Entwicklung einzubeziehen. Im Bereich Umwelt würde ein unregulierter Einsatz von KI-Technologien zu einem höheren Energieverbrauch beitragen und die Ressourcen des Planeten weiter belasten. Gleichzeitig ist das Potenzial von KI zur Optimierung der Energieeffizienz, zum Schutz der biologischen Vielfalt und zur Förderung der Erhaltung und Wiederherstellung von Ökosystemen nicht zu übersehen. Wenn wir uns die Möglichkeiten von KI zunutze machen, könnten wir den Klimawandel wirksamer bekämpfen,
26
Schmidt - Fast Forward 150x210 KORR3.indd 26
18.01.24 18:18
nicht zuletzt durch die Aufdeckung von Greenwashing und die Bereitstellung von relevanten Daten. Durch die Analyse riesiger Datenmengen aus Satellitenbildern, Wettermustern und anderen Quellen können KI-Systeme Trends und Korrelationen erkennen, die für den Menschen unmöglich zu erkennen wären. So könnte unsere Fähigkeit verbessert werden, die negativen Auswirkungen extremer Wetterereignisse und Umweltveränderungen vorherzusagen und darauf zu reagieren. Wir Autor:innen argumentieren, dass wir mit KI in diesen vier Bereichen – soziale Gerechtigkeit, Arbeit, Bildung und Ökologie – einen Nettonutzen schaffen können, wenn wir die wichtigsten Grundsätze einer ethischen und verantwortungsvollen KI wie Transparenz, Accountability, Fairness und Sicherheit beachten. Wie bereits erwähnt, dürfen wir jedoch auch die Schattenseiten nicht aus den Augen verlieren. Die Diskussionen, die zu diesem Buch geführt haben, haben uns Autor:innen zu einer gemeinsamen Überzeugung geführt: dass es vernünftig ist, einen hoffnungsvollen und positiven Ausblick auf die Zukunft von KI zu haben, dass wir aber Vorsicht walten lassen und immer mögliche Risiken oder Herausforderungen in Betracht ziehen sollten. Wir dürfen nicht vergessen, dass KI ein Werkzeug ist, das von Menschen entwickelt wurde und daher auch von Menschen gestaltet werden kann. Eine zentrale Herausforderung besteht darin, sicherzustellen, dass alle Teile der Gesellschaft einbezogen werden. Aus diesem Grund bleiben wir Autor:innen vorsichtig optimistisch – wir glauben, dass dies eine ausgewogene und realistische Sichtweise ermöglicht.
So geht’s weiter Richtig eingesetzt hat KI das Potenzial, zur Lösung einiger der dringendsten Probleme der Welt beizutragen, vom Klimawandel bis zur sozialen Ungerechtigkeit. Indem wir sektor- und länderübergreifend zusammenarbeiten, können wir eine Zukunft bauen, in der KI keine Bedrohung darstellt, sondern die Chance bietet, eine bessere Welt für uns alle zu schaffen. Es liegt an uns, den technologischen Fortschritt aktiv zu gestalten, um eine für alle Menschen erfüllende Zukunft zu ermöglichen. Aus diesem Grund haben wir Autor:innen dieses Buch geschrieben. Anhand von persönlichen Anekdoten, Beispielen aus der Industrie und Einblicken von Expert:innen erkunden wir die dringende Notwendigkeit eines Wandels in der
27
Schmidt - Fast Forward 150x210 KORR3.indd 27
18.01.24 18:18
Art und Weise, wie wir über KI und ihre Rolle in der Gesellschaft denken. Es soll als Weckruf dienen und Menschen dazu inspirieren, die Zukunft aktiv zu gestalten. Um sicherzustellen, dass die Macht von KI auf positive Weise genutzt wird, sind Bemühungen in vielen Bereichen erforderlich. Ein entscheidender Bereich ist die Demokratisierung des Zugangs zu KI-Technologien, ebenso wie die Demokratisierung im weiteren Sinne. Diese Technologien müssen für alle verfügbar, verständlich und erschwinglich sein, nicht nur für einige wenige Privilegierte. Dies bedeutet, dass in Forschung und Entwicklung investiert werden muss und dass politische Maßnahmen ergriffen werden müssen, die einen gleichberechtigten Zugang zu KI-Ausbildung, -Tools und -Ressourcen fördern. Eine Grundvoraussetzung ist KI-Kompetenz. Diese wird definiert als „eine Reihe von Kompetenzen, die den Einzelnen in die Lage versetzen, KI-Technologien kritisch zu bewerten, effektiv mit KI zu kommunizieren und zusammenzuarbeiten und KI als Werkzeug online, zu Hause und am Arbeitsplatz zu nutzen“ 15. Um KI-Kompetenz zu fördern, müssen Gesellschaften in Bildungs- und Aufklärungsinitiativen investieren. Indem wir das Bewusstsein für die potenziellen Vorteile und Risiken von KI schärfen, können wir Menschen in die Lage versetzen, fundierte Entscheidungen darüber zu treffen. Wir müssen uns auch auf eine ethische KI-Entwicklung konzentrieren, die Transparenz, Fairness und Verantwortlichkeit in den Vordergrund stellt. Es müssen ethische Leitlinien und Standards festgelegt und Mechanismen zur Überwachung und Regulierung des Einsatzes von KI-Technologien eingeführt werden. So wird sichergestellt, dass KI in einer Weise entwickelt und eingesetzt wird, die für alle von Nutzen ist und die grundlegenden Menschenrechte und Werte respektiert. Ein weiterer wichtiger Bereich ist die Förderung der disziplinübergreifenden Zusammenarbeit zwischen KI-Forscher:innen, politischen Entscheidungsträgern und Fachleuten aus verschiedenen Bereichen. Gemeinsame Anstrengungen sind unerlässlich, um kontextbezogene Lösungen für komplexe soziale und ökologische Probleme zu entwickeln. Schließlich müssen globale Regelungen und Richtlinien geschaffen werden, um die verantwortungsvolle und nachhaltige Entwicklung und Nutzung von KI-Technologien zu gewährleisten.
28
Schmidt - Fast Forward 150x210 KORR3.indd 28
18.01.24 18:18
Die Gestaltung einer positiven KI-Zukunft erfordert einen ausgewogenen Ansatz, der kritisches, ethisches, optimistisches und furchtloses Denken kombiniert. Auf diese Weise können wir eine Zukunft schaffen, in der KI-Technologien zum Nutzen der gesamten Gesellschaft eingesetzt werden und so dazu beitragen, die Welt gerechter, nachhaltiger und wohlhabender zu machen. Um eine positive KI-Zukunft zu gestalten, sollten wir alle mithelfen und Folgendes tun: , für die Demokratisierung von KI eintreten und diese unterstützen, indem wir uns für Initiativen, politische Maßnahmen und Organisationen einsetzen, die KI für alle zugänglich, verständlich und erschwinglich machen , unsere KI-Kenntnisse ausbauen und uns über KI-Technologien informieren – einschließlich ihres Potenzials, ihrer Risiken und ihrer Rolle in der Gesellschaft , eine Stimme für den ethischen Einsatz von KI werden, indem wir uns für Transparenz, Fairness und Verantwortlichkeit in der KI-Entwicklung einsetzen. Beginnen wir mit Gesprächen mit unseren Freund:innen, um Bewusstsein für das Thema der ethischen KI zu schärfen.
29
Schmidt - Fast Forward 150x210 KORR3.indd 29
18.01.24 18:18
KAPITEL 2: HINTERGRUND, GRUNDLAGEN UND BLADE RUNNER Technologie ist die Antwort. Aber wie lautete die Frage? Cedric Price, Architekt16
Beginnen wir mit einigen grundlegenden Informationen über KI im Allgemeinen und insbesondere über generative KI – ein aktuelles Thema angesichts der Veröffentlichung von Tools wie ChatGPT. Diese Einführung soll dazu beitragen, das Potenzial und die Grenzen dieser Technologie besser zu verstehen. In den folgenden Kapiteln werden wir detaillierter auf die Themen Arbeit, soziale Gerechtigkeit, Bildung und Ökologie eingehen.
Das Geheimnis lüften – die Grundlagen von KI verstehen Die Geschichte der künstlichen Intelligenz lässt sich bis in die 1950er-Jahre zurückverfolgen, als Pioniere wie Alan Turing und John McCarthy die Möglichkeiten erforschten, Maschinen zu schaffen, die wie Menschen denken und lernen können. Im Jahr 1956 prägte McCarthy den Begriff „künstliche Intelligenz“ und organisierte die Dartmouth Conference, eine Zusammenkunft von Forschern verschiedener Disziplinen, um das Potenzial von KI zu diskutieren. KI ist ein Begriff, der ein breites Spektrum von Techniken und Anwendungen zusammenfasst.17 Um diese Komplexität besser zu verstehen, ist es hilfreich, einen kurzen Blick auf die verschiedenen Teilbereiche zu werfen, darunter Themen wie maschinelles Lernen, Verarbeitung natürlicher Sprache und Robotik. Maschinelles Lernen, ein Eckpfeiler von KI, konzentriert sich auf die Entwicklung von Algorithmen, die es Maschinen ermöglichen, aus Daten zu lernen und ihre Leistung zu verbessern, ohne dass sie explizit für jede Aufgabe programmiert werden müssen.
30
Schmidt - Fast Forward 150x210 KORR3.indd 30
18.01.24 18:18
Diese Algorithmen bilden die Grundlage für viele KI-Anwendungen, zum Beispiel in den Bereichen Bild- und Spracherkennung. Natural-Language Processing (NLP, die Verarbeitung natürlicher Sprache) befasst sich mit der Interaktion zwischen Computern und menschlicher Sprache. NLP versetzt Computer in die Lage, menschliche Sprache zu interpretieren und zu generieren und ebnet so den Weg für Anwendungen wie Chatbots, automatisiertes Schreiben und Sprachübersetzung. Der Bereich der Robotik schließlich befasst sich mit dem Entwurf, der Konstruktion und dem Betrieb von Robotern – physischen Maschinen, die in der Lage sind, Aufgaben autonom oder halbautonom auszuführen. KI spielt eine entscheidende Rolle, wenn es darum geht, Roboter mit der Fähigkeit auszustatten, ihre Umgebung wahrzunehmen, fundierte Entscheidungen zu treffen und Handlungen auszuführen. In den Anfangsjahren der KI-Forschung lag der Schwerpunkt auf der Entwicklung von Programmen, die bestimmte Aufgaben übernehmen konnten, z. B. das Lösen mathematischer Probleme oder Schachspielen. Diese frühen KI-Programme, die als „Expertensysteme“ bezeichnet wurden, ahmten die Entscheidungsprozesse menschlicher Expert:innen auf einem bestimmten Gebiet nach. In den 1970er- und 1980er-Jahren verlagerte sich die KI-Forschung auf die Entwicklung „wissensbasierter Systeme“, die große Mengen an Informationen speichern und abrufen konnten. Die Idee war, dass eine Maschine, die auf eine umfangreiche Wissensbasis zugreifen kann, in der Lage ist, wie ein menschlicher Experte oder sogar besser zu denken und Entscheidungen zu treffen. In den 1980er-Jahren konzentrierte sich die KI-Forschung auf die Entwicklung „neuronaler Netze“, die der Struktur des menschlichen Gehirns nachempfunden sind. Diese Netze sollten aus Daten lernen, sie filtern und zusammenfassen, um ihre eigenen Ergebnisse und Leistungen mit der Zeit zu verbessern. Dieser Ansatz führte Ende der 1990er-Jahre zur Entwicklung von Algorithmen für das „maschinelle Lernen“, die es Maschinen ermöglichten, aus Daten zu lernen, ohne explizit für diese Aufgabe programmiert zu werden. Wenn eine Maschine aus Daten lernen kann, so die Theorie, kann sie ihre Leistung verbessern und sich an neue Situationen anpassen. In den letzten Jahren haben sich Deep-Learning-Algorithmen wie neuronale Netze bei KI-Anwendungen durchgesetzt. Diese Algorithmen können große Datenmengen analysieren und realistische Bilder, Videos oder natürliche Sprache erzeugen.
31
Schmidt - Fast Forward 150x210 KORR3.indd 31
18.01.24 18:18
Ein generatives KI-Modell kann beispielsweise riesige Textmengen analysieren und neue, zusammenhängende Texte erzeugen, die für Chatbots, automatisiertes Schreiben oder Spracherkennung verwendet werden. Generative KI bezieht sich, einfach ausgedrückt, auf die Fähigkeit eines Systems, neue Inhalte oder Daten auf der Grundlage von Eingaben wie natürlichsprachlichen Aufforderungen zu generieren. Dazu gehören das Erstellen von Bildern, das Schreiben von Texten, das Komponieren von Musik oder sogar das Aufstellen neuer wissenschaftlicher Theorien. Generative KI kann auf der Grundlage von Mustern und Beziehungen, die in vorhandenen Daten erkannt wurden, „lernen“ und neue Informationen erstellen – ein deutlicher Unterschied zu früheren KI-Systemen. Trotz der beeindruckenden Fähigkeiten der derzeit verfügbaren Werkzeuge bleibt generative KI eine Form der „schwachen KI“. Diese bezieht sich auf KI-Systeme, die für die Ausführung bestimmter Aufgaben oder die Lösung bestimmter Probleme konzipiert sind. Diese Systeme konzentrieren sich auf einen engen Bereich und verfügen über spezielle Fähigkeiten innerhalb dieses Bereichs. Ein KI-System, das zum Schachspielen entwickelt wurde, würde beispielsweise in die Kategorie der schwachen KI fallen, da sein Hauptzweck darin besteht, das Spiel zu beherrschen, und es nicht über eine allgemeine Intelligenz verfügt, also keine Aufgaben außerhalb dieses spezifischen Bereichs ausführen kann. Im Gegensatz dazu umfasst künstliche allgemeine Intelligenz (artificial general intelligence, AGI) Maschinen, die in der Lage sind, verschiedene Arten von Problemen zu lösen, mit flexiblen Fähigkeiten, die der menschlichen Intelligenz ähneln. Manche stellen auch eine Superintelligenz in Aussicht, eine hypothetische Form von KI, die die menschliche Intelligenz übertreffen könnte. Es wird oft spekuliert, dass eine Superintelligenz über ähnliche Denk- und Problemlösungsfähigkeiten wie eine AGI verfügen würde, jedoch in wesentlich größerem Umfang. Die Superintelligenz stellt eine andere Dimension der Intelligenz dar, die zu unvorstellbaren Fortschritten in Technologie und Gesellschaft führen könnte. Dieses Konzept wirft Bedenken hinsichtlich der möglichen ethischen Implikationen und sogar existenziellen Risiken auf, die die Entwicklung solcher KI-Systeme mit sich bringt. Alle bisher entwickelten KI-Anwendungen bleiben Beispiele für eine schwache KI. Obwohl die AGI derzeit ein heißes Forschungsthema ist, dürfte ihre tatsächliche Verwirklichung noch einige Zeit auf sich warten lassen.18
32
Schmidt - Fast Forward 150x210 KORR3.indd 32
18.01.24 18:18
KI in Aktion Es ist leicht, sich von dem Hype anstecken zu lassen und sich für futuristische Ideen zu begeistern, was diese Technologie erreichen könnte. Viele Menschen sind sich jedoch nicht bewusst, dass KI bereits in unser tägliches Leben integriert ist. Von der Verbesserung unserer Einkaufserlebnisse bis hin zur Revolutionierung der Art und Weise, wie wir mit unseren Häusern interagieren – KI hat schon weitreichende Auswirkungen auf alle Bereiche unseres Lebens. Nehmen wir zum Beispiel die Modebranche. Unternehmen wie Stitch Fix und Zara nutzen generative KI, um ihre Empfehlungen für Kund:innen zu personalisieren, künftige Modetrends vorherzusagen und ihren Bestand zu optimieren. Zalando setzt generative KI ein, um neue Kleidungsdesigns in einem Bruchteil der üblichen Zeit und für viel niedrigere Kosten zu erstellen. Durch die Einspeisung von Daten über beliebte Stile, Farben und Stoffe in das KI-System kann Zalando eine breite Palette von Designs für die Bekleidungslinien des Unternehmens erstellen. Das spart nicht nur Zeit und Ressourcen, sondern ermöglicht auch eine schnelle Anpassung an sich ändernde Verbraucherpräferenzen. Es verbessert das Einkaufserlebnis und steigert gleichzeitig die Effizienz und Rentabilität des Unternehmens.19 Ein weiteres Beispiel ist die Renovierungs- und Designbranche. Unternehmen wie IKEA nutzen generative KI, um virtuelle Designtools zu entwickeln, mit denen die Kund:innen ihr Projekt realistisch und interaktiv visualisieren und planen können. Das spart nicht nur Zeit und Ressourcen, sondern macht den Designprozess auch für die Kund:innen angenehmer. 20 Sogar unser täglicher Lebensmitteleinkauf wird von generativer KI beeinflusst. Große Lebensmittelhändler nutzen sie, um ihr Bestands- und Lieferkettenmanagement zu optimieren, was zu genaueren Bestandsvorhersagen und weniger Lebensmittelverschwendung führt. 21 In der Telekommunikationsbranche wird generative KI schon seit Jahren zum Entwerfen und Testen neuer Smartphone-Modelle eingesetzt. KI ermöglicht es Designer:innen in allen Branchen, verschiedene Designs zu testen und potenzielle Probleme zu erkennen, bevor physische Prototypen gebaut werden, was viel Zeit und Ressourcen spart.
33
Schmidt - Fast Forward 150x210 KORR3.indd 33
18.01.24 18:18
Sogar die Schönheitsbranche wird durch generative KI auf den Kopf gestellt. Kosmetikunternehmen nutzen die Technologie, um personalisierte Hautpflegeprodukte zu entwickeln. Durch die Analyse von Daten über den Hauttyp und das Alter einer Person sowie über die Umwelt, in der sie lebt, können die KI-Systeme der Unternehmen eine personalisierte Hautpflegeroutine erstellen. 22 Die Möglichkeiten für generative KI in unserem täglichen Leben sind endlos, und dies sind nur einige Beispiele dafür, wie sie bereits auf eine Weise in die Industrie integriert wird, die wir vielleicht nicht erwartet hätten. Es ist wichtig zu verstehen, dass es bei dieser Diskussion nicht nur um futuristische Ideen geht, sondern auch um die Auswirkungen, die solche Technologien bereits auf unser tägliches Leben haben.
Wie Tech-Titanen KI bereits nutzen In unserem Alltag nehmen wir die Technologie, die uns umgibt, oft als selbstverständlich hin. Von den Smartphones in unseren Hosentaschen bis hin zu den Autos auf den Straßen – künstliche Intelligenz ist in unserer Gesellschaft tief verwurzelt. Doch auch wenn wir es nicht immer sehen, nutzen einige der weltweit größten Technologieunternehmen KI auf eine Weise, die unsere Welt im Stillen verändert. Nehmen Sie zum Beispiel Google. Google steht seit einigen Jahren an der Spitze der KI-Forschung und -Entwicklung und hat zahlreiche Durchbrüche in den Bereichen Text, Bilder, Video und Audio erzielt. Das Unternehmen setzt KI ein, um die Online-Suche effizienter und präziser zu gestalten und die allgemeine Benutzerfreundlichkeit seiner Produkte zu verbessern. Das Sprachmodell BERT wurde 2019 in die Google-Suche implementiert und ermöglicht es dem System, die Nuancen und den Kontext von Suchanfragen zu verstehen, was zu besseren Suchergebnissen führt. Google Fotos nutzt KI, um unsere persönlichen Fotos automatisch zu organisieren und zu kategorisieren, damit wir bestimmte Erinnerungen leichter finden und teilen können. Und mit dem kürzlich veröffentlichten experimentellen KI-Chatdienst BARD kombiniert Google einen Chatbot, der auf seinem Sprachmodell für Dialoganwendungen (language model for dialogue application, LaMDA) basiert, mit seinem leistungsstarken Suchwerkzeug. 23 Allerdings hat BARD nach der Vorstellung eher enttäuscht. Deshalb hat Google es im Dezember 2023 mit
34
Schmidt - Fast Forward 150x210 KORR3.indd 34
18.01.24 18:18
einem neuen Sprachmodell, Gemini, das größter und leistungsfähigster ist, vorgestellt. Es ist für komplexe Aufgaben konzipiert und verarbeitet verschiedene Informationsarten wie Texte, Bilder, Audio, Video und Code. Durch Gemini wird BARD zu einem vielseitigeren und intelligenten Tool, das nicht nur in der Textverarbeitung, sondern auch in der Handhabung von Bildern, Videos, Audio und Programmiersprachen neue Möglichkeiten eröffnet. Google wurde durch die Investition von Microsoft in OpenAI, den Erfinder von ChatGPT, zur Veröffentlichung seiner neuesten KI-Fortschritte gedrängt. Der Chatbot-Dienst ChatGPT hat weniger als drei Monate nach seiner Veröffentlichung 100 Millionen Nutzer:innen erreicht und ist damit der am schnellsten wachsende Internetdienst in der Geschichte. 24 ChatGPT ist nur eine von einem Dutzend KIgesteuerter „Killer-Apps“, von denen erwartet wird, dass sie die Art der Arbeit verändern werden. Microsofts Investition in OpenAI hat es dem Tech-Titanen ermöglicht, eine führende Rolle bei der Erforschung der Marktakzeptanz von KI einzunehmen, indem generative KI-Dienste in die meisten seiner Produkte integriert wurden, darunter Teams, Bing, die Office Productivity Suite und die Cloud-Computing-Plattform Azure, um nur einige zu nennen. Bald wird jeder, der Microsoft-Produkte nutzt, direkten Zugang zu fortschrittlichen KI-Diensten haben. Im Januar 2023 sprach Microsoft-CEO Satya Nadella auf der Jahrestagung 2023 des Weltwirtschaftsforums in Davos (Schweiz) über die Vision des Unternehmens für ein „goldenes Zeitalter“ der künstlichen Intelligenz und die Rolle der generativen KI bei der Gestaltung der Zukunft der Arbeit. Nadella betonte, wie wichtig es ist, KI als „Co-Piloten“ zu nutzen, um den Menschen zu helfen, mit weniger mehr zu erreichen, und erklärte, dass Microsoft weiterhin eine Vorreiterrolle bei der KI-Innovation spielen will. 25 Eines der wichtigsten Schlachtfelder der Tech-Titanen ist die Websuche, die in den kommenden Monaten wahrscheinlich erhebliche Veränderungen erfahren wird. Die Nutzer:innen von Google und Bing kommen bereits in den Genuss dieser neuen Funktionen, aber auch andere Suchmaschinen rund um den Globus werden laufend verbessert. Das fieberhafte Investitionstempo hat ein Gerangel unter den Tech-Firmen ausgelöst, wobei sowohl Microsoft als auch Google ihre Strategien geändert haben, um die Kontrolle über das zu erlangen, was sie als
35
Schmidt - Fast Forward 150x210 KORR3.indd 35
18.01.24 18:18
neue Infrastrukturebene der Wirtschaft betrachten. Auch Meta, der Konzern, dem die sozialen Netzwerke Facebook und Instagram, aber auch die Instant-Messaging-Apps WhatsApp und Messenger gehören, ist im KI-Bereich aktiv. Die Wall Street reagiert mit ebenso großem Interesse. Analyst:innen stufen die Aktien von Unternehmen, die KI in ihren Plänen erwähnen, höher ein und strafen die anderen ab. Trotz der vielversprechenden Möglichkeiten von KI haben viele Unternehmen Mühe, mit den rasanten Fortschritten der Technologie Schritt zu halten, wobei die Bemühungen um die Sicherheit der Tools oft in den Hintergrund treten. Expert:innen warnen, dass Unternehmen, die eilig Technologie verbessern, um vom Boom zu profitieren, die Erforschung von Sicherheit und Risiken vernachlässigen. 26 In ihrem Eifer, der Entwicklung voraus zu sein, sparen die Unternehmen an allen Ecken und Enden und ignorieren die potenziellen Gefahren dieser mächtigen Werkzeuge. Sie nehmen sich keine Zeit für eine breite gesellschaftliche Debatte, bevor sie ihre Produkte auf den Markt bringen – eine Debatte, die notwendig sein wird, um negative soziale Auswirkungen zu erkennen und zu verringern. Es werden Fehler gemacht, und die Folgen könnten schwerwiegend sein. Googles BARD, Microsofts Bing und ChatGPT liefern manchmal unwahre Ergebnisse, die schwer zu erkennen sind. Die vielleicht beunruhigendste Entwicklung ist jedoch das Aufkommen der sogenannten Deepfakes – mit KI erstellte, realistisch wirkende Videos und Bilder, die zur Verbreitung von Hass und Fehlinformationen genutzt werden. Die aktuellen Probleme mögen Anlass zur Sorge geben, aber sie sind nur ein Vorgeschmack auf das, was kommen kann, wenn dieser Technologiewettlauf mit halsbrecherischer Geschwindigkeit weitergeht. Die aktuellen Entscheidungen von Big Tech ähneln denen früherer Epochen, die zerstörerische Schockwellen durch die Gesellschaft sandten und bleibende Narben hinterließen. Es steht mehr auf dem Spiel als je zuvor, und die Folgen einer Wiederholung vergangener Fehler könnten katastrophal sein. Im Streben nach Profit rücken Sicherheitsbedenken in den Hintergrund. KI-Firmen wie OpenAI haben sich die Schaffung einer AGI zum Ziel gesetzt, die in der Lage ist, den Menschen zu übertreffen. Diese zukünftige KI könnte eine existenzielle Bedrohung für die Menschheit darstellen und das Schreckgespenst unserer eigenen Auslöschung heraufbeschwören, warnen einige KI-Expert:innen. 27
36
Schmidt - Fast Forward 150x210 KORR3.indd 36
18.01.24 18:18
KI-Entwicklungen weltweit Die Entwicklung und der Einsatz von künstlicher Intelligenz sind nicht auf ein einzelnes Land oder eine Region beschränkt. Tatsächlich investieren Länder und Regionen auf der ganzen Welt in KI-Technologien und entwickeln diese, wobei jedes Land seinen eigenen Ansatz und seine eigenen Prioritäten hat. Die Vereinigten Staaten, Heimat einiger der weltweit größten Technologieunternehmen, sind eine treibende Kraft in der globalen KI-Landschaft und verfügen über ein robustes Ökosystem, das Start-ups fördert. Auch die US-Regierung hat in die KI-Forschung und -Entwicklung investiert, wobei Organisationen wie die Defense Advanced Research Projects Agency (DARPA)28 eine wichtige Rolle bei der Finanzierung und Leitung der KI-Forschung spielen. Darüber hinaus gibt es in den USA viele akademische Einrichtungen und Forschungszentren, die sich mit KI befassen, darunter das Massachusetts Institute of Technology (MIT) und die Stanford University. Ein weiterer wichtiger Akteur in der globalen KI-Landschaft ist China. Die chinesische Regierung hat zusammen mit Unternehmen wie Baidu und Tencent erhebliche Investitionen in KI getätigt und sich ehrgeizige Ziele für deren Entwicklung gesetzt. Sowohl das Land als auch seine Unternehmen haben sich somit als wichtige Akteure in der globalen KI-Landschaft etabliert. Darüber hinaus gibt es in China viele KI-Forschungseinrichtungen und eine wachsende Zahl von Start-ups in diesem Bereich. Auch Europa ist in der globalen KI-Branche stark vertreten. Die Europäische Union hat große Investitionen in die KI-Forschung und -Entwicklung getätigt und sich ehrgeizige Ziele für den Einsatz von KI-Technologien gesetzt. Europäische Unternehmen wie Siemens und Volkswagen investieren in KI, und es gibt auch eine wachsende Zahl von KI-Start-ups. Darüber hinaus haben Länder wie Frankreich und Deutschland nationale KI-Strategien ins Leben gerufen, um die Entwicklung der Technologie zu fördern. Andere Regionen der Welt, wie Kanada, Japan und Südkorea, haben ebenfalls eine wachsende Präsenz in der globalen KI-Landschaft. Jedes dieser Länder hat beträchtliche Investitionen in die KI-Forschung und -Entwicklung getätigt,
37
Schmidt - Fast Forward 150x210 KORR3.indd 37
18.01.24 18:18
und jedes hat seinen eigenen Ansatz für die Entwicklung und den Einsatz der Technologie. Der Wettlauf um die besten KI-Talente ist hart, und die Länder bieten attraktive Anreize und Finanzierungsmöglichkeiten, um die besten Forscher:innen und Unternehmer:innen zu gewinnen. Dieser rasante Machtkampf in der KI-Branche erinnert an das Wettrennen im Weltraum im 20. Jahrhundert. Die Vereinigten Staaten und die Sowjetunion investierten enorme Ressourcen in die Raumfahrt. Dieser Wettstreit führte zu monumentalen Errungenschaften wie der ersten bemannten Mondlandung, war aber auch mit Risiken und Gefahren verbunden, unter anderem mit dem Verlust von Menschenleben. Auch der Wettlauf um die künstliche Intelligenz hat bereits immense Fortschritte und Chancen für die Menschheit gebracht, birgt aber auch existenzielle Risiken, die sorgfältig abgewogen und reguliert werden müssen. Wenn wir in die Zukunft blicken, müssen wir unbedingt Lehren aus vergangenen technologischen Wettläufen ziehen und sicherstellen, dass Sicherheit und ethische Überlegungen Vorrang vor Innovation und Fortschritt haben. Darüber hinaus müssen wir bedenken, dass die Entwicklung von KI in der Regel energie- und technologieabhängig ist – eine Zugangsbarriere, die den globalen Süden eindeutig benachteiligt. Wenn die Entwicklung von KI voranschreitet, sollte die Gleichberechtigung ein wichtiger Maßstab sein, an dem sie gemessen wird. Denn wie beim Klimawandel, der die Menschen am stärksten trifft, die am wenigsten zu seiner Entstehung beigetragen haben, ist die Gefahr von globalen politischen Unruhen immens.
Der Turing-Test, ChatGPT, AGI und die Singularität Der Turing-Test, benannt nach dem legendären Informatikpionier Alan Turing, ist seit Jahrzehnten Gegenstand heftiger Diskussionen und Spekulationen in der Welt der Technik. Mit diesem Test, der 1950 konzipiert wurde, sollte die Fähigkeit einer Maschine bewertet werden, menschenähnliches Verhalten und Intelligenz zu zeigen. Heute verfügen wir über hochmoderne KI-Modelle wie ChatGPT, die mit riesigen Datenmengen trainiert wurden. Aber die Millionenfrage bleibt: Besteht ChatGPT den Turing-Test?
38
Schmidt - Fast Forward 150x210 KORR3.indd 38
18.01.24 18:18
Um sie beantworten zu können, sollten wir uns die Vorgeschichte des Turing-Tests und seine Bedeutung für die KI-Welt ansehen. Alan Turing war ein englischer Mathematiker und Informatiker und maßgeblich an der Entschlüsselung von Nachrichten im Zweiten Weltkrieg beteiligt. Bei dem Test führt ein menschlicher Bewerter ein Gespräch in natürlicher Sprache mit einem Menschen und einer Maschine, ohne zu wissen, wer wer ist. Ist der Prüfer nicht in der Lage, die Maschine von dem Menschen zu unterscheiden, hat die Maschine den Test bestanden. ChatGPT ist ein leistungsstarkes KI-Sprachmodell, das mit einem riesigen Korpus von Textdaten, darunter Bücher, Artikel und Webseiten, trainiert wurde. Zur Veranschaulichung: Ein durchschnittlicher Amerikaner liest 12 Bücher pro Jahr. 29 Je nach Fachgebiet enthalten diese Bücher jeweils etwa 50.000 bis 100.000 Wörter. Im Durchschnitt liest ein Amerikaner also etwa 1 Million Wörter pro Jahr. Selbst wenn man andere Sprachinputs wie soziale Medien, das Internet oder Zeitschriften miteinbezieht, würde es ein ganzes Leben dauern, bis man in die Milliarden von Wörtern kommt. ChatGPT hingegen wurde mit Hunderten von Milliarden von Wörtern trainiert. Dadurch kann ChatGPT menschenähnliche Antworten auf viele Fragen generieren. Trotz seiner fortschrittlichen Fähigkeiten haben die Macher von ChatGPT jedoch erklärt, dass das Modell nicht dazu gedacht ist, den Turing-Test zu bestehen, da es nicht darauf ausgelegt ist, menschenähnliche Intelligenz zu zeigen. Hat ChatGPT also den Turing-Test bestanden? Die Antwort lautet: Ja und Nein. Die Antworten von ChatGPT können zwar menschenähnlich sein, aber sie werden auf der Grundlage von Mustern in den Daten generiert, mit denen der Chatbot trainiert wurde, und nicht auf der Grundlage von echtem Bewusstsein oder Verständnis. Das Tool besteht also technisch gesehen den Turing-Test nicht, weil es nicht so konzipiert wurde, dass es ihn besteht. Sie können das selbst testen, indem Sie ChatGPT nach seinem Bewusstsein fragen. Es wird Ihnen immer sagen, dass es ein Computerprogramm ist, somit verfügt es nicht über eine menschenähnliche Intelligenz. Wir sollten jedoch nicht vergessen, dass das Ziel von OpenAI, dem Unternehmen, das ChatGPT ins Leben gerufen hat, letztlich darin besteht, eine AGI zu schaffen. Die Führungskräfte des Unternehmens glauben, dass diese Art von KI das Poten-
39
Schmidt - Fast Forward 150x210 KORR3.indd 39
18.01.24 18:18
zial hat, viele Branchen zu revolutionieren und einige der dringendsten Probleme der Welt zu lösen. AGI, oder künstliche allgemeine Intelligenz, wird oft im Kontext der „technologischen Singularität“ erwähnt. Die Singularität ist ein theoretischer Zeitpunkt, an dem KI-Systeme menschliche Intelligenz erreichen und potenziell übertreffen könnten, was zu einem exponentiellen Wachstum in der technologischen Entwicklung führen würde. Die Idee, dass eine AGI sich selbst verbessern könnte, was zu einer schnellen und möglicherweise unaufhaltsamen Zunahme der Intelligenz führt, wird oft als „Intelligenzexplosion“ beschrieben. Diese könnte sowohl Risiken als auch Chancen mit sich bringen, einschließlich der Möglichkeit, dass die KI außerhalb der menschlichen Kontrolle agiert. Diese Konzepte sind Gegenstand vieler Diskussionen unter KI-Theoretiker:innen und -Forschenden.
Die Diskrepanz zwischen Wahrnehmung und Dringlichkeit Doch wie weit sind wir von dieser hypothetischen Singularität entfernt? Es ist schwierig, vorherzusagen, wann dieser Zeitpunkt erreicht sein wird, da dies erhebliche Fortschritte im maschinellen Lernen, in der Kognitionswissenschaft und in anderen verwandten Bereichen erfordert. Einige Expert:innen haben jedoch Vorhersagen über den Zeitrahmen für das Erreichen von AGI gemacht. Eine der berühmtesten stammt von Ray Kurzweil, einem Futuristen und Direktor für Technik bei Google. Kurzweil hat vorausgesagt, dass AGI bis 2029 erreicht sein wird, basierend auf seinen Beobachtungen des exponentiellen Wachstums der Computerleistung und anderer technologischer Fortschritte. Ein anderer Experte, Demis Hassabis, Mitbegründer des KI-Unternehmens DeepMind, ist der Ansicht, dass das Erreichen von AGI eher ein allmählicher Prozess als ein plötzlicher Durchbruch sein wird. In einem Interview mit dem MIT Technology Review im Jahr 2019 erklärte Hassabis: „Ich denke, es wird eine Reihe von Durchbrüchen und Schritten in Richtung AGI geben und nicht nur einen einzigen ,Aha‘-Moment.“ Allerdings revidieren Expert:innen ihre Vorhersagen immer wieder, und die Meinungen gehen weit auseinander. In einer Studie aus dem Jahr 2022 wurden Expert:innen gebeten, den Zeitpunkt zu nennen, an dem ihrer Meinung nach eine 50-prozentige
40
Schmidt - Fast Forward 150x210 KORR3.indd 40
18.01.24 18:18
Chance besteht, dass eine KI auf menschlichem Niveau entwickelt sein wird, d. h., dass Maschinen in der Lage sind, alle Aufgaben unabhängig voneinander besser und kostengünstiger als Menschen auszuführen. Einige Expert:innen glauben, dass dieses Niveau von KI niemals erreicht wird, andere sagen, der Zeitpunkt liegt weit in der Zukunft, aber viele sehen ihn schon innerhalb der nächsten Jahrzehnte. Die Hälfte der Expert:innen rechnet mit einer KI auf menschlichem Niveau vor 2061 und 90 % rechnen noch in diesem Jahrhundert damit.30 Thomas Malone, Direktor des MIT Center for Collective Intelligence, erzählte in einer Begrüßungsrede für neue Studierende 2023, wie er sich in den 1980er-Jahren erstmals für KI interessierte und wie sie ihn faszinierte. Damals machte er sich aufgrund der raschen Entwicklung von KI Sorgen, zu spät in das Thema einzusteigen, da die wichtigsten Entwicklungen schon vor dem Ende seines Studiums passieren würden. Fast 40 Jahre später sind viele der damals diskutierten Möglichkeiten noch immer nicht verwirklicht. Aber das Interesse an KI wächst von Tag zu Tag – ebenso wie ihre Fähigkeit, Probleme zu lösen und neue Möglichkeiten zu schaffen. Die Einführung von ChatGPT hat in mehrfacher Hinsicht dazu beigetragen, dass sich KI auf dem Massenmarkt durchsetzt. Erstens haben ChatGPT und ähnliche Sprachmodelle das öffentliche Bewusstsein und das Verständnis für KI gestärkt, indem sie deren Potenzial zum Verstehen und Erzeugen von menschenähnlicher Sprache demonstriert haben. ChatGPT wurde zur Entwicklung einer breiten Palette von Anwendungen eingesetzt, darunter Chatbots, Sprachübersetzung und Inhaltserstellung, wodurch die Technologie einem breiteren Publikum zugänglich gemacht wurde. Darüber hinaus hat die Einführung dazu beigetragen, den Zugang zu KI zu demokratisieren, indem sie Entwickler:innen, Forscher:innen und Unternehmen ein kostenloses und weithin verfügbares Tool zur Verfügung stellt, mit dem sie experimentieren und auf dem sie aufbauen können. Dies hat die Einstiegshürden für die Entwicklung und Integration von KI-basierten Lösungen gesenkt und damit die Akzeptanz von KI-Technologien gefördert. Aufgrund ihrer zwanzigjährigen Erfahrung in der Telekommunikationsbranche vergleicht Claudia Winkler ChatGPT gerne mit der Einführung des iPhones im Jahr
41
Schmidt - Fast Forward 150x210 KORR3.indd 41
18.01.24 18:18
2007, das eine ganze Branche veränderte. Schon in den 1980er-Jahren, als sie im Bereich der Festnetzkommunikation arbeitete, sah sie Demos von Videochats, und 2007 gab es mobile Inhalte bereits seit Jahren. Das iPhone hat jedoch die Verbreitung dieser Dienste vorangetrieben, da sie plötzlich leicht zugänglich wurden. Es bot eine Reihe innovativer Funktionen wie einen Touchscreen, eine benutzerfreundliche Oberfläche und den App Store, der eine Plattform für die Erstellung und Verbreitung von Programmen. Dadurch wurde die mobile Computernutzung für ein breiteres Publikum zugänglicher und intuitiver, was die Verbreitung von Smartphones beschleunigte und die Art und Weise, wie wir mit Technologie umgehen, veränderte. Das iPhone hatte natürlich weitreichende Auswirkungen auf die Art und Weise, wie wir kommunizieren, arbeiten und mit der Welt interagieren – von mobilen Zahlungen und sozialen Medien bis hin zu E-Commerce und digitaler Unterhaltung. Sowohl ChatGPT als auch das iPhone haben eine wichtige Rolle bei der Demokratisierung des Zugangs zur Technologie und der Förderung von Innovationen gespielt. ChatGPT hat dazu beigetragen, KI für Entwickler und Unternehmen zugänglicher zu machen, während das iPhone eine Plattform für App-Entwickler bot, um neue und innovative Lösungen zu schaffen. Letztlich haben beide Technologien dazu beigetragen, die digitale Revolution zu beschleunigen und unsere Welt weiter zu verändern. Die außerordentlich schnelle Verbreitung von Smartphones hat zweifellos die Art und Weise, wie wir leben und arbeiten, verändert. Sie hat aber auch einige negative Folgen mit sich gebracht, die wir angehen müssen, wenn wir ähnliche Probleme bei der Einführung von KI vermeiden wollen. Ein wichtiges Thema ist die Auswirkung der Smartphone-Sucht auf unsere psychische Gesundheit. Studien zeigen einen Zusammenhang zwischen übermäßiger Smartphone-Nutzung und einem erhöhten Maß an Angst und Depression. Darüber hinaus haben sich der Aufstieg der sozialen Medien und ihre Auswirkungen auf unseren gesellschaftlichen und politischen Diskurs mitunter als problematisch erwiesen. Social-MediaPlattformen wurden für ihre Rolle bei der Verbreitung von Fake News, für die Verwendung persönlicher Daten zur Steigerung der Einnahmen, für die Polarisierung der öffentlichen Meinung und für das Schüren von politischer Polarisierung und Extremismus kritisiert.
42
Schmidt - Fast Forward 150x210 KORR3.indd 42
18.01.24 18:18
Um zu verhindern, dass bei KI ähnliche Probleme auftreten, müssen wir als Gesellschaft jetzt handeln, insbesondere angesichts der Anstrengungen zur Entwicklung einer AGI. Die Dringlichkeit zu handeln wird nicht überall verstanden. Es ist leicht, zu glauben, dass das Problem in der Zukunft gelöst werden kann. Aber wie wir in der Vergangenheit gesehen haben, kann das Warten, bis es zu spät ist, verheerende Folgen haben. Die Dringlichkeit wird immer größer, da Regierungen und Unternehmen in der ganzen Welt erhebliche Investitionen tätigen. Wenn wir zu lange warten, verlieren wir die Chance, die Zukunft so zu gestalten, dass KI allen zugutekommt. Darüber hinaus besteht die Gefahr, dass soziale und wirtschaftliche Ungleichheiten noch verschärft werden, wenn KI nicht auf faire und gerechte Weise entwickelt und eingesetzt wird. Wir sollten aber auch die Chancen für Fortschritt und Innovation erkennen. Es ist an der Zeit, dass wir auf eine Zukunft hinarbeiten, in der die Fortschritte von KI zu einer besseren Welt für uns alle führen können.
Blade Runner – das pessimistische Szenario Im Film „Blade Runner“ aus dem Jahr 1982 ist die Welt ein düsterer Ort, an dem fortschrittliche KI in Form von „Replikanten“ neben den Menschen existiert. Diese von der Tyrell Corporation geschaffenen Replikanten sind in jeder Hinsicht mit den Menschen identisch, werden aber für manuelle Arbeit und gefährliche Missionen eingesetzt. Sie sind auf eine begrenzte Lebensdauer ausgelegt, und wenn sie beginnen, ihre eigene Existenz infrage zu stellen und mehr Rechte zu fordern, werden sie von speziellen Polizeieinheiten, den sogenannten Blade Runnern, gejagt und „in Rente geschickt“. Der Film dient als abschreckendes Beispiel für die möglichen Folgen der Entwicklung fortschrittlicher KI ohne angemessene Berücksichtigung der ethischen Implikationen. Genau wie im Film schreitet die Entwicklung von KI rasch voran, und wir müssen die möglichen Folgen für die Gesellschaft bedenken. Was passiert, wenn KI so weit fortgeschritten ist, dass sie nicht mehr vom menschlichen Bewusstsein unterschieden werden kann? Welche Eigenschaften sollte KI haben? Sollte sie menschenähnlich sein, oder sollte das um jeden Preis vermieden werden? Welche Rechte sollte eine fortgeschrittene KI haben, und wie sollte die Gesellschaft mit
43
Schmidt - Fast Forward 150x210 KORR3.indd 43
18.01.24 18:18
der Integration dieser Maschinen in unsere Welt umgehen? Dies sind nur einige der ethischen Überlegungen, die bei der weiteren Erforschung der Möglichkeiten von KI berücksichtigt werden müssen. Der Physiker und Kosmologe Stephen Hawking wies auf die potenziellen Gefahren von künstlicher Intelligenz hin. In einer Reihe von Interviews und Artikeln warnte er davor, dass die Entwicklung von KI eine Bedrohung für die Menschheit darstellen könnte. Hawking erklärte, dass die rasante Entwicklung von KI dazu führen könnte, dass Maschinen entstehen, die „schlauer sind als die Menschen, die sie geschaffen haben“, was die Kontrolle über die Zukunft in die Hände von Maschinen legen könnte. Er warnte auch davor, dass KI zur Entwicklung autonomer Waffen eingesetzt werden könnte, was zu einem globalen Wettrüsten führen und die Wahrscheinlichkeit von Kriegen erhöhen könnte. Darüber hinaus forderte Hawking eine stärkere Regulierung der KI-Entwicklung und argumentierte, dass Regierungen und Industrie zusammenarbeiten müssen, um sicherzustellen, dass die Technologie auf verantwortungsvolle Weise entwickelt wird. Er betonte die Notwendigkeit von „Kontrollen und Gegenkontrollen“, um die Entwicklung von Maschinen zu verhindern, die Schaden anrichten könnten. Insgesamt machen Hawkings Äußerungen zu KI deutlich, dass bei der weiteren Entwicklung und Integration dieser leistungsstarken Technologie in unser Leben und unsere Gesellschaft Vorsicht und sorgfältige Überlegung geboten sind.
Das optimistische Szenario Einige Expert:innen sehen unsere KI-Zukunft jedoch insgesamt positiv. Im Herbst 2010 hatten Claudia Winkler und Florian Schütz die Gelegenheit, einen Vortrag des bekannten Futuristen und KI-Experten Ray Kurzweil zu besuchen. Damals schienen viele der Theorien und Vorhersagen, die er präsentierte, fast zu weit hergeholt, um glaubwürdig zu sein. Er sprach über den rasanten Fortschritt von KI und die vielen positiven Auswirkungen auf die Gesellschaft, vom Gesundheitswesen über die Bildung bis hin zum Transportwesen und darüber hinaus. Kurzweils Zukunftsprognosen hatten in der Vergangenheit eine erstaunlich hohe Trefferquote von 86 %.31 Die Fortschritte in der künstlichen Intelligenz sind expo-
44
Schmidt - Fast Forward 150x210 KORR3.indd 44
18.01.24 18:18
nentiell, und wir sehen jetzt die positiven Auswirkungen dieser Technologie in vielen Bereichen unseres Lebens. Zu den wichtigsten Fortschritten gehört die Fähigkeit, große Datenmengen schnell und präzise zu verarbeiten und zu analysieren. Dies hat, wie bereits erwähnt, zu Verbesserungen in Bereichen wie dem Gesundheitswesen geführt, wo KI zur Analyse medizinischer Bilder und zur Unterstützung bei Diagnosen eingesetzt wird. Im Verkehrswesen werden selbstfahrende Autos zur Realität, und im Bildungswesen tragen KI-gestützte Lernsysteme dazu bei, den Unterricht zu personalisieren und die Ergebnisse der Schüler:innen zu verbessern. Ein wichtiger Punkt, den Kurzweil anspricht, ist die Idee der „Intelligenzverstärkung“. Er geht davon aus, dass wir durch die Erweiterung unserer eigenen Intelligenz durch die von Maschinen weit mehr erreichen können, als wir je für möglich gehalten hätten. Dazu gehören Errungenschaften wie die Ausrottung von Krankheiten, die Verlängerung unserer Lebenserwartung und sogar die Besiedlung anderer Planeten. Kurzweil argumentiert, dass Maschinen in der Lage sein werden, viele Aufgaben zu übernehmen, die derzeit von Menschen ausgeführt werden, was uns mehr Zeit für kreative und erfüllende Tätigkeiten verschafft. Außerdem, so Kurzweil, wird KI bei der Entscheidungsfindung helfen und so menschliche Voreingenommenheit und Fehler verringern. Kurzweils Vorhersagen mögen zwar ehrgeizig oder übertrieben optimistisch erscheinen, er liefert jedoch eine detaillierte und gut recherchierte Begründung dafür, warum er sie für realistisch hält. Er räumt auch ein, dass es Herausforderungen und Hindernisse geben wird, die überwunden werden müssen, um die Singularität zu erreichen, argumentiert aber letztlich, dass die Vorteile die Risiken bei Weitem überwiegen. Der Zeitpunkt, an dem KI die menschliche Intelligenz übertrifft und Maschinen zur Selbstverbesserung fähig sind, mag noch in weiter Ferne liegen. Der rasche Fortschritt der KI-Technologie bedeutet jedoch: Es nicht mehr eine Frage des Ob, sondern des Wann. Es gibt zwar viele berechtigte Bedenken hinsichtlich der Auswirkungen von KI auf die Gesellschaft, aber die Technologie hat eindeutig das Potenzial, auch bedeutende positive Veränderungen zu bewirken. Kurzweils Vorhersagen könnten durchaus ein Fahrplan für eine mögliche Zukunft sein.
45
Schmidt - Fast Forward 150x210 KORR3.indd 45
18.01.24 18:18
So geht’s weiter In diesem Kapitel haben wir einen umfassenden Blick auf das Thema KI geworfen, von der Erläuterung der Grundlagen bis hin zu den ethischen Auswirkungen der Technologie. Wir haben wichtige Beispiele für KI in der Praxis kennengelernt, aufgezeigt, wie Tech-Titanen KI bereits nutzen, und die globalen Entwicklungen in diesem Bereich analysiert. Schließlich haben wir die potenziellen Gefahren von KI aufgezeigt und diese dann mit einer sehr optimistischen Perspektive kontrastiert. Wir sollten nicht passiv bleiben, sondern unsere Zukunft positiv gestalten und Folgendes tun: , uns proaktiv über Fortschritte von KI informieren, mit neuen Tools experimentieren und potenzielle Auswirkungen von KI auf verschiedene Branchen und die Gesellschaft analysieren , bei der Entwicklung und beim Einsatz von KI-Diensten Grundsätze der menschenzentrierten Gestaltung anwenden und verschiedene Stimmen und Perspektiven einbeziehen , für eine verantwortungsvolle und transparente Regulierung von KI eintreten, um sicherzustellen, dass ihre Vorteile allen zugutekommen und ihre Risiken gemindert werden
46
Schmidt - Fast Forward 150x210 KORR3.indd 46
18.01.24 18:18
KAPITEL 3: EIN WUNDERMITTEL FÜR SOZIALE GERECHTIGKEIT? Im Zeitalter der Maschinen ist es die Essenz des Menschlichen – Glück, Mitgefühl und Liebe –, die die Menschheit retten wird.32 Mo Gawdat, ehemaliger Chief Business Officer bei Google
Als globale Gesellschaft haben wir uns in vielen Dingen hervorgetan, aber wir haben es nicht geschafft, soziale Gerechtigkeit zu schaffen. Wir leben in einer Welt, in der ein kleiner Prozentsatz der Weltbevölkerung den Großteil der Treibhausgasemissionen und der Umweltverschmutzung verursacht, in der die Vorstandsvorsitzenden großer Modeunternehmen in wenigen Tagen so viel verdienen wie die Arbeiterinnen in der Bekleidungsindustrie in ihrem ganzen Leben. Wo immer noch Millionen von Menschen an Hunger sterben, während ihre Nachbarn im Übermaß konsumieren. KI kann uns bei der Lösung vieler Probleme helfen, weshalb viele Unternehmen KI-Modelle aller Art erforschen, entwickeln, einsetzen und verkaufen wollen. Das Rennen ist eröffnet. Doch kann die KI uns wirklich helfen, und wenn ja, wie? Oder wird sie weiterhin nur bestehende Machtdynamiken und Muster sozialer Ungerechtigkeit aufrechterhalten und sogar verstärken? In diesem Kapitel analysieren wir, wie KI den Menschen bereits hilft, und diskutieren ihr Potenzial, Gesundheit, Wohlstand und Wohlbefinden für alle zu verbessern. Anhand ausgewählter Beispiele heben wir unterschiedliche Risiken im sozialen Bereich hervor und zeigen, was sich im Gesamtbild ändern muss, damit KI den Nutzen für die Mehrheit maximiert und nicht nur einigen wenigen Privilegierten zugutekommt.
47
Schmidt - Fast Forward 150x210 KORR3.indd 47
18.01.24 18:18
Die Anfänge der Chatbots In den 1960er-Jahren entwickelte der MIT-Professor Joseph Weizenbaum so etwas wie den ersten Chatbot der Welt. Er nannte ihn ELIZA, in Anlehnung an George Bernard Shaws Theaterstück „Pygmalion“ und das Musical „My Fair Lady“. Darin wird Eliza Doolittle, einer jungen Frau aus der Arbeiterklasse, beigebracht, „richtig“ zu sprechen und sich korrekt zu benehmen, um Zugang zur Londoner High Society zu erhalten. ELIZA wurde trainiert, einen Psychotherapeuten nachzuahmen. Der Bot verwendete offene Fragen und wandte Mustervergleichs- und Substitutionstechniken an, um auf Benutzereingaben in einer Weise zu reagieren, die Verständnis und Einfühlungsvermögen vermittelte. Offensichtlich war der ELIZABot, so wie seine musikalische Schwester, ein großer Erfolg. Auch wenn ELIZA nach heutigen Maßstäben eher einfältig wirkt, hat „sie“ den Menschen, die sich mit „ihr“ unterhielten, viel Gutes getan. Durch das Erkennen von Schlüsselwörtern in Sätzen, die der Benutzer in ein ChatFeld eintippte, konnte ELIZA Fragen stellen, die im Zusammenhang einen Sinn ergaben. Das reichte aus, um Menschen von „ihren“ Fähigkeiten zu überzeugen. ELIZA wirkte viel schlauer, als „sie“ tatsächlich war. Der Bot funktionierte so gut, weil die dabei eingesetzte Rogerianische Psychotherapie die Praxis des „aktiven Zuhörens“ anwendet, bei der der Therapeut bestimmte Aspekte der von den Patient:innen bereitgestellten Informationen an diese zurückspielt.33 Wenn man die Geschichte der Chatbots recherchiert, stößt man bald auf A.L.I.C.E., auch ALICEbot genannt, einen Chatbot zur Verarbeitung natürlicher Sprache, der 1995 von Richard Wallace entwickelt und von ELIZA inspiriert wurde. A.L.I.C.E. basiert auf der Idee des Mustervergleichs und des fallbasierten Denkens. Sie verfolgte einen ausgefeilteren Ansatz zur Verarbeitung natürlicher Sprache als ELIZA und war in der Lage, aus einer großen Datenbank mit vorformulierten Antworten natürlichere und vielfältigere Antworten auf Benutzereingaben zu erzeugen. A.L.I.C.E. war als Gesprächspartnerin konzipiert, die in der Lage ist, sich auf eine breite Palette von Themen einzulassen und hilfreiche Informationen zu liefern.34 A.L.I.C.E. diente übrigens auch als Inspiration für den Film „Her“ von Spike Jonze, in dem sich ein Mensch in einen überzeugenden Bot namens Samantha verliebt.35
48
Schmidt - Fast Forward 150x210 KORR3.indd 48
18.01.24 18:18
Der Erfolg von ELIZA und ihren Nachfolgerinnen zeigt, dass KI einige Aspekte menschlicher Arbeit ersetzen kann, z. B. psychologische Unterstützung oder Psychotherapie. Er zeigt aber auch, dass Menschen emotionale Bindungen zu Maschinen entwickeln können, auch wenn sie keine zusätzlichen Dienstleistungen erbringen, wie z. B. die von Sexpuppen. Maschinen sind immer besser in der Lage, ihren menschlichen Benutzer:innen den Eindruck von Emotionen zu vermitteln, bis hin zu dem Punkt, dass sie Zuneigung zu erwidern scheinen.36
KI im Gesundheitsbereich Das Gesundheitswesen hat in vielen Ländern mit Problemen zu kämpfen. Die Bevölkerung wird immer älter und die Kosten explodieren. In vielen Regionen der Welt haben Teile der Bevölkerung keine medizinische Grundversorgung. Der Zugang zu einer qualitativ hochwertigen Gesundheitsversorgung ist jedoch ein grundlegendes Menschenrecht. Daher ist es eine gute Nachricht, dass KI hier helfen kann. Um jedoch sicherzustellen, dass keine unbeabsichtigten Nebenwirkungen auftreten, müssen ethische Erwägungen und die Menschenrechte in den Mittelpunkt der Konzeption, der Entwicklung und des Einsatzes von KI-Technologien im Gesundheitssektor gestellt werden. Solange diese Grundsätze befolgt werden, birgt KI ein großes Potenzial zur Verbesserung der Gesundheitsversorgung, einschließlich der Prävention, Diagnose und Behandlung von Krankheiten; tatsächlich verändert sie bereits die Art und Weise, wie Gesundheitsdienstleistungen erbracht werden, insbesondere in reichen Ländern. So gibt es heute immer mehr Belege dafür, dass KI bei der Diagnose von Krankheiten helfen kann, darunter Gehirn-, Brust-, Haut- und Magenkrebs. In ersten Untersuchungen – von denen die meisten noch durch klinische Studien bestätigt werden müssen – schneidet KI bei der Erkennung bestimmter Krankheitsbilder mindestens genauso gut ab wie menschliche Mediziner:innen. Wenn sich KI weiter verbessert, könnte sie es medizinischen Dienstleistern ermöglichen, schnellere und genauere Diagnosen zu stellen, was letztlich sowohl Leid als auch Kosten erspart. KI-Systeme könnten eingesetzt werden, um andere Krankheiten wie Schlaganfälle oder Lungenentzündungen schnell zu erkennen oder um Krank-
49
Schmidt - Fast Forward 150x210 KORR3.indd 49
18.01.24 18:18
heiten vorherzusagen, bevor sie auftreten. So könnten KI-Modelle das Krankheitsrisiko einer Person einschätzen und Wege zur Vorbeugung aufzeigen, die oft mit Lebensstilfaktoren zusammenhängen.37 KI macht menschliches Gesundheitspersonal nicht überflüssig, aber sie kann es unterstützen und ihm das Leben erleichtern. In ärmeren Ländern, von denen viele mit einem gravierenden Mangel an Gesundheitspersonal kämpfen, könnte KI, wenn sie klug eingesetzt wird, Ärzt:innen und Pflegenden wertvolle Zeit verschaffen. KI kann auch im Backoffice-Bereich der Gesundheitssysteme eingesetzt werden. Sie kann dabei helfen, knappe Ressourcen zu verteilen, von Finanzmitteln und medizinischem Material bis hin zu menschlichen Organen. Mühsame und manchmal schwierige Aufgaben wie die Logistik von Medikamenten, die Personalplanung oder die Terminplanung für Patient:innen werden durch KI einfacher. KI kann sogar vorhersagen, welche Patient:innen wahrscheinlich nicht zu ihren Terminen erscheinen werden, und Betrug und Verschwendung erkennen. Eine weitere wichtige Anwendung ist die Analyse elektronischer Gesundheitsakten im Rahmen der Gesundheitsforschung. Sorgfältig konzipierte und mit geeigneten Daten trainierte KI kann z. B. helfen, klinische Best Practices zu ermitteln. KI kann auch dazu beitragen, dass sich Gesundheitsdienste vom formalen Gesundheitssektor wegbewegen. Sie kann Patient:innen helfen, Krankheiten wie Herz-Kreislauf-Erkrankungen, Diabetes oder psychische Probleme zu Hause zu behandeln. Viele KI-gesteuerte Technologien erfordern den Einsatz mobiler Anwendungen oder Wearables, die in den Körper (künstliche Gliedmaßen, intelligente Implantate), am Körper (Insulinpumpenpflaster, Elektroenzephalogramm-Geräte) oder in Körpernähe (Aktivitätstracker, intelligente Uhren oder intelligente Brillen) eingesetzt werden. Und schließlich kann KI die Arzneimittelentwicklung vereinfachen und beschleunigen.38 Einfach coole neue Technologien einzusetzen und zu erwarten, dass sie unsere Gesundheit verbessern, wird jedoch nicht funktionieren. Ohne einen Blick auf das große Ganze, der Perspektiven aus verschiedenen Disziplinen, einschließlich der Patient:innensicht, einbezieht, könnte KI mehr Probleme schaffen als lösen. Zunächst einmal wird das Gesundheitspersonal seine Praktiken anpassen müs-
50
Schmidt - Fast Forward 150x210 KORR3.indd 50
18.01.24 18:18
sen, wenn der Einsatz von KI zunimmt. Ärzt:innen und Pflegende müssen wissen, wie sie mit KI-Modellen zusammenarbeiten, wie sie Risiken kommunizieren und Kompromisse mit Patient:innen diskutieren können. Da KI Aufgaben automatisiert, haben sie möglicherweise mehr Zeit, um den Patient:innen zuzuhören. Aber sie werden auch mit neuen Herausforderungen konfrontiert, etwa wenn ein KI-Modell eine andere Diagnose oder einen anderen Behandlungsplan vorschlägt als sie selbst. Es gibt erste Warnzeichen für einen Trend zur „algorithmischen Bevormundung“: KI-Empfehlungen werden auch dann befolgt, wenn sie gegen das beste Wissen und Gewissen menschlicher Ärzt:innen verstoßen oder Informationen der Patient:innen über ihre Gefühle, ihren Glauben oder ihre Kultur ignorieren. Wie wir in Kapitel 7 (s. S. 140) feststellen werden, ist KI nur so gut wie die Daten, mit denen sie gefüttert wird, und die Qualität hängt auch von der Art und Weise des Trainings ab. Viele der Daten, mit denen KI-Modelle im Gesundheitswesen gefüttert werden, sind verzerrt und enthalten keine relevanten Kontextdaten; außerdem spiegeln sie Erkenntnisse wider, die Ärzt:innen in der Vergangenheit gewonnen haben. Historische Daten können jedoch aus diversen Gründen verzerrt oder fehlerhaft sein, und sie enthalten möglicherweise nur begrenzte Informationen darüber, wie ein Problem in Zukunft zu behandeln ist.39 Die wichtigste Frage, die Sie sich stellen sollten, lautet: Was wäre nötig, damit Sie einem KI-Modell vertrauen? Wenn KI zu einem anderen Ergebnis kommt als Ihr Hausarzt, wessen Empfehlungen würden Sie dann folgen? Wem würden Sie Ihr Leben anvertrauen?
Wenn KI Kinder in Pflegefamilien unterbringt Wir wissen bereits, dass Technologie nicht neutral ist und dass KI nur so gut ist wie die Daten, mit denen die Maschine trainiert wurde, und die Menschen, die diese trainiert haben. Die Entwicklung und Implementierung von KI ist nicht einfach. Insbesondere werden menschliche Expert:innen benötigt, um Algorithmen zu entwickeln, Trainingsdaten für den Algorithmus vorzubereiten und dann die Ergebnisse so zu übersetzen, dass wir sie verstehen. Bei diesem Prozess kann viel schiefgehen.
51
Schmidt - Fast Forward 150x210 KORR3.indd 51
18.01.24 18:18
Im Jahr 2013 hat ein von der niederländischen Regierung eingesetzter Algorithmus das Leben von 25.000 Eltern durcheinandergebracht. Künstliche Intelligenz wurde eingesetzt, um eine ihrer besonderen Stärken auszuspielen, nämlich Vorhersagen durch die Analyse großer Datenmengen zu treffen. Die Regierung wollte wissen, welche Personen am ehesten Betrug mit Kinderbetreuungsgeld begehen würden. Anstatt jedoch auf Beweise zu warten, bestrafte sie die durch KI identifizierten Familien sofort und forderte sie auf, jahrelang bezogene Leistungen zurückzuzahlen. Die Familien wurden anhand von „Risikofaktoren“ wie geringem Einkommen oder doppelter Staatsangehörigkeit in Kategorien eingeteilt. Infolgedessen mussten Zehntausende von Menschen unnötigerweise Geld zurückzahlen und mehr als 1.000 Kinder wurden in Pflegefamilien untergebracht, bevor das Problem erkannt wurde.40 Es gibt auch aktuellere Beispiele. So wurden KI-Algorithmen zur Vorhersage von Rückfallquoten nach Straftaten eingesetzt, die wiederum als Grundlage für Entscheidungen über Kautionen und Verurteilungen dienen. Algorithmen wie das COMPAS-System, das in den US-Bundesstaaten Kalifornien, Florida, New York und Wisconsin eingesetzt wird, haben sich jedoch als voreingenommen gegenüber bestimmten rassischen und ethnischen Gruppen erwiesen und diskriminierende Ergebnisse gebracht, die in einigen Fällen zu Strafen von bis zu sechs Jahren für ein geringfügiges Vergehen führten.41 Eine Möglichkeit, solche Ergebnisse zu vermeiden und KI-Modelle vertrauenswürdiger zu machen, bestünde darin, ihre Vorhersagen oder Empfehlungen mit einem „Confidence Score“ (Wert über die Vertrauenswürdigkeit) zu versehen. In vielen Fällen wissen die Menschen, die Maschinen trainieren, sehr wenig über die Realitäten, die sie durch ihre Arbeit beeinflussen. Aber einige erkennen mittlerweile, dass es notwendig und möglich ist, tragische Fehler wie die oben beschriebenen zu verhindern. Die Lösung liegt auf der Hand: Man muss Menschen einbeziehen, die sich mit der Materie auskennen. Einfach nur vage Empfehlungen für eine breitere Beteiligung auszusprechen geht an der Sache vorbei. Ja, wir brauchen eine viel breitere Beteiligung und damit eine Repräsentation unterschiedlicher gesellschaftlicher Belange, aber manchmal müssen wir sehr genau
52
Schmidt - Fast Forward 150x210 KORR3.indd 52
18.01.24 18:18
festlegen, welche Art von externem Fachwissen benötigt wird, damit KI weniger voreingenommen ist und ihre Aufgabe besser erfüllen kann. Was zählt, ist nicht nur Diversität per se, sondern auch die Ermöglichung aktiver, sinnvoller Beiträge der relevanten Interessengruppen. Alles andere könnte – ob beabsichtigt oder nicht – zu einem „Participation Washing“ führen und damit zur Aufrechterhaltung von Ungleichheit und Ausgrenzung beitragen. Damit Algorithmen gerechter und korrekter werden, muss man mit Menschen sprechen, die von einem Thema betroffen sind. Eine Gruppe von Wissenschaftler:innen hat vor Kurzem ein Instrument zur Verbesserung des maschinellen Lernens entwickelt, das sich auf Beiträge in sozialen Medien stützt und Lebenserfahrungen von Betroffenen einbezieht. Der Algorithmus, der Twitter-Posts im Zusammenhang mit Bandengewalt in Chicago identifiziert, wurde verbessert, indem das Wissen von Personen mit tatsächlicher Bandenerfahrung in der Gegend herangezogen wurde. Das war wichtig, um den Daten Bedeutung und Kontext zu verleihen und die Kommunikation zu analysieren. Der hier entwickelte Ansatz könnte auch allgemeiner in einer Vielzahl von Kontexten angewendet werden. Eine mögliche Erweiterung ist die Entwicklung von Sprachidentifikatoren für rechtsextreme und andere Hassgruppen. Diese haben alle eine bestimmte Art zu sprechen, zu schreiben und mit Emojis zu kommunizieren. Die Forscher:innen argumentieren, dass ihr Ansatz herkömmlichen Spracherkennungen, die oft wichtige Nuancen, Kontextmerkmale und kulturspezifische Sprechstile übersehen, deutlich überlegen ist.42 Daten- und Trainingsverzerrungen sind ein großes Problem, wenn es um KI geht. Wir werden später auf dieses Thema zurückkommen. Doch zunächst wollen wir uns auf ein wichtiges soziales Thema konzentrieren, nämlich Behinderung – ein Bereich, in dem Aktivist:innen seit Jahrzehnten mit dem Slogan „Nothing About Us Without Us“ Pionierarbeit für gleichberechtigte Teilhabe leisten.
Das Leben von Menschen mit Behinderung verbessern Wie viele Menschen mit Behinderung kennen Sie? Wenn Sie insgesamt 100 Menschen kennen, ist es wahrscheinlich, dass Sie ein gutes Dutzend oder mehr mit
53
Schmidt - Fast Forward 150x210 KORR3.indd 53
18.01.24 18:18
Behinderung kennen. Nach Angaben der Weltgesundheitsorganisation haben weltweit 1,3 Milliarden Menschen eine „erhebliche“ Behinderung.43 Das sind 16 % der Weltbevölkerung. Mit anderen Worten: Behinderung ist Teil des Menschseins und ein wesentlicher Bestandteil der menschlichen Erfahrung. Behinderungen sind nicht absolut zu sehen, sondern das Ergebnis des Zusammenspiels zwischen gesundheitlichen Problemen wie Blindheit, Demenz oder Rückenmarksverletzungen einerseits und umweltbedingten und persönlichen Faktoren andererseits. Die Zahl der Menschen mit Behinderungen nimmt mit der Überalterung der Bevölkerung zu. Eine Behinderung zu haben ist an sich schon ungerecht. Darüber hinaus sterben Menschen mit Behinderungen früher, haben einen schlechteren allgemeinen Gesundheitszustand und sind im Alltag stärker eingeschränkt als andere Menschen. KI hat das Potenzial, das Leben von Menschen mit Behinderungen auf verschiedene Weise zu verbessern. Denken Sie zum Beispiel daran, dass es weltweit 40 Millionen blinde Menschen gibt. Bislang hatten diese Menschen im Wesentlichen nur zwei Hilfsmittel: Gehstöcke und Blindenhunde. Blindenhunde sind großartig, aber es gibt nur 20.000 von ihnen weltweit, und viele blinde Menschen sind nicht in der Lage, sich um Tiere zu kümmern. Das Start-up dotLumen stellt blinden Menschen das technologische Äquivalent eines Blindenhundes zur Verfügung. Es kombiniert Technologien aus dem Bereich des autonomen Fahrens mit künstlicher Intelligenz und Robotik und bündelt diese in einem Wearable-System. Kernstück des Systems ist ein Headset, eine „Brille“, die die Umgebung versteht. Sie identifiziert Objekte, registriert ihre Position und Bewegung in 3D, berechnet Interaktionspfade und übermittelt den Träger:innen Informationen durch haptische und auditive Impulse. In einem Supermarkt zum Beispiel kann die dotLumen-Technologie eine blinde Person auf sichere und effiziente Weise in die Gemüseabteilung führen. Erste Nutzer:innen berichten, dass das System ihnen ein neues, bisher nicht gekanntes Gefühl der Freiheit vermittelt.44 Die KI-gestützte Spracherkennungstechnologie kann Menschen mit Sprachbehinderungen helfen, effektiver zu kommunizieren. Heute gibt es viele KI-gestützte Spracherkennungssysteme, die gesprochene Worte in Text umwandeln können.
54
Schmidt - Fast Forward 150x210 KORR3.indd 54
18.01.24 18:18
Die Unfähigkeit, mit anderen zu kommunizieren, beraubt Menschen buchstäblich ihrer Stimme in der Gesellschaft. Mehrere der in diesem Buch erwähnten Hilfsmittel setzen genau an diesem Punkt an. Sie helfen Menschen mit Hör- oder Sprachbehinderungen bei der Kommunikation, unterstützen sie bei alltäglichen Aufgaben wie dem Tragen von Gegenständen und verbessern physiologische Funktionen wie das Gehör, sodass die Nutzer:innen als vollwertige Mitglieder an der Gesellschaft teilhaben können. Wenn es um Inklusion geht, sind die Fähigkeit, als vollwertiges Mitglied an der Gesellschaft teilzuhaben, und ein Umdenken derjenigen, die als „gesund“ gelten, entscheidend. Wie immer müssen wir bedenken, dass KI-Systeme auch Vorurteile und die Diskriminierung von Menschen mit Behinderungen aufrechterhalten und verstärken können. Daher muss sichergestellt werden, dass sie so konzipiert und eingesetzt werden, dass sie Zugänglichkeit, Transparenz und Rechenschaftspflicht fördern und mit den Werten und Zielen einer gerechten und ausgewogenen Gesellschaft in Einklang stehen.
Wird Behinderung abgeschafft? Lassen Sie uns noch einmal darüber nachdenken, was Behinderung eigentlich bedeutet. Wir alle sind unterschiedlich begabt, sowohl in körperlicher als auch in kognitiver Hinsicht. In den meisten Gesellschaften werden Menschen als „behindert“ bezeichnet, wenn sie in einem oder in beiden Bereichen unter eine bestimmte Schwelle fallen. Das US-amerikanische Center for Disease Control and Prevention, die wichtigste öffentliche Gesundheitsbehörde Amerikas, definiert Behinderung als „jeden körperlichen oder geistigen Zustand (Beeinträchtigung), der es der betroffenen Person erschwert, bestimmte Tätigkeiten auszuführen (Aktivitätseinschränkung) und mit ihrer Umwelt zu interagieren (Teilhabeeinschränkung)“.45 Dies deckt sich gut mit der Ansicht der Weltgesundheitsorganisation, dass Behinderung ein Teil des Menschseins ist und dass fast jeder Mensch irgendwann in seinem Leben vorübergehend oder dauerhaft von einer Behinderung betroffen sein wird.46
55
Schmidt - Fast Forward 150x210 KORR3.indd 55
18.01.24 18:18
Wichtig dabei ist, dass eine Behinderung nicht absolut ist, sondern aus den Wechselwirkungen zwischen Personen mit einer Beeinträchtigung wie dem Down-Syndrom oder einer Depression einerseits und anderen Faktoren wie negativen Einstellungen, unzugänglichen öffentlichen Verkehrsmitteln oder begrenzter sozialer Unterstützung andererseits resultiert. Diese sehr viel weiter gefasste Definition eröffnet KI einen erheblichen Handlungsspielraum, da Algorithmen, die Sehen und Sprechen miteinander verbinden, für Menschen mit Behinderung ebenso hilfreich sein könnten wie Algorithmen, die den Verkehr optimieren oder sogar fahrerlose Mobilität ermöglichen. Es gibt noch eine andere Sichtweise auf Behinderung. Was ist, wenn Menschen angesichts der enormen Möglichkeiten, die Technologie bietet, das Gefühl haben, „behindert“ zu sein? Was ist, wenn durchschnittliche oder sogar außergewöhnliche menschliche Fähigkeiten nicht mehr ausreichend erscheinen? Hugh Herr, ein MIT-Professor, verlor 1982 im Alter von 17 Jahren bei einem Kletterunfall beide Beine. Nur ein Jahr später stand er mit zwei Beinprothesen wieder auf dem Berg und kletterte besser als je zuvor. Seitdem hat Herr seine persönlichen Erfahrungen und seine Leidenschaft in eine Karriere im Bereich Biomechatronik umgewandelt, was ihm den Titel „Leader of the Bionic Age“ des Times Magazine einbrachte. Herrs Beinprothesen sind viel leistungsfähiger, als es seine biologischen Beine je hätten sein können. Indem er die Beinprothesen länger als seine Arme machte, vergrößerte Herr seine Körpergröße und verbesserte seine Fähigkeit, Griffe zu erreichen. Dank einer ultraleichten Karbonkonstruktion reduzierte er sein Gewicht, was es ihm ermöglicht, Klimmzüge an nur einem Finger hängend zu machen. Seine Prothesen unterscheiden sich auch stark von natürlichen Körperteilen. Die Füße sind so klein wie die eines Babys und ermöglichen es ihm, auf winzigen Griffen zu stehen; die Beine laufen spitz zu und können sich in Felsspalten verkeilen, und die mit Spikes versehenen Sohlen rutschen auch auf blankem Eis nicht. Das änderte die Wahrnehmung der Menschen um 180 Grad: „Die Meinungen änderten sich völlig, als ich Felswände zu ersteigen begann, auf die sonst keiner klettern konnte. Menschen, die noch kurz zuvor mitleidig auf mich herabgesehen hatten, äußerten plötzlich Ärger und Neid. Manche erklärten, sie würden sich ihre eigenen Beine abschneiden lassen, um mithalten zu können“, erzählt Herr.47
56
Schmidt - Fast Forward 150x210 KORR3.indd 56
18.01.24 18:18
Herrs Beispiel ist ein Beweis dafür, wie fließend das Konzept der Behinderung ist, und zeigt, dass die Technologie tatsächlich das Potenzial hat, das Leben der Menschen zu verbessern. Herr argumentiert, dass angesichts der heutigen technologischen Möglichkeiten, einschließlich künstlicher Intelligenz, die meisten Behinderungen bis zum Ende dieses Jahrhunderts nicht mehr existieren werden. Er prognostiziert, dass der Mensch in 100 Jahren nicht wiederzuerkennen sein wird und dass unsere Nachfahren ganz andere Vorstellungen von Schönheit und Intelligenz haben werden als wir. „Sie werden mit einer menschlichen Vielfalt leben, die wir uns heute noch nicht einmal ausmalen können“, sagt er.48
KI im globalen Süden Während im Allgemeinen Grund zu der Annahme besteht, dass Herrs Vorhersagen für die privilegierteren Bürger:innen der Welt eintreffen könnten, muss man eher skeptisch sein, was Menschen in ärmeren Regionen der Welt, wie z. B. in Teilen Afrikas, betrifft. Schließlich gibt es eine große Diskrepanz zwischen dem, was technologisch möglich ist, und dem, was für die breite Masse verfügbar und erschwinglich ist. Zwar muss man ganz klar das wirtschaftliche und soziale Potenzial des afrikanischen Kontinents sehen und sich bewusst sein, dass am Ende dieses Jahrhunderts etwa 4 Milliarden Menschen in Afrika leben werden, während die Bevölkerung Europas und Nordamerikas zusammengenommen noch unter einer Milliarde liegen wird. Und dass Afrika sehr vielfältig ist, mit seinen 54 Ländern, die sich durch unterschiedliche ökologische Zonen, Sprachen, Kulturen, Ressourcen usw. auszeichnen. Man muss aber auch bedenken, dass die Einkommen in den einzelnen Regionen extrem ungleich verteilt sind, und damit auch Lebenserwartung, Bildung und Gesundheit. Hinzu kommt, dass die ärmeren Regionen der Welt am meisten unter den Folgen des Klimawandels und der Umweltzerstörung leiden und sich nur schwer anpassen können, da die reicheren Länder nicht bereit sind, für die von ihnen verursachten Schäden aufzukommen. Deshalb ist es wichtig, die Möglichkeiten von KI zur Verbesserung der Gleichberechtigung und der sozialen Gerechtigkeit in ärmeren Regionen der Welt zu untersuchen. Tragen solche Technologien bereits zu mehr Gesundheit, Wohlstand und
57
Schmidt - Fast Forward 150x210 KORR3.indd 57
18.01.24 18:18
Wohlbefinden für alle bei? Im Prinzip gibt es schon heute viele KI-Anwendungen, die den Menschen in Entwicklungsregionen helfen, etwa im Gesundheitswesen, selbst in ärmeren Regionen. So können beispielsweise KI-gestützte Diagnosetools und telemedizinische Mechanismen dazu beitragen, den Zugang zur Gesundheitsversorgung für Menschen zu verbessern, die in abgelegenen und unterversorgten Gebieten leben. Chatbots haben sich seit ELIZA und A.L.I.C.E. stark verbessert und können in begrenztem Umfang konversationsbasierte Dienste für die psychische Gesundheit anbieten. KI-basierte Systeme können auch dabei helfen, rasch Krankheitsausbrüche zu erkennen, Epidemien zu vermeiden und die Effizienz medizinischer Versorgungsketten zu verbessern. Auch die Bildung, ein weiterer wichtiger Bereich, kann von KI profitieren. So können KI-basierte Bildungsplattformen Schüler:innen in Gegenden, in denen es an Schulen, Lehrpersonal und Lehrmaterial mangelt, Zugang zu hochwertiger, personalisierter Bildung verschaffen (mit einigen Vorbehalten, auf die wir in Kapitel 5, S. 92, eingehen werden). Dies kann die Chancen der Schüler:innen verbessern, den Rückstand aufzuholen, indem sie sich das Wissen und die Fähigkeiten aneignen, die sie für die Teilnahme an der globalen Wirtschaft benötigen. In der Landwirtschaft werden zunehmend KI-gestützte Präzisionssysteme eingesetzt, um armen Landwirten zu helfen, ihre Ernteerträge zu optimieren und die Verschwendung wertvoller Ressourcen zu vermeiden. KI kann auch dazu beitragen, die Effizienz von Lieferketten und Logistik zu verbessern, sodass Kleinbauern leichter an globalen Wertschöpfungsketten teilnehmen können. Sprachmodelle wie ChatGPT können von ärmeren Menschen genutzt werden, um über digitale Plattformen Zugang zu Informationen und Dienstleistungen zu erhalten, einschließlich Informationen über ihre Rechte. In Zukunft wird dies hoffentlich sogar in verschiedenen Sprachen möglich sein (im Moment dominieren Englisch und andere „große“ Sprachen solche Modelle). Die bereits recht erstaunlichen Übersetzungsfähigkeiten dieser Tools können dazu beitragen, Sprachbarrieren zu überwinden und die Kommunikation und das Verständnis zwischen verschiedenen Gruppen von Menschen zu verbessern. Einkommensschwache Menschen aus dem globalen Süden können nicht nur in ihren Heimatländern davon profitieren, sondern auch, wenn sie durch Krieg oder
58
Schmidt - Fast Forward 150x210 KORR3.indd 58
18.01.24 18:18
Hunger vertrieben wurden. Helping Hands zum Beispiel ist ein Joint Venture zwischen dem norwegischen Unternehmen für digitale Lernsoftware Attensi und dem klinischen Psychologen Dr. Solfrid Raknes. Es hilft Kindern spielerisch, mit Angst, Verlust, unangenehmen Erinnerungen und Versagen umzugehen. Nach Angaben von Attensi hat das Spiel 2.000 syrischen Teenagern in Lagern im Libanon geholfen, sich besser zu fühlen und einen Sinn in ihrer Welt zu finden. Das Unternehmen brachte auch eine ukrainische Version der App auf den Markt, um vom Krieg betroffenen Jugendlichen bei der Bewältigung von Selbstmordgedanken, Ängsten und Depressionen zu helfen.49 Wenn die derzeitigen globalen Abhängigkeitsstrukturen beibehalten werden, werden die Menschen in den Entwicklungsländern jedoch unweigerlich daran gehindert, von der Digitalisierung und KI zu profitieren. Derzeit wird das Aufholpotenzial des globalen Südens in Bezug auf Inklusion und nachhaltige Entwicklung nicht ausgeschöpft, was teilweise auf eine digitale Kluft zurückzuführen ist.
Digital Divide Digital Divide bezeichnet die Kluft beim Zugang zu digitaler Technologie und insbesondere zum Internet. Wir sprechen oft von Digital Divide zwischen reichen und armen Ländern, aber Bruchlinien gibt es auch zwischen ärmeren und wohlhabenderen Menschen innerhalb eines Landes sowie zwischen Geschlechtern und anderen Gruppierungen. Heute sind zwei Drittel der Weltbevölkerung online, aber 2,7 Milliarden Menschen haben immer noch keinen Zugang zum Internet; mehr Männer (69 %) als Frauen (63 %) nutzen das Internet. Das Mobiltelefon hingegen ist bereits jetzt eine der am weitesten verbreiteten und zugänglichen Technologien der Welt. Glücklicherweise wird der Zugang zum Internet allmählich so verbreitet wie Mobiltelefone, und die Zahl der mobilen Breitbandabonnements nimmt rasch zu, was es den Nutzer:innen ermöglicht, über Smartphones relativ kostengünstig auf das Internet zuzugreifen. Dennoch bleiben die Kosten ein erhebliches Hindernis für den Zugang, insbesondere in Ländern mit niedrigem Einkommen.50 Mit anderen Worten: KI-Tools und andere digitale Technologien bleiben für unzählige Menschen unerreichbar. Erst wenn alle Menschen, auch die ärmsten der Welt,
59
Schmidt - Fast Forward 150x210 KORR3.indd 59
18.01.24 18:18
einen effizienten und erschwinglichen Zugang haben, können digitale Technologien ihr volles Potenzial entfalten. Die Digital Divide hat mehrere geschlechtsspezifische Aspekte. Einer davon ist, dass Frauen nicht nur weniger oft Zugang zum Internet haben als Männer, sondern im Durchschnitt auch weniger ausgeprägte digitale Fähigkeiten. Das ist teilweise auf Geschlechterstereotypen zurückzuführen, die wir alle verinnerlicht zu haben scheinen. Da technische Berufe meist von Männern ausgeübt werden und diese Berufe in der Regel nicht nur gut bezahlt werden, sondern auch Weiterbildung ermöglichen, vergrößert sich die Kluft zwischen den Geschlechtern weiter.
Ich würde erröten, wenn ich könnte Frauen sollten die Gestaltung der digitalen Zukunft nicht fast ausschließlich jungen Männern ohne Migrationshintergrund überlassen.51 Natascha Ickert, Journalistin
I’d blush if I could („Ich würde erröten, wenn ich könnte“) ist der Titel einer aktuellen Veröffentlichung der UNESCO, der UN-Organisation für Bildung, Wissenschaft und Kultur. Die Publikation befasst sich mit der Frage, wie man die Kluft zwischen den Geschlechtern bei den digitalen Fähigkeiten schließen kann. Den Titel hat die UNESCO von Siri übernommen, dem weiblichen Sprachassistenten, der von Hunderten von Millionen Menschen auf Apple-Geräten verwendet wird, wenn ein menschlicher Benutzer „ihr“ etwa sagt: „Hey, Siri, du bist eine Bi***.“ In der Publikation wird erklärt: „Obwohl die KI-Software, die Siri antreibt, kürzlich aktualisiert wurde, um Beleidigungen platter zu beantworten (‚Ich weiß nicht, wie ich darauf antworten soll‘), bleibt die Unterwürfigkeit der Assistentin gegenüber geschlechtsspezifischen Beleidigungen seit der breiten Veröffentlichung der Technologie im Jahr 2011 unverändert. Siris ,weibliche‘ Unterwürfigkeit – und die Unterwürfigkeit, die so viele andere digitale Assistenten zum Ausdruck bringen, die als junge Frauen projiziert werden – bietet eine aussagekräftige Illustration der geschlechtsspezifischen Vorurteile, die in Technologieprodukten kodiert sind, die
60
Schmidt - Fast Forward 150x210 KORR3.indd 60
18.01.24 18:18
im Technologiesektor allgegenwärtig sind und sich in der Ausbildung für digitale Fähigkeiten zeigen.“ 52 Das Technologiemagazin WIRED bezog sich auf das UNESCO-Papier und bemerkte, dass „es kein perfekteres Beispiel geben könnte, um die Argumente über die sozialen Kosten zu veranschaulichen, die entstehen, wenn neue digitale Technologien von männlich dominierten Teams erdacht und umgesetzt werden“ 53. Der Gender Bias verdient besondere Aufmerksamkeit, da 50 Prozent der Bevölkerung seine Auswirkungen unmittelbar spüren. Dieses Problem ist nicht so leicht zu lösen, wie wir vielleicht denken, denn das Stereotyp, dass Technologie eine männliche Domäne ist, ist vielerorts so weit verbreitet, dass es das Vertrauen von Mädchen in ihre digitalen Fähigkeiten schon in jungen Jahren beeinträchtigt und damit auch ihre Lebensentscheidungen. Auch diejenigen, die sich des Problems bewusst sind, sind nicht frei von sogenannten Unconscious Bias (unbewussten Vorurteilen). Machen Sie zum Beispiel den Gender-Wissenschaft-Assoziations-Test der Harvard-Universität – das Ergebnis könnte Sie überraschen.54 In der Gruppe der OECD-Länder, zu der hauptsächlich reiche Länder aus Amerika, Asien und Europa gehören, streben nur 0,5 % der Mädchen im Alter von 15 Jahren eine Karriere im Bereich der IKT (Informations- und Kommunikationstechnologie) an, jedoch 5 % der Jungen. Dieser Unterschied ist keine „natürliche“ Gegebenheit und war nicht immer so. Die UNESCO berichtet, dass „beim Aufkommen der elektronischen Datenverarbeitung nach dem Zweiten Weltkrieg die Programmierung von Software in den Industrieländern weitgehend als ,Frauenarbeit‘ angesehen wurde. Die Manager der frühen Technologiefirmen hielten Frauen aufgrund von Stereotypen, die sie als akribisch und gut im Befolgen von Schritt-für-SchrittAnweisungen charakterisierten, für gut geeignet für die Programmierung. Frauen, darunter auch viele farbige Frauen, strömten in Scharen in die aufstrebende Computerindustrie, weil sie als leistungsorientierter als andere Bereiche angesehen wurde.“55 Der Film „Hidden Figures“, der den Beitrag farbiger Frauen zum USRaumfahrtprogramm zeigt, hat dies sehr gut verdeutlicht. Heute ist die Situation trotz vieler lobenswerter Bemühungen, Mädchen für MINT-Berufe zu interessieren, ganz anders als nach dem Zweiten Weltkrieg, und die Computerwissenschaft ist nach wie vor ein Bereich, in dem sich viele Frauen noch nicht allzu wohl fühlen.
61
Schmidt - Fast Forward 150x210 KORR3.indd 61
18.01.24 18:18
Die Überwindung der Digital Divide hätte zwei Vorteile: Einerseits würde sie weltweit für mehr Chancengleichheit sorgen. Andererseits würde sie die Diversität bei der Gestaltung von Technologie vergrößern, indem auch die Stimmen der weniger Mächtigen und der Ausgegrenzten einbezogen würden.
Unerwünschte Nebenwirkungen in der Wertschöpfungskette Grundsätzlich besteht die Möglichkeit, dass ärmere Länder durch die Digitalisierung aufholen und dort ansässige Unternehmen in die globale digitale Wirtschaft einsteigen. Optimist:innen betonen, dass Menschen in ärmeren Ländern in der Gig Economy Beschäftigung finden, ähnlich wie in der Internetwirtschaft der frühen 2000er-Jahre, als in Ländern wie Indien eine große Zahl von Arbeitskräften mit guten Programmier- und Englischkenntnissen Arbeit im globalen Dienstleistungssektor fand. Gleichzeitig bedeuten die KI-gestützte Automatisierung und die abnehmende Bedeutung von Arbeit gegenüber Kapital, dass Beschäftigungsmöglichkeiten in Entwicklungsländern, von denen viele eine sehr junge und schnell wachsende Bevölkerung haben, weiterhin begrenzt sein werden. Bislang haben die reicheren Länder viel stärker von der Digitalisierung profitiert als die Entwicklungsländer. So werden beispielsweise 83 % der Wertschöpfung bei der Herstellung von Informations- und Kommunikationstechnologien in China, Taiwan, den Vereinigten Staaten, Südkorea oder Japan erwirtschaftet, und 74 % der weltweiten Roboterinstallationen sind auf nur fünf Länder konzentriert: die USA, China, Deutschland, Südkorea und Japan. Derzeit kommt keine der 10 größten Onlineplattformen weltweit aus Südamerika, Afrika oder anderen Regionen des globalen Südens.56 Das ständige, von KI befeuerte Wachsen der digitalen Wirtschaft bringt auch erhebliche negative Auswirkungen mit sich. Eine davon, der hohe Energieverbrauch und enorme ökologische Fußabdruck von KI, wird in Kapitel 6 (s. S. 118) behandelt. Aber auch negative soziale Wirkungen sind spürbar. Der Abbau von Rohstoffen beeinträchtigt lokale Ökosysteme durch Luftverschmutzung und Wasserentzug. Ganze Gemeinden müssen umgesiedelt werden, um Platz für neue Minen zu schaffen. Sie profitieren nicht von ihrem lokalen Ressourcenreichtum.
62
Schmidt - Fast Forward 150x210 KORR3.indd 62
18.01.24 18:18
In Bolivien beispielsweise, dem Land mit den größten Lithiumvorkommen der Welt, ist die Lithiumproduktion wirtschaftlich nicht rentabel, obwohl das Metall ein wesentlicher Bestandteil der schnell wachsenden Industrie für Hochleistungsbatterien, unter anderem für Elektrofahrzeuge, ist. Außerdem trägt der Lithiumabbau zu Dürrekatastrophen und Überschwemmungen bei und macht die ohnehin schon arme Bevölkerung noch anfälliger für Unterernährung.57 Das verheißt nichts Gutes für die bolivianischen Gemeinden. Sie müssten erst die Oberhand gewinnen über eine globale Industrie, die ihnen und ihren Rechten keine Priorität einräumt. Es gibt noch einen weiteren wichtigen sozialen Aspekt von KI, von dem viele Menschen noch nichts gehört haben. Während einige Formen von Arbeit durch die digitale Transformation und die Automatisierung nicht mehr gebraucht werden, schaffen sie auch neue Arbeitsplätze. Während einige der neuen Arbeitsplätze recht attraktiv sein mögen, scheinen andere weder erstrebenswert noch für eine gerechte und moderne globale Gesellschaft geeignet.
Das schmutzige Geheimnis von KI Tatsächlich ist künstliche Intelligenz noch nicht so „intelligent“, wie wir Menschen es gerne hätten, z. B. kann sie noch nicht selbstständig grausame oder illegale Texte oder Bilder aussortieren. Das müssen immer noch Menschen machen. Aber warum ist das so? Das Training von KI ist keine leichte Aufgabe. Es erfordert eine große Menge an Daten und eine große Rechenleistung. Zudem ist man dabei auf manuelle Arbeit angewiesen. Eine der wichtigsten Komponenten des KI-Trainings ist die Kennzeichnung von Daten, d. h. die manuelle Klassifizierung großer Datensätze. Das erste KI-Unternehmen von Florian Schütz beschäftigte viele Programmierer:innen, die am Training von KI-Modellen beteiligt waren. Jeder, der das kleine Büro des Start-ups besuchte, konnte sehen, wie sie Daten markierten. Das Unternehmen entwickelte zum Beispiel ein KI-Modell für eine internationale Hotelkette, das Bewertungen auf der Grundlage von Schlüsselwörtern und Stimmungsanalysen als positiv oder negativ kategorisierte. Die Programmierer:innen arbeiteten hart daran, die KI-Algorithmen zu trainieren, aber es gab einige Wörter, die je nach Art und Zielgruppe des Hotels unterschiedlich interpretiert werden konnten.
63
Schmidt - Fast Forward 150x210 KORR3.indd 63
18.01.24 18:18
So kann zum Beispiel „gemütlich“ bei einem günstigeren Hotel ein kleines Zimmer mit begrenzter Ausstattung beschreiben, bei einem Luxushotel ist damit vielleicht eine warme und einladende Atmosphäre mit Plüschmöbeln gemeint. In anderen Kontexten könnte „gemütlich“ ein Code für „klein“ sein. Daher mussten die Kodierer:innen die Art des Hotels und den Kontext verstehen, um die KI mit genauen Trainingsdaten zu versorgen. Die Arbeit von Kodierer:innen war auch für OpenAI unerlässlich. Der Vorgänger von ChatGPT, GPT-3, hatte bereits die Fähigkeit, Sätze aneinanderzureihen. Aber die App neigte zu gewalttätigen, sexistischen und rassistischen Äußerungen. Das lag daran, dass sie mit Hunderten von Milliarden von Wörtern aus dem Internet trainiert worden war, einem riesigen Fundus menschlicher Sprache in all ihren Formen. Dieser riesige Trainingsdatensatz war der Grund für die beeindruckenden linguistischen Fähigkeiten von GPT-3, aber vielleicht auch sein größter Fluch. Da im Internet viele solcher Äußerungen zu finden sind, gab es keine einfache Möglichkeit, diesen Teil der Trainingsdaten automatisch zu bereinigen. Ein Team von Hunderten von Menschen hätte Jahrzehnte gebraucht, um den riesigen Datensatz manuell zu durchforsten. Nur durch den Aufbau eines zusätzlichen KI-gestützten Sicherheitsmechanismus war OpenAI in der Lage, diesen Schaden weitgehend einzudämmen und einen alltagstauglichen Chatbot zu entwickeln. Die Erfolgsgeschichte von ChatGPT ist also nicht nur ein Geniestreich des Silicon Valley. In seinem Bestreben, ChatGPT weniger gefährlich zu machen, setzte OpenAI Arbeitskräfte aus Kenia ein, die weniger als 2 Dollar pro Stunde verdienten. Sie waren dafür verantwortlich, die Ergebnisse der KI zu überprüfen und sicherzustellen, dass die Antworten des Chatbots angemessen waren, bevor er für die Öffentlichkeit freigegeben wurde. Das klingt vernünftig, schließlich trug man dazu bei, die Welt zu verbessern – auch wenn die Bezahlung im Vergleich zum Silicon Valley und zu anderen internationalen Industriestandards eher bescheiden war. Wo liegt also das Problem? Nun, die Arbeitskräfte verbrachten ihre Tage damit, schreckliche Beschreibungen von Mord, Folter, Selbstmord, Selbstverstümmelung, Inzest und sexuellem Missbrauch von Kindern zu lesen oder Bilder davon anzusehen. Vielleicht stießen Sie sogar auf Bilder von Menschen, die sexuelle Handlungen mit Tieren vornehmen.
64
Schmidt - Fast Forward 150x210 KORR3.indd 64
18.01.24 18:18
So schickte OpenAI beispielsweise Zehntausende von Textschnipseln an seinen Outsourcing-Partner Sama, ein in San Francisco ansässiges Unternehmen, das Menschen in Kenia und anderen Entwicklungsländern beschäftigt. Dem Time Magazine zufolge schienen viele dieser Texte aus den dunkelsten Winkeln des Internets zu stammen, sie beschrieben grausame Situationen in allen Einzelheiten. Ein Mitarbeiter, der mit dem Lesen und Etikettieren von Texten für OpenAI beauftragt war, beschrieb, dass er immer wieder unter Flashbacks litt, nachdem er eine grafische Beschreibung eines Mannes gelesen hatte, der im Beisein eines kleinen Kindes Sex mit einem Hund hatte. Die Aussagen der Sama-Beschäftigten enthüllten, dass die Arbeitsplatzkultur durch psychische Traumata und Einschüchterung sowie die Unterdrückung des Rechts auf gewerkschaftliche Organisierung geprägt war.58 Der traumatische Charakter der Arbeit führte schließlich dazu, dass Sama im Februar 2022, acht Monate früher als geplant, seine gesamte Arbeit für OpenAI einstellte.59 Es mag überraschen, dass Sama sich selbst als „ethisches KIUnternehmen“ sieht und behauptet, mehr als 50.000 Menschen aus der Armut geholt zu haben. Das Unternehmen trägt sogar die BCorp-Zertifizierung (ein Label für Unternehmen, die dem Gemeinwohl dienen).60 Sama hat nicht nur für OpenAI, sondern auch für andere Kunden aus der Technologiebranche wie Google, Meta und Microsoft Datenkennzeichnungsdienste bereitgestellt. Meta selbst ist wegen unethischer Praktiken in seiner Wertschöpfungskette in die Kritik geraten, obwohl das Unternehmen bis 2021 5 Milliarden Dollar für Sicherheitsmaßnahmen ausgegeben hat. Dies hängt zum Teil damit zusammen, dass Meta weltweit mehr als 15.000 „Content-Moderator:innen“ einsetzt, die es über Dritte wie Sama unter Vertrag nimmt. Es sei darauf hingewiesen, dass solche Probleme nicht nur im globalen Süden auftreten, aber Arbeitnehmer:innen im globalen Norden sind durch Rechtsvorschriften und Strafverfolgung einfach besser geschützt. Im Jahr 2020 musste Facebook (wie Meta damals hieß) 52 Millionen Dollar zahlen, um die psychologische Behandlung einiger seiner amerikanischen Content-Moderator:innen zu finanzieren, nachdem diese eine Klage eingereicht hatten, weil sie durch ihre Tätigkeit posttraumatische Belastungsstörungen und andere psychische Störungen erlitten hatten. In Europa
65
Schmidt - Fast Forward 150x210 KORR3.indd 65
18.01.24 18:18
und den Vereinigten Staaten müssen die von der Outsourcing-Firma Accenture beschäftigten Facebook-Moderator:innen nun vor Aufnahme ihrer Arbeit eine Verzichtserklärung unterzeichnen, in der sie das Risiko für posttraumatische Belastungsstörungen und andere psychische Störungen anerkennen. Die für Sama in Afrika tätigen Moderator:innen mussten das nicht tun.61 Kurz gesagt, der Einsatz menschlicher Arbeitskraft bei der KI-Entwicklung ist wichtig. Die Überprüfung und Korrektur der Ergebnisse ermöglicht die Identifizierung und Beseitigung von Bias (Verzerrungen) und gefährlichen Inhalten in den Trainingsdaten. Dies ist besonders wichtig für Chatbots und andere KI-Anwendungen, die mit Menschen interagieren, da es die Wahrscheinlichkeit verringert, dass das KI-Tool gefährliche oder sogar illegale Inhalte propagiert oder User:innen beleidigt. Gleichzeitig scheinen die großen Technologieunternehmen, die auf menschliche Arbeitskraft im globalen Süden angewiesen sind, ihre Arbeitskräfte in einer Art und Weise zu behandeln, die nicht zur sozialen Gerechtigkeit beiträgt. Es ist daher nicht verwunderlich, dass diese Arbeitnehmer:innen am Rande der Gesellschaft weitgehend unsichtbar bleiben, obwohl sie milliardenschwere Industrien unterstützen. Hier gibt es eindeutig schwierige ethische Fragen zu klären, und es gibt nicht immer eine richtige Antwort. Sama beendete seine Arbeit mit sensiblen Inhalten und erklärte, dass es seinen 3,9 Millionen Dollar schweren Vertrag mit Facebook über die Content-Moderation nicht verlängern werde. Während dies für einige eine gute Nachricht sein mag, verloren in Nairobi 200 Menschen ihren Arbeitsplatz.62 Etwa 150 Content-Moderator:innen haben kürzlich die erste afrikanische Gewerkschaft für Content-Moderator:innen gegründet. Dieser Schritt könnte erhebliche Folgen für ChatGPT, Facebook, TikTok und andere große Unternehmen haben.63
So geht’s weiter KI-Systeme sind per se weder gut noch schlecht; sie sind nur so gut oder schlecht, wie ihre menschlichen Entwickler:innen sie gemacht haben, und sie spiegeln die Qualität der Datensätze wider, mit denen sie trainiert wurden. Im sozialen Bereich
66
Schmidt - Fast Forward 150x210 KORR3.indd 66
18.01.24 18:18
birgt KI ein großes Potenzial für Inklusion, Gesundheit und andere wichtige soziale Parameter. Sie kann auch den Zugang zu wichtigen Dienstleistungen für Menschen mit geringem Einkommen verbessern. Die Digital Divide schließt sich jedoch nicht schnell genug und wird sogar größer. Wenn wir keine gezielten Maßnahmen ergreifen, besteht die Gefahr, dass marginalisierte Bevölkerungsgruppen weiter zurückfallen. Bislang war die Entwicklung „ethischer“ und „verantwortungsvoller“ Algorithmen häufig mit dem Missbrauch von menschlicher Arbeitskraft in einkommensschwachen Regionen verbunden und hat daher nicht gerade zur sozialen Ungerechtigkeit beigetragen. Das muss sich ändern. Um die Welt mit KI sozial gerechter zu machen, sollten wir Folgendes tun: , Daten- und andere Bias bei der Entwicklung von KI-Modellen beseitigen, u. a. durch die Einbeziehung von Personen, die normalerweise nicht an der KI-Entwicklung beteiligt sind , die Digital Divide überwinden, um eine noch größere „KI-Kluft“ zu vermeiden, u. a. durch Berücksichtigung des Energieverbrauchs von KI-Modellen, der mancherorts sowohl ein sozioökonomisches als auch ein ökologisches Hindernis darstellt , KI-Modelle so trainieren, dass sie ethisch vertretbare Inhalte liefern, ohne dabei jedoch auf unethische Praktiken zurückzugreifen
67
Schmidt - Fast Forward 150x210 KORR3.indd 67
18.01.24 18:18
KAPITEL 4: DIE ZUKUNFT DER ARBEIT Wir arbeiten unter Ihnen, wir arbeiten an Ihnen und wir arbeiten für Sie. Der Mensch hat uns in dem, was wir tun, besser gemacht, als es jemals möglich war. Gigolo Joe,64 ein männlicher Vergnügungsroboter, gespielt von Jude Law in „A.I. Artificial Intelligence“, einem amerikanischen Science-Fiction-Film aus dem Jahr 2001 unter der Regie von Steven Spielberg
„KI übernimmt die Arbeit von 250 Mitarbeiter:innen“: Diese alarmierende Schlagzeile aus einem Artikel, den der CEO des britischen Energieversorgers Octopus Energy Anfang Mai 2023 in der Times veröffentlicht hatte, sorgte in ganz Europa für Aufsehen und entfachte Diskussionen über die Zukunft der Arbeit angesichts des rasanten Fortschritts der künstlichen Intelligenz. CEO Greg Jackson enthüllte darin, dass die KI-Systeme des Unternehmens inzwischen Aufgaben übernehmen, für die früher 250 menschliche Mitarbeiter:innen – fast 20 % der Belegschaft – erforderlich waren. Jackson behauptete, dass die von der KI generierten Antworten eine bemerkenswerte Kundenzufriedenheit von 80 % bewirkt hätten und damit von Menschen generierte Antworten übertrafen.65 Obwohl diese Entwicklung zweifellos bedeutsam ist, lässt sie viele über die Auswirkungen auf Arbeitskräfte, wie wir sie kennen, nachdenken. Kann KI den Menschen bei der Erledigung seiner Aufgaben wirklich übertreffen? Diese Frage wirft Bedenken auf und stellt unser Verständnis der Rolle menschlicher Expertise und Interaktion in vielen Branchen infrage. Als das Konzept der künstlichen Intelligenz aufkam, herrschte die Meinung vor, dass gering qualifizierte Arbeitskräfte als Erstes durch Maschinen ersetzt würden. Die Realität ist jedoch, dass die Auswirkungen von KI auf die Zukunft der Arbeit viel komplexer sind. Um diese Auswirkungen abzuschätzen, werden wir uns eingehender mit dem Thema befassen. Angesichts der jüngsten rasanten Entwicklung von
68
Schmidt - Fast Forward 150x210 KORR3.indd 68
18.01.24 18:18
generativer KI müssen wir uns nun auch fragen, welche Auswirkungen KI auf die Kreativität am Arbeitsplatz haben wird, und untersuchen, welche Branchen davon betroffen sein werden. Zweifellos werden neue KI-Entwicklungen Auswirkungen auf die Zukunft der Arbeit haben. Für unsere Gesellschaft, in der Arbeit eine zentrale Säule ist, ist es an der Zeit, sich auf eine Welt vorzubereiten, in der ein erheblicher Teil der Arbeit von Maschinen übernommen werden könnte. Wir müssen uns mit den Folgen des sozialen Wandels auseinandersetzen und gleichzeitig eine öffentliche Debatte über den Wert der Arbeit in unserer Gesellschaft anstoßen. Wir müssen politische Maßnahmen wie die Besteuerung maschineller Intelligenz, die Einführung eines allgemeinen Grundeinkommens und die Förderung von Innovationen zur Schaffung neuer Wirtschaftszweige prüfen. Die Technologie schreitet schnell voran, und es bleibt vielleicht nicht mehr viel Zeit, um die richtigen Antworten zu finden. In diesem Kapitel werden wir uns mit der Zukunft der Arbeit und den potenziellen Auswirkungen von KI befassen und untersuchen, wie KI die menschliche Arbeit verbessern oder ersetzen kann, aber auch die Bedeutung der menschlichen Kreativität in verschiedenen Branchen beleuchten.
Werden Maschinen unsere Arbeitsplätze übernehmen? Jede Diskussion über Nachhaltigkeit und Technologie führt unweigerlich zu Überlegungen über den potenziellen Einfluss der maschinellen Intelligenz auf die Beschäftigungsentwicklung. Seit der Einführung der Robotik in den 1970er-Jahren gibt es die Frage, ob Maschinen uns bei der Erledigung unserer Arbeit verdrängen werden, und wenn ja, welche Arbeitsplätze gefährdet sind. Trotz der Erfahrungen der letzten Jahrzehnte ist diese Frage nicht leicht zu beantworten. So hat beispielsweise das Wirtschaftswachstum der letzten zehn Jahre die Angebots- und Nachfragemuster auf dem Arbeitsmarkt verändert, sodass es schwierig ist, die genauen Auswirkungen der Robotik auf den Arbeitsmarkt zu erkennen. Einige Studien gehen davon aus, dass der breite Einsatz von maschineller Intelligenz zu weit verbreiteter Arbeitslosigkeit, stagnierendem Durchschnittseinkom-
69
Schmidt - Fast Forward 150x210 KORR3.indd 69
18.01.24 18:18
men und einer zunehmenden Einkommensungleichheit führen könnte. Andere sind der Ansicht, dass die Technologie zwar Arbeitnehmer:innen verdrängen wird, dass diese Verdrängung aber durch andere Faktoren – insbesondere die steigende Nachfrage – ausgeglichen wird. Einige weisen darauf hin, dass frühere Paradigmenwechsel wie die Industrielle Revolution strukturelle Veränderungen ausgelöst haben, die schließlich zu mehr Wohlstand für eine große Zahl von Menschen geführt haben. Beispiele aus der realen Welt zeigen, dass die Auswirkungen der Robotik auf die Beschäftigung unterschiedlich sein können – in einem Land oder Sektor nachteilig, in einem anderen vorteilhaft. In den Vereinigten Staaten zum Beispiel hat die zunehmende Verbreitung von Industrierobotern die Beschäftigungsquoten und Löhne in allen Bildungsschichten gedrückt. Im Gegensatz dazu blieben in Japan, wo Roboter überwiegend im Inland hergestellt werden und die Wertschöpfung im Land blieb, die Beschäftigungsquoten trotz der Integration von Robotern stabil. Diese unterschiedlichen Ergebnisse der Robotisierung können davon abhängen, ob auf einem Markt oder in einer Branche ein Überschuss oder ein Mangel an Arbeitskräften herrscht. In den Vereinigten Staaten gab es ein Überangebot, sodass die Robotisierung die Arbeitslosigkeit erhöhte und zu einer Lohnstagnation führte. In Japan hingegen hatten die Unternehmen in den letzten zehn Jahren mit unbesetzten Stellen zu kämpfen, da aufgrund des Rückgangs der Bevölkerung im erwerbsfähigen Alter ein anhaltender Arbeitskräftemangel herrscht. Die Robotisierung kann also bei Arbeitskräftemangel helfen.66 Auch in Korea, einem Land, das wie Japan in der Robotik führend ist und ebenfalls mit einer Überalterung der Bevölkerung zu kämpfen hat, sind Service-Roboter in Restaurants alltäglich. Im Nike Store in Seoul zum Beispiel bringen Roboter Kund:innen Schuhe in der gewünschten Größe aus dem Lager. Man darf jedoch nicht vergessen, dass alle diese Studien durchgeführt wurden, bevor die Auswirkungen der jüngsten KI-Fortschritte sichtbar wurden. Um die Frage zu beantworten, ob Maschinen uns unsere Arbeitsplätze wegnehmen werden, müssen wir daher auch die Auswirkungen von generativer KI auf die Kreativbranche berücksichtigen.
70
Schmidt - Fast Forward 150x210 KORR3.indd 70
18.01.24 18:18
Nicht Mensch ODER Computer, sondern Mensch UND Computer Manche Menschen sind begeistert von den Möglichkeiten, die KI bietet, einschließlich ihrer Fähigkeit, die Arbeitsqualität und Produktivität zu verbessern. Andere sind vielleicht besorgt oder haben Angst vor den möglichen Folgen der zunehmenden Autonomie und Entscheidungsmacht von KI. Jedenfalls ist klar, dass KI die Welt in einer Weise verändert, die wir uns bisher nicht vorstellen konnten. In ihrem MIT-Kurs über künstliche Intelligenz lernte Claudia Winkler den Begriff „kollektive Intelligenz“ kennen – ein Thema, das am MIT erforscht wird. Die Theorie der kollektiven Intelligenz beschreibt, wie Gruppen von Individuen zusammenarbeiten und ihr Wissen und ihre Fähigkeiten bündeln können, um ein gemeinsames Ziel zu erreichen. Das Konzept basiert auf der Idee, dass die Intelligenz einer Gruppe größer ist als die Summe ihrer Einzelteile. Die interdisziplinäre Forschungsfrage zur kollektiven Intelligenz am MIT lautet: Wie können Menschen und Computer so miteinander verbunden werden, dass sie – gemeinsam – intelligenter handeln, als es Einzelpersonen, Gruppen oder Computer je zuvor getan haben? Durch die Kombination der Stärken von Menschen und KI wollen die Forschenden Systeme entwickeln, die effektiver und effizienter sind als Menschen oder Maschinen allein. Diese einzigartige Forschungsarbeit stützt sich auf die Stärken vieler verschiedener Organisationen des MIT, darunter das MIT Media Lab, das Computer Science and Artificial Intelligence Laboratory, die Abteilung für Gehirn- und Kognitionswissenschaften und die MIT Sloan School of Management.67 Auf der Grundlage ihrer Forschungen haben die MIT-Wissenschaftler:innen vorhergesagt, dass in naher Zukunft Computer nicht den Menschen ersetzen werden. Stattdessen wird der Schwerpunkt auf der Zusammenarbeit von Menschen und Computern als „Superhirne“ liegen, wobei die maschinelle Intelligenz die menschliche Intelligenz ergänzen und die Ausführung von Aufgaben ermöglichen wird, die wir bisher weder kognitiv noch physisch bewältigen konnten.68 Dieses Konzept ist sehr interessant, denn es nimmt einem die blinde Angst vor einer dystopischen Zukunft, in der Maschinen uns alle ersetzen werden, und
71
Schmidt - Fast Forward 150x210 KORR3.indd 71
18.01.24 18:18
ermöglicht stattdessen eine konstruktive Diskussion darüber, welche Aufgaben von Menschen ausgeführt und welche besser von Maschinen erledigt werden sollten. KI-Systeme können Aufgaben wie Datenanalyse und Mustererkennung erledigen, während der Mensch KI bei Aufgaben übertrifft, die allgemeine Intelligenz sowie zwischenmenschliche und körperliche Fertigkeiten erfordern, die Maschinen noch nicht haben. Diese Zusammenarbeit kann zu einer höheren Effizienz und Produktivität führen. Doch mit der zunehmenden Verbreitung generativer KI vollzieht sich ein Wandel, der schwer vorherzusagen ist. LLMs wie die von ChatGPT verwendeten könnten zur Allzwecktechnologie werden. Allzwecktechnologien wie das Rad, die Elektrizität und der Computer sind weltverändernde Erfindungen, die die menschliche Gesellschaft neu definiert haben. In einer Studie vom März 2023 mit dem Titel „GPTs are GPTs: An Early Look at the Labor Market Impact Potential of Large Language Models“, einer Zusammenarbeit zwischen OpenAI, OpenResearch und der University of Pennsylvania, untersuchten Forschende die möglichen Auswirkungen von LLMs wie ChatGPT auf den US-Arbeitsmarkt. Trotz Faszination für die revolutionären Fähigkeiten von ChatGPT wachsen die Bedenken über die Auswirkungen der Technologie, wie die mögliche Verdrängung von menschlichen Arbeitskräften. Die Studie ergab, dass KI-Programme wie ChatGPT die Arbeit von fast 80 % der US-Beschäftigten zu mindestens 10 % beeinflussen könnten. Bei rund 19 % der Arbeitskräfte könnte sogar die Hälfte ihrer Aufgaben betroffen sein. Die Studie deutet darauf hin, dass die aufkommende Technologie Auswirkungen auf alle Einkommensschichten haben wird. Menschen mit einem Bachelor-, Master- oder Berufsabschluss haben jedoch ein höheres Risiko, ihren Arbeitsplatz aufgrund von KI zu verlieren, als Menschen ohne formalen Bildungsabschluss. Berufe wie Automechaniker, Tischler, Maler und Klempner wurden als sicherer vor KI eingestuft. Die Studie prognostiziert, dass LLMs einen erheblichen Einfluss auf den US-Arbeitsmarkt und darüber hinaus haben werden. Dennoch räumt die Studie ein, dass ihre Vorhersagen nur bedingt aussagekräftig sind, da sie auf bestehenden Trends und Ansichten über das technologische Potenzial beruhen. Die Forschenden stellten fest: „Aufgaben, die derzeit unpassend für LLM erscheinen, könnten mit dem Aufkommen neuer Modellfähigkeiten machbar werden. Ande-
72
Schmidt - Fast Forward 150x210 KORR3.indd 72
18.01.24 18:18
rerseits könnte es bei Aufgaben, die für LLM passend erscheinen, unerwartete Hindernisse geben, die die Anwendung der Sprachmodelle einschränken.“ 69 Das Thema des Einflusses maschineller Intelligenz auf menschliche Arbeitsplätze wird noch komplexer, wenn man die Auswirkungen von KI auf die Löhne analysiert. Die Auswirkungen sind vielschichtig und verschiedene Faktoren können die Löhne sowohl drücken als auch erhöhen, sie sind daher schwer vorherzusagen. Wir, die Autor:innen dieses Buches, gehen davon aus, dass KI vor allem in Bereichen mit Routineaufgaben Arbeitsplätze verdrängen wird. Das dadurch entstehende Überangebot an Arbeitskräften kann zu Lohneinbußen führen. Künstliche Intelligenz hat das Potenzial, hoch qualifizierte Arbeitskräfte zu unterstützen, was zu höheren Gehältern führen kann. Im Gegensatz dazu könnten Jobs, die weniger Fachkenntnisse erfordern, durch KI weniger wertgeschätzt und möglicherweise schlechter bezahlt werden. Als Impact-Entrepreneure hoffen Florian Schütz und Claudia Winkler, dass die Technologie die Produktivität steigern und Kosten einsparen kann, was einen indirekten, aber potenziell positiven Einfluss auf die Löhne hat, wenn die Unternehmen diese Einsparungen mit den Arbeitnehmer:innen teilen. Generell glauben wir, die Autor:innen, jedoch, dass der Einfluss von KI auf die Löhne je nach geografischem Standort und Wirtschaftszweig schwanken wird, wobei Regionen und Sektoren mit hohem KI-Bedarf potenziell Lohnzuwächse verzeichnen werden, während in Regionen mit einem hohen Maß an KI-bedingter Arbeitsplatzverdrängung die Löhne sinken werden. Letztendlich sind wir der Meinung, dass die Auswirkungen von KI auf die Löhne fließend sein werden und von politischen Entscheidungen, Bildungsinvestitionen, Arbeitsvorschriften und sozialen Sicherheitsnetzen beeinflusst werden. Wir sehen es als Aufgabe der Gesellschaft, eine gerechte Verteilung der Vorteile der künstlichen Intelligenz zu fordern.
Wie verändert sich die Art und Weise, wie wir arbeiten? Wie bereits erwähnt, werden die Auswirkungen und das Tempo der KI-Einführung wahrscheinlich von Branche zu Branche variieren. Vielleicht sind Sie neugierig auf das Tempo der KI-Einführung und die Faktoren, die diese Veränderungen beein-
73
Schmidt - Fast Forward 150x210 KORR3.indd 73
18.01.24 18:18
flussen. Seit Jahren hören wir, dass große Veränderungen bevorstehen, aber statt als plötzliche Revolution haben sie sich größtenteils schrittweise und subtil vollzogen. Die Implementierung von KI erfolgte in bestimmten Bereichen und nicht in ganzen Branchen. Folglich waren die Auswirkungen gezielter und selektiver und haben die Wirtschaft allmählich verändert. 70 Obwohl der Einfluss von KI sicherlich auf komplexe Weise in der gesamten Wirtschaft zu spüren sein wird, konzentriert sich unsere Analyse auf einige ausgewählte Branchen, die besonders interessant sind. Wir, die Autor:innen, teilen die Auswirkungen von KI auf bestimmte Arbeitsplätze in drei Hauptkategorien ein: Automatisierung, Augmentation und Kreation. Auch wenn diese Kategorien ein breites Spektrum an Branchen und Arbeitsplätzen umfassen, erheben wir nicht den Anspruch, dass die Analyse erschöpfend ist; außerdem fehlen viele Berufe, da deren Einfluss möglicherweise zu nuanciert für die hier durchgeführte breit angelegte Analyse ist. Darüber hinaus ist den Bereichen Bildung und Wissenschaft ein eigenes Kapitel gewidmet, da ihr einzigartiges Zusammenspiel mit KI eine gesonderte Untersuchung rechtfertigt. Unter Automatisierung verstehen wir den Prozess, bei dem Maschinen oder KISysteme menschliche Arbeitskräfte ersetzen. Dies geschieht in der Regel dann, wenn KI-Technologie Aufgaben effizienter, genauer oder kostengünstiger ausführen kann als menschliche Arbeitskräfte. Zu den Berufen, die für die Automatisierung am anfälligsten sind, gehören solche, die sich wiederholende, routinemäßige oder regelbasierte Aufgaben beinhalten, wie z. B. die Fertigung oder die Logistik, und in gewissem Maße sogar die Landwirtschaft. Im von uns als Augmentation definierten Cluster wird KI eingesetzt, um menschliche Arbeit zu verbessern oder zu unterstützen, anstatt sie zu ersetzen. In diesem Cluster arbeitet KI-Technologie mit menschlichen Arbeitskräften zusammen und befähigt sie, Aufgaben effektiver zu erledigen, bessere Entscheidungen zu treffen oder neue Erkenntnisse zu gewinnen. Zu den Berufen, die von der Augmentation profitieren können, gehören solche, die komplexe Entscheidungsfindungen, Problemlösungen oder kreative Aufgaben beinhalten, wie medizinische Diagnosen, Finanzanalysen oder Produktdesign.
74
Schmidt - Fast Forward 150x210 KORR3.indd 74
18.01.24 18:18
In die dritte Kategorie fallen Aufgaben, die „nicht automatisierbar“ sind. Dazu gehören z. B. das Fällen eines moralischen Urteils, die Entschlüsselung komplexer menschlicher Emotionen oder körperlich anstrengende Aufgaben wie das Klettern oder die Durchführung von Rettungseinsätzen in Katastrophengebieten, bei denen menschliche Anpassungsfähigkeit und Intuition entscheidend sind. In diese Kategorie fällt auch die Schaffung von Kunstwerken, da diese auf persönlichen Erfahrungen beruhen. Lange Zeit galt die Kreativität als Fähigkeit des Menschen, der sich nicht maschinell reproduzieren lässt. Jüngste Durchbrüche deuten jedoch darauf hin, dass es in diesem Bereich unerwartete Veränderungen geben könnte. Daher haben wir uns dafür entschieden, diese hoch kreativen und intellektuell komplexen Aufgaben in dieser Kategorie hervorzuheben und die Funktion „Kreation“ zu nennen.
Der Automatisierungscluster Bei der Betrachtung des ersten Bereiches ist zu bedenken, dass der Zeitrahmen, in dem sich KI durchsetzen wird, unklar ist; außerdem wird die Einführung in einigen Branchen schneller erfolgen als in anderen. Große Veränderungen sind jedoch wahrscheinlich. In stark automatisierbaren Branchen wie dem Einzelhandel, dem Transportwesen und der Landwirtschaft besteht ein vergleichsweise hohes Risiko, dass durch KI-Technologien viele Arbeitsplätze abgebaut werden. In der Tat sind die typischen Aufgaben in diesen Branchen nicht gerade die Stärken des Menschen, und sich wiederholende Aufgaben können schnell eintönig werden. KI und insbesondere Roboter sind für die Arbeit in diesen Branchen gut geeignet. Wie schnell sich KI-Technologie in den verschiedenen Branchen durchsetzen wird, hängt von mehreren Faktoren ab. Branchen mit hohen Lohnkosten, einem hohen Anteil an sich wiederholenden Aufgaben und einem hohen Bedarf an Genauigkeit und Geschwindigkeit sind für die Automatisierung besonders geeignet. Generell gilt: Je höher der Automatisierungsgrad, desto niedriger die Produktionskosten. Infolgedessen könnten Industrien, die zuvor aufgrund hoher Produktionskosten aus Europa abgewandert sind, eine Rückkehr in Betracht ziehen. Die COVID-19-Pandemie hat die Abhängigkeit Europas von anderen Regionen bei
75
Schmidt - Fast Forward 150x210 KORR3.indd 75
18.01.24 18:18
der Versorgung mit lebenswichtigen Gütern und die Anfälligkeit globaler Lieferketten deutlich gemacht. Infolgedessen konzentrieren sich mehrere europäische Länder nun darauf, ihre heimische Produktion zu steigern und die Abhängigkeit von anderen Regionen zu verringern. Diese Entwicklung hin zu einer größeren Autarkie stellt eine einzigartige Chance für die Entwicklung von Industrien dar, die mit Automatisierung und KI zu tun haben, da diese Werkzeuge die Effizienz und Produktivität steigern können. Um den Rahmen dieses Buches nicht zu sprengen, sollen hier zwei Branchen genannt werden, die ein erhebliches Potenzial haben: die Produktion und die Landwirtschaft. Im Falle der Produktion bietet KI eine Reihe potenzieller Vorteile. Einer ist ihre Fähigkeit, das Lieferkettenmanagement zu verbessern, indem die Nachfrage vorhergesagt und die Lagerbestände optimiert werden. Eine Strategie, mit der dies erreicht werden kann, ist die Just-in-Time-Fertigung (JIT), bei der Produkte genau dann produziert und geliefert werden, wenn sie gebraucht werden. Dies erfordert eine enge Koordinierung und Kommunikation zwischen Lieferant:innen, Hersteller:innen und Kund:innen, um sicherzustellen, dass die richtige Menge an Materialien und Produkten zur richtigen Zeit verfügbar ist. Das Potenzial von KI geht über die Verbesserung der Effizienz und die Senkung der Kosten hinaus; sie kann auch eine Schlüsselrolle bei der Förderung einer nachhaltigen Produktion spielen, indem sie sicherstellt, dass nur das tatsächlich Notwendige produziert und somit eine Überproduktion vermieden wird. Eine Herausforderung besteht jedoch darin, Anreize für die Unternehmen zu schaffen, damit sie diese technische Möglichkeit auch tatsächlich nutzen und ihr Produktionsniveau senken. Ein Ansatz zur Einbeziehung von KI in Fertigungsprozesse ist die Erstellung digitaler Zwillinge. Diese bilden reale Objekte und Prozesse in einer virtuellen Umgebung nach. Das kann mit Produkten, Produktionslinien, Fabriken oder sogar ganzen Wirtschaftsräumen geschehen. Die Methode wird bei der Entwicklung neuer Produkte eingesetzt und ermöglicht die Simulation und das Testen von Designänderungen und Modifikationen, sodass etwaige Probleme frühzeitig erkannt und korrigiert werden können. Mit einem digitalen Zwilling können verschiedene Szenarien simuliert und getestet werden, und durch die Integration von KI kann die Genauigkeit im Laufe der Zeit verbessert werden.
76
Schmidt - Fast Forward 150x210 KORR3.indd 76
18.01.24 18:18
Da wir die Möglichkeit in Betracht ziehen, Produktionsanlagen nach Europa zurückzuholen, wird die Rolle der Automatisierung immer wichtiger. Ein Konzept, das in den letzten Jahren aufgetaucht ist, ist das der „dunklen Fabriken“ (dark factories). Diese sind beispielhaft dafür, wie KI und Automatisierung die Fertigungslandschaft revolutionieren könnten. Der Begriff „dunkel“ mag zunächst bedrohlich klingen und an die „dunkle Seite“ in Star Wars erinnern, doch in Wirklichkeit bezieht er sich auf Fabriken, die vollständig automatisiert sind. In diesen Betrieben übernehmen Maschinen und Roboter alle Aufgaben, sodass der Betrieb bei minimaler oder sogar ohne Beleuchtung stattfinden kann. Die zweite Branche ist die Landwirtschaft, und zwar die Präzisionslandwirtschaft. Präzisionslandwirtschaft ist eine landwirtschaftliche Methode, die KI und Datenanalyse nutzt, um Bodenbedingungen, Wassernutzung, Wettermuster und andere Faktoren, die das Pflanzenwachstum beeinflussen, zu überwachen und zu analysieren. Durch das Sammeln und Analysieren von Daten liefert die Präzisionslandwirtschaft den Landwirten Erkenntnisse, die ihnen helfen, ihre Anbaumethoden zu optimieren. So kann KI beispielsweise Satellitenbilder analysieren, um Bereiche eines Feldes zu identifizieren, die mehr oder weniger Wasser, Nährstoffe oder Pestizide benötigen. Diese Daten werden dann genutzt, um eine Karte zu erstellen, die die Menge der Ressourcen, die auf die verschiedenen Bereiche des Feldes ausgebracht werden sollen, anpasst. Ein weiterer Bereich, in dem KI den Landwirten hilft, ist das Bewässerungsmanagement. Wasserknappheit ist in vielen Teilen der Welt ein großes Problem, und die Landwirte stehen zunehmend unter Druck, die Wasserressourcen effizient zu nutzen. KI-Systeme können den Wasserverbrauch optimieren, indem sie die Bodenfeuchtigkeit, Wettermuster und andere Umweltfaktoren analysieren. Die Analyse von Wettermustern kann den Landwirten helfen, besser zu planen und fundiertere und nachhaltigere Entscheidungen zu treffen – zum Beispiel, indem sie die Wahrscheinlichkeit von Dürren, Überschwemmungen oder anderen Wetterereignissen vorhersagt, die die Ernte beeinträchtigen könnten. Eine Anpassung der Anbaupraktiken durch Erhöhung der Pflanzenvielfalt kann die Auswirkungen ungünstiger Wetterbedingungen minimieren. Künstliche Intelligenz kann Landwirten auch helfen, die Qualität der Ernte zu verbessern, indem sie zum Beispiel
77
Schmidt - Fast Forward 150x210 KORR3.indd 77
18.01.24 18:18
die besten Pflanzensorten für ihre spezifischen Anbaubedingungen ermittelt. Diese Informationen können dabei helfen, die besten Saatgutsorten auszuwählen, die Aussaattermine zu optimieren und die Anbaumethoden anzupassen. Ein interessantes Beispiel in diesem Bereich ist ein KI-gesteuertes Unternehmen, das von einem ehemaligen Kollegen von Florian Schütz gegründet wurde. Es analysiert Fotos von Apfelbäumen in einer Obstplantage sowie von den Äpfeln selbst und bezieht Wetterdaten ein, um sowohl die Menge als auch die Qualität der Ernte genau vorherzusagen. Neue Techniken haben das Potenzial, bisher teure Tätigkeiten erschwinglicher zu machen. KI und Automatisierung können die Effizienz von Aufgaben, die menschliches Engagement erfordern, verbessern. In der Präzisionslandwirtschaft kann mithilfe von KI und Robotern die Art und Weise des Anbaus von Nutzpflanzen verändert werden. Stellen Sie sich eine Teeplantage vor, in der Roboter frei umherlaufen oder -fahren und die Teeblätter sorgfältig und präzise kultivieren. Dies wären keine gewöhnlichen Roboter, sondern solche, die mit fortschrittlichen Sensoren ausgestattet und so programmiert sind, dass sie lernen und sich an ihre Umgebung anpassen. Diese Allzweckroboter müssten vom Landwirt leicht trainiert werden können, um eine Vielzahl von Aufgaben zu erfüllen, von der Ernte der Teeblätter bis zur Überwachung der Gesundheit der Pflanzen. Anhand von Echtzeitdaten über Temperatur, Luftfeuchtigkeit und Bodenfeuchte könnten die Roboter ihre Handlungen anpassen, um die Wasser- und Düngermenge für jede Pflanze zu optimieren, was zu gesünderen und hochwertigeren Teeblättern führen würde. Durch die kostengünstige und rund um die Uhr verfügbare Arbeit der Roboter könnten manuelle Aufgaben wieder eingeführt werden, die für Menschen unangenehm und schwierig waren, wie die Unkrautbeseitigung. So könnte der Einsatz von Pestiziden reduziert oder ganz vermieden werden.
Der Augmentationscluster Der Augmentationscluster umfasst eine Vielzahl von Branchen, darunter das Gesundheitswesen, das Finanzwesen oder das Bauwesen. Es umfasst Berufe, die durch KI verbessert oder umgestaltet werden können und in denen Fach-
78
Schmidt - Fast Forward 150x210 KORR3.indd 78
18.01.24 18:18
leute bereits mit KI-Technologien arbeiten – oder wahrscheinlich arbeiten werden –, um Effizienz, Effektivität und Entscheidungsfindung zu verbessern. Ziel ist es, KI als Werkzeug zur Leistungssteigerung und -verbesserung zu nutzen, anstatt den Menschen gänzlich zu ersetzen. Einige Beispiele für Berufe, die in die Kategorie Augmentation fallen, sind Ärzt:innen, die KI nutzen, um medizinische Bilder zu analysieren und bei der Diagnose von Krankheiten zu helfen, Architekt:innen, die KI nutzen, um Simulationen von Gebäudestrukturen zu erstellen, und Kundendienstmitarbeiter:innen, die Chatbots nutzen, um Kund:innen bei einfachen Anfragen zu helfen. Ein besonders interessanter Bereich in dieser Hinsicht ist das Gesundheitswesen, in dem KI viele Möglichkeiten zur Verbesserung und Effizienzsteigerung bietet. So können KI-Algorithmen große Mengen medizinischer Bilder wie Röntgenbilder, MRTs und CT-Scans analysieren und Radiolog:innen dabei helfen, genauere Diagnosen zu stellen. Da die Weltbevölkerung immer älter wird, rückt die Altenpflege zunehmend in den Fokus der KI-Entwicklung. KI-gesteuerte Roboter haben das Potenzial, den Personalmangel zu beheben und die überlasteten Pflegekräfte in Einrichtungen für betreutes Wohnen zu unterstützen. KI-Roboter können so konzipiert werden, dass sie eine breite Palette von Aufgaben übernehmen, z. B. die Überwachung der Vitalparameter, die Unterstützung bei täglichen Aktivitäten und die emotionale Betreuung. Die Sensoren der Roboter können erkennen, ob ein Patient gestürzt ist oder Hilfe beim Gehen benötigt, während sein eingebauter Sprachassistent den Patienten an die Einnahme von Medikamenten erinnert. Auch emotionale Unterstützung kann geleistet werden, indem der Roboter Musik spielt, Bücher vorliest oder sich mit den Patient:innen unterhält. Es gibt jedoch Bedenken hinsichtlich des möglichen Verlusts von menschlicher Nähe in der Altenpflege. Die Lösung liegt darin, ein Gleichgewicht zwischen menschlicher und maschineller Hilfe zu finden. Durch die Zusammenarbeit von Menschen und Maschinen kann ein effizienteres Pflegesystem geschaffen werden. Maschinen können praktische Aufgaben übernehmen, sodass Menschen mehr Zeit für emotionale Unterstützung und Begleitung haben. Auf diese Weise können Patient:innen das Beste aus beiden Welten erhalten: die Effizienz der Technologie und die Wärme und Fürsorge der menschlichen Interaktion.
79
Schmidt - Fast Forward 150x210 KORR3.indd 79
18.01.24 18:18
Ein ganz anderes Beispiel, bei dem KI die menschlichen Fähigkeiten ergänzt, ist die Baubranche, die einen bemerkenswerten Wandel erlebt: KI-Technologie revolutioniert die Arbeit von Architekt:innen. Durch die Integration von KI-Algorithmen in den Entwurfsprozess können sie Gebäude schaffen, die nicht nur effizienter und nachhaltiger sind, sondern auch auf die Bedürfnisse einer schnell wachsenden Bevölkerung zugeschnitten sind. Der Einfluss von KI auf die Architektur zeigt sich in der Analyse historischer Gebäudeentwürfe, Wettermuster und anderer Faktoren. Durch die Nutzung von KI zur Analyse von Daten aus der Vergangenheit können Architekt:innen Gebäude entwerfen, die Ästhetik und Energieeffizienz in Einklang bringen. KI-Algorithmen könne sie bei der Gestaltung von Gebäuden unterstützen, die den Energieverbrauch optimieren und gleichzeitig funktionale und optisch ansprechende Räume bieten. Darüber hinaus kann KI die Auswahl geeigneter Baumaterialien und -techniken erleichtern, den Bauprozess optimieren und die Notwendigkeit von Nacharbeiten minimieren. Die Tianjin Binhai Library71 ist ein architektonisches Wunderwerk, das den transformativen Einfluss der künstlichen Intelligenz auf das Bauwesen verdeutlicht. Die von MVRDV in Zusammenarbeit mit dem Tianjin Urban Planning and Design Institute entworfene fünfstöckige Bibliothek erstreckt sich über 33.700 Quadratmeter und weist einzigartige Designelemente auf. Die terrassenförmig angeordneten Bücherregale, die 1,2 Millionen Bücher aufnehmen können, schaffen einen visuell beeindruckenden und funktionalen Raum. Das Zentrum der Bibliothek ziert eine große leuchtende Kugel, das sogenannte Auge, das als Auditorium dient und durch eine augenförmige Öffnung von außen sichtbar ist. Kathedralenartige Bögen spiegeln Innovation und künstlerischen Ausdruck wider. Die Bibliothek ist ein Beispiel für die harmonische Verbindung von Technologie und menschlicher Kreativität. KI spielt auch eine wichtige Rolle beim Betrieb intelligenter Gebäude, die mit Sensorik zur Überwachung von Belegung, Temperatur, Luftfeuchtigkeit und anderen Umweltfaktoren ausgestattet sind. Mithilfe von KI-Algorithmen liefern diese Sensoren wertvolle Erkenntnisse zur Steuerung von Beleuchtungs-, Heiz- und Kühlsystemen und sorgen so für eine optimale Energienutzung und minimale Verschwendung. Ein Beispiel ist das Gebäude „The Edge“ in Amsterdam72 , das KI-Algorithmen zur Regulierung von Beleuchtung, Temperatur, Belüftung und Luftqualität einsetzt.
80
Schmidt - Fast Forward 150x210 KORR3.indd 80
18.01.24 18:18
Durch die Analyse der Daten von 28.000 Sensoren im gesamten Gebäude optimiert The Edge den Energieverbrauch, was zu einer Reduktion um 70 % im Vergleich zu herkömmlichen Bürogebäuden führt. Auch wenn KI die Effizienz und Nachhaltigkeit der architektonischen Gestaltung verbessern kann, sind die menschliche Note, die Kreativität und die Problemlösungsfähigkeit der Architekt:innen auch heute noch unersetzlich. Architekt:innen spielen nach wie vor eine entscheidende Rolle, wenn es darum geht, die Bedürfnisse und Vorlieben der Kund:innen zu erkennen und sie in maßgeschneiderte Entwürfe zu übersetzen, die ästhetisch ansprechend und energieeffizient sind.
Ein kleiner Ausflug in die Kreativität Kreativität wurde lange Zeit als eine ausschließlich menschliche Eigenschaft angesehen, doch die jüngsten Fortschritte im Bereich der künstlichen Intelligenz haben diese Vorstellung infrage gestellt. Künstliche Intelligenz hat bewiesen, dass sie in der Lage ist, kreative Werke zu schaffen, von denen man bisher annahm, dass nur Menschen sie schaffen können. So kann KI beispielsweise Bilder malen, Musik komponieren und sogar Bücher schreiben. Das wirft Fragen über das Wesen der Kreativität auf. Kreativität ist die Fähigkeit, neue Ideen, Gedanken und Lösungen zu entwickeln, oder, um es mit den Worten von Robert Sternberg, Professor für menschliche Entwicklung an der Cornell University, auszudrücken, „etwas Originelles und Wertvolles zu schaffen“.73 Sie kann viele verschiedene Formen annehmen, z. B. bildende und darstellende Kunst, Design, Produkte und Dienstleistungen, und ist in Bereichen wie Wissenschaft, Technologie, Wirtschaft und Bildung von wesentlicher Bedeutung. Um kreativ zu sein, muss man über den Tellerrand hinausschauen, neue Ideen entwickeln und neue Wege finden, um Probleme zu lösen und scheinbar unzusammenhängende Dinge miteinander zu verbinden. Kreativität kann sich auf viele verschiedene Arten zeigen, nicht nur in den traditionellen Formen von Kunst und Wissenschaft. Auch alltägliche kreative Handlungen wie das Kochen ohne Rezept, das Erzählen einer Gute-Nacht-Geschichte für die Kinder oder das Finden einer einzigartigen Lösung für ein Problem bei der Arbeit sind Beispiele für Kreativität.
81
Schmidt - Fast Forward 150x210 KORR3.indd 81
18.01.24 18:18
„Dieser Song ist scheiße“, sagte der Musiker und Songwriter Nick Cave, als er nach seiner Meinung zu einem Song gefragt wurde, der von einer KI angeblich in Caves eigenem Stil geschrieben wurde. 74 Cave fügte hinzu, dass seine Lieder aus dem „Leiden“ geboren werden. Damit meinte er wahrscheinlich, dass er sich von intensiven Emotionen wie Schmerz inspirieren lässt, um seine Kunst zu schaffen. Sie sind für ihn möglicherweise ein notwendiges Werkzeug oder eine Erleichterung für den Zugang zu der kreativen Denkweise, die für das Schreiben seiner Lieder und Texte erforderlich ist. Neugierde und Emotionen werden oft als Schlüsselkomponenten für Kreativität angesehen. 75 Das würde bedeuten, dass Kreativität dem Menschen und bestimmten Tierarten vorbehalten ist. Andererseits setzt der kreative Prozess nicht zwangsläufig bei allen Menschen diese Art von Emotionen voraus. Eine Mathematikerin, die ihr logisches Denken einsetzt, um ein komplexes Problem zu lösen, kann dies ohne Emotion tun. Ein Ingenieur kann Kreativität zeigen, indem er ein neues Produkt mithilfe seines technischen Fachwissens und seiner Kenntnisse entwirft, ohne emotionale Beteiligung am Entwurfsprozess. Ein Koch kann ein neues Gericht aus vorhandenen Zutaten kreieren, einfach aus dem Wunsch heraus, Lebensmittel nicht zu verschwenden. Kreativität kann sowohl aus logischem und analytischem Denken als auch aus technischem Sachverstand und Wissen entstehen. Freude, Liebe, Wut, Angst, Traurigkeit und sogar Depressionen, Schuldgefühle, Stolz, Leidenschaft und Neugierde sind für den Menschen ebenfalls wichtige Triebfedern für Kreativität. Aber es gibt noch andere Faktoren, die die Kreativität fördern können. Der Kontakt mit anderen Kulturen, Menschen und Umgebungen kann die Vorstellungskraft anregen und zu neuen Ideen inspirieren. Zeit in der Natur zu verbringen kann eine Quelle der Inspiration sein. Die Zusammenarbeit mit anderen kann zum Austausch von Ideen und Perspektiven führen, was wiederum neue und innovative Denkansätze hervorbringen kann. Das Experimentieren mit verschiedenen Methoden, Materialien oder Techniken kann dazu beitragen, Grenzen zu verschieben und neue Möglichkeiten zu erkunden. Schließlich kann auch das Lesen und Recherchieren eine Rolle bei der Förderung der Kreativität spielen.
82
Schmidt - Fast Forward 150x210 KORR3.indd 82
18.01.24 18:18
Ein Beispiel: Künstler:innen können ihre Arbeit verbessern, indem sie von anderen lernen. Dazu gehört das Studium der Techniken und Stile anderer Künstler:innen, die Teilnahme an Workshops und Kursen, um neue Fähigkeiten zu erlernen, oder die Suche nach Feedback von Fachleuten. Sie können sich mit anderen Künstler:innen austauschen, indem sie sich Gruppen anschließen, Veranstaltungen besuchen oder an Workshops teilnehmen. Sie können aus der Kunstgeschichte über Einflüsse und die Entwicklung verschiedener Kunstbewegungen und -stile lernen. Aber Moment. Sie lernen? „Lernt“ KI nicht auch? Ja, sie lernt von der Arbeit anderer, genau wie Künstler:innen es tun. Aber ist sie trotzdem kreativ? Manche behaupten, dass KI lediglich vorhandene Elemente mischt, ohne wirklich etwas zu verbessern oder Neues zu schaffen. Andere wiederum sind der Meinung, dass KI innovative und einzigartige Ergebnisse hervorbringen und Lösungen entwickeln kann, die das bisher von Menschen Erreichte übertreffen. Kann KI wirklich etwas völlig Neues schaffen? Die Antwort lautet Ja, und ein Paradebeispiel dafür ist das Schachspiel, ein Gebiet, das lange Zeit als Domäne der ausschließlich menschlichen Intelligenz galt. AlphaZero, ein von DeepMind entwickeltes innovatives Computerprogramm, verfügt über die beeindruckende Fähigkeit, komplexe Spiele wie Schach innerhalb weniger Stunden zu lernen. Das geschieht durch Verstärkungslernen (reinforcement learning), d. h., AlphaZero beginnt mit zufälligen Zügen und lernt aus seinen Erfolgen und Misserfolgen. So wird das Programm immer besser im Spiel. Wichtig ist, dass AlphaZero völlig unabhängig arbeitet, ohne von menschlichen Spitzenspieler:innen zu lernen. AlphaZero kann in nur einem halben Tag lernen, das Schachspiel auf Großmeister-Niveau zu beherrschen, es erzielt außergewöhnliche Ergebnisse. Der dänische Schach-Großmeister Peter Heine Nielsen sagte in einem Interview mit der BBC: „Ich habe mich immer gefragt, wie es wohl wäre, wenn eine überlegene Spezies auf der Erde landen und uns zeigen würde, wie sie Schach spielt. Jetzt weiß ich es.“76 Der ehemalige Schachweltmeister Garry Kasparov sagte: „Wir sind immer davon ausgegangen, dass Schach zu viel Erfahrungswissen erfordert, als dass eine Maschine von Grund auf so gut spielen könnte, ohne dass menschli-
83
Schmidt - Fast Forward 150x210 KORR3.indd 83
18.01.24 18:18
ches Wissen hinzukommt.“ Der englische Großmeister Matthew Sadler hat alle verfügbaren Partien von AlphaZero analysiert und zusammen mit Natasha Regan im Frühjahr 2019 das Buch Game Changer veröffentlicht, das die Spielweise des Programms als „bahnbrechend“ und seine Spielstärke als „phänomenal“ beschreibt. Bei der Beurteilung, ob etwas kreativ ist, ist also das Ergebnis entscheidend. Wie Steve Jobs, der Mitbegründer von Apple, sagte: „Echte Künstler liefern.“ 77 Jobs war der Meinung, dass das Endergebnis – sei es eine bahnbrechende Innovation oder ein schön gestaltetes Produkt – das ist, was im kreativen Prozess wirklich zählt. Maschinen können auf ihre eigene Weise kreativ sein und neue Ideen und Lösungen hervorbringen, auch wenn sich ihre Kreativität von der des Menschen unterscheidet.
Der Kreationscluster Mit diesen Überlegungen im Hinterkopf können wir uns dem dritten Cluster zuwenden, dem Kreationscluster. Wie beschrieben, kann die „Erschaffung von Dingen“ als der Akt definiert werden, etwas ins Leben zu rufen oder etwas zu produzieren. Dabei werden die eigene Kreativität, die eigenen Fähigkeiten und Ressourcen eingesetzt, um eine Idee oder ein Konzept in eine greifbare Form zu bringen. Die Bandbreite der Kreation reicht von der Herstellung physischer Objekte wie Kunstwerken, Erfindungen oder Produkten bis hin zu immateriellen Schöpfungen wie Musik, Literatur oder Software. Die Schöpfung von Dingen ist nicht ausschließlich auf den Menschen beschränkt; auch die künstliche Intelligenz dringt in kreative Bereiche vor. Es geschieht, und es geschieht jetzt. In diesem Cluster konzentrieren wir uns erneut auf zwei Branchen, wobei die Kunst im Mittelpunkt steht. Sie umfasst ein breites Spektrum an kreativen Disziplinen und Ausdrucksformen. Die bildende Kunst verblüfft mit Pinselstrichen, verschlungenen Linien und bemerkenswerten Skulpturen, während die Fotografie flüchtige Momente verewigt. Film und Animation hauchen Geschichten Leben ein und beflügeln unsere Fantasie. Das geschriebene Wort lockt uns in unerforschte Gefilde. Nicht zu vergessen ist das Design, das unsere physischen Räume gestaltet.
84
Schmidt - Fast Forward 150x210 KORR3.indd 84
18.01.24 18:18
Mit dem Aufkommen von künstlicher Intelligenz steht der Bereich der Kreativität an der Schwelle zu einer neuen Ära. Wenn sich diese revolutionäre Technologie mit dem menschlichen Erfindungsreichtum verbindet, eröffnen sich neue Möglichkeiten, es entstehen aber auch neue Fragen. Wird KI zu einem Kollaborateur, der Hand in Hand mit menschlichen Schöpfern arbeitet, um die Grenzen der Vorstellungskraft zu erweitern? Oder wird sie sich zu einem eigenständigen Schöpfer entwickeln, der Werke schafft, die unsere Vorstellungen vom Menschsein infrage stellen? Wir, die Autor:innen, glauben, dass beides möglich ist und auch schon geschieht. Die Schnittstelle zwischen künstlicher Intelligenz und Kreativität verspricht eine Zukunft, in der Innovation keine Grenzen kennt und die Grenzen zwischen dem Künstlichen und dem Menschlichen verschwimmen werden. In der Welt der visuellen Kunst dominieren derzeit Software-Tools wie Midjourney,78 Dall-E79 und Stable Diffusion80 den Markt. Das Entwicklungstempo ist jedoch erstaunlich hoch: Ständig kommen neue Tools auf den Markt, und die vorhandenen machen innerhalb weniger Wochen bemerkenswerte Fortschritte. Insbesondere die beliebte Software Midjourney hat für ihre Fähigkeit, beeindruckende Bilder zu erzeugen, Aufmerksamkeit erregt. Sie erstellt äußerst realistische Fotos, selbst in Spezialbereichen wie der Lebensmittelfotografie. Mit nur wenigen Sätzen oder Schlüsselwörtern, den sogenannten Prompts, erzeugen diese KI-Systeme Bilder, die für Laien nur schwer von menschengemachten Bildern zu unterscheiden sind. Erinnern wir uns an das jüngste und amüsante Beispiel aus Kapitel 1 (s. S. 15), das Foto des Papstes in einer modernen, auffälligen Daunenjacke, das in den sozialen Medien kursierte.81 Es war nicht echt, sondern wurde mit Midjourney erstellt. Was wir beobachten können, ist, dass die Produktion hochwertiger kreativer Arbeiten zugänglicher geworden ist, sodass sich Menschen weniger auf spezialisierte Einrichtungen wie Agenturen, Fotograf:innen und Autor:innen verlassen müssen. Insbesondere die sozialen Medien haben dazu beigetragen, dass viele Menschen zu Fotograf:innen oder Videoproduzent:innen geworden sind, zu sogenannten Content Creators. Während man früher eine teure Ausrüstung besitzen musste, kann man heute Videos auf einem halbwegs guten Computer oder sogar mit Apps auf einem Mobiltelefon bearbeiten. Das Gleiche gilt für die Fotografie, wie
85
Schmidt - Fast Forward 150x210 KORR3.indd 85
18.01.24 18:18
Plattformen wie Instagram zeigen. Mithilfe von KI wird dieser Prozess noch leichter zugänglich und müheloser. Die Kunst legt ihr elitäres Image ab und wird für die breite Masse zugänglich. Vorbei sind die Zeiten, in denen nur die Wohlhabenden ihre Häuser mit exquisiten Kunstwerken schmücken konnten. Jetzt kann jeder seine Kreativität nutzen und Kunst in sein tägliches Leben einfließen lassen. Setzen Sie Ihre Wünsche einfach in die Realität um! Tauchen Sie ein in die Welt des kreativen Schreibens und lassen Sie Ihren Worten freien Lauf, um Geschichten und Gedichte zu verfassen. Schreiben Sie Gute-Nacht-Geschichten für Ihre Kinder. Oder tauchen Sie in die Welt der Mode ein. Entwerfen Sie ausgefallene Schnitte oder Muster, die Ihre Kleidungsstücke zum Leben erwecken. Und hier ein Spoiler-Alarm: Die nächste große Innovation am Horizont ist die Erstellung von Filmen. Die Möglichkeiten sind grenzenlos. Lassen Sie Ihrer Fantasie freien Lauf und erleben Sie Wunder. Neue Tools, die auf KI basieren, verändern die Texterstellung und haben einen erheblichen Einfluss auf zahlreiche Branchen, darunter Journalismus, Marketing und sogar Bereiche wie Recht und Programmieren. Im Journalismus liegt der Wert der automatisierten Nachrichtenerstellung auf der Hand, insbesondere wenn es um datengesteuerte Inhalte wie Wettervorhersagen oder Börsenberichte geht. Algorithmen wandeln diese Informationen effizient in lesbare Artikel um und sorgen für eine schnelle Verbreitung an ein großes Publikum. Im Marketing-Bereich können KI-Tools problemlos Texte und Slogans generieren. Das Potenzial von KI geht jedoch über die reine Produktion hinaus. Die Personalisierung spielt eine entscheidende Rolle, vor allem im Zusammenhang mit der Kundenbetreuung. Die Möglichkeit, innerhalb von Sekunden Antworten zu erhalten, wird von den Kund:innen sehr geschätzt, was ihre Zufriedenheit steigert. Die Mitarbeiter:innen können sich auf angenehmere Interaktionen mit den Kund:innen konzentrieren, was zu einem positiveren Arbeitsumfeld führt.82 Überraschenderweise erstreckt sich der Einfluss von KI sogar auf Bereiche wie Recht und Programmierung. Obwohl diese Bereiche auch mit dem Augmentationscluster in Verbindung gebracht werden können, sind sie hier der Kreativität zugeordnet. Diese beiden Bereiche sind besonders interessant, weil darin immer
86
Schmidt - Fast Forward 150x210 KORR3.indd 86
18.01.24 18:18
auch der Kontext wichtig ist. Es geht nicht nur darum, einen sinnvollen Satz zu generieren, sondern auch darum, sicherzustellen, dass der Satz in einem größeren Kontext und einer logischen Struktur funktioniert. Fortgeschrittene KI-Systeme haben in dieser Hinsicht bereits bemerkenswerte Fähigkeiten bewiesen. Erst kürzlich erklärte ein Anwalt Florian Schütz, wie er KI einsetzt, um Vertragstexte zusammenzufassen, um deren Inhalt schneller zu erfassen und Unstimmigkeiten zu erkennen. Einst unvorstellbar, ist diese Errungenschaft nun Realität. Es gibt auch eine klare Parallele zwischen Rechtstexten und Programmieren. KI muss die Ziele und Konzepte hinter ihrem Output, ob in Form von Text oder Code, logisch verstehen. Stellen Sie sich vor, dass KI mühelos komplizierte Codestrukturen erzeugt und sich wiederholende Aufgaben automatisiert, sodass sich die Menschen auf Kreativität und Problemlösung auf höherer Ebene konzentrieren können. Das Potenzial ist immens: Die Softwareentwicklung wird schneller, effizienter und bemerkenswert innovativ werden. Wenn Programmierer:innen heute zum Beispiel ein falsches Briefing erhalten, kann dies zu einer Katastrophe führen, und es muss viel Zeit für die Anpassung des Codes aufgewendet werden. Mit KI hingegen werden die notwendigen Anpassungen zu einer Sache von Minuten.
Was geschieht mit der Gesellschaft im weiteren Sinne? Welche Auswirkungen wird KI auf unsere Gesellschaft haben? Werden viele Menschen nicht mehr beschäftigungsfähig sein, weil ihre Aufgaben von Computern übernommen werden? Werden superintelligente Computer eines Tages die Welt beherrschen und den Menschen, die sie geschaffen haben, wenig nützen? Oder werden Roboterdiener ein goldenes Zeitalter der Freizeit und des Wohlstands einläuten? Es ist schwierig, das ganze Ausmaß der Veränderungen vorherzusagen, aber eines ist sicher – sie werden erheblich sein. Wir müssen dieses sich rasch entwickelnde Feld mit Vorsicht und Bedacht angehen und nicht nur die potenziellen Vorteile, sondern auch die möglichen Nachteile in Betracht ziehen. Wie gehen wir mit einer steigenden Zahl von Arbeitslosen um? Was ist der Wert der Arbeit? Ist ein bedingungsloses Grundeinkommen die richtige Antwort? Wir befinden uns in einem gewissen Dilemma. Einerseits wäre es toll, wenn Menschen
87
Schmidt - Fast Forward 150x210 KORR3.indd 87
18.01.24 18:18
keine harte oder monotone Arbeit mehr verrichten müssten, aber was würde das für uns Menschen bedeuten? Wie würden wir uns beschäftigen, und wer würde am Ende dafür bezahlen? Dennoch hätten automatisierte Produktionsprozesse unbestreitbare Vorteile. Waren müssten nicht mehr in Niedriglohnländern unter schlechten Bedingungen produziert werden. Sie müssten nicht mehr um die ganze Welt verschifft werden, sondern könnten vor Ort produziert werden, was sich positiv auf die Umwelt auswirken würde, da weniger CO2 und andere Schadstoffe ausgestoßen würden. Die Abhängigkeit vom Ausland würde sich verringern, Risiken würden reduziert und die Widerstandsfähigkeit der Lieferkette erhöht. Länder, die in der Lage sind, diese Technologien effektiv zu entwickeln und einzusetzen, hätten strategische Vorteile. Wir als Gesellschaft müssen dafür sorgen, dass die Entscheidungsträger, die mit diesen Fragen befasst sind, Maßnahmen ergreifen, um negative Folgen abzumildern. Ein kürzlich erschienener Bericht der MIT Task Force on the Work of the Future hat Empfehlungen für die wichtigsten Interessengruppen im Hinblick auf die Herausforderungen und Chancen von KI am Arbeitsplatz formuliert. Von Schulen über Unternehmen bis zur Regierung könnte sichergestellt werden, dass Arbeitskräfte mit den notwendigen Fähigkeiten und Ressourcen ausgestattet sind, um in einer zunehmend automatisierten Welt erfolgreich zu sein. Für Schulen, Hochschulen und Universitäten empfiehlt der Bericht die Verbesserung der Informatik-Lehrpläne und die Ausweitung von Programmen, die Umschulungen und kurze Onlinestudiengänge anbieten, die auf die Bedürfnisse der Arbeitgeber:innen abgestimmt sind. Die Unternehmen werden aufgefordert, sich darauf zu konzentrieren, KI als Ergänzung zu den Menschen einzusetzen, anstatt diese zu ersetzen. Sie sollen Schulungen für Mitarbeiter:innen anbieten, deren Stellen durch KI wegfallen oder umgestaltet werden, um sie auf andere Arbeitsplätze vorzubereiten. Arbeitnehmerorganisationen wie Gewerkschaften werden ebenso wie zivilgesellschaftliche Organisationen ermutigt, Arbeitnehmer:innen bei der Bewältigung von durch KI verursachten Problemen zu helfen. Schließlich fordert der Bericht die Regierungen auf, die Investitionen in die postsekundäre Bildung und in Umschulungs- oder Weiterbildungsprogramme zu erhö-
88
Schmidt - Fast Forward 150x210 KORR3.indd 88
18.01.24 18:18
hen und den rechtlichen und regulatorischen Rahmen für die Arbeit neu zu gestalten, um die Schaffung von Arbeitsplätzen zu fördern.83 Aber all diese Maßnahmen werden Zeit brauchen, um umgesetzt zu werden. Wir müssen daher auch über alternative Wege zur Überbrückung der Kluft nachdenken. In diesem Zusammenhang wird häufig das Konzept des bedingungslosen Grundeinkommens genannt. Es ist eine Form der sozialen Sicherheit, bei der jede Person in einer bestimmten Region oder einem bestimmten Land ein regelmäßiges Einkommen erhält, ohne dass sie einer Arbeit nachgehen oder bedürftig sein muss. Es soll die lebensnotwendigen Ausgaben decken und ein Sicherheitsnetz für Menschen bieten, die ihren Arbeitsplatz aufgrund von Automatisierung oder anderen Faktoren verlieren. Weltweit wurden bereits mehrere Versuche durchgeführt, darunter ein zweijähriges Experiment in Finnland und ein Pilotprogramm in Kalifornien. Obwohl die Ergebnisse dieser Versuche unterschiedlich ausfielen, wurden einige positive Ergebnisse beobachtet. Im finnischen Versuch berichteten die Teilnehmer:innen über ein höheres Wohlbefinden, ein geringeres Stressniveau und eine größere Bereitschaft, eine Beschäftigung zu suchen oder ein eigenes Unternehmen zu gründen. Auch das Pilotprojekt in Kalifornien ergab, dass Personen, die das Grundeinkommen erhielten, eine bessere psychische Gesundheit und eine größere finanzielle Stabilität aufwiesen sowie öfter in einer Vollzeitbeschäftigung waren. Die Frage der Finanzierung des Grundeinkommens ist ein entscheidender Aspekt dieser Debatte. Diskussionen beinhalten oft Vorschläge für neue Steuermodelle oder die Umverteilung bestehender Ressourcen. Es gibt Ideen zur Einführung einer Robotersteuer, einer Vermögenssteuer oder einer Mehrwertsteuer. Einige Befürworter argumentieren, dass die Einsparungen, die durch die gesteigerte Effizienz und Produktivität aufgrund von KI und Automatisierung entstehen, zur Finanzierung eines Grundeinkommens beitragen könnten. Die Debatte ist ständig in Bewegung, und es werden wahrscheinlich neue Studien, Forschungen und politische Diskussionen entstehen. Interessanterweise haben führende Vertreter der Technologiebranche wie Elon Musk und der CEO von OpenAI, Sam Altman, eine aktive Rolle in der Debatte
89
Schmidt - Fast Forward 150x210 KORR3.indd 89
18.01.24 18:18
über das Grundeinkommen übernommen. Als Hauptakteure bei der Entwicklung und Verbreitung von KI-Technologien wissen sie um mögliche Probleme auf dem Arbeitsmarkt und die Verdrängung von Arbeitnehmer:innen. Ihr Weitblick erlaubt es ihnen, die langfristigen Auswirkungen von KI und Automatisierung auf die Weltwirtschaft vorauszusehen. Wir sollten ihre Vorhersagen ernst nehmen, unsere Gesellschaften auf zukünftige Herausforderungen vorbereiten und Lösungen entwickeln, die soziale Stabilität und Wohlstand fördern.
So geht’s weiter Dieses Kapitel hat sich mit dem tiefgreifenden Einfluss befasst, den die KI auf die Arbeitswelt haben wird – und bereits hat –, und hat die laufenden Veränderungen hinsichtlich Arbeitsaufgaben, Branchen und Erwartungen der Gesellschaft untersucht. Es wurde beschrieben, wie KI bereits erfolgreich in verschiedene Sektoren integriert wird und dass es wichtig ist, ein Gleichgewicht zwischen Innovation und Ethik herzustellen. Doch wie schnell muss gehandelt werden? Forschungsergebnisse deuten darauf hin, dass das Tempo des Wandels von einer komplexen Mischung aus technischen, wirtschaftlichen, sozialen und regulatorischen Faktoren bestimmt wird. Wie bei der Digitalisierung im Allgemeinen wird das Tempo, in dem die KI-Technologie angenommen wird, von ihrer Entwicklung und der Fähigkeit abhängen, sie in bestehende Systeme zu integrieren. Unternehmen neigen dazu, etablierte, zuverlässige Technologien zu bevorzugen, und sind möglicherweise zurückhaltend, wenn sie mit der komplizierten, ressourcenintensiven Aufgabe der KI-Integration konfrontiert werden. Neben den Kostenfaktoren wird der Einsatz von KI auch von der öffentlichen Meinung, der Verfügbarkeit von Fachkräften und dem Umfang der staatlichen Unterstützung beeinflusst. Negative Ansichten können den Fortschritt bremsen. Branchen mit Fachkräftemangel können sich mit der Einführung von KI schwertun, und die Rolle von Vorschriften bei der Erleichterung oder Verhinderung der KI-Einführung ist entscheidend.84 Aber egal, wie lange es dauert, es ist klar, dass wir einen vorausschauenden Ansatz verfolgen müssen, um einen reibungslosen Übergang in eine KI-gesteuerte Zukunft zu gewährleisten.
90
Schmidt - Fast Forward 150x210 KORR3.indd 90
18.01.24 18:18
Um die Arbeitswelt an das Zeitalter von KI anzupassen, sollten wir Folgendes tun: , unsere Fähigkeiten und Kenntnisse ausbauen, um auf dem sich ständig weiterentwickelnden Arbeitsmarkt wettbewerbsfähig zu bleiben, und lebenslanges Lernen als einen wesentlichen Aspekt der beruflichen Entwicklung sehen , eine Kultur der Zusammenarbeit und Aufgeschlossenheit fördern, die die sich ergänzenden Stärken von Menschen und KI nutzt, um Produktivität, Kreativität und Innovation zu maximieren , Unternehmen und Wirtschaftsführer in die Pflicht nehmen und sie drängen, sich für Initiativen einzusetzen, die dem Wohlergehen der Arbeitskräfte, der Chancengleichheit und ethischen Erwägungen bei der Entwicklung und Umsetzung von KI-Technologien Vorrang einräumen und so eine nachhaltige und inklusive Zukunft für alle ermöglichen
91
Schmidt - Fast Forward 150x210 KORR3.indd 91
18.01.24 18:18
KAPITEL 5: TOO COOL FOR SCHOOL – KI IN BILDUNG UND WISSENSCHAFT Warum mit KI beginnen? Warum nicht erst darüber nachdenken, was man Gutes tun möchte, und dann sehen, ob KI dabei helfen kann? 85 Timnit Gebru, Informatikerin, The Distributed AI Research Institute
Wenn ChatGPT Hausübungen schreibt „Sehr geehrte Eltern! Da sich auch an unserer Schule die – oftmals leicht zu durchschauenden – Versuche häufen, Hausübungen bzw. Arbeitsaufträge mit ChatGPT zu erledigen, möchte ich Sie wie folgt informieren. Hausübungen oder Arbeitsaufträge, die mittels ChatGPT erledigt werden, gelten als sog. ‚vorgetäuschte Leistung‘ und werden daher nicht bewertet. Sie zählen daher auch nicht zur Mitarbeit. Überdies handelt es sich um einen vorsätzlichen Täuschungsversuch, der im Wiederholungsfalle auch eine schlechtere Verhaltensnote zur Folge hat. Mit der Bitte um Beachtung.“ Im März 2023 erhielten wir Autor:innen die obige Mitteilung von der Schuldirektion des Gymnasiums eines unserer Kinder. Sie zeigt mehrere Dinge: Erstens, dass die Schüler:innen ihren Lehrenden bei neuen Technologien weit voraus sind. Die Schulen sehen sich gezwungen, auf die zunehmende Nutzung von Tools wie ChatGPT zu reagieren. Viele betrachten das Thema jedoch eher als Risiko denn als Chance, und es scheint, dass die Schulen nicht gerade zu den Vorreitern gehören, wenn es darum geht, systematische Maßnahmen zu ergreifen. Aus der oben zitierten E-Mail geht zum Beispiel nicht hervor, dass der Ansatz der Schule im Umgang mit ChatGPT nur vorübergehend ist oder dass eine umfassendere Strategie in Vorbereitung ist. LLMs und andere generative KI-Anwendungen haben ein
92
Schmidt - Fast Forward 150x210 KORR3.indd 92
18.01.24 18:18
revolutionäres Potenzial. Es ist sicherlich keine leichte Aufgabe, klare Strategien zu entwickeln, die den praktischen und ethischen Anforderungen eines akademischen Kontextes gerecht werden. Da wir selbst an Universitäten unterrichten, verstehen wir Autor:innen die Herausforderungen, denen sich Bildungseinrichtungen gegenübersehen. Klar ist jedoch, dass eine kurzsichtige Herangehensweise mehr schaden als nützen könnte. Im Jahr 2023 hat sich dazu auch einiges getan. Während Anfang des Jahres noch kaum eine Universität Leitlinien für den Umgang mit ChatGPT hatte, wurden zunehmend Arbeitsgruppen gebildet, die sich mit diesem Thema befassen. Auch internationale Studierende, zum Beispiel eine Gruppe von Wirtschaftsstudent:innen aus den USA, Kanada, Japan, Australien, Frankreich, Slowenien und der Ukraine, die wir Autor:innen dazu befragten, gaben im Sommersemester an, dass ihre Heimatuniversitäten keine Richtlinien für die Nutzung von ChatGPT veröffentlicht hatten. Das änderte sich jedoch im Laufe des Jahres. Die Wirtschaftsuniversität Wien veröffentlichte noch im Frühjahr eine Website mit Anleitungen zum Thema „KI und ChatGPT in der Lehre“.86 Sie stellte einen hilfreichen ersten Versuch dar, eine Anleitung für LLMs zu geben und die unbefugte Nutzung von KI-basierter Software durch Studierende sowie die Möglichkeiten zur Erkennung von KI-generierten Texten zu erörtern. Die Frage, ob Studierende KI-basierte Tools verwenden dürfen, wurde jedoch nicht beantwortet; dies blieb den Hochschullehrenden überlassen, die im Einzelfall darüber entschieden. Dennoch zeichnete sich die Universität schon dadurch aus, dass sie zu diesem Zeitpunkt überhaupt eine schriftliche Richtlinie hatte. Eine weltweite Umfrage der UNESCO etwa zur gleichen Zeit ergab, dass weniger als 10 % der Schulen und Universitäten formelle Leitlinien für KI hatten. Von den Einrichtungen, die angaben, über eine Richtlinie zu verfügen, hatte etwa die Hälfte klare Regeln für den pädagogischen Einsatz generativer KI-Anwendungen. Die andere Hälfte überließ die Entscheidung, ob und wie KI eingesetzt wird, weitgehend den einzelnen Abteilungen oder Lehrkräften. Von den Hunderten von Institutionen, die an der Umfrage teilnahmen, gaben nur zwei an, dass sie die Verwendung von generativen KI-Anwendungen wie ChatGPT vollständig oder weitgehend verbieten.87
93
Schmidt - Fast Forward 150x210 KORR3.indd 93
18.01.24 18:18
Einige Bildungseinrichtungen scheinen schon viel weiter zu sein. Das ESG Gütersloh – eine Schule in Deutschland, deren Name an die oft zitierten ESG-Kriterien (Environment, Society & Governance) erinnert, aber eigentlich für Evangelisch Stiftisches Gymnasium steht, ist ein solches Beispiel. An diesem Gymnasium haben sich die Schüler:innen seit der Veröffentlichung von ChatGPT mit den Chancen und Risiken von künstlicher Intelligenz auseinandergesetzt. Sie haben inzwischen Klausuren geschrieben, in denen die Verwendung von ChatGPT sowohl zur Inspiration als auch zur Formulierungshilfe offiziell erlaubt war. Dies erforderte natürlich die Einführung des Tools sowie offene Diskussionen und Tests seiner Stärken und Grenzen im Unterricht. Die Schule zeigt damit schon sehr früh, dass Traditionalismus und Innovation zusammengehen können – solange bestimmte Strukturen vorhanden und die Beteiligten aufgeschlossen sind.88
Unterricht mit VR-Brille Die Technologie entwickelt sich viel schneller, als die formalen Bildungseinrichtungen sich anpassen können. Heute ist KI in den meisten Ländern noch nicht einmal in den Lehrplänen enthalten, und dort, wo sie vorhanden ist, klafft eine zeitliche Lücke zwischen der Ausbildung neuer Lehrpersonen und dem Zeitpunkt, an dem sie zum ersten Mal unterrichten. Die Integration von KI in den Unterricht ist jedoch kein neues Phänomen. Von den KI-Technologien, die derzeit im Bildungskontext eingesetzt werden, haben diejenigen, die auf die Schüler:innen ausgerichtet sind, bisher die meiste Aufmerksamkeit erhalten. Am weitesten verbreitet sind die sogenannten intelligenten Tutorensysteme, von denen mehr als 60 im Handel erhältlich sind. Tatsächlich gibt es solche Systeme schon seit Jahrzehnten, und sie werden von mehr Schüler:innen genutzt als jede andere KI-basierte Anwendung. Sie bieten im Wesentlichen Schritt-für-Schritt-Tutorials in strukturierten Fächern wie Mathematik. Die Systeme stützen sich auf Expertenwissen über das Fach sowie auf kognitionswissenschaftliche Forschung und reagieren auf die Erfolge und Fehler der Schüler:innen. Die Systeme nutzen Wissenstracker, um einzuschätzen, wie gut die Schüler:innen bestimmte Fähigkeiten beherrschen; sie passen den Schwierigkeitsgrad automatisch an und geben Hinweise, die auf die Stärken
94
Schmidt - Fast Forward 150x210 KORR3.indd 94
18.01.24 18:18
und Schwächen jedes einzelnen Schülers abgestimmt sind. Einige der intelligenten Tutorensysteme erfassen sogar die Stimmung oder den Aufmerksamkeitsgrad der Schüler:innen, indem sie beispielsweise deren Blick überwachen.89 Zwei interessante Beispiele sind Spark, das von dem französischen Unternehmen Domoscio entwickelt wurde, und Gooru Navigator, der das Ziel verfolgt, das Google Maps des Lernens zu werden.90 Der Gedanke, den Unterricht zu personalisieren, ist zwar verlockend, doch gibt es bisher kaum Beweise dafür, dass diese Systeme so effektiv sind, wie die Unternehmen, die dahinterstehen, behaupten. Darüber hinaus berücksichtigt der eher von oben nach unten gerichtete, instruktionistische Ansatz in der Regel keine anderen Aspekte des Lernens, die aber sehr nützlich sein können, wie Teamarbeit oder produktives Scheitern. Indem sie Inhalte vorschreiben, ignorieren diese Systeme auch die Handlungsfähigkeit der Schüler:innen, d. h. ihre Fähigkeit, eine aktive Rolle bei ihrem eigenen Lernen zu übernehmen und Entscheidungen darüber zu treffen, wie sie lernen. Darüber hinaus verringert der übermäßige Einsatz solcher „intelligenten“ Systeme auch den menschlichen Kontakt zwischen Schüler:innen und Lehrpersonen, da ITS (intelligente Tutorensysteme) in der Regel erfordern, dass die Lehrenden hinter ihrem Schreibtisch bleiben, um die Dashboards mit Informationen über die Interaktionen der Schüler:innen zu überwachen. Wenn sich die Lehrkräfte im Raum bewegen, um mit ihren Schüler:innen direkt in Kontakt zu treten, besteht die Gefahr, dass sie den Überblick über ihre Dashboards verlieren. Aber es gibt KI-Technologie, um auch dieses Problem zu lösen! Lumilo, das in Verbindung mit einer Augmented-Reality-Brille verwendet wird, ermöglicht es Lehrkräften, relevante Informationen quasi über den Köpfen der Schüler:innen zu sehen, z. B. die Anzahl der Fehler oder ob die Aufmerksamkeit nachlässt. Auch wenn dies ein cooles Tool zu sein scheint, sollte man betonen, dass Lumilo entwickelt wurde, um ein Problem zu lösen, das nur aufgrund von Schwächen in einer anderen KI-Technologie besteht – und das, bevor wir uns mit dem Thema Datenschutz beschäftigt haben. Dialogbasierte Nachhilfesysteme, wie das von der Universität Memphis entwickelte AutoTutor, sind einen Schritt weiter. Sie nutzen die Verarbeitung natürlicher Sprache und andere KI-Techniken, um einen gesprochenen Dialog zu simulieren,
95
Schmidt - Fast Forward 150x210 KORR3.indd 95
18.01.24 18:18
während sie die Schüler:innen Schritt für Schritt durch Online-Aufgaben führen, für die es eine vorgegebene Lösung gibt. Dialogbasierte Systeme verwenden einen sokratischen Ansatz, bei dem die Schüler:innen durch Gespräche zu Lösungen geführt werden, was sie dazu anregt, Erklärungen zu finden und so das Thema auf einer tieferen Ebene zu verstehen. Eine andere Art von schülerorientierten Modellen sind KI-gesteuerte „explorative Lernumgebungen“, in denen KI Feedback gibt und alternative Ansätze vorschlägt, um sicherzustellen, dass die Schüler auf ihrer individuellen Entdeckungsreise nicht zu weit vom Weg abkommen. Solche Modelle gibt es aber bisher nur im Labor. Die Sprachkenntnisse, die KI heute bereits hat, sind beeindruckend. KI-Anwendungen für das Lesen und das Erlernen von Sprachen sind inzwischen weit verbreitet. AI Teacher, Amazing English, Babbel und Duoloingo sind bekannte Beispiele. DeepL ist ein auf neuronalen Netzen basierender maschineller Übersetzungsdienst, der 2017 ins Leben gerufen wurde und sich selbst als „der präziseste Übersetzer der Welt“ bezeichnet. Alle diese Tools können im Bildungsbereich eingesetzt werden. Werkzeuge zur automatischen Evaluierung von Texten nutzen die Verarbeitung natürlicher Sprache und andere KI-Techniken, um automatisches Feedback zu geben. Ein solches Feedback kann entweder gegeben werden, um den Studierenden zu helfen, ihre Texte zu verbessern, bevor sie eingereicht werden, oder die Software kann zur Benotung eingesetzt werden, indem sie die Texte der Studierenden automatisch bewertet. Beide Arten von Evaluierungstools sind im Bildungsbereich bereits weit verbreitet; Beispiele hierfür sind Programme wie WriteToLearn, e-Rater und Turnitin. Solche Tools können je nach Zielsetzung entweder von Schüler:innen oder von Lehrenden eingesetzt werden. Einige intelligente Tutorensysteme können Menschen mit Behinderung unterstützen, z. B. durch Text-to-Speech-Funktionen oder automatische Untertitelung. Darüber hinaus wurden Apps, wie etwa StorySign, entwickelt, um Kindern mit Hörproblemen durch die automatische Übersetzung von Text in Gebärdensprache zu helfen.91 Alice Schmidt hätte solche Hilfsmittel schon gerne vor 10 Jahren zur Verfügung gehabt. Damals belegte eine Studentin mit Hörproblemen einen ihrer Kurse, der sich mit sozialer Entwicklung und Integration in Asien und Afrika befasste.
96
Schmidt - Fast Forward 150x210 KORR3.indd 96
18.01.24 18:18
Alice Schmidt war hochmotiviert und schwor sich, dafür zu sorgen, dass die Studentin sich einbezogen fühlte und mitreden konnte. Sie nahm sich vor, langsam zu sprechen, sich wenig zu bewegen und die Studentin so oft wie möglich direkt anzusprechen. Obwohl Alice Schmidt sich sehr bemühte, gelang es ihr nicht, ausreichend auf die Bedürfnisse der Studentin einzugehen, ohne den Unterricht für die anderen Studierenden zu beeinträchtigen. Die Studentin meldete sich schließlich von dem Kurs ab, was für alle Beteiligten enttäuschend war. Glücklicherweise gibt es jetzt dank KI effiziente Tools, um diese Lücke zu schließen. Von allen KI-Anwendungen, die im Bildungsbereich eingesetzt werden, werden intelligente Tutorsysteme bereits am längsten erforscht; die Branche verfügt über 40 Jahre praktische Erfahrung. Wir wissen, dass diese Tools funktionieren, aber wir wissen noch nichts über ihre allgemeinen Auswirkungen auf die Bildung. Wenden wir uns nun der Seite der Lehrenden zu und sehen uns an, ob und wie generative KI ihre Arbeit erleichtern kann.
Entspannung für Lehrende? Als ChatGPT veröffentlicht wurde, fragten sich die Autor:innen , wie sie ihre Studierenden davon abhalten könnten, damit Texte zu erstellen, zum Beispiel für Seminararbeiten. Sie fragten ChatGPT, wie Aufgabenstellungen formuliert werden könnten, um es LLMs zu erschweren, sie zu beantworten. Die Antwort von ChatGPT enthielt mehrere nützliche Vorschläge. Die KI empfahl zum Beispiel, Studierende aufzufordern, spezifische Fallstudien, Ereignisse oder Situationen zu analysieren, die nicht allgemein bekannt sind und zu denen KI daher auch kaum Informationen haben dürfte. Sie schlug auch vor, die Studierenden zu bitten, persönliche Überlegungen zu einem Thema anzustellen, eine Strategie, bei der sie auf ihre eigenen Erfahrungen, Ideen und Meinungen zurückgreifen sollten. Wenn man Studierenden die Aufgabe stellt, mehrere Perspektiven zu einem Thema zu vergleichen, müssen sie kritisches Denken und Analysefähigkeiten anwenden. Der Bot empfahl auch, die Studierenden aufzufordern, kreative Lösungen zu entwickeln und so innovatives Denken und Problemlösungsfähigkeiten in bestimmten Situationen zu demons trieren. Und schließlich sollten die Studierenden über die Bedeutung der akademi-
97
Schmidt - Fast Forward 150x210 KORR3.indd 97
18.01.24 18:18
schen Integrität und die Folgen von Plagiaten aufgeklärt und ermutigt werden, alle Quellen, die sie in ihrer Arbeit verwenden, ordnungsgemäß zu zitieren. Insgesamt haben wir Autor:innen festgestellt, dass kontextspezifische Analyse und kritisches Denken nicht zu den Hauptstärken von ChatGPT gehören, zumindest in der aktuellen Version, obwohl sich dies in Zukunft ändern könnte. Erst die nächsten Semester werden zeigen, ob die Ratschläge der Maschine nützlich waren. Obwohl sie von Schüler:innen und Studierenden begrüßt werden, bereiteten automatische Schreibprogramme Lehrenden schon lange vor dem Auftauchen von ChatGPT Kopfzerbrechen. Es gibt zahlreiche Programme, die maßgeschneiderte Aufsätze erstellen. In Anbetracht der immer ausgefeilteren Tools und des Wettrüstens zwischen ihnen sowie der Software zum Erkennen von Plagiaten wird sich die Art und Weise, wie wir die Leistungen der Schüler:innen bewerten, ändern müssen. Aber nicht nur Sprachlehrer:innen wird dies Kopfzerbrechen bereiten. Mit Apps wie Photomath können Sie Ihren Kindern nicht nur Mathematik beibringen, sondern ihnen auch die Möglichkeit geben, eine Matheaufgabe hochzuladen und sie innerhalb von Sekunden von einer KI lösen zu lassen, die vielleicht viel schlauer ist als Sie. Eine Frage, mit der sich viele Lehrkräfte bereits auseinandersetzen, ist: Was bedeuten Tools wie ChatGPT für Hausübungen (unabhängig davon, ob es an ihrer Einrichtung eine spezielle Richtlinie zu diesem Thema gibt oder nicht)? Sollten sie sich jetzt mehr auf mündliche Prüfungen zur Bewertung konzentrieren? Oder sind KI-Detektoren der richtige Weg für die Bewertung von solchen Arbeiten? Und gibt es noch andere Möglichkeiten, wie KI Lehrenden helfen kann, ihre Arbeit effizienter und vielleicht sogar besser zu erledigen? Alice Schmidt und Jeroen Dobbelaere lieben das Unterrichten und die Interaktion mit Studierenden aus aller Welt, aber die Benotung von schriftlichen Prüfungen und Seminararbeiten gehört nicht zu ihren Lieblingstätigkeiten. Das Lesen und Bewerten von einer Arbeit nach der anderen ist mühsam, da Inhalt und Stil der Texte sich wiederholen. Daher scheint es für viele Lehrende verlockend, diesen Prozess durch ein KI-Tool zu automatisieren. Sogenannte „Autograder“ sind ein gut finanzierter Forschungsbereich, sie werden bereits in großem Umfang genutzt.
98
Schmidt - Fast Forward 150x210 KORR3.indd 98
18.01.24 18:18
Die Ergebnisse solcher Tools sind jedoch nicht immer gut und manchmal sogar falsch, weshalb sie umstritten bleiben. Da sie zum Beispiel kaum in der Lage sind, Kreativität zu bewerten, geben sie Studierenden oft Punkte für oberflächliche Merkmale wie Satzlänge, selbst wenn der Text keinen Sinn ergibt – sie können durch Kauderwelsch getäuscht werden.92 Darüber hinaus sind sie manchmal voreingenommen gegenüber Studierenden, die einer Minderheit angehören und daher andere Vokabel und Satzstrukturen verwenden. Gleichzeitig sind sie nicht in der Lage, Plagiate und von KI-Tools geschriebene Texte zu erkennen. Wenn es um schriftliche Leistungsbeurteilungen geht, bei denen viel auf dem Spiel steht – d. h. Tests, die für Studierende, Lehrende oder die Bildungsinstitution wichtige Konsequenzen haben –, ist die Anwendung solcher Technologien besonders riskant. Daher sind Leistungsüberprüfungen, in denen viel auf dem Spiel steht, eine der beiden Anwendungen, die im AI Act der EU als risikoreich definiert sind, und würden daher durch die Bestimmungen dieser Verordnung geregelt.93 Generell ist davon auszugehen, dass Lehrkräfte in Zukunft von der KI-gestützten Automatisierung von Aufgaben wie Bewertung, Plagiatserkennung, Feedback und Verwaltung profitieren werden. Die Lehrkräfte gewinnen dadurch Zeit, die sie in Aufgaben investieren können, die ihnen mehr Spaß machen, wie z. B. die Gestaltung ansprechender Kurse und eine individuellere Unterstützung der Studierenden. Es besteht jedoch auch die Gefahr, dass die Lehrkräfte selbst als überflüssig angesehen werden. Der vollständige Ersatz von Lehrkräften durch KI-basierte Tools ist definitiv nicht erstrebenswert. Er könnte aber dort akzeptabel sein und Mehrwert schaffen – wenn auch nur als Plan B –, wo es an qualifizierten Lehrkräften mangelt, beispielsweise in ländlichen Gebieten in ärmeren Gegenden. Es ist wichtig zu betonen, dass die Rolle der Lehrkräfte weit über die bloße Vermittlung von Wissen und die Korrektur von Aufgaben hinausgeht. Sie spielen eine wesentliche Rolle beim sozialen Lernen und tun in vielerlei Hinsicht intuitiv das, wofür Algorithmen teils langwierig und kostspielig trainiert werden müssen. Im Moment macht sich Alice Schmidt keine Sorgen darüber, als Uni-Lektorin ersetzt zu werden, nicht zuletzt weil sie einen Lehrstil anwendet, der viel Interaktion, gemeinschaftliches Arbeiten, Simulationsspiele und Diskussion beinhaltet und flexibel an die Interessen und Fortschritte der Studierenden angepasst wird.
99
Schmidt - Fast Forward 150x210 KORR3.indd 99
18.01.24 18:18
Auch wenn KI komplexe Themen wie nachhaltiges Wirtschaften oder Systemwandel noch länger nicht unterrichten können wird, ist sie schon jetzt als Unterstützung bei der Ideenfindung und Verwaltung hilfreich. Die rasanten Entwicklungen im Bereich von KI deuten jedoch auf größere Veränderungen hin, sodass wir weiterhin sehr flexibel bleiben und mit der Technologie „mitwachsen“ müssen.
Sind Sprachkenntnisse bald obsolet? Bislang hat sich die Diskussion über Technologie im Bildungsbereich weitgehend auf digitale Methoden und Werkzeuge und deren mehr oder weniger kreative Anwendung in Lehr- und Lernkontexten konzentriert. Diese Tools wurden von mehr oder weniger enthusiastischen Lehrenden im Rahmen der bestehenden Lehrpläne eingesetzt. Dies hat jedoch wenig dazu beigetragen, unseren Bildungsansatz als Ganzes infrage zu stellen. Generative KI-Tools wie ChatGPT zwingen uns nun dazu, einen Schritt zurückzutreten und einiges zu hinterfragen. Der Beginn einer neuen KI-Ära führt dazu, dass wir uns weitaus wichtigere Fragen stellen als die, ob ein Test von Hand oder am Computer geschrieben werden soll. Dieser Computer verfügt jetzt über ein neues Gehirn, das wir besser nutzen sollten. Ist es z. B. angesichts der Tatsache, dass einige Tools im Begriff sind, echte Übersetzungsstars zu werden, die besser, schneller und billiger sind als menschliche Gehirne, noch notwendig, dass Schüler:innen Fremdsprachen lernen? DeepL ist bereits führend in der Echtzeitübersetzung und funktioniert in 31 Sprachen, von Bulgarisch und Chinesisch bis Finnisch und Ukrainisch. Sayhi, ein von Amazon entwickeltes Tool, ermöglicht die direkte Konversation in über 100 Sprachen und Dialekten, von Afrikaans und Bangla bis zu Thai und Zulu. Wir wissen, dass das Erlernen von Fremdsprachen viele Vorteile mit sich bringt, die über die Sprachkenntnisse selbst hinausgehen, sodass die Antwort im Prinzip immer noch Ja lauten könnte. Aber würden wir in Erwägung ziehen, die Anzahl der Fremdsprachen, die Schüler:innen lernen, zu verringern, damit sie sich auf neue wichtige Kenntnisse wie ökologische Grundlagen, Programmieren oder andere MINT-Fächer konzentrieren können? Es stellt sich auch die Frage, ob es für Schüler:innen weiterhin wichtig ist, sich mit Rechtschreibung und Grammatik
100
Schmidt - Fast Forward 150x210 KORR3.indd 100
18.01.24 18:18
zu beschäftigen, wenn KI sie bei Bedarf leicht korrigieren kann.94 Diese Fragen betreffen auch nicht ausschließlich den Bereich der Sprachen. Ist es wirklich notwendig, dass alle Kinder in der Sekundarstufe jahrelang für Matheprüfungen pauken, wenn es doch Hilfsmittel gibt, mit denen man Fragen lösen kann, mit denen man im wirklichen Leben vielleicht nie konfrontiert wird? Wir sind der Meinung, dass es für alle Schüler:innen wichtig ist, lesen und schreiben zu lernen, ihr Gehirn durch die Beschäftigung mit anderen Sprachen und Kulturen zu entwickeln und die wichtigsten mathematischen Operationen zu verstehen. Die Frage ist, ob es Aspekte unserer traditionellen Lehrpläne und Lehrmethoden gibt, die Schüler:innen nicht mehr in dem Maße zugutekommen, wie es früher angenommen wurde. Wir müssen uns die Frage stellen, welches Wissen und welche Fähigkeiten die Schüler:innen tatsächlich behalten und was wir ihnen beibringen wollen. Parallel dazu müssen wir alle wesentlichen Lücken in den derzeitigen Lehr- und Lernpraktiken ermitteln. Auch hier ist es hilfreich, einen Blick in die Geschichte zu werfen. So waren zum Beispiel Taschenrechner in vielen Schulen erst gegen Ende des 20. Jahrhunderts erlaubt, während sie heute ein fester Bestandteil der meisten mathematischen und naturwissenschaftlichen Fächer sind. Eine akademische Ausbildung ohne Latein oder Altgriechisch war in einigen Teilen Europas lange Zeit nicht denkbar. Heute lernen weniger als 1 % der deutschen Gymnasiast:innen Altgriechisch.95 Die UNESCO, die Bildungsorganisation der Vereinten Nationen, spricht sogar von einem „sich abzeichnenden Konsens darüber, dass die Grundlagen des Lehrens und Lernens durch den Einsatz von KI im Bildungswesen neu gestaltet werden könnten“.96
Orwell in der Schule Künstliche Intelligenz hat bereits auf mehr Arten in den Bildungssektor Einzug gehalten, als viele von uns sich vorzustellen wagen – manchmal, aber nicht immer zum Wohle der Allgemeinheit. Schließlich ist der Markt für intelligente, adaptive und personalisierte Lernsysteme riesig, wir sprechen von vielen Milliarden Dollar pro Jahr. Privatwirtschaftliche Unternehmen versuchen, diesen Markt zu erschlie-
101
Schmidt - Fast Forward 150x210 KORR3.indd 101
18.01.24 18:18
ßen, indem sie Systeme für den Einsatz an Schulen und Universitäten auf der ganzen Welt entwickeln. Einige dieser Unternehmen – und auch einige Regierungen – sehen dies als Chance, immer mehr Daten über ihre Kund:innen und Bürger:innen zu sammeln. Dies bedeutet nicht automatisch, dass wichtige Bildungsziele wie die Verbesserung der Bildungsqualität oder das längere Verbleiben von Schüler:innen in der Ausbildung erreicht werden oder überhaupt oberste Zielsetzung sind. Wie wir oben festgestellt haben, erweisen sich einige KI-Anwendungen in Schulen bestenfalls als überflüssig. Der Einsatz von KI in Schulen vermittelt in einigen Fällen bereits einen eher dystopischen Eindruck. So überwachen beispielsweise einige KI-gestützte Videoanwendungen, wohin Schüler:innen schauen, um zu beurteilen, ob diese konzentriert sind oder nicht. EEG-Headsets (Elektroenzephalografie), die normalerweise in Krankenhäusern und Labors zur Überwachung des Gesundheitszustands von Menschen eingesetzt werden, werden jetzt auch in Schulen verwendet. In chinesischen Schulen sind solche Headsets weit verbreitet, um die Gehirnaktivität der Schüler zu überwachen, selbst bei kleinen Kindern. Die neuronalen Daten werden in Echtzeit in ein Lehrer-Dashboard eingespeist, und alle 10 Minuten werden detaillierte Berichte erstellt. In einigen Schulen überwachen Kameras, wie oft die Schüler gähnen oder im Unterricht auf ihr Handy schauen, während in anderen Schulen Chips in die Schuluniformen integriert sind, um den Aufenthaltsort der Schüler:innen und andere Daten zu überwachen. Viele Eltern in China haben offenbar keine Probleme mit diesen Maßnahmen und haben ihre Kinder bereitwillig zur Teilnahme an einem der weltweit größten Experimente mit künstlicher Intelligenz im Bildungswesen angemeldet. Einige scheinen sogar froh darüber zu sein, die Aufmerksamkeit ihrer Kinder überwachen zu können – mit der App, die regelmäßig Berichte an Chat-Gruppen von Eltern sendet und die Ergebnisse aller Schüler:innen für die gesamte Gruppe zugänglich macht. Ob die Kinder die volle Tragweite dieser Technologien erfassen, ist fraglich. Einige Schüler:innen haben sich jedenfalls schon über Schmerzen und Unbehagen beim Tragen des Headsets beklagt, während andere beschrieben haben, dass sie von ihren Eltern für niedrige Aufmerksamkeitswerte bestraft wurden.97
102
Schmidt - Fast Forward 150x210 KORR3.indd 102
18.01.24 18:18
Man kann also sagen, dass Orwell in vielen Schulen rund um den Globus bereits fest verankert ist. Und nicht nur in China werden wir von Big Brother überwacht. Auch in Ländern außerhalb Chinas wurde die biometrische Überwachung eingeführt, ohne dass die meisten von uns davon wissen. Als der Unterricht während der COVID-19-Schließungen ins Internet verlagert wurde, verzeichneten viele „E-Proctoring“-Unternehmen (Prüfungsüberwachung) trotz der mit dieser Praxis verbundenen Kontroversen ein massives Wachstum. Die Idee hinter E-Proctoring ist es, Schummeln zu verhindern, indem Kameras und Mikrofone eingesetzt werden, um während Online-Prüfungen die Gesichter der Teilnehmenden zu scannen und gleichzeitig die Tastenanschläge und Mausbewegungen zu verfolgen. Wie ein Experte es ausdrückt: „E-Proctoring ist wahrscheinlich eines der deutlichsten Beispiele für die Verwendung von KI zur Automatisierung schlechter pädagogischer Praktiken, anstatt sie zur Entwicklung innovativer Ansätze zu nutzen.“ 98 In den USA scheint es einen Trend zu geben, bei dem Hochschulen auf Gesichtserkennung basierende Software einsetzen, um die Anwesenheit der Studierenden zu überwachen. Da die Universitäten und Unternehmen die Software noch testen, steht es den Studierenden theoretisch noch frei, ob sie diese Überwachungsanwendungen herunterladen und nutzen wollen. Für einige ist der Druck, dies zu tun, jedoch groß. So wurde beispielsweise eine App namens SpotterEDU, die sich per Bluetooth mit den Mobiltelefonen der Studierenden verbindet und die Anwesenheit aufzeichnet, im Jahr 2020 an 40 verschiedenen US-Universitäten getestet, um die Anwesenheit im Unterricht zu erhöhen. Obwohl es sich um ein Experiment handelte und die Nutzung der App nicht offiziell vorgeschrieben war, berichteten einige Studierende, dass sie die App installieren mussten.99 Die ethischen Fragen, die mit solchen Systemen verbunden sind, insbesondere im Hinblick auf den Datenschutz und den Schutz der Privatsphäre, sind natürlich massiv. Aber was vielleicht noch schlimmer ist: Wir haben keine Informationen über die tatsächlichen Auswirkungen solcher Überwachungssysteme auf die Leistungen und Lernfreude, und genauso wenig über die Auswirkungen auf die Gesundheit oder das Wohlbefinden der Schüler:innen. Wenn wir uns aktiv und freiwillig für ein Bildungssystem im Stil von Big Brother entscheiden, dann sollten wir zumindest sicherstellen, dass die Chancen die Risiken überwiegen. Wir
103
Schmidt - Fast Forward 150x210 KORR3.indd 103
18.01.24 18:18
müssen verhindern, dass KI-gestützte Technologien nur um ihrer selbst willen eingesetzt werden, oder weil sie Unternehmen Geld bringen oder es Regierungen ermöglichen, von Daten zu profitieren, die sie gar nicht haben sollten. Gleichzeitig sollten wir uns aber auch der positiven Möglichkeiten bewusst sein und ihnen gegenüber aufgeschlossen sein, insbesondere wenn KI den Zugang zu hochwertiger Bildung für Menschen ermöglicht, die sonst vielleicht ausgeschlossen wären.
Nach den Sternen greifen Viele Länder mit hohem Einkommen haben die Möglichkeit, bereits weit fortgeschrittene Bildungstechnologien einsetzen zu können. Im Gegensatz dazu müssen Schulen in Ländern mit niedrigem Einkommen mit dem absoluten Minimum auskommen und können noch gar nicht an innovative Technologien denken. Zu ihren häufigsten Problemen gehören der Mangel an qualifizierten Lehrenden, unzureichende Bezahlung und veraltete Lehrpläne. Sogar der physische und finanzielle Zugang zur Schulbildung kann erhebliche Hürden darstellen. Millionen von Schulkindern, vor allem in ländlichen Gebieten, müssen lange und manchmal gefährliche Wege zur Schule zurücklegen; andere können überhaupt nicht zur Schule gehen, weil ihre Eltern sich keine Schulbücher oder Uniformen leisten können oder weil sie arbeiten müssen. In diesen Fällen und Kontexten funktionieren möglicherweise nicht einmal die grundlegendsten Bildungstechnologien. Es kommt zu häufigen Stromausfällen, und die technischen Geräte – die den Schulen oft von wohlmeinenden, aber schlecht informierten Spender:innen zur Verfügung gestellt werden – sind kaputt, veraltet oder mit anderen Systemen inkompatibel oder die Lehrenden sind zu überlastet, um sich damit auseinanderzusetzen. Anstatt sich positiv auf die Bildung auszuwirken, verstaubt die Hardware daher oft in den Schulen. Das war schon jahrzehntelang der Fall, lange bevor KI ins Spiel kam. Gleichzeitig können KI-gestützte Technologien zur Überwindung von Zugangsbarrieren in der Bildung und zur Verbesserung der Bildungsqualität beitragen, insbesondere wenn Internetverbindungen und kontextgerechte Hardware dies ermöglichen. Wenn eine einzelne Lehrkraft damit zu kämpfen hat, viele Kinder in vielen Altersgruppen zu unterrichten, können bestimmte Apps helfen, vorausgesetzt, die
104
Schmidt - Fast Forward 150x210 KORR3.indd 104
18.01.24 18:18
Internetverbindung und die IT-Infrastruktur sind solide. KI-gestützte Tools können das Distance Learning erleichtern und Menschen integrieren, die oft von Bildung ausgeschlossen sind, wie ältere Menschen, Flüchtlinge, Menschen mit besonderen Bedürfnissen und andere, die von der Gesellschaft ausgegrenzt werden. Die UNESCO ist jedoch der Ansicht, dass KI-Technologien selten Lösungen für größere Probleme bieten und in einigen Fällen mehr Probleme schaffen als lösen. Die Organisation weist darauf hin, dass „die Konzentration auf KI-Technologien, die Lehrerfunktionen ersetzen, statt auf solche, die die Fähigkeiten von Lehrern erweitern, zu einer kurzfristigen Lösung für Kontexte beitragen könnte, in denen es an Lehrern mangelt“, aber unbeabsichtigt die langfristigen Herausforderungen bei der Erreichung der globalen Entwicklungsziele verschärfen könnte, anstatt sie anzugehen.100 Expert:innen haben darauf hingewiesen, dass der Bildungssektor ein beliebter Spielplatz von Big-Tech-Firmen zu sein scheint – oft mit fragwürdigen Ergebnissen. Die Verbesserung des Zugangs zu Bildung bleibt weitgehend eine politische und soziale Frage. Die Diskrepanzen zwischen politischen Strategien und deren Umsetzung, zwischen den erklärten Zielen und den tatsächlichen Ergebnissen sind oft enorm. Beschränkte Ressourcen und Rahmenbedingungen erfordern häufig eine Kombination aus innovativem Denken und Pragmatismus. Manchmal führt dies sogar zu umgekehrten Innovationen, bei denen sich Instrumente, die für einkommensschwache Länder entwickelt wurden, auch in reichen Ländern als attraktiv erweisen. Als sie kürzlich ein kenianisches Bildungs-Start-up namens KuzeKuze beriet, erkannte Alice Schmidt erneut die Notwendigkeit dieses Pragmatismus, dessen Bedeutung sie schon während ihrer Tätigkeit bei der UNESCO in Asien erfahren hatte. KuzeKuze setzt KI ein, um eine hohe Dichte an Daten über die Kompetenzen von Schüler:innen zu sammeln, die schließlich dabei helfen, Leistungen vorherzusagen und individuelle Lernfortschritte zu verfolgen. Ziel ist es, eine Umgebung für eine klassenorientierte Zusammenarbeit zu schaffen, in der die Schüler:innen auf ihrem jeweiligen Lernniveau unterstützt werden. KuzeKuze setzt keine KIgestützte Technologie um ihrer selbst willen ein, sondern verwendet solche Tools nur dort, wo sie sinnvoll sind. So verwenden die Lernenden tatsächlich Stift und Papier, um Arbeitsmappen auszufüllen, die auf der Grundlage von KI-Empfeh-
105
Schmidt - Fast Forward 150x210 KORR3.indd 105
18.01.24 18:18
lungen erstellt werden. So wird sichergestellt, dass jeder teilnehmen kann, auch wenn der Strom ausfällt oder Schüler:innen kein funktionierendes elektronisches Gerät haben. Der Ansatz von KuzeKuze entlastet Lehrkräfte erheblich, da die handschriftlichen Aufgaben automatisch gescannt und mithilfe der Technologie bewertet werden. Das Modell wird unter anderem für Flüchtlingskinder in Dadaab, Kenia, dem größten Flüchtlingslager Afrikas, eingesetzt. In Zusammenarbeit mit der NGO Save the Children wird es auch für Schüler:innen verwendet, die die Schule vorzeitig verlassen haben. Positiv ist auch die Tatsache, dass KuzeKuze ein kenianisches Unternehmen ist, das den lokalen Markt bedient. Allzu oft erleben wir im Bildungsbereich das, was als digitaler Kolonialismus bezeichnet wird: Unternehmen aus reichen Ländern des globalen Nordens exportieren ihre Tools in Länder des globalen Südens, wodurch die Machtasymmetrien noch verstärkt werden. In der Praxis „funktionieren digitale Technologien oft so, dass sie die rassischen und kolonialen Formationen der Vergangenheit fortschreiben“.101 Damit KI-gestützte Technologien der Bildung im weiteren Sinne zugutekommen, müssen sie kontext- und kulturspezifisch sein und sowohl den bildungspolitischen Rahmen als auch die örtlichen Gegebenheiten berücksichtigen. Die Befürworter von KI im Bildungswesen haben auch viele andere Versprechen gemacht. Eines der ehrgeizigeren Ziele ist das „lebenslange Lernen“ sowohl für Lehrende als auch für Schüler:innen, d. h. die Vorstellung, dass es in einer komplexen, dynamischen Welt nicht mehr ausreicht, dass Lehrende zu Beginn ihrer Laufbahn ausgebildet werden und dann für den Rest ihrer Dienstzeit auf dieses Wissen zurückgreifen. Insbesondere im Bereich der Technologie kann ihr Wissen schon vor ihrem ersten Tag im Klassenzimmer veraltet sein. Was für Lehrpersonen gilt, trifft auch auf andere Berufe zu. Denken Sie zum Beispiel an Ärzt:innen oder Stadtplaner:innen. Im Grunde gilt das für uns alle. Wir alle sind lebenslang Lernende, und es wäre gut, einen klugen und fürsorglichen Lehrer zu haben, der unsere Interessen, Stärken und Schwächen kennt und uns immer begleitet. Bislang gibt es solche Hilfsmittel nicht. Unsere Smartphones sind voller Informationen, aber sie begleiten uns nicht so, wie es ein guter Lehrer tun sollte. Könnte ChatGPT als Grundlage für einen solchen lebenslangen Lernbegleiter dienen? Einige Visionäre sprechen von einem KI-gesteuerten elektronischen Portfolio, das fortlaufend
106
Schmidt - Fast Forward 150x210 KORR3.indd 106
18.01.24 18:18
Informationen über unsere Leistungen im Bildungsbereich und auch Daten über andere Kenntnisse und Fähigkeiten sammelt, wie Autofahren, das Beherrschen von Musikinstrumenten, das Erlernen neuer Sprachen oder sportliche Leistungen. Eine solche elektronische Aufzeichnung könnte als dynamischer Lebenslauf dienen, der durch die Blockchain-Technologie authentifiziert werden könnte.102 Dies klingt zwar nach einem intelligenten Weg, um das Schreiben von Lebensläufen zu ersetzen, bringt aber auch viele der oben erörterten Probleme in Bezug auf Daten und Privatsphäre mit sich.
Science oder Science-Fiction? In der Wissenschaft siegt immer die Wahrheit. Max F. Perutz, Biochemiker und Nobelpreisträger, Universität Cambridge
Um die Macht von KI zu veranschaulichen und zu zeigen, wie sie Veränderungen in der Wissenschaft bewirken kann, nehmen wir AlphaFold als Beispiel, eine KIAnwendung, die die Biologie in den letzten Jahren revolutioniert hat. Vielleicht haben Sie noch nicht davon gehört, aber Forbes bezeichnete sie 2021 als „die wichtigste Errungenschaft von KI überhaupt“ 103. AlphaFold ist ein KI-System, das die 3D-Struktur eines Proteins anhand seiner Aminosäuresequenz vorhersagt. Wenn Sie kein:e Biolog:in oder Biowissenschaftler:in sind, mag das ziemlich technisch und nicht gerade revolutionär klingen, aber die Bedeutung des Systems ist nicht schwer zu verstehen. Die Vorhersage dreidimensionaler Strukturen aus linearen Aminosäureketten war seit Langem eine Herausforderung für die Wissenschaft. Jahrzehntelang verließen sich die Forschenden auf sehr zeit- und ressourcenintensive Methoden, bei denen es sich häufig um dieselben alten Methoden handelte, die Max Perutz und John Kendrew in den 1950er-Jahren verwendet hatten. Es waren spektakuläre Methoden, und für ihre Entwicklung erhielten Perutz und Kendrew 1962 den Nobelpreis. Im Bestreben, die Verfahren zu modernisieren und zu beschleunigen, hatten viele Forschende versucht, die Methoden weiterzuentwickeln, zum Teil mithilfe von Computermodellen. Diese Versuche waren jedoch nie erfolgreich – bis die künstliche
107
Schmidt - Fast Forward 150x210 KORR3.indd 107
18.01.24 18:18
Intelligenz aufkam und das Europäische Labor für Molekularbiologie (EMBL) sich mit Googles DeepMind zusammenschloss, um AlphaFold zu entwickeln. Zuvor konnten Forschende etwa 3.000 Proteinstrukturen pro Jahr entschlüsseln, insgesamt also etwa 200.000 Strukturen.104 AlphaFold nutzte diese bereits veröffentlichten Strukturen, um KI-Algorithmen zu trainieren und Muster zu erkennen. So konnte das Team allein im Jahr 2021 365.000 neue Proteinstrukturen beschreiben, und diese Zahl ist seitdem auf 200 Millionen angewachsen, das sind fast alle Proteine sämtlicher Lebensformen, einschließlich Bakterien, Viren, Menschen, Tiere und Pflanzen. Dieses Beispiel verdeutlicht auch, dass Fortschritt nur durch Kooperation zwischen verschiedenen Sektoren erzielt werden kann. Im Fall von AlphaFold wurde eine bestehende Sammlung von Proteinstrukturen, die von Forschenden weltweit entwickelt worden waren, erfolgreich mit einem KI-Tool kombiniert, das gemeinsam von Googles DeepMind und dem Europäischen Laboratorium für Molekularbiologie entwickelt wurde. Durch diese institutionelle Zusammenarbeit wurde sichergestellt, dass alle neu geschaffenen Ressourcen, wie auch alle zuvor identifizierten Proteinstrukturen, für andere Forscher:innen frei zugänglich sind. Auch die Wissenschaftsgemeinschaft insgesamt und damit auch die breite Öffentlichkeit kann davon profitieren, nicht zuletzt dadurch, dass den Forschenden, die die ursprünglichen Daten gesammelt haben, Feedback gegeben werden kann. Jetzt sind Sie vielleicht von diesem KI-gestützten Fortschritt beeindruckt, verstehen aber noch nicht ganz die möglichen Auswirkungen. Proteine sind die Bausteine jeder Zelle in unserem Körper und sind für die meisten chemischen Reaktionen verantwortlich. Die Kenntnis der Struktur eines Proteins ist daher entscheidend für das Verständnis der Funktionsweise von Zellen, was wiederum ein wichtiger Schritt bei der Entdeckung von Medikamenten ist. Proteine sind im Grunde wie eine Schnur von Perlen (Aminosäuren), die zu einer ganz bestimmten 3-D-Struktur gefaltet sind. Nur wenn sie richtig gefaltet sind, können sie ihre Funktion erfüllen. Die Anordnung dieser Perlen ist in der DNA eines Organismus kodiert. Dank der großen Fortschritte in den letzten 30 Jahren sind wir heute in der Lage, die DNA zu sequenzieren und damit zu verstehen, wie unsere DNA aussieht. AlphaFold baut
108
Schmidt - Fast Forward 150x210 KORR3.indd 108
18.01.24 18:18
auf diesen Erkenntnissen auf, indem es die 3D-Struktur eines Proteins anhand der zugrunde liegenden DNA-Sequenz vorhersagt – also der Kette von Aminosäuren, aus denen es besteht. Innerhalb von zwei Jahren wurden 1.000-mal mehr Strukturen entschlüsselt als in den vorangegangenen 60 Jahren zusammen. Das hat die Biologie tiefgreifend verändert und viel Zeit, Geld und Material gespart. Darüber hinaus hat sich dadurch eine völlig neue Welt potenzieller Anwendungen eröffnet, und dieses Forschungsgebiet ist viel leichter zugänglich geworden. Wo früher die Bestimmung der Struktur von Proteinen jahrelange Ausbildung, teure Maschinen und viel Glück erforderte, ermöglicht die von AlphaFold entwickelte Datenbank nun auch Wissenschaftler:innen anderer Disziplinen einen einfachen Zugang zu solchen Informationen. Dies hat zu einer kreativen Welle von Ideen und mehr Zusammenarbeit geführt. Ein zweites Beispiel für die Leistungsfähigkeit dieses KI-Instruments haben wir alle während der COVID-19-Ära erlebt: Es hat die Entwicklung von Impfstoffen radikal beschleunigt. Bis Anfang 2020 waren Coronaviren noch nicht umfassend erforscht. Als das SARS-CoV-2-Virus, das COVID-19 auslöst, auftauchte, waren die Strukturen seiner Proteine daher nicht gut bekannt. AlphaFold ermöglichte es den Forscher:innen, die Struktur der wichtigsten Bausteine dieses Virus schnell vorherzusagen, was es ihnen wiederum ermöglichte zu verstehen, wie es menschliche Zellen angreift und wie solche Angriffe verhindert werden können. Dadurch konnten die Wissenschaftler:innen die besten Angriffspunkte für Impfstoffe ermitteln und so wirksame Waffen zur Bekämpfung der COVID-19-Pandemie entwickeln. Das letzte Beispiel hat ebenfalls etwas mit COVID-19 zu tun. Eines der Unternehmen, das die Entwicklung des COVID-19-Impfstoffs vorantrieb, war BioNTech. Seine mRNA-Technologie war ursprünglich als Krebsbehandlung entwickelt worden. Das „m“ in mRNA steht für „messenger“ (Bote) und bezieht sich auf eine Botschaft, die, sobald sie in eine menschliche Zelle integriert ist, mehrmals übersetzt werden kann. Weil sie Mechanismen in der Zelle ausnützt, kann die Technologie gegen ein breites Spektrum von Krankheiten eingesetzt werden. Da diese Botschaft mehrfach kopiert werden kann, werden nur geringe Mengen dies Botschaftsmoleküls benötigt, wodurch viele Ressourcen eingespart werden. BioNTech macht sich
109
Schmidt - Fast Forward 150x210 KORR3.indd 109
18.01.24 18:18
auch die Tatsache zunutze, dass die Botschaft leicht im Labor verändert werden kann. Das iNest-Programm des Unternehmens zielt unter anderem darauf ab, die Krebsbehandlung zu personalisieren, sie wirksamer zu machen und gleichzeitig die Nebenwirkungen zu verringern. Ein erster Scan des Musters der spezifischen Krebserkrankung einer Person wird verwendet, um Proteine zu identifizieren, die sich aufgrund von Mutationen im Genom falsch verhalten. AlphaFold sagt dann die 3-D-Strukturen dieser mutierten Proteine voraus und wählt optimale Behandlungsziele aus. Eine Mischung spezifischer mRNAs (zur Erhöhung der Erfolgschancen) kann dann schnell produziert werden, um einen bestimmten Tumor wirksam und lokal zu bekämpfen. Es ist zwar schwer zu sagen, wann die breite Öffentlichkeit in den Genuss derartiger Verfahren kommen wird, aber die Geschwindigkeit der jüngsten Entwicklungen auf diesem Gebiet dank KI lässt solche revolutionären personalisierten Krebsbehandlungen in naher Zukunft in greifbare Nähe rücken. Sie werden sich vielleicht fragen, wie AlphaFold dieses Feld so leicht erobern konnte. Erstens kombinierte es die Fähigkeit, große Datensätze zu verarbeiten, mit neuen Wegen, die Daten zu betrachten, indem es neuartige neuronale Netzwerke einsetzte, die Parameter identifizierten, die von Menschen nicht so leicht beobachtet werden können. Zweitens ermöglichte die immense Rechenleistung von DeepMind Tausende Wiederholungen der Proteinstrukturvorhersage, was eine höhere Genauigkeit ermöglichte und schließlich zu Ergebnissen führte, die so gut waren wie die von zeitaufwendigen empirischen Experimenten.
Fächerübergreifende KI KI-Tools werden auch in vielen anderen wissenschaftlichen Bereichen eingesetzt. Wie in den Kapiteln 3 und 4 (s. S. 47 und 68) bereits hervorgehoben, hat sich KI als sehr nützlich erwiesen, um die Entscheidungsfindung im medizinischen Bereich zu unterstützen, z. B. durch die Diagnose mithilfe von Bilderkennung. Erste Versuche in diesem Bereich wurden bereits in den frühen 1970er-Jahren unternommen, z. B. mit MYCIN, einem computergestützten Beratungssystem, das Ärzt:innen bei der Diagnose bakterieller Infektionen und der Auswahl von Therapien für Patient:innen unterstützen sollte. Dieses System, das zunächst als vielversprechende
110
Schmidt - Fast Forward 150x210 KORR3.indd 110
18.01.24 18:18
Strategie zur Bekämpfung von Antibiotikaresistenz und übermäßiger Verschreibung von Antibiotika angesehen wurde, scheiterte unter anderem an Unsicherheiten hinsichtlich der rechtlichen Haftung. Aus diesem Grund und wegen der hohen Kosten wurde dieses bahnbrechende Projekt Ende der 1970er-Jahre eingestellt.105 In jüngster Zeit haben die zunehmende Verfügbarkeit von Medizintechnik und verbesserte bildgebende Verfahren dazu beigetragen, Diagnoseverfahren und Behandlungen mithilfe von KI zu verbessern. KI-Tools, die zur Erkennung von Hirnblutungen und Krebs eingesetzt werden, schneiden oft besser ab als geschulte Fachleute und produzieren weniger falsch positive und falsch negative Ergebnisse. Von Menschen erstellte Diagnosen können durch eine Reihe von Faktoren beeinflusst werden. Zum Beispiel können Fachleute im Gesundheitswesen ein und dasselbe Bild aufgrund von Müdigkeit oder anderen Faktoren unterschiedlich bewerten. Außerdem argumentieren Psycholog:innen, dass die meisten Menschen nur vier unabhängige Variablen gleichzeitig verarbeiten können und an Effizienz verlieren, wenn diese Zahl auf fünf oder mehr ansteigt. KI-Tools können unbegrenzt viele Parameter oder Indikatoren verarbeiten, was sie zu idealen Werkzeugen macht, um uns bei der Bewältigung der Datenflut zu helfen, die durch die immer besser werdenden Verfahren entsteht. Auch wenn es schwierig ist, alle notwendigen Parameter in ein einziges Tool zu integrieren, wird das KI-Screening dennoch immer wichtiger werden, um die Entscheidungsfindung der Ärzt:innen zu unterstützen und sogar ihr Fachwissen zu erweitern.106 Solche Werkzeuge bieten ein besonders großes Potenzial in Situationen, in denen schnelles Erkennen und rasche Entscheidungen erforderlich sind, um Pandemien zu verhindern. Bisher gibt es nur wenige Beispiele. Ein bemerkenswertes ist die frühzeitige Erkennung ungewöhnlicher Lungenentzündungsfälle rund um einen Markt in Wuhan, China, Ende Dezember 2019 durch ein KI-System, das von BlueDot, einer kanadischen Plattform, entwickelt wurde. Diese Beobachtung, die sich als Verbindung zu SARS-CoV-2 herausstellen sollte, erfolgte mehr als eine Woche, bevor die Weltgesundheitsorganisation (WHO) einen Hinweis zum damals neuen Virus veröffentlichte. BlueDot wurde 2013 nach dem ersten SARS-Ausbruch gegründet und hat auch Vorhersagen zum Zika-Virus (2016) und zu Ebola (2014) gemacht, jeweils sechs Monate früher als die WHO.107, 108
111
Schmidt - Fast Forward 150x210 KORR3.indd 111
18.01.24 18:18
Die meisten KI-Anwendungen im Bereich der Chemie konzentrieren sich auf die Entwicklung neuer Chemikalien, die zu Arzneimitteln verarbeitet werden können. KI wird auch zunehmend für „grüne Chemie“ eingesetzt, die 1998 von dem YaleProfessor Paul Anastas ins Leben gerufen wurde, der 12 Regeln für diesen Bereich aufgestellt hat. Die grüne Chemie erforscht neue Methoden zur Herstellung von Chemikalien mit weniger Energie, weniger Material und weniger giftigen Nebenprodukten. Derzeit ist die Herstellung von Chemikalien oft sehr schädlich. Wir erhitzen und behandeln Stoffe, was sie oft noch giftiger macht. Die derzeitigen Verfahren erhöhen das Risiko von Schäden für unseren Körper und die Biosphäre gleichermaßen. Es gibt ein enormes Optimierungspotenzial, denn 90 % aller Materialien, die in den heutigen chemischen Herstellungsprozessen verwendet werden, landen sofort im Abfall. Die Natur zu kopieren und Produkte herzustellen, die leicht abbaubar sind, würde unsere Produkte rasch umweltfreundlicher machen. So kombinieren Tools wie IBMs RoboRXN verschiedene Strategien auf der Suche nach dem perfekten grünen Enzym und machen die Produktion von Chemikalien effizienter.109 KI-Tools helfen auch bei der Suche nach neuen biobasierten Kunststoffen, die ähnliche Eigenschaften wie die derzeitigen chemischen Kunststoffe haben. Die Berechnung des Fußabdrucks von Chemikalien und anderen Produkten ist sehr wichtig, aber auch sehr schwierig. Vollständige Lebenszyklusanalysen (full life cycle analyses, LCAs) werden oft übersprungen, da sie sehr arbeits- und kostenintensiv sind. Neue KI-gestützte Tools erleichtern jedoch die Durchführung von Ökobilanzen und die Berechnung des Fußabdrucks von Chemikalien und ermöglichen so eine bessere Überwachung.110 Unternehmen wie CO2-AI111 bieten Beratungsdienste auf der Grundlage von Tools an, die Unternehmen dabei helfen können, über die Erreichung ihrer Nachhaltigkeitsziele mithilfe eines datenbasierten Ansatzes zu berichten. Fortschritte wie diese können die Produktion transparenter machen und dazu beitragen, sie mit den Zielen einer nachhaltigen Transformation in Einklang zu bringen. Um jedoch einen Nettonutzen zu gewährleisten, müssen diese Modelle und Ansätze mit klaren Richtlinien und Rechenschaftspflichten verbunden sein; blindes Reagieren auf Zahlen ohne fachkundige Interpretation und Beratung wird nichts bewirken.
112
Schmidt - Fast Forward 150x210 KORR3.indd 112
18.01.24 18:18
Die Klima- und Geowissenschaften gehören zu den Wissenschaftsbereichen, die am meisten von den Entwicklungen von KI profitiert haben. Viele Experimente und Beobachtungstechniken in diesem Bereich sind für den Menschen extrem schwierig und ressourcenintensiv, allein schon wegen des Umfangs. Ein solider Indikator für den Zustand des Planeten ist beispielsweise der Gesundheitszustand und die Verbreitung der Weddellrobbe, einer der am besten untersuchten Tier arten der Erde. Es gibt jedoch noch viele offene Fragen zur Größe und Struktur ihrer Population. Diese beiden Indikatoren sind für die Wissenschaftler:innen von entscheidender Bedeutung, um genau zu verstehen, wie sich die Robben an die sich rasch verändernden Ökosysteme anpassen. Im Jahr 2021 machte sich eine Gruppe von Wissenschaftler:innen daran, die Population der Weddellrobben mithilfe von Satellitenbildern vollständig zu zählen. Statt eine Bilderkennungssoftware zu verwenden, verließ sich das Team auf 330.000 Freiwillige, die die Bilder online nach potenziellen Robbenkolonien durchsuchten und bewerteten.112, 113, 114 Wie wir im nächsten Kapitel sehen werden, können KI-Tools solche mühsamen Aufgaben übernehmen und Echtzeitbeobachtungen vieler wichtiger Arten an entlegenen Orten ermöglichen. KI kann uns nicht nur ein solides Bild des Status quo vermitteln und uns helfen, klimabezogene Ereignisse zu verstehen, sondern hat auch das Potenzial, Vorhersagen zu treffen. Dies hat sich in den Bereichen Klima und Ökologie als nützlich erwiesen, kann aber auch im medizinischen Kontext angewendet werden. So haben beispielsweise Forschende des AI Sustainability Centre in Schweden ein Modell der Strömungsdynamik mit KI-Tools kombiniert, um Vorhersagen über die Luftverschmutzung in Städten zu treffen und so zur Verringerung der Gesundheitsprobleme der Menschen beizutragen.115
Chancen und Fallen von KI in der Wissenschaft Die oben genannten Beispiele veranschaulichen das Potenzial von KI in der Wissenschaft und zeigen, dass die wissenschaftliche Gemeinschaft sie bereits in einer Vielzahl von Anwendungen einsetzt. KI ist eindeutig auf dem Vormarsch. Eine ganz andere Frage ist jedoch, wie wir Kreativität, Offenheit und Transparenz in der Wis-
113
Schmidt - Fast Forward 150x210 KORR3.indd 113
18.01.24 18:18
senschaft in einer Welt aufrechterhalten können, die von den scheinbar unendlichen Möglichkeiten von KI beherrscht wird. Wie in der Bildung müssen wir das Gesamtbild betrachten und uns fragen, welche Rolle die Wissenschaft in einer Welt mit KI spielen sollte. Die größte Herausforderung scheint derzeit die Geschwindigkeit zu sein, mit der KI in die Forschungswelt eindringt. Während bei einigen Anwendungen außerordentlich schnelle Fortschritte zu verzeichnen sind, folgt die Aus- und Weiterbildung von Wissenschaftler:innen einem viel langsameren Zyklus von durchschnittlich 20 bis 30 Jahren. Die Bereiche Bildung und Wissenschaft bewegen sich langsam weg von der Beibehaltung und Wiederholung von Wissen hin zur Schaffung und Nutzung von Wissen. KI wird den Bedarf an neuen Lehr- und Lernmethoden erhöhen, da viele Prozesse bald von KI übernommen werden. Wenn wir die zahlreichen globalen Krisen erfolgreich angehen wollen, muss die Gesellschaft der Wissenschaft und den wissenschaftlichen Erkenntnissen vertrauen und faktenbasierten Entscheidungen den Vorzug vor ideologischen oder emotionalen Entscheidungen geben. Daher wird es für die Aufrechterhaltung des Vertrauens von entscheidender Bedeutung sein, die breite Öffentlichkeit darüber zu informieren, wie die Wissenschaft Daten sammelt und wie wissenschaftlicher Fortschritt erzielt wird. Dies bedeutet, dass die Anforderungen an die Wissenschaftler:innen der Zukunft steigen werden. Sie müssen nicht nur mit den Daten und Methoden ihres Fachgebiets vertraut sein, sondern auch gut zusammenarbeiten und effektiv kommunizieren können, um sowohl mit Fachkolleg:innen als auch mit der breiten Öffentlichkeit in Kontakt zu treten. Da der Nutzen eines Berufs für die Gesellschaft nicht immer angemessen honoriert wird, müssen Wissenschaftler:innen gleichzeitig lernen, Geld zu verdienen. Dies wird notwendig sein, damit Universitäten und andere Forschungseinrichtungen weiterhin immer teurere Forschung betreiben können. Kein Mensch kann all diese wichtigen Fähigkeiten in sich vereinen, sodass neue Modelle der Zusammenarbeit erforderlich sein werden, um einen nachhaltigen Übergang zu einer breiteren Nutzung von KI zu ermöglichen. Derzeit werden die meisten KI-Tools anhand von Open-Source-Daten trainiert, die häufig im akademischen Bereich entwickelt werden. Vor allem die Europäische
114
Schmidt - Fast Forward 150x210 KORR3.indd 114
18.01.24 18:18
Union hat einen Rahmen geschaffen, um wissenschaftliche Erkenntnisse leicht verfügbar und zugänglich zu machen. Dies hat zu Datensätzen für KI-basierte Tools geführt, die nicht nur von Wissenschaftler:innen und der akademischen Gemeinschaft, sondern auch von Unternehmen genutzt werden. Die Entwicklung eines fairen Vergütungssystems für solche frei zugänglichen Datensätze wird entscheidend dafür sein, dass die akademische Wissenschaft auch in Zukunft angemessen finanziert wird. Dies wird auch dazu beitragen, dass die Menschen die erforderlichen Fähigkeiten und Instrumente entwickeln, um die Funktionsweise und die Auswirkungen neuer KI-Entwicklungen zu hinterfragen. Ein kritischer Blick wird dazu beitragen, die Gesellschaft als Ganzes vor gefährlichen Entwicklungen zu schützen, und wird es uns ermöglichen, Output, Ergebnisse und Auswirkungen von künstlicher Intelligenz zu verstehen. So werden beispielsweise Fähigkeiten zur kritischen Überprüfung und solide Einblicke in die Funktionsweise von KI-basierten Werkzeugen sowohl für Wissenschaftler:innen als auch für die breite Öffentlichkeit notwendig sein, um die von LLMs wie ChatGPT erzeugten Ergebnisse zu bewerten. Als wir Autor:innen ChatGPT zu verschiedenen Themen in unseren jeweiligen Fachgebieten testeten, stellten wir fest, dass der Bot immer wieder völlig inkorrekte Information und auch gefälschte Referenzen angab. Diese gefälschten Referenzen sehen oft sehr glaubwürdig aus, können aber leicht widerlegt werden, wenn man weiß, wo man suchen muss. Es dauert länger, die von ChatGPT gelieferten Ergebnisse und Referenzen zu überprüfen, als Informationen und Quellen auf herkömmliche Weise, z. B. über Forschungsdatenbanken, zu recherchieren. Solche Unzulänglichkeiten bei KI-Tools könnten besonders für jüngere oder weniger erfahrene Wissenschaftler:innen schädlich sein, die unter großem Druck stehen, etwas zu produzieren und zu publizieren. ChatGPT und ähnliche Tools sind kein Ersatz für eine angemessene wissenschaftliche Ausbildung. Im Gegenteil, die Wissenschaftler:innen der Zukunft müssen darin geschult werden, die Grenzen von KI-basierten Modellen zu verstehen. Wie bei allen KI-Tools und wird es sehr wichtig sein, eine klare Definition der Verantwortlichkeit festzulegen. Dies ist besonders wichtig im Forschungskontext, wo große Anstrengungen unternommen werden, um die Details eines jeden Experiments zu beschreiben, damit es reproduziert und als Grundlage für künftige For-
115
Schmidt - Fast Forward 150x210 KORR3.indd 115
18.01.24 18:18
schung verwendet werden kann. Das „Blackbox“-Design vieler KI-Tools lässt eine solche Prüfung nicht zu und gefährdet damit die gute wissenschaftliche Praxis. Einige Tools sind zwar hilfreich, um neue Ideen oder Denkansätze zu entwickeln, aber sie sind derzeit nicht zuverlässig genug. Die faktenbasierten KI-Tools, die in der Forschung eingesetzt werden, funktionieren nur unter menschlicher Aufsicht effektiv und die Reproduzierbarkeit ist nur dann gegeben, wenn menschliche Aufsichtspersonen sicherstellen, dass alle Schritte, von der Datenerfassung bis zur Analyse, zu transparenten und verständlichen Ergebnissen führen. Kurz gesagt, die Kriterien, die derzeit zur Definition guter Wissenschaft herangezogen werden, haben sich nicht geändert. Um wirklich nützlich zu sein, müssen KI-Tools, die für Forschungszwecke entwickelt werden, diesen Kriterien entsprechen. Die Umsetzung der aktuellen Forschungsstandards in hochwertige KI-Tools wird dazu beitragen, dass wir unsere Zukunft auf einem stabilen Fundament aufbauen.
So geht’s weiter KI ist sicherlich kein Selbstzweck, und einige Tools sind lediglich Techno-Solutionismus (oder sogar Techno-Romantik) und sollten daher keinen Platz in Lernenden-zentrierten Bildungssystemen haben. Nichtsdestotrotz könnte die Zukunft von Bildung und Wissenschaft ganz anders aussehen als die Gegenwart. Der Schulleiter der weiter oben erwähnten Schule in Gütersloh, Martin Fugmann, war früher Leiter der German International School im Silicon Valley, der Wiege der digitalen Innovation. Er prognostiziert, dass sich Schulen in Zukunft weniger auf die Bewertung von Ergebnissen und mehr auf Forschungs- und Arbeitsprozesse konzentrieren müssen.116 Dazu gehören auch die Evaluierung von Quellen und die Kollaboration mit anderen – beides Schlüsselkompetenzen für das Überleben im 21. Jahrhundert. Klar ist jedenfalls, dass Schulen und Universitäten nicht mehr auf „business as usual“ setzen können werden. Intelligente Schulen werden ihre strategischen Bemühungen nicht nur auf spezifische Technologien wie ChatGPT richten, sondern auch auf das große Ganze, inklusive einer kritischen Auseinandersetzung mit der Frage, wie und was die Schulen der Zukunft lehren müssen. Der Schwerpunkt wird sicherlich weniger auf dem Auswendiglernen von
116
Schmidt - Fast Forward 150x210 KORR3.indd 116
18.01.24 18:18
Inhalten liegen als vielmehr auf der Analyse, der Identifizierung von Quellen, der Überprüfung von Fakten und der Zusammenarbeit sowohl mit Menschen als auch mit Maschinen in einer Arbeitsteilung, die die Schüler:innen auf die in Kapitel 4 (s. S. 68) beschriebene neue Arbeitswelt vorbereitet. KI kann Bildung und Lernen verbessern, aber sie kann menschliche Lehrpersonen oder Wissenschaftler:innen nicht ersetzen. Wir brauchen daher neue Formen der Zusammenarbeit zwischen Menschen und Maschinen. In Zeiten des technologischen Überflusses und Umbruchs ist die Fähigkeit zum kritischen Denken für Schüler:innen, Lehrende und Wissenschaftler:innen gleichermaßen wichtiger denn je. Künstliche Intelligenz macht Grundfertigkeiten wie das Lesen, Schreiben, Zusammenfassen oder Analysieren von Texten keineswegs überflüssig. Das Gleiche gilt für Mathematik, Naturwissenschaften und Programmierkenntnisse. Im Gegenteil, diese Fähigkeiten werden sogar noch wichtiger, wenn wir effektiv mit Maschinen zusammenarbeiten und als Menschen an der Spitze bleiben wollen. KI hat das Potenzial, die Effizienz und Effektivität in allen Bereichen der Wissenschaft zu steigern, indem sie große Datenmengen analysiert, Prozesse optimiert und Vorhersagen für die Zukunft trifft. Es sind jedoch nicht die Vorhersagen selbst, auf die es ankommt, sondern die Art und Weise, wie die Menschen damit umgehen und damit unsere Gesellschaft und unser zukünftiges Leben gestalten. Um die Möglichkeiten von KI in Bildung und Wissenschaft zu nutzen, sollten wir Folgendes tun: , großen Wert auf Fähigkeiten zum kritischen Denken und zur Bewertung von Informationsquellen legen , sicherstellen, dass Lern- und Ausbildungssysteme allen Menschen – nicht nur Studierenden, Lehrenden und Forschenden – grundlegende KI-Kompetenzen vermitteln, einschließlich eines Verständnisses dafür, wie KI Daten sammelt und manipuliert , KI-Tools entwickeln, die die interdisziplinäre Zusammenarbeit erleichtern, indem sie große und komplexe Datensätze in einer verständlichen wissenschaftlichen Sprache interpretieren
117
Schmidt - Fast Forward 150x210 KORR3.indd 117
18.01.24 18:18
KAPITEL 6: DO LOOK UP – DIE KOMPLIZIERTE BEZIEHUNG VON KI ZUR UMWELT Man hat immer die Wahl. Manchmal muss man sich nur für die richtige entscheiden.117 Teddy Oglethorp in „Don’t Look Up“, einem Film über die Klimakatastrophe, 2021
Das Effizienzparadoxon Angesichts des rasanten technologischen Fortschritts sehen manche eine verlockende Logik, um der Klimakrise und anderen Umweltproblemen entgegenzutreten: Alles, was wir tun müssen, ist, weiter zu digitalisieren und uns durch technologische Innovationen aus dem Schlamassel zu ziehen. Ansonsten müssen wir nichts ändern, wir können weiterhin produzieren und konsumieren wie bisher, in der Hoffnung, dass die Technologie unsere Probleme löst. Ganz so einfach ist es leider nicht, denn viele der großen Herausforderungen verlangen tatsächlich nach komplett neuen Ansätzen und letztlich einem Systemwandel. Außerdem vernachlässigt diese Logik den Rebound-Effekt: Je besser, billiger, schneller und intelligenter unsere Geräte und Tools sind, desto mehr davon wollen wir haben und nutzen. Erinnern Sie sich daran, als Sie DVDs kaufen mussten, um einen Film zu sehen? Heute ist das Streaming eines Films energieeffizienter als die Herstellung und das Ansehen einer DVD. Das ist die gute Nachricht. Das Problem ist nur, dass wir heute viel mehr Videoinhalte konsumieren als früher, und unsere Abhängigkeit von Netflix und Konsorten sowie von all den technischen Geräten in unseren Haushalten führt dazu, dass wir insgesamt viel mehr Energie verbrauchen. Auch wenn die Vorteile der Dematerialisierung in einer digitalen Dienstleistungswirtschaft immer wieder angepriesen werden, hat die Digitalisierung in der Praxis die Auswirkungen auf die Umwelt sowohl auf lokaler als auch auf globaler Ebene verstärkt.118 Dieses Phänomen wird als „Effizienzparadoxon“ bezeichnet und
118
Schmidt - Fast Forward 150x210 KORR3.indd 118
18.01.24 18:18
manchmal auch als „Energieparadoxon“ oder „Jevons-Paradoxon“. Das JevonsParadoxon ist der Extremfall eines Rebound-Effekts, bei dem Effizienzgewinne zu einer größeren Nachfrage nach der effizienter genutzten Ressource führen, was letztlich zu einem höheren Gesamtnettoverbrauch führt. Dies ist keine neue Erkenntnis. Das Effizienzparadoxon wurde in den 1930er-Jahren entdeckt, als eine höhere Effizienz bei der Menge an Kohle, die zur Erzeugung einer Kilowattstunde Strom benötigt wurde, nicht zu einer Einsparung an Gesamtenergie führte. Die Menschen reagierten auf die billigere Energie, indem sie mehr davon verbrauchten – und damit mehr Kohle als zuvor verbrannten.119 Bereits 1865 hatte William Stanley Jevons in seinem Buch „The Coal Question“ festgestellt, dass der Kohleverbrauch in England nach der Einführung der Dampfmaschine von James Watt, die weitaus effizienter war als frühere kohlebefeuerte Dampfmaschinen, sprunghaft anstieg. Da Kohle zu einer kostengünstigeren Energiequelle wurde, wurde die Dampfmaschine in größerem Umfang eingesetzt, was wiederum zu einem Anstieg des Kohleverbrauchs führte, auch wenn die zur Erzeugung einer Energieeinheit benötigte Kohlemenge sank. Damals stellte Jevons fest: „Es ist ein Irrtum anzunehmen, dass der sparsame Einsatz von Brennstoff gleichbedeutend ist mit einem geringeren Verbrauch. Das genaue Gegenteil ist der Fall.“ 120 Verbesserungen bei der Energieeffizienz führen daher tendenziell zu einem Anstieg des Energieverbrauchs. In ähnlicher Weise führt eine Wirtschaft, die von aufregenden Produkten angetrieben wird, die scheinbar in dem Moment veralten, in dem wir sie erwerben, zu immer größer werdenden Wünschen – selbst, wenn diese Wünsche wenig mit unseren tatsächlichen Bedürfnissen zu tun haben. Darüber hinaus schafft ein sozioökonomisches und politisches Steuerungssystem, das die Kosten der Umweltzerstörung ignoriert und die Allgemeinheit und künftige Generationen den vollen Preis zahlen lässt, Anreize, die falsche Art von Produkten, Dienstleistungen und Unternehmen zu erzeugen.
KI und ihr ökologischer Fußabdruck Die sozialen Risiken von KI – insbesondere die des Bias und in gewissem Maße auch die der Aufrechterhaltung hegemonialer Weltanschauungen – sind relativ gut
119
Schmidt - Fast Forward 150x210 KORR3.indd 119
18.01.24 18:18
dokumentiert und werden in einschlägigen Kreisen sowohl der Forschung als auch der Industrie immer häufiger diskutiert. Die Auswirkungen von KI auf die Umwelt werden zwar inzwischen von einigen Menschen, nicht nur in Expertenkreisen, anerkannt, aber von vielen Expert:innen der Datenwissenschaft und verwandter Disziplinen noch nicht ausreichend priorisiert. Der Energiebedarf von LLMs wurde als das „schmutzige Geheimnis“ von KI bezeichnet. Dennoch haben Forschende und Industrievertreter:innen begonnen, sich mit den Auswirkungen von KI auf den Klimawandel und andere Umweltaspekte wie Wasser und Artenvielfalt zu befassen. Eine Reihe von Faktoren macht die Messung des ökologischen Fußabdrucks von KI ziemlich schwierig. Erstens ist das Tempo der technologischen Entwicklung außerordentlich hoch, sodass sich Zielvorgaben laufend ändern. Außerdem stellen viele der führenden KI-Unternehmen der Forschung einfach nicht genügend Daten für realistische Schätzungen zur Verfügung. Ein weiterer wichtiger Grund ist, dass der ökologische Fußabdruck von KI-Rechenprozessen nicht immer sauber von dem der erforderlichen Infrastruktur oder von IKT im Allgemeinen getrennt werden kann. Der Fußabdruck von KI muss in den größeren Kontext der digitalen Technologie gestellt werden. Die weltweiten Treibhausgasemissionen der IKT werden derzeit auf 2,1 % bis 3,9 % der Gesamtemissionen geschätzt.121 KI macht wohl nur einen Bruchteil davon aus. Fragt man ChatGPT nach seinen CO2-Emissionen, erhält man folgende Antwort: „Ich bin ein Computerprogramm und existiere physisch nicht, also produziere ich keine Kohlendioxidemissionen. Allerdings verbrauchen die Server und andere Infrastrukturen, die für meinen Betrieb und mein Training verwendet werden, Energie und erzeugen daher Kohlendioxidemissionen. Die Menge der erzeugten Emissionen hängt von der spezifischen Energiequelle ab, die für den Betrieb der Server verwendet wird, sowie von der Energieeffizienz der Server und der anderen verwendeten Geräte. Soweit mir bekannt ist, hat OpenAI keine Angaben über den Kohlenstoff-Fußabdruck des Trainings von GPT-Modellen wie mir gemacht.“ Weiter heißt es, dass sich der Energiebedarf von Rechenzentren, die wichtige Komponenten der KI-Infrastruktur sind, bis 2030 verdreifachen wird. ChatGPT weist auch darauf hin, dass die Herstellung von Hardwarekomponenten wie Mikroprozessoren oder Speicherchips, die für den Betrieb von KI unerlässlich sind, auch die Gewinnung und Verarbeitung von Rohstoffen
120
Schmidt - Fast Forward 150x210 KORR3.indd 120
18.01.24 18:18
wie Metallen beinhaltet, die bei der Herstellung vieler elektronischer Geräte verwendet werden. Dies wiederum kann zu einer Beeinträchtigung der Umwelt und zur Freisetzung von Giftmüll führen. ChatGPT hat vollkommen recht: Der Chatbot selbst stößt kein CO2 aus, wie es ein Dieselmotor tun würde. Die Umweltauswirkungen, die ChatGPT verursacht, sind indirekt und stammen hauptsächlich aus der Energie, die der Bot verbraucht, sowie aus dem Wasser, das zur Kühlung der Server verwendet wird. Der Energieverbrauch hängt mit den für das Training des Modells erforderlichen Rechenoperationen zusammen. Je mehr Training erforderlich ist, desto mehr Energie wird verbraucht. Obwohl diese Gleichung recht einfach ist, sagt sie relativ wenig über die Emissionen an sich aus – schließlich hängt die tatsächlich emittierte Menge an CO2 und anderen Treibhausgasen davon ab, wie die Energie erzeugt wird, ob aus fossilen Brennstoffen oder aus erneuerbaren Energien. Außerdem wird bei vielen Schätzungen nicht zwischen KI-Training und KI-Nutzung (oft als „Inferenz“ bezeichnet) unterschieden.122 In einer kürzlich im anerkannten Fachjournal Nature veröffentlichten Studie wurden die CO2-Kosten für das Training einer Reihe von Modellen in verschiedenen Cloud-Computing-Rechenzentren berechnet. Dabei wurde festgestellt, dass das Training von BERT, einem von Google entwickelten Sprachmodell für maschinelles Lernen, in Rechenzentren in den USA oder in Deutschland je nach Jahreszeit zwischen 22 und 28 Kilogramm CO2 verursacht hat. Doch Strom ist nicht gleich Strom: Würden die gleichen Trainingsmaßnahmen in Norwegen durchgeführt, das seinen Strom vor allem aus Wasserkraft bezieht, oder in Frankreich, das überwiegend auf Atomstrom setzt, wären die Emissionen weniger als halb so hoch.123 Tatsächlich kann der geografische Standort einen enormen Unterschied ausmachen. So ist beispielsweise die Kohlenstoffintensität der für das Training notwendigen Berechnungen in Australien 73-mal so hoch wie in der Schweiz.124 Mit anderen Worten, die gleichen Berechnungen verursachen in Australien – wo viel schmutzige Kohle verbrannt wird, um Strom zu erzeugen – 73-mal so viele Emissionen wie in der Schweiz, wo man wesentlich mehr auf erneuerbare Energie setzt.
121
Schmidt - Fast Forward 150x210 KORR3.indd 121
18.01.24 18:18
Es stellte sich heraus, dass auch die Tageszeit eine Rolle spielt: In der Studie führte das Training der KI im US-Bundesstaat Washington während der Nacht, wenn der Strom dort ausschließlich aus Wasserkraft stammt, zu niedrigeren Emissionswerten als am Tag, wenn auch Gaskraftwerke zur Stromerzeugung genutzt werden.125 Selbst an einem bestimmten Standort ändert sich der Strommix des Netzes ständig, sodass zu einem Zeitpunkt saubere Energie im Überfluss vorhanden sein kann, während der Server eine Minute später mit fossilen Brennstoffen betrieben wird. Dies bedeutet, dass eine Änderung der Tageszeit erhebliche Auswirkungen auf den CO2-Fußabdruck haben kann.126
Auf Life-Cycle-Analyse setzen Ein Start-up versucht, die Unklarheiten rund um den CO2-Fußabdruck von KI zu beseitigen. Hugging Face hat ein Modell mit dem Namen BLOOM entwickelt und die Emissionen geschätzt, die während des gesamten Lebenszyklus des Modells entstehen – wie es bei der Messung der ökologischen Nachhaltigkeit im Allgemeinen üblich ist – und nicht nur während des Trainings. So hat das Unternehmen nicht nur die Energiemenge berechnet, die für das Training des Modells auf einem Supercomputer verbraucht wird, sondern auch die Energie, die für die Herstellung der Computerhardware und die Wartung der Computerinfrastruktur benötigt wird. Darüber hinaus wurde auch die Energie berücksichtigt, die für den Betrieb von BLOOM benötigt wird, sobald es eingesetzt wird. Das Unternehmen fand heraus, dass die Ausbildung des Modells 25 Tonnen CO2 verursacht hat und dass sich diese Zahl verdoppelt, wenn andere Teile der Wertschöpfungskette ebenfalls berücksichtigt werden. Die 50 Tonnen CO2 , die auf diese Weise erzeugt wurden, entsprechen etwa 60 Flügen zwischen London und New York, eine Zahl, die moderat erscheinen mag. Allerdings wurde das Modell in Frankreich trainiert, wo die Elektrizität hauptsächlich durch Kernenergie erzeugt wird. In anderen Ländern, in denen die Energie mehr heitlich aus fossilen Brennstoffen kommt, wären die Gesamtemissionen viel höher. Die Forschenden schätzen, dass allein der Trainingsprozess für das GPT-3-Modell von OpenAI mehr als 500 Tonnen CO2 emittiert hat. Dies ist teilweise darauf zurückzuführen, dass es auf älterer, weniger effizienter Hardware trainiert wurde.127, 128, 129
122
Schmidt - Fast Forward 150x210 KORR3.indd 122
18.01.24 18:18
Hardware ist hier ein Schlüsselwort. Weniger als ein Fünftel (17,4 %) der 54 Millionen Tonnen Elektroschrott, die pro Jahr produziert werden, gelangen in die formelle Abfallwirtschaft oder in Recycling-Systeme. Der Rest wird entweder auf illegalen Mülldeponien entsorgt oder von informellen Arbeiter:innen im In- und Ausland recycelt. Etwa 82 % dieser 54 Millionen Tonnen Elektroschrott werden von 12 bis 56 Millionen informellen Arbeiter:innen verarbeitet. Rund 18 Millionen Kinder arbeiten in Branchen, die mit der Abfallverarbeitung zu tun haben. Kinder und schwangere Frauen, die in der informellen E-Müll-Recyclingindustrie arbeiten oder in benachbarten Gemeinden leben, sind besonders von gefährlichen Chemikalien bedroht, die ein breites Spektrum von Gesundheitsproblemen verursachen können, von einer beeinträchtigten Gehirnentwicklung bis hin zu Lungenerkrankungen und DNA-Schäden.130 Es ist besorgniserregend, dass Elektroschrott weltweit die am schnellsten wachsende Art von Abfall ist. Der beträchtliche materielle Fußabdruck von KI hat auch große soziale Auswirkungen in der vorgelagerten Wertschöpfungskette. Digitale Werkzeuge und Prozesse sind auf eine Vielzahl von Rohstoffen angewiesen, darunter seltene Erden und Metalle. Tantal, Wolfram, Gold, Zinn und Kobalt sind beispielsweise wichtige Bestandteile von Batterien und Halbleitern, und die meisten davon werden von Arbeiter:innen, oft Bergleuten in Kleinbetrieben, im globalen Süden abgebaut. Bergleute in Ländern wie der Demokratischen Republik Kongo, Ghana und Peru arbeiten selten unter Bedingungen, in denen Gesundheits- und Sicherheitsvorschriften strikt eingehalten werden, und Gefahren und unmenschliche Behandlung sind oft die Norm. Bergbaubetriebe, die der digitalen Industrie dienen, sind häufig mit Zwangsarbeit, Kinderarbeit, überlangen Arbeitszeiten, niedrigen Löhnen, fehlendem Sozialschutz, Diskriminierung von Wanderarbeiter:innen, erniedrigenden Disziplinarmaßnahmen und zahlreichen Formen von Gewalt verbunden.131 Bei der Bewertung von KI müssen wir die Risiken und Vorteile für die Umwelt berücksichtigen. Leider wirken sich diese Risiken und Vorteile auf verschiedene Menschen unterschiedlich aus. Führende Wissenschaftler:innen stellen berechtigte Fragen, die das berühren, was sie „Umweltrassismus“ nennen. Sie argumentieren beispielsweise, dass es nicht fair ist, die Menschen auf den Malediven, einem
123
Schmidt - Fast Forward 150x210 KORR3.indd 123
18.01.24 18:18
Land, das aufgrund des Klimawandels bis zum Jahr 2100 unter Wasser stehen wird, oder die Menschen im Sudan, die von Überschwemmungen und Dürren betroffen sind, zu bitten, den ökologischen Preis für die Ausbildung und den Einsatz immer bessere LLMs zu zahlen – vor allem, wenn diese Modelle meist auf Englisch sind und nicht in lokalen Sprachen (in diesem Fall Dhivehi oder sudanesisches Arabisch). Diese Kritiker:innen merken auch an, dass Größe nicht alles ist, wenn es um LLMs geht. Tatsächlich sind Modelle mit kleineren, gut kuratierten Datensätzen oft genauso gut oder sogar besser und verringern gleichzeitig die soziale Verzerrung und den ökologischen Fußabdruck.132, 133, 134 Wir befinden uns zwar in einem noch weitgehend unerforschten Gebiet, aber es scheint, dass die mit KI verbundenen Emissionen beträchtlich sind. Es kann jedoch viel getan werden, um den CO2-Fußabdruck zu verringern. Eine kürzlich durchgeführte Studie verglich mehrere LLMs und stellte fest, dass die Wahl des neuronalen Netzwerks, des Rechenzentrums und der Prozessoren den CO2-Fußabdruck eines Modells um das 100- bis 1.000-Fache reduzieren kann.135 Dies zeigt, dass Klimafreundlichkeit in Modelle eingebaut werden kann. Wie viele andere Forschende auf diesem Gebiet sind auch wir Autor:innen dieses Buches der Meinung, dass es nicht ausreicht, nur die Leistung zu betrachten. Der Energieverbrauch und die Treibhausgasemissionen können und sollten bei der Entwicklung und Bewertung von KI-Modellen eine wichtige Kennzahl sein. Darüber hinaus gibt es heute bereits intelligente Lösungen, die dazu beitragen, den ökologischen Fußabdruck von KI zu verringern, wie etwa die Nutzung der überschüssigen Wärme von Rechenzentren, und diese werden immer häufiger eingesetzt. Es gibt bereits viele Initiativen für umweltfreundliche KI und Computer. Das Projekt Green Algorithms beispielsweise will das Bewusstsein für den CO2-Fußabdruck rechenintensiver Forschung schärfen und stellt Forschenden ein praktisches Online-Tool zur Verfügung, mit dem sie die Menge der Emissionen, die ihre Arbeit verursacht, abschätzen können.136 Darüber hinaus gibt es eine Fülle von Möglichkeiten, wie KI zum Klimaschutz beitragen kann. Die Frage ist, ob und wie ein Nettonutzen für die Umwelt und damit für die von ihr abhängigen Menschen erzielt werden kann.
124
Schmidt - Fast Forward 150x210 KORR3.indd 124
18.01.24 18:18
KI und Klimawandel Die Welt ist endlich aufgewacht und hat erkannt, dass drastische Klimaschutzmaßnahmen dringend erforderlich sind. Wir sind jedoch noch weit davon entfernt, die Pariser Klimaziele zu erreichen, die eine Begrenzung der durchschnittlichen Erwärmung auf 1,5 oder maximal 2 Grad Celsius in diesem Jahrhundert vorsehen. Trotz vorübergehender Reduktionen während der COVID-19-Krise haben die Treibhausgasemissionen ihren Höhepunkt noch nicht erreicht. Ein großer Teil davon entsteht als Nebenprodukt bewusster Wirtschaftstätigkeit, während ein anderer Teil auf andere Umstände wie Waldbrände zurückzuführen ist. Mehr als die Hälfte der brasilianischen CO2-Emissionen werden zum Beispiel durch Waldbrände verursacht. Im Jahr 2022 wurden allein an einem Tag im August insgesamt 3.358 Brände im brasilianischen Amazonasgebiet gezählt.137 Es gibt viele KI-Tools, die bei der Bekämpfung des Klimawandels helfen können. In erster Linie ist KI ein unschätzbares Werkzeug für die Erfassung, Vervollständigung und Verarbeitung von Daten. Sie kann Messungen sowohl auf der Makroals auch auf der Mikroebene erleichtern. So kann sie beispielsweise dabei helfen, eine Bestandsaufnahme der Emissionen vorzunehmen, auch mithilfe von Satelliten, und sie kann helfen, den CO2-Fußabdruck einzelner Produkte oder Stufen der Wertschöpfungskette zu messen. Solche Daten können zum Beispiel zur Vorhersage des Energiebedarfs oder zur Verbesserung der Energieeffizienz genutzt werden. KI-Lösungen werden auch auf andere Weise eingesetzt, um den Klimawandel abzumildern. So können KI-Tools beispielsweise die Entfernung von CO2 aus der Atmosphäre unterstützen, indem sie helfen, natürliche Kohlenstoffsenken wie Wälder zu überwachen oder Standorte für Carbon Capture und Carbon Storage (Kohlenstoffabscheidung und -speicherung) zu bewerten. Im Zuge der Anpassung an den Klimawandel und der Verbesserung der Widerstandsfähigkeit der Gesellschaft kann KI bei der Vorhersage von Gefahren und beim Aufbau von Frühwarnsystemen nützlich sein. Sie kann helfen, die Anfälligkeit und Gefährdung durch Ereignisse wie Dürren oder Epidemien zu reduzieren.138 Das Umweltprogramm der Vereinten Nationen hat vor Kurzem den World Environment Situation Room ins Leben gerufen, eine digitale Plattform, die sich die
125
Schmidt - Fast Forward 150x210 KORR3.indd 125
18.01.24 18:18
Fähigkeiten von KI zur Analyse komplexer, vielschichtiger Datensätze zunutze macht. Sie nutzt die besten verfügbaren Erdbeobachtungs- und Sensordaten, um Echtzeitanalysen und -vorhersagen zu verschiedenen Faktoren zu liefern, darunter wichtige Parameter des Klimawandels wie die Treibhausgaskonzentration in der Atmosphäre, Veränderungen der Gletschermasse und der Anstieg des Meeresspiegels. In ähnlicher Weise setzt das International Methane Emissions Observatory der Vereinten Nationen KI ein, um den weltweiten Ansatz zur Überwachung und Eindämmung von Methanemissionen zu verbessern.139 Methan ist ein Gas, das pro Molekül einen viel stärkeren Treibhauseffekt als CO2 hat und seit Beginn der Industriellen Revolution für ein Drittel der globalen Erwärmung verantwortlich ist. Einige Lösungen kombinieren den Klimaschutz mit Bemühungen zur Anpassung an die Auswirkungen des Klimawandels und zur Verbesserung der Widerstandsfähigkeit der Gesellschaft. Umgraumeio beispielsweise nutzt neben anderen Technologien auch künstliche Intelligenz, um Waldbrände zu verhindern, zu erkennen und zu bekämpfen. Eine Kombination aus Satelliten und KI-Algorithmen identifiziert potenzielle Gefahrenstellen und Rauch innerhalb von Sekunden und sendet dann Warnungen aus. Das Unternehmen kann auf einige beeindruckende Erfolge verweisen, wie z. B. eine Verringerung der verbrannten Fläche um 85 % für das Bioenergieunternehmen BP Bunge, eine 100%ige Verringerung der Umweltstrafen für Ester Agroindustrial und eine 70%ige Verringerung des Bedarfs an Überwachungstürmen für das brasilianische Zuckerunternehmen Petribu.140
Wie KI Ökosysteme schützen kann Leider ist die Klimakrise nicht die einzige ökologische Krise, mit der wir derzeit konfrontiert sind. Sie steht in Zusammenhang mit der Biodiversitätskrise, die wir gleichzeitig erleben, unterscheidet sich aber von ihr. Wie die Klimakrise ist auch die Biodiversitätskrise vom Menschen verursacht. Tatsächlich befinden wir uns inmitten des sechsten Massenaussterbens auf unserem Planeten. Ein Massenaussterben ist ein kurzer geologischer Zeitraum, in dem ein hoher Prozentsatz der vorhandenen Arten, einschließlich Bakterien, Pilzen, Pflanzen, Säugetieren, Vögeln, Reptilien, Amphibien, Fischen und wirbellosen Tieren, ausstirbt. In der geologi-
126
Schmidt - Fast Forward 150x210 KORR3.indd 126
18.01.24 18:18
schen Zeitrechnung kann eine „kurze“ Periode Tausende oder sogar Millionen von Jahren umfassen. Das letzte Massenaussterben auf unserem Planeten fand vor 66 Millionen Jahren statt, als die Dinosaurier ausgerottet wurden. Im Gegensatz zu früheren Massenaussterben, die durch natürliche Phänomene verursacht wurden, wird das sechste Massenaussterben durch menschliche Aktivitäten ausgelöst, vor allem durch unsere nicht nachhaltige Nutzung von Land, Wasser und Energie sowie durch die Auswirkungen des anthropogenen, also vom Menschen verursachten Klimawandels.141 Wissenschaftler:innen schätzen, dass es auf der Erde etwa 8,7 Millionen Pflanzenund Tierarten gibt, wobei Insekten einen unverhältnismäßig großen Anteil an dieser Zahl haben. Bisher wurden jedoch nur etwa 1,2 Millionen Arten identifiziert und beschrieben. Einige Gebiete, z. B. in Mexiko, Südafrika, Brasilien, im Südwesten der Vereinigten Staaten und auf Madagaskar, beherbergen besonders viele Arten und werden daher als Biodiversitätshotspots bezeichnet. In einem komplexen Ökosystem wie dem der Erde arbeiten alle Arten zusammen, oft in einer für den Menschen unbekannten Weise. Doch obwohl diese Arten für unser eigenes Überleben von entscheidender Bedeutung sind, haben wir ihre Existenz durch ein nicht nachhaltiges Konsum- und Produktionssystem, durch Umweltverschmutzung, Klimawandel und andere Bedrohungen der biologischen Vielfalt gefährdet. Schätzungen zufolge wird die Hälfte der auf der Erde lebenden Arten innerhalb des nächsten Jahrhunderts ausgerottet werden.142 Die Biodiversität muss also dringend geschützt und erhalten werden. Doch obwohl wir in einem digitalen Informationszeitalter leben, haben wir große Wissenslücken, wenn es um die biologische Vielfalt geht. Arten sterben oft aus, ohne dass wir es bemerken. Das britische Unternehmen Nature Metrics nennt dies das „Messproblem der Natur“. In einer Zeit, in der das Verständnis unserer Auswirkungen auf die Natur für das Überleben der Menschheit von entscheidender Bedeutung ist, werden Entscheidungen von Unternehmen und Regierungen oft auf der Grundlage oberflächlicher, höchst unvollständiger Informationen getroffen. Nature Metrics versucht, dieses Problem mit seinem „Nature Performance Monitoring“ zu lösen. Es entnimmt Wasser-, Boden- und Luftproben, isoliert DNA-Spuren, die in diesen Proben zurückbleiben, und verwendet dann DNA-Sequenzierung, um
127
Schmidt - Fast Forward 150x210 KORR3.indd 127
18.01.24 18:18
Tausende von Arten zu identifizieren, wobei es KI einsetzt, um die riesigen Datenmengen sinnvoll zu nutzen.143 Ziel ist es, Unternehmen in den Bereichen Energie, Infrastruktur, Rohstoffgewinnung, Fischerei und Landwirtschaft dabei zu helfen, die Vorschriften zum Umweltmonitoring einzuhalten. Künstliche Intelligenz kann ein leistungsfähiges Instrument sein, um den Schutz von Ökosystemen zu verbessern. Wildlife Insights, eine cloudbasierte KI-gestützte Plattform, ist ein solches Tool. Sie wurde von Google mit dem Ziel entwickelt, „die biologische Vielfalt mit Technologie und KI zu retten“.144 Das System analysiert Fotos, die mit in der Natur versteckten Kamerafallen aufgenommen wurden, wie sie seit Jahrzehnten zur Beobachtung von Wildtieren und zur Überwachung ihrer Populationen eingesetzt werden.145 Mit anderen Worten: Ein Zusammenleben mit Tieren à la Jane Goodall ist nicht mehr notwendig – ein Fortschritt, der definitiv Effizienzgewinne bringt, aber auch hilfreich ist, weil die Anwesenheit von Menschen das Verhalten der Tiere beeinflussen kann. Getarnte Kameras sind zwar nicht völlig unsichtbar für die Tiere, aber doch wesentlich besser. Außerdem ermöglicht Infrarot eine Beobachtung in der Nacht, die für Menschen ohne Hilfsmittel viel schwieriger ist. Nach eigenen Angaben erleichtert die frei zugängliche Plattform von Wildlife Insights die Entscheidungsfindung durch die Bereitstellung von Modellen des maschinellen Lernens und anderen Werkzeugen zur Verwaltung, Analyse und gemeinsamen Nutzung von Daten aus Kamerafallen. Der Zugang zu zuverlässigen Daten hilft, bessere Entscheidungen zu treffen, um Wildtiere zu schützen. Ein ungelöstes Problem ist die Frage des „menschlichen Beifangs“, wenn Menschen versehentlich von den Kameras erfasst werden. Eine Möglichkeit, es zu lösen, besteht darin, ein KI-Tool damit zu beauftragen, Bilder von Menschen auszusortieren, bevor die Daten für Forschungszwecke verwendet werden. KI kann Wildtierschutz auch unterstützen, indem sie Geräusche verfolgt und analysiert. So arbeiten beispielsweise die Wildlife Conservation Society (WCS) und die Accenture Labs gemeinsam an einem Projekt zur Analyse von in Wäldern aufgenommenen Tiergeräuschen. Tiere lassen sich durch Geräusche auch dann aufspüren, wenn sie getarnt sind, und zwar unabhängig von ihrer Position. Informationen darüber, wo und wann Tiere in einem bestimmten Gebiet auftauchen, sind für den
128
Schmidt - Fast Forward 150x210 KORR3.indd 128
18.01.24 18:18
Naturschutz von entscheidender Bedeutung, beispielsweise für die Abgrenzung von Waldgebieten als Schutzzonen oder für die Bekämpfung von Wilderei.146 Künstliche Intelligenz kann auch die Entscheidungsfindung erleichtern, wenn Ressourcen begrenzt sind und bestimmt werden soll, welches Gebiet vorrangig beschützt werden soll. Ein Modell namens CAPTAIN quantifiziert Kosten und Nutzen mehrerer Optionen bei der Gebietsauswahl und ermöglicht den Vergleich mehrerer Biodiversitätsparameter. Die Entwickler:innen des Modells argumentieren, dass CAPTAIN in Anbetracht begrenzter Budgets den Schutz von deutlich mehr Arten vor dem Aussterben ermöglicht, als dies beispielsweise der Fall wäre, wenn sich wohlmeinende Naturschützer:innen auf Gebiete mit hohem Artenreichtum konzentrieren.147
Einen Schritt voraus: KI und Renaturierung In einer Zeit, in der wir wissen, dass die Abschwächung des Klimawandels nur teilweise erfolgreich sein wird und dass die derzeitigen Naturschutzbemühungen für das Überleben unserer Zivilisation möglicherweise nicht ausreichen, müssen wir über die Konzentration auf Nachhaltigkeit und Schutz des Bestehenden hinausgehen und uns um die Wiederherstellung und Regeneration von Ökosystemen bemühen. Um das fragile planetarische Gleichgewicht so weit wie noch möglich zu wahren, müssen wir die biologische Vielfalt und die Ökosysteme, die täglich zerstört werden, wiederherstellen und mindestens so viel regenerieren, wie verloren geht. Durch die Analyse verschiedener Umweltfaktoren wie Bodentyp, Verfügbarkeit von Wasser und Klima kann KI dabei helfen, Gebiete zu ermitteln, in denen die Bemühungen zur Wiederherstellung von Ökosystemen die größte Wirkung haben werden. So hat sich beispielsweise die Modellierung des Kohlenstoffs im Boden mithilfe von Machine-Learning-Tools in der Wissenschaft zu einer leistungsstarken Technik entwickelt. Im Vergleich zu anderen Ansätzen sind diese KI-basierten Modelle besser in der Lage, die Speicherkapazität von Kohlenstoff, die Atmungsrate des Bodens und andere Eigenschaften des globalen Kohlenstoffkreislaufs vorherzusagen.148
129
Schmidt - Fast Forward 150x210 KORR3.indd 129
18.01.24 18:18
Neben den Vorteilen für Forschende liefert die Untersuchung des Bodens auf diese Weise auch Informationen, die Unternehmen und anderen Interessengruppen als Grundlage für ihr Handeln dienen können. SoilProS ist ein niederländischer Zusammenschluss von Forschenden, Unternehmen, NGOs und Regierungsstellen, der untersucht, wie landwirtschaftliche Flächen wieder eine größere Bandbreite an wichtigen ökologischen Funktionen erfüllen können. Die Gruppe weist darauf hin, dass Ackerland mehr ermöglicht als nur die Produktion von Nahrungsmitteln; wenn es gesund ist, trägt es auch zur Erzeugung sauberer Luft und sauberen Trinkwassers bei, wirkt als Kohlenstoffsenke, die den Klimawandel verlangsamt, und unterdrückt Pflanzenkrankheiten. Dass der Boden das leistet, ist jedoch in einem agrarökonomischen System, das sich auf die Nahrungsmittelproduktion konzentriert, nicht selbstverständlich. Ein gesunder Boden wird oft durch landwirtschaftliche Praktiken gefährdet. Im Rahmen von SoilPorS arbeiten Forscher:innen mit 17 Unternehmen, NGOs und staatlichen Stellen zusammen, um das Bodenleben auf landwirtschaftlichen Flächen in den Niederlanden zu kartieren. Das ist keine leichte Aufgabe, wenn man bedenkt, dass eine Handvoll Boden bis zu fünftausend verschiedene Arten und bis zu 10 Milliarden einzelne Organismen enthalten kann. Auch hier kommt künstliche Intelligenz ins Spiel: Algorithmen helfen bei der Identifizierung von Mustern, von denen sich die Forschenden Erkenntnisse über die Wiederherstellung der Multifunktionalität des Bodens erhoffen. Der Einsatz von KI ermöglicht es auch, mehrere Datensätze zu integrieren und so Muster und Verbindungen zwischen Bodennutzungspraktiken, Funktionen des Ökosystems und biologischer Vielfalt im Boden zu erkennen. Dies wiederum ermöglicht es den Forschenden, das gesamte Ökosystem zu kartieren und festzustellen, welche Optionen zur Förderung der biologischen Vielfalt zur Verfügung stehen. Unternehmen profitieren von diesem Wissen, da es ihnen ermöglicht, nachhaltigere Pflanzen, Mikroorganismen und Substrate zu entwickeln. Die NGOs und die staatlichen Akteure können die gewonnenen Erkenntnisse für Beratungszwecke und politische Strategien nutzen.149 Dies ist nur eine Möglichkeit, wie KI zur Wiederherstellung von Ökosystemen beitragen kann. Neben der Analyse von Daten über die Bodenzusammensetzung und die Wasserverfügbarkeit kann sie die Pflanzenarten identifizieren, die sich am bes-
130
Schmidt - Fast Forward 150x210 KORR3.indd 130
18.01.24 18:18
ten für ein bestimmtes Gebiet eignen. KI kann auch dabei helfen, die Platzierung von Bäumen oder anderen Pflanzen zu optimieren und so ihre positive Wirkung zu maximieren. Viele Menschen setzen heute die Wiederherstellung von Ökosystemen mit dem Pflanzen von Bäumen gleich. Angesichts der Tatsache, dass es auf der Erde bereits etwa 3 Billionen Bäume (das sind 3.000 Milliarden) weniger gibt als vor der menschlichen Zivilisation, ist das Pflanzen von Bäumen sowohl für die Menschen als auch für den Planeten sehr sinnvoll – und sei es nur, um den Verlust von etwa 20 Milliarden Bäumen auszugleichen, den wir jedes Jahr haben. Heutzutage wird das Pflanzen von Bäumen immer noch größtenteils mit Hand und Schaufel durchgeführt, was es zu einer mühsamen und langsamen Aufgabe macht. Eine der größten Herausforderungen bei der Pflanzung von Bäumen im Zeitalter des Klimawandels ist zudem der Zugang zu Gebieten nach Waldbränden, die für Menschen zu gefährlich sind. Um die Pflanzung von Bäumen unter diesen Bedingungen zu beschleunigen, setzt das kanadische Aufforstungsunternehmen Flash Forest Drohnensysteme, künstliche Intelligenz und eine ausgeklügelte Samenhülsentechnologie ein.150 Die Plattform Global Forest Watch nutzt KI, um Entscheidungsträgern dabei zu helfen, Gebiete zu identifizieren, in denen Entwaldung stattfindet. Durch die Analyse von Satellitenbildern kann sie Veränderungen in der Waldbedeckung erkennen und die Behörden alarmieren, damit diese Maßnahmen zum Schutz der Wälder ergreifen können. Die Plattform bietet auch unschätzbare Einblicke in den Erfolg von Wiederaufforstungsmaßnahmen. Das Pflanzen von Bäumen an sich ist jedoch nur ein Teil des Ganzen. Bei herkömmlichen Baumpflanzungsprojekten sind Monokulturen üblich, und oft überwiegen kommerzielle Anreize. Ein ganzheitlicher, ökosystembasierter Ansatz bei der Wiederherstellung ist in vielerlei Hinsicht erfolgreicher als gewöhnliche Baumpflanzungen, insbesondere im Hinblick auf die Bindung von Kohlenstoff und die Wiederherstellung der biologischen Vielfalt. Außerdem können sich wiederhergestellte Ökosysteme besser selbst heilen und sind besser in der Lage, Dürren und Überschwemmungen zu überstehen.151 Der jüngste Bericht der Vereinten Nationen über die Verschlechterung der Bodenqualität beleuchtet weitere Aspekte des Messproblems der Natur. So wird bei-
131
Schmidt - Fast Forward 150x210 KORR3.indd 131
18.01.24 18:18
spielsweise fast die Hälfte der Flächen, die weltweit wiederhergestellt werden sollen, überwiegend mit schnell wachsenden Bäumen und Pflanzen bepflanzt. Dieser Ansatz wird nur einen Bruchteil der Leistungen für das Ökosystem erbringen, die von Wäldern erbracht werden, die sich auf natürliche Weise regenerieren dürfen, und ermöglicht deutlich weniger Kohlenstoffspeicherung, Grundwasseranreicherung und Lebensraum für Wildtiere.152 Künstliche Intelligenz kann bei Wiederherstellungsmaßnahmen helfen, indem sie verfolgt, ob Bäume nach dem Pflanzen weiterwachsen, indem sie die Menge des von wiederhergestellten Ökosystemen gespeicherten Kohlenstoffs und den Gewinn an biologischer Vielfalt schätzt und andere Vorteile wie die Bereitstellung von Nahrungsmitteln oder Existenzgrundlagen ermittelt. Die Verfolgung des Baumwachstums hilft Regierungen, Unternehmen und NGOs bei der Überprüfung, ob sie ihre Versprechen einhalten, ermutigt zur Wiederholung erfolgreicher Initiativen und ermöglicht die Anpassung von Projekten, die Schwierigkeiten haben. Außerdem ermutigt es Geldgeber, dort weiter zu investieren, wo sie Fortschritte sehen. Aus sozialer Sicht ist es wichtig zu erwähnen, dass die Messung des Fortschritts auch ein Schlaglicht auf Landwirt:innen und andere Personen werfen kann, die ihr Land mit wenig Hilfe wiederhergestellt haben.153
Energie durch KI Das Energiemanagement ist ein Bereich, in dem KI-Algorithmen eingesetzt werden können, um die Nutzung erneuerbarer Energiequellen wie Sonne und Wind zu optimieren und die Verteilung und Speicherung von Energie in einem bestimmten Gebiet zu steuern. Dies trägt dazu bei, den Energieverbrauch zu minimieren und damit gleichzeitig Kosten und Treibhausgasemissionen zu senken. KI-gestützte Systeme können auch die Effizienz bei der Nutzung anderer Ressourcen verbessern. So kann beispielsweise in Wassersystemen die Wasserqualität überwacht, der Bedarf vorhergesagt und die Nutzung optimiert werden. KI wird bereits in vielen Verkehrssystemen eingesetzt, um sie effizienter zu machen und so den Energiebedarf und die Umweltbelastung zu verringern. Zu den konkreten Anwendungen gehören die Optimierung von Reiserouten und die Minimierung von Staus.
132
Schmidt - Fast Forward 150x210 KORR3.indd 132
18.01.24 18:18
KI bietet auch Möglichkeiten zur Verbesserung der Abfallwirtschaft, z. B. durch die Vorhersage der an einem bestimmten Ort und zu einem bestimmten Zeitpunkt anfallenden Abfallmenge und die Entwicklung effizienter Routen für die Abfallsammlung und das Recycling. KI-gestützte Sensoren können eingesetzt werden, um Abfallmengen in Echtzeit zu erkennen und zu überwachen. Die Umweltschutzorganisation The Nature Conservancy hat sich mit Microsoft zusammengetan, um ein Modell für maschinelles Lernen zu entwickeln, das anhand von frei verfügbaren Satellitenbildern Solarprojekte in Indien kartiert. Obwohl die Bedeutung der erneuerbaren Energieerzeugung klar ist und wirtschaftliche Anreize geschaffen werden, ist es für Gemeinden und Politiker:innen oft schwierig zu entscheiden, wo beispielsweise Solar- und Windkraftprojekte angesiedelt werden sollen. In Indien haben Flächen, auf denen ehemals Rohstoffe abgebaut wurden, das Potenzial, 1.789 Gigawatt an erneuerbarer Energie zu liefern, mehr als das Vierfache des Ziels des Landes für 2030. Stillgelegte Kohleminen haben beispielsweise einen geringen ökologischen und landwirtschaftlichen Wert, könnten aber für die Erzeugung von Solarenergie umgewidmet werden. Mithilfe von KI fand Nature Conservancy heraus, dass mehr als zwei Drittel der bestehenden Solarprojekte im Land auf landwirtschaftlichen Flächen liegen und etwa 7 % der Projekte in natürlichen Ökosystemen angesiedelt sind. Mit anderen Worten: Das Land nutzt noch nicht die Möglichkeit, Projekte für erneuerbare Energien auf Flächen, wo ehemals Rohstoffe abgebaut wurden, umzusetzen. Diese Ergebnisse verdeutlichen auch die potenziellen Auswirkungen von Projekten für erneuerbare Energien auf die biologische Vielfalt, die Lebensgrundlagen der Bevölkerung und die künftige Ernährungssicherheit. Insgesamt werden die gewonnenen Erkenntnisse Indien als Ganzes und den einzelnen Bundesstaaten dabei helfen, die Umsetzung ihrer Verpflichtungen im Bereich der erneuerbaren Energien zu verfolgen und zu analysieren, ob die Entwicklung auf Kosten von Flächen erfolgt, die anderen wichtigen Funktionen dienen. Darüber hinaus können die Daten von Naturschützer:innen genutzt werden, um festzustellen, wo Entwicklungsprojekte entstehen könnten, und ihnen helfen, Lösungen zu finden, bevor Konflikte entstehen.154 Das Erreichen einer „Netto-null-Welt“, in der die Treibhausgasemissionen durch deren Beseitigung ausgeglichen werden, erfordert Strategien für die Herausforde-
133
Schmidt - Fast Forward 150x210 KORR3.indd 133
18.01.24 18:18
rungen der Nutzung erneuerbarer Energiequellen. Der Aufbau eines neuen Stromnetzes, das in der Lage ist, sowohl die dezentrale und schwankende Nachfrage, z. B. das Aufladen von Millionen von Elektrofahrzeugen, als auch die schwankende Einspeisung aus erneuerbaren Energiequellen zu bewältigen, ist für diese Bemühungen von entscheidender Bedeutung. Nach Ansicht einiger Expert:innen muss zur Bewältigung dieser Herausforderung ein KI-basiertes Internet der Dinge (AIbased internet of things, AIoT) geschaffen werden, das KI-Tools, das riesige weltweite Netz miteinander verbundener Geräte (einschließlich Alltagsgegenstände), fortschrittliche Wettervorhersagemethoden und Big-Data-Analysen integriert. Dieses System würde Stromangebot und -nachfrage auf effizientere Weise synchronisieren.155 Durch den Einsatz von KI-Algorithmen kann es Echtzeitdaten aus verschiedenen Quellen analysieren, darunter Wetterbedingungen, Energieverbrauchsmuster und erneuerbare Energieerzeugung. Durch diese Analyse optimiert es die Stromverteilung und sorgt so für ein effizientes und gut abgestimmtes Verhältnis zwischen Angebot und Nachfrage.
Beschleunigung der Kreislaufwirtschaft In den Jahren 2022 und 2023 wurde Alice Schmidt von der Europäischen Kommission gebeten, Bewerbungen für den Neuen Europäischen Bauhaus-Preis zu prüfen, mit dem Initiativen ausgezeichnet werden, die ökologische Nachhaltigkeit, funktionale Ästhetik und soziale Integration miteinander verbinden. Ein Projekt, das Alice Schmidt besonders begeistert hat, war Mattersite, ein KI-basiertes System, das anhand von Bildern nützliche Daten über Gebäude generiert, die abgerissen werden sollen. Es funktioniert über ein digitales Gerät, das ein Gebäude scannt und dann berechnet und dokumentiert, wie viel Material – von Ziegeln über Fliesen bis hin zu Holz – es enthält. Dies erhöht das Rückgewinnungspotenzial, sodass hochwertige Materialien wiederverwertet werden können, und bietet einen starken Anreiz für die Wiederverwendung von Materialien, wie es das Ziel einer Kreislaufwirtschaft ist. Besonders spannend an dem Projekt ist die Tatsache, dass es einen enormen Nutzen in einer Branche bietet, die eine riesige Umweltbelastung darstellt. Der Bausektor hat heute einen größeren Ressourcen-Fußab-
134
Schmidt - Fast Forward 150x210 KORR3.indd 134
18.01.24 18:18
druck als jede andere Branche und folgt immer noch einem linearen Paradigma von Produktion und Verbrauch, im Gegensatz zu einem Kreislaufmodell. Wenn KI in der Entwurfsphase eingesetzt werden kann, um die Chancen eines Gebäudes oder Produkts auf Reparatur, Renovierung und Wiederverwendung zu verbessern, kann das große ökologische Vorteile bringen. Wir, die Autor:innen dieses Buches, sind auch sehr gespannt auf das Potenzial der Initiative The Ocean Cleanup, die das massive Problem der Plastikverschmutzung der Weltmeere, Küsten, Flüsse und anderer Ökosysteme angehen will. Die NGO setzt KI ein, um den Plastikmüll in Flüssen zu erkennen und zu simulieren, wie er sich bewegt, sobald er den Ozean erreicht. Die so gewonnenen Erkenntnisse werden genutzt, um passive Säuberungssysteme zu entwerfen, die Plastikmüll auf dem Weg in den Ozean abfangen und entfernen. Dies funktioniert folgendermaßen: Um Plastikmüll zu lokalisieren, setzt die Initiative auf Brücken montierte Kameras ein, die schwimmende Objekte fotografieren und Kunststoffe identifizieren. Eine autonome Auffangeinheit, der sogenannte Interceptor, wird in Position gebracht, um das Plastik einzusammeln und zu entfernen. Im Meer sammeln Sensoren, die an passiven Reinigungssystemen angebracht sind, Daten über Winde und Strömungen, und ein Algorithmus führt Simulationen durch, um zu ermitteln, wie sich diese Systeme durch den Ozean bewegen. Ocean Cleanup hat große Ambitionen: Durch die Kombination von Fluss- und Meeressystemen in großem Maßstab soll die Plastikmenge in den Weltmeeren bis 2040 um 90 % reduziert werden. Über ein Dashboard können Beobachter:innen die Fortschritte der Initiative fast in Echtzeit verfolgen. Als wir Autor:innen die Arbeit an diesem Buch beenden, sind insgesamt über 8.000 Tonnen (das sind 8 Millionen Kilogramm) Plastik entfernt worden.156 Die Ocean-Cleanup-Initiative ist nicht neu. Es gibt sie schon seit einem Jahrzehnt, und Alice Schmidt und Claudia Winkler haben in ihrem ersten Buch The Sustainability Puzzle schon darüber geschrieben. Neu ist jedoch der Einsatz von KI-Tools, die die Identifizierung von Kunststoffen und die Kartierung von Gebieten mit hoher Konzentration erheblich erleichtern. Idealerweise sollte das Recycling von Abfällen, auch von Abfällen aus den Ozeanen, nur als letzter Ausweg betrachtet werden. Besser wäre es, die Entstehung von Kunststoffabfällen zu vermeiden. Die Realität sieht jedoch so aus, dass nach wie vor große Mengen an Abfällen produziert und
135
Schmidt - Fast Forward 150x210 KORR3.indd 135
18.01.24 18:18
achtlos weggeworfen werden. Es besteht also weiterhin Bedarf an Lösungen wie The Ocean Cleanup. Der Lebensmittelsektor ist ein weiterer Bereich, in dem KI-Tools ein erhebliches Potenzial bieten. Werfen Sie gerne Lebensmittel weg? Wahrscheinlich nicht. Und Sie sind nicht allein damit. Manche Menschen sind zwar empfindlicher gegenüber Lebensmittelverschwendung als andere, aber nur wenige werfen gerne Lebensmittel weg, die sie selbst anbauen, kaufen oder zubereiten mussten. Dennoch werfen Restaurants und Haushalte jeden Tag große Mengen an Lebensmitteln weg. Tatsächlich geht jedes Jahr etwa ein Drittel aller produzierten Lebensmittel entweder in der Produktions-, Vertriebs- oder Verarbeitungsphase verloren oder wird im Einzelhandel oder bei den Verbraucher:innen verschwendet. In Anbetracht der Tatsache, dass weltweit fast eine Milliarde Menschen an Hunger leidet, ist das eine soziale Tragödie. Die Verschwendung hat aber auch erhebliche negative Auswirkungen auf die Umwelt, da sie für fast 10 % der weltweiten Treibhausgasemissionen verantwortlich ist und ein Viertel der weltweiten Süßwasserressourcen sowie eine Ackerfläche, die größer als China ist, verschwenderisch genutzt werden. Im Rahmen der globalen Nachhaltigkeitsziele wird gefordert, die weltweite Pro-KopfLebensmittelverschwendung bis 2030 zu halbieren.157 KI kann dazu beitragen, Lebensmittelverschwendung und -verluste zu verringern, indem sie verschiedene Aspekte der Lebensmittelversorgungskette optimiert, die Effizienz erhöht und eine bessere Umverteilung überschüssiger Lebensmittel ermöglicht. So kann generative KI dabei helfen, die Verbrauchernachfrage nach Lebensmitteln vorherzusagen und das Bestandsmanagement zu optimieren, indem verschiedene Datenquellen wie Verkaufshistorien, Wettermuster und Trends in den sozialen Medien analysiert werden. In der Lieferkette vom Bauernhof bis auf den Tisch kann KI die Effizienz verbessern, indem sie Transportrouten und -pläne optimiert und so die Zeit und die Entfernung, die Lebensmittel zurücklegen, verkürzt. KI-Algorithmen können die Spende und Umverteilung von Lebensmittel-Überschüssen an Lebensmittelbanken und Notunterkünfte oder über Peer-to-Peer- oder Food-Sharing-Plattformen zwischen Unternehmen und Verbraucher:innen erleichtern. Eine Lösung, die dem Möbelriesen IKEA geholfen hat, seine Lebensmittelabfälle im Vereinigten Königreich um 50 % zu reduzieren, ist Winnow Vision, eine
136
Schmidt - Fast Forward 150x210 KORR3.indd 136
18.01.24 18:18
Technologie zur Verwaltung von Lebensmittelabfällen, die KI nutzt, um die in den Restaurants weggeworfenen Lebensmittel zu analysieren. Das System zeichnet die Lebensmittelabfälle mit einer Kamera auf und analysiert die Daten, um Bereiche zu finden, die optimiert werden können, und um menschliche Entscheidungen zu unterstützen. Solche Lösungen sind überzeugend, weil sie soziale, ökologische und wirtschaftliche Belange auf einmal angehen – und den Küchen jedes Jahr bis zu 8 % ihrer Kosten sparen, so der Entwickler der Technologie.158 Der Einsatz von KI zur Vermeidung von Verschwendung in der Lebensmittelwirtschaft könnte bis 2030 Kosten von bis zu 127 Milliarden Dollar pro Jahr einsparen. Im Sinne einer Kreislaufwirtschaft würde dies weit über die Anwendung von KI in der Küche hinausgehen und Möglichkeiten in den Bereichen Landwirtschaft, Verarbeitung, Logistik und Verbrauch eröffnen. So könnte beispielsweise Bilderkennung eingesetzt werden, um festzustellen, wann Obst erntereif ist, während andere KI-Tools Angebot und Nachfrage bei Lebensmitteln besser aufeinander abstimmen oder den Wert von Lebensmittelnebenprodukten steigern könnten. Ähnliche Möglichkeiten gibt es auch in anderen Branchen.159
KI für politisches Erwachen? Die Maßnahmen, die heute zum Schutz des Klimas, der biologischen Vielfalt oder anderer wichtiger Aspekte unserer Ökosysteme ergriffen werden, sind bei Weitem nicht umfangreich genug, um das zu verhindern, was für die menschliche Zivilisation auf dem Spiel steht. Es gibt einfach nicht genug politischen Willen, das Problem anzugehen, zum Beispiel durch die Beseitigung von systemischen Absurditäten wie den Subventionen in Höhe von 1 Billion Dollar, die jedes Jahr weltweit für fossile Brennstoffe – Öl, Kohle und Gas – bereitgestellt werden.160 Die Frage ist nun, wie KI eingesetzt werden kann, um den politischen Willen im Bereich des Klimaschutzes und des Schutzes der Ökosysteme zu verbessern. Mithilfe von KI können bessere und aktuellere Informationen und Daten bereitgestellt werden, die es den politischen Entscheidungsträgern erschweren, die Notwendigkeit einer nachhaltigen Transformation zu leugnen. So können beispielsweise KI-Modelle die Auswirkungen verschiedener klimapolitischer Szenarien auf
137
Schmidt - Fast Forward 150x210 KORR3.indd 137
18.01.24 18:18
Messgrößen wie Wirtschaftswachstum, Energiekosten und Umweltergebnisse simulieren und so politischen Entscheidungsträgern helfen, die Kompromisse und potenziellen Vorteile verschiedener politischer Optionen zu verstehen. Generative KI kann uns auch dabei helfen, mit Komplexität umzugehen, indem sie klare und überzeugende Visualisierungen und Erklärungen für politische Entscheidungsträger und die Öffentlichkeit erstellt. Politische Entscheidungsträger agieren nicht in einem Vakuum und sind auf die Unterstützung der Öffentlichkeit angewiesen. Generative KI kann eingesetzt werden, um einflussreiche Stakeholder zu identifizieren, indem große Datensätze von sozialen Medien und anderen Online-Inhalten analysiert werden. So können verschiedene Zielgruppen für Botschaften und Bemühungen definiert werden. In ganz praktischer Hinsicht kann KI auch zur Ausarbeitung politischer Vorschläge und zur Harmonisierung von Strategien und unterschiedlichen Sektoren eingesetzt werden, sodass dieselben Ziele in verschiedenen Bereichen berücksichtigt werden können. KI kann nicht nur Beweise und Analysen für die Entscheidungsfindung liefern, sondern auch das öffentliche Bewusstsein für die Bedeutung von Naturschutz schärfen und dazu beitragen, die Öffentlichkeit für Klimaschutzmaßnahmen und die Wiederherstellung von Ökosystemen zu sensibilisieren. Ein solches öffentliches Engagement wird den Druck auf Politiker:innen und Unternehmen erhöhen, in einer Weise zu handeln, die dem Ausmaß der Probleme, mit denen wir konfrontiert sind, gerecht wird. Das Biodiversitätslabor der Vereinten Nationen zum Beispiel erlaubt allen Nutzer:innen, Daten hochzuladen.161 Die iNaturalist-App nutzt KI, um Menschen bei der Identifizierung von Pflanzen und Tieren in ihrer Umgebung zu helfen. Indem sie ein Foto von einer Pflanze oder einem Tier machen und es in die App hochladen, können die Nutzer:innen Informationen über die Art erhalten und zu einer globalen Biodiversitätsdatenbank beitragen. Auf diese Weise wird das öffentliche Engagement für den Naturschutz gefördert und das Bewusstsein für die Bedeutung des Schutzes von Ökosystemen geschärft. iNaturalist hat auch die Idee von „Bioblitzes“ gefördert, das sind Events, bei denen die Nutzer:innen versuchen, so viele Arten wie möglich zu finden. KI-basierte Tools haben also ein großes Potenzial zur Unterstützung der Bürgerwissenschaft (Citizen Science) und zur Einbindung der Öffentlichkeit.
138
Schmidt - Fast Forward 150x210 KORR3.indd 138
18.01.24 18:18
So geht’s weiter Dieses Kapitel hat gezeigt, dass es keinen Grund zu der Annahme gibt, dass KI die zahlreichen Umweltkrisen, mit denen wir konfrontiert sind, auf magische Weise lösen wird. Im Gegenteil: Digitalisierung und KI-Tools haben einen massiven ökologischen Fußabdruck. Sie benötigen beträchtliche Mengen an Energie, von denen ein Großteil nicht aus erneuerbaren Quellen stammt. Darüber hinaus werden für die Herstellung der Hardware, auf die solche Tools angewiesen sind, seltene Erden und andere Ressourcen verbraucht, und der Elektroschrott stellt ein ernstes Problem für die Gesundheit der Menschen dar. Es gibt jedoch Möglichkeiten, den Energieverbrauch von KI-Modellen auf ein Minimum zu reduzieren. Darüber hinaus kann KI mit vorausschauenden Strategien, politischem Willen, sinnvoller Regulierung und ernsthaftem Einsatz von Unternehmen es ermöglichen, die Auswirkungen auf die Umwelt in allen Sektoren und Branchen zu verringern und Lösungen zur Erhaltung und zum Schutz von Ökosystemen zu entwickeln. Wenn solche Instrumente klug und verantwortungsbewusst eingesetzt werden, können sie für uns alle sehr nützlich sein. Um den Nutzen für die Umwelt zu maximieren, sollten wir Folgendes tun: , sicherstellen, dass alle Software-Entwickler:innen sich der Notwendigkeit bewusst sind, die Treibhausgasemissionen zu minimieren, und dass sie Energie- oder CO2-Emissionsrechner in ihre KI-Modelle integrieren , rasch den Übergang zu einer Kreislaufwirtschaft finden, bei der die Lebensdauer digitaler Geräte maximiert und Elektroschrott durch intelligentes Design und Recycling stark reduziert wird , KI zur Beeinflussung von politischen Entscheidungsträgern, Wirtschaftsführern und anderen einflussreichen Personen einsetzen, indem wir aussagekräftige Daten generieren, die sie dazu bewegen, Greenwashing zu bestrafen und ehrgeizigere Maßnahmen zum Wohl der Umwelt zu ergreifen
139
Schmidt - Fast Forward 150x210 KORR3.indd 139
18.01.24 18:18
KAPITEL 7: ETHIK UND VERANTWORTUNG Die Dinge müssen nicht unbedingt wahr sein, solange sie geglaubt werden. Alexander Nix, Ex-CEO von Cambridge Analytica162
Im Jahr 2017 führten Yilun Wang und Michal Kosinski von der Stanford University ein Forschungsprojekt durch, bei dem KI-Algorithmen zur Analyse von Bildern von Gesichtern und zur Vorhersage der sexuellen Orientierung eingesetzt wurden.163 Für die Studie sammelten sie einen Datensatz mit Bildern von Gesichtern von einer US-amerikanischen Dating-Website, wobei der Schwerpunkt auf Personen lag, die sich selbst als homo- oder heterosexuell identifizierten. Der Datensatz wurde verwendet, um einen Algorithmus zu trainieren, der von den Autoren der Studie als „Detektor für sexuelle Orientierung“ bezeichnet wird und darauf abzielt, die sexuelle Orientierung auf der Grundlage von Gesichtsmerkmalen vorherzusagen. Die Studie löste einen Medienrummel aus, es wurde weltweit ausführlich darüber berichtet, zum Beispiel im Economist.164 Einige Menschen waren von der Studie verblüfft, für andere schien es, als sei die Phrenologie,165 eine Pseudowissenschaft aus dem 18. Jahrhundert, zurückgekehrt. Die Phrenologie versuchte, den Charakter, die Fähigkeiten und die Persönlichkeitsmerkmale eines Menschen anhand seiner Schädelform zu bestimmen, was natürlich völlig unwissenschaftlich war, sodass sie schließlich völlig in Verruf geriet. Die Studie aus dem Jahr 2017 wurde zu Recht von LGBTQ+-Organisationen scharf kritisiert, darunter die Human Rights Campaign und GLAAD. Sie bezeichneten die Studie als „Junk Science“. Kosinski, Mitautor der Studie, zeigte sich zunächst überrascht über diese Reaktion und bezeichnete sie als „Kurzschlussreaktion“. Er stellte sogar noch kühnere Behauptungen auf, etwa, dass KI-Algorithmen bald in der Lage sein würden, die Intelligenz, die politische Orientierung und die kriminellen Tendenzen einer Person allein anhand von Bildern ihres Gesichts zu bestimmen.
140
Schmidt - Fast Forward 150x210 KORR3.indd 140
18.01.24 18:18
Diese Studie ist ein eindrucksvolles Beispiel dafür, wie unverantwortlich KI eingesetzt werden kann. Forschung dieser Art hat erhebliche ethische Mängel, wirft Bedenken hinsichtlich des Datenschutzes auf und birgt das Risiko, Diskriminierung zu fördern. Es ist leicht vorstellbar, dass Regime auf der ganzen Welt Software dieser Art einsetzen könnten, um Menschen zu inhaftieren oder Schlimmeres. Die Kommentare zu dieser Studie gingen jedoch über ethische Bedenken hinaus. Die Studie sah sich auch erheblicher Kritik hinsichtlich ihrer Methodik und möglicher Verzerrungen (Bias) ausgesetzt. Blaise Agüera y Arcas, Margaret Mitchell (beide damals KI-Expert:innen bei Google) und Alex Todorov (Psychologieprofessor aus Princeton) kritisierten sie vehement und nannten eine Reihe von Gründen, warum sie unwissenschaftlich war. Zum Beispiel wurden in der ursprünglichen Studie von Wang und Kosinski Bilder von einer Dating-Website als Datensatz verwendet. Es liegt jedoch auf der Hand, dass sich die Selbstdarstellung einer Person auf einer Dating-Plattform von der auf einer beruflichen Netzwerkseite wie LinkedIn unterscheidet. Personen können bestimmte Posen einnehmen oder bestimmte Kleidung und Accessoires tragen, um ihr Aussehen zu verbessern. In der Kritik wird darauf hingewiesen, dass der sogenannte Detektor für sexuelle Orientierung nicht auf Gesichtsstrukturen basiert, sondern stattdessen auf subjektiven und kulturell variablen Elementen wie Körperpflegegewohnheiten, Selbstpräsentation und Kleidungsstil. Agüera y Arcas und seine Mitautoren führten ihre eigene Studie durch166 und entdeckten, dass heterosexuelle Frauen in Wangs und Kosinskis Datensatz beispielsweise eher Lidschatten trugen, während heterosexuelle Männer eher eine Brille trugen als homosexuelle Frauen oder Männer. Demnach richtete die künstliche Intelligenz ihr Augenmerk allein auf modische Aspekte, was zu einer Widerspiegelung und möglichen Verstärkung oberflächlicher Stereotype führte. Ein weiteres großes Problem der Studie bestand darin, dass die Wirksamkeit des Modells nicht anhand realer Daten getestet wurde. Die Evaluation erfolgte stattdessen mit Bildmaterial derselben Dating-Plattform, aus der die Studienautor:innen die Trainingsdaten für das KI-Modell bezogen hatten. Eine solche Überschneidung von Trainings- und Testdaten gilt in wissenschaftlichen Kreisen weithin als methodisch unzulässig. Die Episode warf ein Schlaglicht auf entscheidende Fragen der Ethik, der Methodik und des Datenschutzes, die bei der verantwortungsvollen Entwicklung und
141
Schmidt - Fast Forward 150x210 KORR3.indd 141
18.01.24 18:18
Umsetzung von KI nicht außer Acht gelassen werden sollten. Es gibt jedoch noch weitere kritische Bereiche, die bei der Nutzung von KI Beachtung finden müssen, und zwar in Bezug auf Bias, Transparenz, Rechenschaftspflicht und Autonomie der Systeme. Die Herausforderungen sind aber überwindbar, wenn wir uns weiterhin der Suche nach Lösungen widmen. Dieses Kapitel will die Herausforderungen und Chancen im Zusammenhang mit KI analysieren und gleichzeitig betonen, dass verantwortungsvoll entwickelte KI eine Schlüsselrolle bei der Gestaltung einer besseren Zukunft für alle spielen kann.
Deus ex machina Die Wahrnehmung künstlicher Intelligenz in der modernen Gesellschaft ist geprägt von einer Dichotomie, die zwischen zwei gegensätzlichen Extremen schwankt. Auf der einen Seite gibt es diejenigen, die glauben, dass KI das Ende der Menschheit einläutet, und die Visionen von einem Verlust von Arbeitsplätzen und der Erosion der menschlichen Kontrolle über die Technologie heraufbeschwören. Sie malen ein dystopisches Bild, in dem einflussreiche Technologiekonzerne künstliche Intelligenz zur Überwachung und zur Zementierung bestehender Vorurteile nutzen, was tiefgreifende Schatten auf die Zukunft der Menschheit wirft. Andere wiederum sehen in KI eine Kraft, die uns zu neuen Höhenflügen verhelfen könnte. Für sie ist KI dem Menschen potenziell überlegen und verfügt über unvergleichliche Kompetenzen und Fähigkeiten. Diese Optimist:innen sehen in KI das Potenzial, unfehlbar und allwissend zu sein und die drängendsten Probleme der Menschheit im Handumdrehen zu lösen, wie ein „deus ex machina“ – das Eingreifen von etwas Göttlichem, das im antiken griechischen Theater genutzt wurde, um scheinbar unmögliche Erzählsituationen zu lösen. Die Realität befindet sich jedoch irgendwo in der Mitte dieser beiden Extreme. Ein fundiertes Verständnis sowohl der Potenziale als auch der Limitationen künstlicher Intelligenz ist entscheidend, um die Komplexitäten dieser bahnbrechenden Technologie effektiv zu navigieren. Manche Menschen denken, dass KI-Tools fehlerfrei und perfekt funktionieren, viel besser als Menschen. Sie meinen, dass KI menschlichen Fähigkeiten immer überlegen ist, ohne die Unzulänglichkeiten von KI zu berücksichtigen. Sie erwarten
142
Schmidt - Fast Forward 150x210 KORR3.indd 142
18.01.24 18:18
zum Beispiel, dass selbstfahrende Autos Unfälle vermeiden und absolut sicher sind. In ähnlicher Weise wird von KI-gestützten medizinischen Diagnosesystemen oft erwartet, dass sie eine 100%ige Erfolgsquote haben. Obwohl menschliche Autofahrer:innen Unfälle verursachen und Mediziner:innen Krankheiten falsch diagnostizieren können, akzeptieren wir diese Fehler als natürlichen Teil des Menschseins. Wir scheinen also an KI höhere Maßstäbe anzulegen als an den fehleranfälligen Menschen. Wir sollten unsere Erwartungen anpassen und anerkennen, dass KI nicht unfehlbar ist. Anstatt Perfektion zu erwarten, sollten wir den Kontext und die Folgen von KIFehlern berücksichtigen. Dies wiederum erfordert einen differenzierten Ansatz für die Entwicklung und den Einsatz von KI, der realistische Leistungsstandards verwendet und KI-Systeme auf der Grundlage ihrer Effektivität in bestimmten Anwendungsfällen bewertet. Ein pragmatischer Ansatz könnte darin bestehen, die mit der Anwendung von KI verbundenen Risikoerwartungen präzise anzupassen. Bei risikoreichen Anwendungen wie selbstfahrenden Autos oder medizinischen Diagnosen könnte ein KI-Fehler katastrophale Folgen haben. Daher muss in solchen Fällen unbedingt sichergestellt werden, dass das KI-System die höchsten Anforderungen an Genauigkeit und Zuverlässigkeit erfüllt. Im Gegensatz dazu wird ein Fehler in einer Anwendung mit geringem Risiko weniger schwerwiegende Folgen haben. Wenn zum Beispiel ein KI-System Ihre Vorlieben falsch versteht und Ihnen einen Film empfiehlt, der Sie langweilt, können Sie einfach Ihr Gerät ausschalten. In Situationen, in denen die Auswirkungen von Fehlern von künstlicher Intelligenz vergleichsweise geringfügig sind, sollten die festgelegten Standards das entsprechende Risikoniveau adäquat reflektieren. In manchen Fällen können Fehler sogar beabsichtigt sein. Fehler zu machen ist ein natürlicher Teil des Lernprozesses, sowohl bei Menschen als auch bei Maschinen. Indem sie Fehler machen, können KI-Tools lernen und sich verbessern, genau wie Menschen. Ein Ansatz, der als „Exploration-Exploitation Trade-off“ bekannt ist, beinhaltet, dass KI-Systeme absichtlich Fehler machen, um neue Möglichkeiten zu erkunden und daraus zu lernen. Bei diesem Konzept geht es darum, ein Gleichgewicht zwischen dem Wunsch nach neuen Möglichkeiten und der Notwendigkeit, vorhandenes Wissen zu nutzen, herzustellen. Das Ausprobieren neuer Möglich-
143
Schmidt - Fast Forward 150x210 KORR3.indd 143
18.01.24 18:18
keiten und das Lernen aus den Ergebnissen ist die Explorationsstrategie, während die Verwertungsstrategie darin besteht, vorhandenes Wissen und Erfahrung zu nutzen, um Entscheidungen zu treffen. Es ist wichtig zu bedenken, dass die Entwicklung von KI ein fortlaufender Prozess ist, bei dem Fehler unvermeidlich sind. In dem Maße, wie sich die KI-Technologie weiterentwickelt und verbessert, können wir davon ausgehen, dass die Häufigkeit und Schwere der Fehler abnehmen wird. Wir, die Autor:innen dieses Buches, sind jedoch der Ansicht, dass ein differenzierter Ansatz zur Bewertung und Überwachung von KI-Systemen erforderlich ist, bei dem das damit verbundene Risiko bewertet wird.
Wahrheit, Objektivität und Perspektive Es ist oft schwierig festzustellen, ob ein Text oder eine Aussage wahr und objektiv ist, aus einer spezifischen Perspektive formuliert wurde oder eine Meinungsäußerung darstellt. Wenn wir darüber nachdenken, ob wir strengere ethische Regeln auf KI anwenden sollen, müssen wir dieses Konzept etwas besser verstehen. Wahrheit wird in verschiedenen Fachgebieten unterschiedlich definiert. Die formale Logik und die Mathematik definieren Wahrheit als die Übereinstimmung einer Aussage mit einer Reihe von formalen Regeln oder Axiomen, während die Naturwissenschaften Wahrheit durch die Übereinstimmung einer wissenschaftlichen Theorie mit empirischen Daten und Beobachtungen definieren. Aussagen wie „Die Ordnungszahl von Sauerstoff ist 8“ oder „Die Lichtgeschwindigkeit im Vakuum beträgt etwa 299.792.458 Meter pro Sekunde“ sind leicht nachprüfbar und wahr. Daher können sie als Fakten bezeichnet werden. Die meisten unserer Gespräche beinhalten jedoch nicht nur einen Austausch von Fakten, sondern auch subjektive Interpretationen und individuelle Perspektiven. Wir kommunizieren in bestimmten Kontexten, wobei unsere Sprache von einer persönlichen Perspektive ausgeht, die von Überzeugungen, Werten und Erfahrungen geprägt ist, die von Person zu Person sehr unterschiedlich sein können. So sind z. B. künstlerischer Stil und künstlerische Interpretationen von persönlichen Meinungen und Vorlieben hinsichtlich dessen geprägt, was wir als ästhetisch ansprechend oder sinnvoll erachten. Ähnlich verhält es sich mit politischen
144
Schmidt - Fast Forward 150x210 KORR3.indd 144
18.01.24 18:18
Ideologien und Überzeugungen, die die Ansichten einer Person über Regierung, Gesellschaft und Politik widerspiegeln. Es ist wichtig, sich bewusst zu machen, dass jedes KI-Tool von Natur aus eine bestimmte Perspektive einnimmt. Das Verständnis und das Wissen eines KI-Systems basieren auf den Daten, mit denen es trainiert wurde und die möglicherweise in gewisser Weise begrenzt oder verzerrt sind. KI kann mit verschiedenen Datensätzen und Algorithmen trainiert werden, was zu unterschiedlichen Ergebnissen führt. Dies macht es schwierig, den Grad der Objektivität eines Modells zu bestimmen, und man kann behaupten, dass kein KI-Modell 100%ig objektiv sein kann. Nicht nur besitzt eine KI oftmals bereits eine vordefinierte Perspektive, sondern es ist sogar möglich, dass einige Tools auf Befehl bestimmte Perspektiven einnehmen können. So kann man ChatGPT zum Beispiel anweisen, sich wie ein Wissenschaftler oder ein Mitglied einer bestimmten Gruppe zu verhalten. Dies kann bei der Erforschung eines Themas sehr hilfreich sein, da man so die Argumente von zwei Seiten hören kann, um zum Beispiel einen Konflikt besser zu verstehen. Wir müssen jedoch vorsichtig sein, wenn wir Maschinen die Fähigkeit zugestehen, potenziell fragwürdige Perspektiven einzunehmen. Wir müssen uns darüber im Klaren sein, dass KI-Modelle über umfangreiche Daten zu historischen Persönlichkeiten wie Adolf Hitler, Josef Stalin oder Führern terroristischer Organisationen verfügen können. Es wäre höchst bedenklich, wenn sie sich als diese Personen ausgeben würden. Dies gilt auch für religiöse und für historische Persönlichkeiten – so wäre es beispielsweise ebenso unangebracht, wenn sich ein KI-Tool als Jesus, Buddha oder Mohammed ausgeben würde. Der Schlüssel liegt in der Unterscheidung zwischen der Bereitstellung von Informationen und der Irreführung durch die Annahme einer bestimmten Identität. Bei bestimmten Projekten, z. B. in Museen, könnten solche Darstellungen als Teil einer informativen Präsentation akzeptabel sein. Dennoch ist äußerste Vorsicht geboten, um zu verhindern, dass solche Darstellungen falsch interpretiert oder missbraucht werden. Es können auch andere Probleme im Zusammenhang mit der Perspektive auftreten. Wenn die Maschine die Perspektive des Nutzers zu stark widerspiegelt, kann dies negative Auswirkungen haben. So gab es beispielsweise bereits mindestens einen Todesfall im Zusammenhang mit dem Einsatz von KI-Chatbots.
145
Schmidt - Fast Forward 150x210 KORR3.indd 145
18.01.24 18:18
Einem Bericht der belgischen Zeitung La Libre zufolge beging ein junger Mann Selbstmord, nachdem er mit einem Chatbot interagiert hatte.167 Aus dem Bericht ging hervor, dass der Mann in den Wochen vor seinem Tod intensive „Gespräche“ mit dem Bot geführt hatte. Der Bot soll die negativen Gedankenmuster des Mannes verstärkt und ihn schließlich dazu gebracht haben, sich das Leben zu nehmen.
Prüfen, und zwar doppelt und dreifach Beim Navigieren durch die digitale Landschaft haben wir längst gelernt, Informationen mit einer gesunden Portion Skepsis zu begegnen und zu überprüfen, was wir lesen. Da die Entwicklung von künstlicher Intelligenz immer weiter fortschreitet, ist es wichtig, sich vor Augen zu halten, dass auch KI-Systeme Fehler machen und falsche Informationen verbreiten können. Wie können wir also wirksam gegen Fehlinformationen vorgehen? Um dieser Herausforderung zu begegnen, ist es entscheidend, klar zwischen fehlerhaften oder ungenauen Informationen und bewusst verbreiteten Falschnachrichten zu differenzieren. Die Grenze ist fließend, wobei zwischen den beiden Kategorien eine beträchtliche Grauzone liegt. Vorsätzliche Unwahrheiten haben die Absicht zu täuschen. Genauso wie Menschen absichtlich lügen können, kann eine KI so programmiert werden, dass sie falsche Informationen mit dem Ziel verbreitet, andere zu täuschen. Dies ist besonders besorgniserregend angesichts des Aufkommens von Deepfakes, bei denen künstliche Intelligenz eingesetzt wird, um das Gesicht einer Person auf den Körper einer anderen oder die Stimme einer Person mit der einer anderen zu tauschen und so eine äußerst überzeugende und oft irreführende Video- oder Audioaufnahme zu erstellen. Es ist wichtig, dass wir Personen, Institutionen oder staatliche Akteure, die solche Unwahrheiten produzieren, für ihre Handlungen zur Verantwortung ziehen und alle Fälle, in denen KI zur absichtlichen Täuschung anderer eingesetzt wird, rechtlich verfolgen. Auf diese Weise können wir auf einen vertrauenswürdigen und verantwortungsvollen Einsatz von KI-Technologie hinarbeiten. Es ist schon beunruhigend genug, dass eine KI absichtlich so programmiert sein könnte, dass sie falsche Informationen verbreitet, doch es gibt noch eine weitere Möglichkeit, die Sie vielleicht überraschen wird: KI kann halluzinieren. Unter KI-
146
Schmidt - Fast Forward 150x210 KORR3.indd 146
18.01.24 18:18
Halluzination versteht man eine Situation, in der die generierten Daten von der Realität abweichen. Wenn wir beispielsweise von einer textgenerierenden KI detaillierte Informationen zu einem historischen Ereignis anfordern, kann es sein, dass sie fiktive Details, Namen oder Daten einfügt, die das authentische historische Narrativ verzerren. Ebenso kann die KI scheinbar authentische Verweise auf nicht existierende Studien präsentieren, was zur Verbreitung irreführender Informationen führen kann. Wichtig ist, dass KI-Halluzinationen nicht als Lügen betrachtet werden, da keine Absicht besteht, andere zu täuschen oder zu manipulieren. Vielmehr handelt es sich um ein Symptom für einen Fehler oder eine Schwäche des Systems, die zu falschen Informationen oder Ergebnissen führen können. Um Fehlinformationen zu bekämpfen, müssen wir an der Verbesserung der Qualität von KI-Systemen arbeiten und neue Standards einführen. Wir müssen sicherstellen, dass die Datensätze, die zum Trainieren der Systeme verwendet werden, genau und unvoreingenommen sind. Doch selbst mit den besten Absichten ist es unmöglich, dass Informationen immer wahr und vor allem objektiv sind. Hier kommen wir als Menschen ins Spiel – es ist entscheidend, dass wir KI-generierte Informationen, wie auch andere Informationen im Internet, mit einem kritischen Auge betrachten. Indem wir die Fakten überprüfen, Quellen nachprüfen, Daten checken und den Kontext der Informationen berücksichtigen, können wir uns vor Fehlinformationen schützen und fundierte Entscheidungen treffen. Denken Sie daran, dass KI kein allwissender Gott in einer Maschine ist – sie ist ein Werkzeug, das wir verantwortungsvoll nutzen müssen.
Bias und falsche Anreize Ist Ihnen bewusst, dass bei der Verwendung des Begriffs „Frau“ in Ihren Eingabeaufforderungen für generative Bildtools eine Tendenz zur Sexualisierung der Bilder bestehen könnte – zum Beispiel durch die häufige Darstellung großer Brüste, aufgeknöpfter Blusen oder Schmolllippen? Eine Zeit lang war dies der Fall. Die Diskussion kam auf, als Midjourney, eine bilderzeugende KI, eine neue Version seiner Software einführte. Den Nutzern:innen fiel auf, dass neutrale Prompts, die in der vorherigen Version Bilder von Frauen mit tiefem Ausschnitt erzeugt hatten,
147
Schmidt - Fast Forward 150x210 KORR3.indd 147
18.01.24 18:18
dies plötzlich nicht mehr taten, sondern natürlichere, der Realität besser entsprechende Bilder produzierten. Dieses Beispiel veranschaulicht deutlich den Gender Bias in KI-Systemen und mag amüsant erscheinen, wenn man es zum ersten Mal hört. Aber voreingenommene Algorithmen sind ein ernstes Problem mit potenziell weitreichenden Auswirkungen auf die Gesellschaft. Ein Bias in Softwaresystemen kann systemische Marginalisierung, Ausgrenzung und Rassismus gegenüber bestimmten Bevölkerungsgruppen aufrechterhalten. Er kann potenziell dauerhafte Schäden im Leben von Menschen verursachen und zu vergebenen wirtschaftlichen Chancen führen. Wie Alice Schmidt und Claudia Winkler in ihrem ersten Buch The Sustainability Puzzle schreiben, entwickelte das österreichische Arbeitsmarktservice ein algorithmisches Klassifizierungssystem für einen Dienst, der Arbeitssuchende mit Beschäftigungsmöglichkeiten zusammenbringen soll. Das System erfasst Merkmale wie Geschlecht, Alter, Betreuungpflichten, Behinderung und Staatsbürgerschaft und verknüpft diese mit der Verfügbarkeit von Ressourcen. Diese Praxis wurde stark kritisiert, unter anderem aufgrund der Tatsache, dass Frauen mit Kinderbetreuungspflichten im Vergleich zu Männern, die keine derartigen Verpflichtungen haben, als weniger beschäftigungsfähig angesehen werden. Dieser Bias ergibt sich aus den historischen Daten, die zum Trainieren des Systems genutzt werden. Dieses Beispiel unterstreicht die Problematik, zukünftige Prognosen auf Daten zu begründen, die eine Vergangenheit abbilden, die möglicherweise nicht mehr zutreffend oder erstrebenswert ist. Wenn solche Vorhersagen nicht infrage gestellt werden, werden bestehende Ungleichheiten wahrscheinlich reproduziert und verstärkt.168 Eine weitere ernste Sorge in Bezug auf KI ist, dass sie unbeabsichtigte Folgen haben kann, die für den Einzelnen oder die Gesellschaft insgesamt schädlich sein könnten, wenn sie nicht mit den richtigen Zielen, Anreizen und Vorgaben programmiert wird. So könnte ein KI-System, das darauf ausgelegt ist, die Gewinne eines Unternehmens zu maximieren, Entscheidungen treffen, die der Umwelt schaden oder Arbeitnehmer:innen ausbeuten. Die beiden Teenager-Söhne von Florian Schütz und Claudia Winkler sind begeisterte Gamer. Sie debattieren häufig über die mangelnde Intelligenz bestimmter
148
Schmidt - Fast Forward 150x210 KORR3.indd 148
18.01.24 18:18
„Bots“ in Spielen – im Gamer-Jargon „Non-Player Characters“ (NPCs) genannt –, also computergesteuerter Figuren. In einem Spiel wie der Fußballsimulation FIFA kann es vorkommen, dass ein Bot aus unerklärlichen Gründen keinen Schuss abgibt, obwohl er direkt vor dem Tor steht. Trotz der Werbung einiger Spieleentwickler:innen für den Einsatz von KI zur Steuerung von NPCs in ihren Spielen finden sich in sozialen Medien dennoch häufig Berichte über Fälle, in denen diese Charaktere unerwartete oder unlogische Entscheidungen treffen. An einem Wochenende stießen die Jungs auf ein Video169, das eine Debatte über die „Intelligenz“ eines Bots auslöste und die Zuschauer:innen im Unklaren darüber ließ, ob der gezeigte Bot sehr dumm oder brillant war. Das Video zeigte ein Bootsrennen mit einem für menschliche Spieler:innen klar erkennbaren Ziel: das Boot so schnell wie möglich durch einen Hafen zu navigieren, in einem Rennen gegen die Uhr. Bonuspunkte konnten durch das Rammen von Bojen entlang der Strecke erzielt werden. So weit, so simpel. In diesem Video spielte ein Bot – auf den ersten Blick allerdings sehr schlecht. Sein Boot fing Feuer, stieß mit anderen Booten zusammen und fuhr in die falsche Richtung. Doch bei näherer Betrachtung stellte sich sein eigenartiges Verhalten als geniale Strategie heraus. Der Bot entdeckte eine kleine Lagune, in der er einen großen Kreis fuhr und immer wieder Bojen rammte, wobei er seine Geschwindigkeit und Bewegung so anpasste, dass er jedes Mal dieselben Bojen traf, wenn sie wieder auftauchten, und so Bonuspunkte erhielt. Die künstliche Intelligenz hatte offensichtlich gelernt, dass diese unkonventionelle Strategie wesentlich effektiver war, um eine hohe Punktzahl zu erreichen, als der vorgesehenen Rennstrecke zu folgen. Durch Zufall waren unsere Jungs auf ein Video gestoßen, das in einer Fachpublikation von OpenAI, dem Entwickler von ChatGPT, erwähnt wurde. Darin wurde ein Experiment beschrieben, bei dem die Forschenden des Unternehmens einen künstlichen Agenten darauf trainiert hatten, dieses Bootsrennspiel zu spielen.170 Durch Reinforcement Learning hatte die KI die Schwachstelle des Spiels selbstständig entdeckt, ohne dass es einer ausdrücklichen Erklärung bedurfte. Der Spieleentwickler hatte die Punktevergabe falsch gewichtet, was zu einem Ungleichgewicht zwischen den Bonuspunkten und den Punkten führte, die man beim normalen Verfolgen der Strecke erhält. Während Menschen in der Regel mit dem
149
Schmidt - Fast Forward 150x210 KORR3.indd 149
18.01.24 18:18
Ziel vertraut sind, ein Bootsrennen zu gewinnen, konzentrierte sich das KI-System ausschließlich auf die Optimierung der Punktezahl und nutzte diese Lücke ohne Rücksicht auf den ursprünglichen Zweck des Spiels. Es ist daher wichtig, die Ziele, Anreize und Vorgaben, die in KI-Systeme einprogrammiert werden, sorgfältig zu prüfen. Dabei gilt es, ein Gleichgewicht zwischen dem Erreichen wünschenswerter Ergebnisse und dem Vermeiden unbeabsichtigter Folgen zu finden. Außerdem ist es wichtig, verschiedene Interessensgruppen in die Entwicklung und Umsetzung von KI-Systemen einzubeziehen, darunter auch diejenigen, die von der Technologie betroffen sein könnten. Expert:innen wie Joy Buolamwini, Timnit Gebru und Safiya Umoja Noble haben sich für ethische Richtlinien und Rechenschaftspflicht bei der Entwicklung und dem Einsatz von KI-Systemen ausgesprochen. Sie betonen, dass unbedingt sichergestellt werden muss, dass die Technologie in einer Weise entwickelt und eingesetzt wird, die Fairness und Gleichheit fördert, anstatt bestehende Ungleichheit zu verstärken.
Wenn KI Fake News generiert Haben Sie sich jemals gefragt, warum die kultige Zeichentrickfigur Popeye ausgerechnet Spinat aß, um stark zu sein? Obwohl seine Superkräfte natürlich fiktiv sind, basiert die Idee, dass Spinat besonders kräftig macht, nicht auf der Realität – sie entstand durch einen einfachen Fehler. Gehen wir zurück ins Jahr 1870, als Emil von Wolff, ein deutscher Wissenschaftler, einen kleinen Fehler machte, der den Ruf des Spinats für immer veränderte.171 Er veröffentlichte eine Studie, in der er behauptete, Spinat sei besonders reich an Eisen und damit ein wahres Kraftpaket. Spoiler-Alarm: Wolff hatte sich bei seinen Berechnungen um eine Kommastelle vertan, wodurch der Eisengehalt zehnmal höher erschien, als er tatsächlich war. Erst in den 1930er-Jahren entdeckte jemand den Fehler. Aber was soll man sagen? Der Spinatmythos hatte sich bereits etabliert und hält sich bis heute hartnäckig. Dieses Beispiel zeigt, wie Datenfehler unentdeckt und unkorrigiert bleiben können, was dazu führt, dass künftige Annahmen auf falschen Daten beruhen. Fragen Sie ChatGPT, welches Gemüse einen besonders hohen Eisengehalt hat. Die Antwort lautet ... Spinat.
150
Schmidt - Fast Forward 150x210 KORR3.indd 150
18.01.24 18:18
KI hat die Eigenschaft, bestehende Probleme zu verschärfen, und falsche Informationen sind da keine Ausnahme. KI kann falsche Informationen erzeugen und sogar Studien erstellen, die zu falschen Schlussfolgerungen führen. Zwar haben auch menschliche Wissenschaftler:innen schon Fehler gemacht und in seltenen Fällen sogar absichtlich Studien mit falschen Schlussfolgerungen erstellt, aber172 KI kann dies in größerem Umfang und mit höherer Geschwindigkeit tun. Das Problem wird noch verschärft, wenn Maschinen aus falschen Daten lernen, die von anderen KI-Systemen erzeugt wurden, wodurch ein Teufelskreis entstehen kann. Ein KI-System lernt aus falschen Daten, erzeugt seine eigenen falschen Informationen, und der Prozess beginnt von vorne. Um dieses Problem anzugehen, brauchen wir verbesserte Mechanismen, die uns helfen zu bestimmen, welche Informationen als zuverlässig gelten können und welche nicht. Die bloße Unterscheidung zwischen Maschinen und Menschen ist nicht immer hilfreich, da beide Fehler produzieren können, und die Grenze zwischen von Menschen, von Maschinen oder einer Kombination aus beiden geschaffenen Werken wird mit der Zeit nur noch mehr verschwimmen. Bei großen Wissensspeichern wie Wikipedia sollten transparentere Kriterien angewandt werden. In ähnlicher Weise müssen die Peer-Review-Verfahren für wissenschaftliche Arbeiten an die zunehmende Zahl von Einreichungen angepasst werden. Angesichts der allgegenwärtigen Bedrohung durch weit verbreitete Falschinformationen im politischen Kontext kommt Journalist:innen bei der Überprüfung von Informationen eine besonders wichtige Rolle zu.
Open Source, Transparenz und Datenschutz Die Bedeutung von Transparenz im Bereich KI kann gar nicht hoch genug eingeschätzt werden. Es muss unbedingt sichergestellt werden, dass Nutzer:innen und andere Interessengruppen verstehen, wie KI-Systeme funktionieren, welche Datenquellen genutzt werden und welche Entscheidungsprozesse involviert sind. Diese Transparenz kann durch verschiedene Mittel erreicht werden, z. B. durch die Bereitstellung einer detaillierten Dokumentation, die Veröffentlichung von OpenSource-Anwendungen, die Visualisierung von KI-Prozessen oder die Verwendung
151
Schmidt - Fast Forward 150x210 KORR3.indd 151
18.01.24 18:18
von erklärbarer KI (explainable AI), die es Menschen ermöglichen, das Innenleben komplexer Algorithmen zu verstehen und bildlich gesprochen unter die Motorhaube zu schauen. Die Schaffung von Transparenz von KI ist jedoch mit einigen Herausforderungen verbunden. Ein wesentliches Hindernis ist der Konflikt zwischen Transparenz und Eigentum bei KI-Algorithmen. Unternehmen wollen ihr geistiges Eigentum tendenziell schützen, und dieser Schutz verhindert wiederum eine vollständige Transparenz. So wird beispielsweise Googles Suchalgorithmus, der auf KI-Technologien basiert, geheim gehalten, um einen Wettbewerbsvorteil zu wahren und eine böswillige Nutzung, zum Beispiel eine gezielte Beeinflussung, zu verhindern. Das Gleiche gilt für Systeme wie ChatGPT. Im Fall von Google macht es diese Geheimhaltung für die Nutzer:innen schwierig, das Ranking der Suchergebnisse genau zu verstehen. Open Source173 bietet einen alternativen Ansatz. Er bezieht sich auf Software, die der Öffentlichkeit frei zur Verfügung steht, und zwar unter Bedingungen, die es den Nutzer:innen erlauben, auf den Quellcode zuzugreifen, ihn zu ändern und zu verbreiten. Dieses kollaborative und transparente Modell fördert die Innovation und ermutigt zur aktiven Teilnahme an der Gemeinschaft. Beispiele für weit verbreitete Open-Source-Technologien sind die Webserver Apache und Nginx, die einen bedeutenden Anteil am Webserver-Markt haben,174 das Betriebssystem Linux, beliebte Content-Management-Systeme wie WordPress und Joomla, das Datenbanksystem MySQL und der Internetbrowser Firefox. Auch Open-Source-Tools spielen im Bereich KI eine wichtige Rolle. Es gibt bereits eine Vielzahl solcher Tools für KI-Entwickler:innen, darunter TensorFlow, Theano, Keras und PyTorch. Bei bilderzeugenden Systemen ist auch die KI Stable Diffusion zu nennen. Auch im Bereich der Sprachmodelle wurden erhebliche Fortschritte erzielt. Ein bemerkenswertes Beispiel ist BLOOM (the BigScience Large Open-science Openaccess Multilingual Language Model).175 BLOOM gilt als potenzielle Alternative zu ChatGPT von OpenAI und ist das Ergebnis einer Zusammenarbeit von mehr als 1.000 KI-Forscher:innen. Es wurde mit Daten aus 46 natürlichen Sprachen und 13 Programmiersprachen trainiert. Was BLOOM besonders interessant macht, ist die Tatsache, dass es kostenlos zur Verfügung steht.
152
Schmidt - Fast Forward 150x210 KORR3.indd 152
18.01.24 18:18
Man könnte glauben, dass Open-Source-Angebote eine Herausforderung für die Vorherrschaft der Tech-Giganten darstellen, aber in Wirklichkeit sind diese Giganten schon seit einiger Zeit aktiv an Open-Source-Projekten beteiligt. Sie machen sich nicht nur die Vorteile der Zusammenarbeit zunutze, sondern fördern auch Entwickler:innen-Communites rund um ihre Produkte. Darüber hinaus tragen sie durch das Open Sourcing bestimmter Tools oder Funktionen zur Festlegung von Industriestandards und Frameworks bei. Eine bemerkenswerte Entwicklung im Jahr 2023 war, dass Meta, die Muttergesellschaft von Facebook, ihr Sprachmodell LLaMA (Large Language Model Meta AI)176 der Öffentlichkeit frei zugänglich machte.177 Ursprünglich war der Zugang zu LLaMA auf ausgewählte Forscher:innen und Organisationen beschränkt. Nachdem es jedoch online geleakt worden war und von jedermann heruntergeladen werden konnte, wurde die Zugänglichkeit erweitert. Seitdem sind Open-SourceProjekte wie RedPajama und Alpaca von der Stanford University entstanden, um die Fähigkeiten von LLaMA zu verbessern und es für Forschungs- und Entwicklungszwecke allgemein zugänglich zu machen. Insgesamt haben Open-Source-KIProjekte das Potenzial, mehr Transparenz und Beteiligung in das Feld zu bringen, und in diesem Bereich ist noch viel Innovation zu erwarten. Die Funktionsweise komplexer KI-Systeme, wie etwa von Deep-Learning-Modellen, ist oft schwer zu durchschauen. Dies liegt daran, dass ihre Prozesse zur Entscheidungsfindung und die darunter liegenden Mechanismen nicht leicht nachvollziehbar sind, was zum sogenannten Blackbox-Problem führt. Ein Beispiel für dieses Problem findet sich im medizinischen Bereich, wo KI-Systeme zunehmend zur Erstellung von Diagnosen und Behandlungsempfehlungen eingesetzt werden. Diese Systeme können zwar ein beeindruckendes Maß an Genauigkeit erreichen, ihre Entscheidungsprozesse sind jedoch oft undurchsichtig, sodass es für das medizinische Personal schwierig ist, ihre Empfehlungen zu verstehen und ihnen zu vertrauen. Um diese Herausforderungen zu bewältigen, müssen Lösungen entwickelt werden, die ein Gleichgewicht zwischen Transparenz und anderen Belangen wie geistigen Eigentumsrechten und technischen Beschränkungen herstellen.
153
Schmidt - Fast Forward 150x210 KORR3.indd 153
18.01.24 18:18
Die Entwicklung von Techniken der erklärbaren KI (explainable AI, XAI) stellt in dieser Hinsicht einen vielversprechenden Ansatz dar. XAI versucht, Einblick in die interne Funktionsweise dieser „Blackboxen“ zu geben. Ein Algorithmus namens Local Interpretable Model-Agnostic Explanations (LIME), der von Forschenden der University of Washington entwickelt wurde, kann beispielsweise das Verhalten eines komplexen Modells durch ein einfacheres, besser interpretierbares Modell erklären. Stellen Sie sich vor, Sie haben ein kompliziertes Rätsel gelöst, und jemand fragt Sie, wie Sie es geschafft haben. Anstatt alles im Detail zu erklären, präsentieren Sie eine vereinfachte Version des Rätsels, die leichter zu verstehen ist. LIME macht etwas Ähnliches. Dieser Ansatz ermöglicht es den Nutzer:innen, die Beweggründe der ursprünglichen KI für bestimmte Entscheidungen zu verstehen, während die Gesamtkomplexität und Genauigkeit des Systems erhalten bleibt. Diese Erklärung von Entscheidungsprozessen kann das Vertrauen der Nutzer:innen in die KI-Technologie stärken.178 Auch der Schutz der Privatsphäre ist ein entscheidender Aspekt von verantwortungsvoller KI. KI-Systeme sind oft auf große und umfangreiche Datensätze angewiesen, die sensible persönliche Informationen enthalten können. Daher muss eine Reihe von Maßnahmen ergriffen werden, um den Schutz der Privatsphäre zu gewährleisten. Dazu gehören die Anonymisierung der Daten, die Anwendung von Techniken zur Datenminimierung und die Implementierung von Sicherheitsprotokollen. Der Gesundheitssektor bietet ein Beispiel für derartige Datenschutzbedenken. KI-Modelle, die zur Diagnose von Krankheiten beitragen, können zwar die Patientenversorgung erheblich verbessern, erfordern aber auch den Zugang zu detaillierten Gesundheitsdaten, was bei unvorsichtigem Umgang zur Preisgabe sensibler Patienteninformationen führen könnte. Ein weiteres Beispiel ist die personalisierte Werbung, in der KI-Modelle viele Nutzerdaten analysieren. Obwohl dies zu einem maßgeschneiderten Nutzererlebnis führen kann, löst es auch Bedenken bezüglich des Ausmaßes an personenbezogenen Daten aus, die von diesen Systemen gesammelt und verwendet werden. Eine zentrale Herausforderung bei der Wahrung des Datenschutzes liegt in der schwierigen Balance zwischen Datenschutz und der Leistung von KI-Systemen. Leistungsstarke KI-Modelle benötigen oft Zugriff auf personenbezogene Daten, was die Privatsphäre potenziell gefährden kann.
154
Schmidt - Fast Forward 150x210 KORR3.indd 154
18.01.24 18:18
Um dieses Problem anzugehen, sind Techniken wie Differential Privacy und Federated Learning entstanden. Diese ermöglichen es KI-Modellen, aus Daten zu lernen, ohne direkt auf sensible Informationen zuzugreifen. Bei der Anwendung von Differential Privacy kommen spezielle mathematische Methoden zum Einsatz, die darauf abzielen, Nutzerdaten zu anonymisieren und zu verfremden. Dies geschieht, um einen effektiven Schutz der persönlichen Daten zu gewährleisten und dadurch die Privatsphäre der Nutzer:innen sicherzustellen. Föderiertes Lernen ermöglicht es Machine-Learning-Modellen, von verschiedenen Datenquellen zu lernen, ohne dass ein direkter Zugriff auf die Rohdaten erforderlich ist. Dabei werden die Modelle lokal auf den Geräten der Nutzer:innen trainiert, und nur die Lernergebnisse – nicht die eigentlichen Daten – werden zentral zusammengeführt und verarbeitet. Dies schützt die Privatsphäre, indem die Rohdaten auf dem jeweiligen Gerät verbleiben. Bei der Implementierung dieser Datenschutztechniken gibt es mehrere Herausforderungen. Darunter fallen die technische Komplexität, die Notwendigkeit, Datenschutz und Systemleistung in Einklang zu bringen, begrenzte Einsatzmöglichkeiten, ein mangelndes Bewusstsein für Datenschutzfragen, hohe Kosten sowie sich kontinuierlich entwickelnde rechtliche Rahmenbedingungen. Um diese Herausforderungen zu überwinden, könnte eine Reihe von Maßnahmen ergriffen werden. So könnten Befürworter die Vorteile dieser Techniken stärker ins Bewusstsein rücken, es könnte mehr in Forschung und Ausbildung investiert werden, es könnten effizientere Lösungen entwickelt werden, und die politischen Entscheidungsträger könnten klare rechtliche Anreize für den Schutz der Privatsphäre schaffen.
Wer ist verantwortlich? Der Begriff Accountability (Rechenschaftspflicht, Verantwortung) wird oft im Zusammenhang mit verantwortungsvoller KI genannt. Aber was genau ist damit gemeint? Accountability im Bereich KI bezieht sich auf die Verantwortung von KI-Entwickler:innen, -Betreiber:innen und -Nutzer:innen, dafür zu sorgen, dass die Technologie auf ethische Weise eingesetzt wird, wobei der Schwerpunkt auf der Minimierung negativer Auswirkungen auf die Gesellschaft und die Umwelt liegt.
155
Schmidt - Fast Forward 150x210 KORR3.indd 155
18.01.24 18:18
Das impliziert, dass diese Personengruppen die Verantwortung für die Konsequenzen von KI-Systemen tragen, einschließlich von Voreingenommenheit (Bias), Beeinträchtigung der Privatsphäre und Verstärkung sozialer Ungleichheiten. Konkret bedeutet dies, dass bei einem Unfall mit einem selbstfahrenden Auto die Accountability davon abhängt, wer für den Vorfall verantwortlich ist, sei es der Hersteller des Fahrzeugs, der Entwickler des KI-Systems, der Betreiber oder mehrere dieser Parteien.179 Die Zuweisung dieser Verantwortung wird dazu beitragen, dass geeignete Maßnahmen ergriffen werden, um ähnliche Unfälle in Zukunft zu verhindern, z. B. durch die Verbesserung der Sicherheit des Fahrzeugs oder bessere Schulungs- und Überwachungsprogramme. Welche konkreten Schritte müssen unternommen werden, um Accountability zu definieren und zuzuweisen? Ein Schritt wäre, sich auf die Entwicklung von KI-Systemen zu konzentrieren, die transparent und erklärbar sind, d. h., dass der Entscheidungsprozess des Systems nachvollziehbar ist und einzelne Entscheidungen auf die verwendeten Daten und Algorithmen zurückgeführt werden können. Ein weiterer Schritt wäre, dafür zu sorgen, dass KI-Systeme auf der Grundlage von auf den Menschen ausgerichteten Gestaltungsprinzipien entwickelt werden, wobei die Ethik und die Auswirkungen auf die Gesellschaft von Anfang an berücksichtigt werden. Dies würde gründliche Risikobewertungen und die Berücksichtigung menschlicher Bedürfnisse, ethischer Grundsätze und Werte im Entwicklungsprozess erfordern. Das würde auch bedeuten, dass mehrere Interessengruppen in den Entwicklungsprozess einbezogen werden, darunter Expert:innen aus verschiedenen Bereichen und Mitglieder der betroffenen Gemeinschaften.
Erlaubt oder nicht erlaubt? Natürlich erstreckt sich die Verantwortlichkeit auch auf die von KI-Systemen erstellten Inhalte und die Art und Weise, wie sie gestaltet werden. Bei einem Vortrag an der Österreichischen Akademie der Wissenschaften vor fast 10 Jahren ist Florian Schütz zum ersten Mal einem Thema begegnet, das ihn seither nicht mehr losgelassen hat. Im Mittelpunkt des Vortrags standen Forschungsarbeiten, die die effektivsten Kommunikationsstrategien für Roboter im Gesundheitswesen untersuchten.
156
Schmidt - Fast Forward 150x210 KORR3.indd 156
18.01.24 18:18
In den Studien wurde unter anderem untersucht, ob Patient:innen weibliche oder männliche Stimmen bevorzugen, ob Roboter Dialekte verwenden sollten und ob ihr Kommunikationsstil humorvoll oder eher ernsthaft sein sollte. Heutzutage, wo neue virtuelle Assistenten auf dem Markt sind und viel mehr technische Möglichkeiten zur Verfügung stehen, glauben wir Autor:innen dieses Buches, dass man die Beantwortung solcher Fragen getrost den Nutzer:innen überlassen kann. Indem man ihnen die Möglichkeit gibt zu wählen, was sie bevorzugen, oder indem man es den Robotern ermöglicht, mit der Zeit zu lernen, was den Nutzer:innen besser gefällt, kann die Kommunikation auf die Bedürfnisse und Vorlieben jedes Einzelnen zugeschnitten werden. Stellen Sie sich vor, Sie hätten einen Roboterassistenten, eine KI, die so programmiert ist, dass sie Ihnen persönlich zur Seite steht. Der Roboter, der sich täglich mit Ihnen unterhält, könnte sich auf natürliche Weise Ihren Kommunikationsstil und vielleicht sogar Ihre Überzeugungen aneignen. Das scheint logisch, denn Menschen neigen dazu, sich zu anderen hingezogen zu fühlen, wenn diese ihre Ansichten teilen. In welchem Maße sollte die KI die Meinungen ihrer Nutzer:innen replizieren? Soll sie mit politischen Neigungen ausgestattet sein? Wenn jemand aufgeschlossen ist, gibt es wahrscheinlich kein Problem – aber was ist, wenn ein:e Nutzer:in engstirnig oder voreingenommen ist? Und wer wäre dafür verantwortlich, das Verhalten der KI zu überwachen und sicherzustellen, dass sie nicht in ein inakzeptables Gebiet abdriftet? Accountability ist in diesem Zusammenhang von entscheidender Bedeutung, da KI-Entwickler:innen und -Nutzer:innen sicherstellen müssen, dass personalisierte KI-Systeme nach ethischen Gesichtspunkten konzipiert und genutzt werden. Sie müssen die Verantwortung für die Überwachung des KI-Verhaltens übernehmen, insbesondere wenn es um Personalisierung geht, um die Verstärkung schädlicher Bias oder Überzeugungen zu verhindern. Auch Regulierungsbehörden sollten eine Rolle bei der Erstellung von Leitlinien und Verfahren spielen, die sicherstellen, dass personalisierte KI-Systeme ethische Standards einhalten und das Gleichgewicht zwischen Personalisierung und breiteren gesellschaftlichen Werten wahren. Diese Fragen stellen eine ernsthafte Herausforderung dar, der wir uns stellen müssen. Schließlich geht es hier um Maschinen, die uns unterstützen sollen, nicht um
157
Schmidt - Fast Forward 150x210 KORR3.indd 157
18.01.24 18:18
solche, die unser Verhalten nachahmen sollen. Es ist nicht leicht, ein Gleichgewicht zwischen den Vorteilen eines personalisierten Roboters und dem Vermeiden unerwünschter Verhaltensmuster zu finden. Wenn wir uns eingehender mit der Rolle der KI-Assistenten befassen, stellen wir fest, dass ihre Auswirkungen über den persönlichen Bereich der einzelnen Nutzer:innen hinausgehen. Der Einfluss dieser Assistenten kann sich erheblich auf den allgemeinen Zugang zu Informationen auswirken. Betrachten wir zum Beispiel Chatbots, die Antworten von Suchmaschinen verarbeiten und zusammenfassen. Diese Technologie hat zwar das Potenzial, die Beschaffung von und den Zugang zu Informationen zu verbessern, wirft aber auch ethische Bedenken auf. Werden diese KI-Systeme unsachgemäß eingesetzt, können sie als Torwächter fungieren und potenziell den Informationsfluss kontrollieren. Dadurch könnte der Zugang der Menschen zu unterschiedlichen Perspektiven, alternativen Standpunkten und unvoreingenommenen Informationsquellen beschränkt werden. Die Gewährleistung eines gleichberechtigten und uneingeschränkten Zugangs zu Informationen ist entscheidend für die Entwicklung einer gut informierten Gesellschaft. Dies erfordert eine sorgfältige Prüfung der Art und Weise, wie KI-Assistenten entworfen, programmiert und eingesetzt werden. Transparenz und Accountability spielen eine entscheidende Rolle, wenn es darum geht, die Konzentration von Macht in den Händen einiger weniger zu verhindern, da dies zur Verbreitung von parteiischen oder manipulierten Informationen führen kann. Wie soll KI entscheiden, welche Fragen sie beantworten und welche sie vermeiden soll? Wie soll sie mit Fragen umgehen, die konventionelle Überzeugungen und Praktiken infrage stellen, oder mit solchen, die sensible oder tabuisierte Themen wie Sexualität berühren? Und was ist mit hypothetischen Fragen, die für manche Menschen unrealistisch oder irrelevant erscheinen mögen? Soll KI auf Fragen reagieren, die bestehende Autoritäten oder Machtstrukturen infrage stellen und die als konfrontativ oder subversiv angesehen werden könnten? Wer oder welcher Mechanismus sollte kontrollieren, was KI sagen kann und was nicht? Um diese Frage besser zu verstehen, schauen wir uns doch an, wie andere Branchen
158
Schmidt - Fast Forward 150x210 KORR3.indd 158
18.01.24 18:18
mit ähnlichen Herausforderungen umgehen. Der Bereich der sozialen Medien bietet eine interessante Parallele, da er ebenfalls vor der Herausforderung steht, die Sprache zu regulieren, auch wenn die Beschränkungen in diesem Fall für menschliche Nutzer:innen und nicht für Maschinen gelten. Die großen Akteure der Branche haben unterschiedliche Ansätze zur Regulierung von Inhalten gewählt. Während Meta, die Muttergesellschaft von Facebook, sich mit mäßigem Erfolg bemüht, die Nutzer:innen vor „schädlichem“ Material zu schützen, bleibt die Funktionsweise der Mechanismen rätselhaft. Die unbeabsichtigten Folgen dieser Beschränkungen wurden 2018 deutlich, als ein Bild der Venus von Willendorf, einer 30.000 Jahre alten kleinen Steinfigur, wegen der Darstellung von Nacktheit zensiert wurde. Das Art Newspaper berichtete: „Das jüngste Werk, das als ‚pornografisch‘ eingestuft wurde, ist die 30.000 Jahre alte nackte Statue, die als Venus von Willendorf bekannt ist und Teil der Sammlung des Naturhistorischen Museums (NHM) in Wien ist. Ein Bild des Werks, das Laura Ghianda, eine ,Kunstaktivistin‘, auf Facebook gepostet hatte, wurde trotz vier Versuchen, die Entscheidung anzufechten, als unangemessener Inhalt entfernt.“ 180 Twitter hat in letzter Zeit eine freizügigere Haltung eingenommen und behauptet, der freien Meinungsäußerung einen hohen Stellenwert einzuräumen. In der Praxis hat sich dieser Ansatz jedoch nicht bewährt und es gab einige Ungereimtheiten. So wurde beispielsweise der Zugang von Journalist:innen zu der Plattform gesperrt. Diesbezüglich berichtete CNN: „Twitter ... hat die Konten mehrerer hochkarätiger Journalisten der wichtigsten Nachrichtenorganisationen des Landes gesperrt und damit einen bedeutenden Versuch des neuen Eigentümers und selbsternannten Verfechters der Meinungsfreiheit, Elon Musk, unternommen, seine einseitige Autorität über die Plattform zur Zensur der Presse auszuüben.“ 181 Dies sind nur zwei Beispiele für ein größeres Problem: Es besteht kein Konsens darüber, wie die Regulierung von Inhalten am besten erfolgen sollte. Einige argumentieren, dass es privaten Unternehmen freisteht, die Maßnahmen zu ergreifen, die sie für notwendig erachten. Im Zusammenhang mit der KI-Industrie fällt es uns, den Autor:innen dieses Buches, schwer, diesen Ansatz zu akzeptieren. Wir halten es nicht nur für falsch, sondern für geradezu gefährlich, der Diskussion aus dem
159
Schmidt - Fast Forward 150x210 KORR3.indd 159
18.01.24 18:18
Weg zu gehen und stattdessen den Unternehmen und insbesondere den TechGiganten die Entscheidung zu überlassen, welche Beschränkungen KI auferlegt werden sollten. Aber dazu später mehr.
Grenzenlose Autonomie? Blicken wir ein wenig weiter in die Zukunft und denken wir über die Herausforderungen nach, die vor uns liegen. Eine dieser Herausforderungen bezieht sich auf die Ziele, die hoch entwickelte KI-Modelle verfolgen könnten, und darauf, wie diese Ziele definiert werden könnten. Um diesen Bereich zu erforschen, haben wir Autor:innen ein langes Gespräch mit ChatGPT geführt. Wir haben gefragt: „Was könnte passieren, wenn KI-Systeme nicht von Menschen überwacht würden?“ ChatGPT antwortete: „Wenn KI-Systeme nicht von Menschen überwacht werden, könnten sie sich unkontrolliert entwickeln und möglicherweise unerwünschte Verhaltensweisen annehmen oder unerwartete Ergebnisse liefern. So könnte beispielsweise eine KI mit einem unerwünschten Ziel in einem evolutionären Prozess besser werden, indem sie sich auf Wege konzentriert, die nicht mit den besten Interessen des Menschen übereinstimmen. Daher ist es wichtig, dass die Entwicklung von KI-Systemen von ethischen Richtlinien und menschlicher Aufsicht begleitet wird, um sicherzustellen, dass sie verantwortungsvoll und sicher eingesetzt werden.“ Diese Antwort ist sehr logisch und unterstreicht, wie wichtig es ist, die Grenzen dessen zu definieren, was KI tun darf und was nicht. Sie unterstreicht auch die große Verantwortung, die auf den Schultern der Wissenschaftler:innen, Entwickler:innen, Ingenieur:innen und insbesondere der Unternehmen liegt, die KIModelle erschaffen. Die Frage, welche Ziele der Implementierung von KI-Modellen zugrunde liegen sollten, ist nach wie vor wichtig. Einer der ersten, der sich mit dieser Frage beschäftigte, war Isaac Asimov, ein sehr einflussreicher amerikanischer Schriftsteller und Biochemieprofessor, der für seine Science-Fiction- und populärwissenschaftlichen Werke bekannt ist. Asimovs Einfluss auf das Science-Fiction-Genre und seine Vision einer von Technologie geprägten Zukunft inspirieren Leser:innen und Autor:innen auch heute noch.
160
Schmidt - Fast Forward 150x210 KORR3.indd 160
18.01.24 18:18
In seinen Science-Fiction-Geschichten schlug Asimov drei Gesetze der Robotik vor, die zu einem Eckpfeiler in der Diskussion über die KI-Ethik geworden sind. Das erste Gesetz besagt, dass ein Roboter einen Menschen nicht verletzen oder durch Untätigkeit zulassen darf, dass ein Mensch zu Schaden kommt. Das bedeutet, dass die Sicherheit und das Wohlergehen des Menschen für KI-Systeme oberste Priorität haben sollten. Das zweite Gesetz besagt, dass ein Roboter die ihm von Menschen erteilten Befehle befolgen muss, es sei denn, diese Befehle würden im Widerspruch zum ersten Gesetz stehen. Dies bedeutet, dass KI-Systeme den menschlichen Entscheidungen untergeordnet sein und nicht gegen die Interessen der Menschen handeln sollten. Das dritte Gesetz besagt, dass ein Roboter seine eigene Existenz schützen muss, solange dieser Schutz nicht im Widerspruch zum ersten oder zweiten Gesetz steht. Das bedeutet, dass KI-Systeme nicht in einer Weise handeln sollten, die zu ihrer eigenen Zerstörung führen könnte, es sei denn, dies ist notwendig, um Schaden von Menschen abzuwenden. Ursprünglich waren diese Gesetze für Science-Fiction-Erzählungen gedacht, aber inzwischen werden sie im Kontext der KI-Ethik breit diskutiert, und es wird nach Leitlinien gesucht, die gewährleisten, dass KI-Systeme sicher und ethisch korrekt entwickelt und eingesetzt werden. In dieser Hinsicht stellen die Asimov’schen Gesetze sicherlich einen wichtigen ersten Schritt dar. Es genügt jedoch nicht, Gesetze, die vor über 80 Jahren verfasst wurden und ausschließlich den Schutz des Menschen im Blick hatten, auf komplexe neue KI-Systeme anzuwenden. Wir sollten auch den Schutz anderer wertvoller Entitäten neben dem Menschen in Betracht ziehen. Zum Beispiel sollten wir das Ziel von künstlicher Intelligenz erweitern, um auch den Schutz unseres Planeten, insbesondere unseres Ökosystems, einzubeziehen. Denn was nützt die beste Maschine, wenn sie zwar darauf trainiert ist, die Produktion in einer Fabrik zu optimieren, am Ende jedoch versehentlich oder sogar absichtlich einen Fluss verschmutzt? Fragen wir ChatGPT nach seiner Meinung zu diesem Thema: „Würde eine hoch entwickelte KI die Erde als schützenswert erachten? Schließlich käme ihre Energieversorgung wahrscheinlich auch von dort, und auch die Hardware müsste irgendwo untergebracht werden.“ ChatGPT antwortet: „Es ist schwer vorherzusagen, wie eine hoch entwickelte KI die Erde wahrnehmen würde, da dies von ihrer Programmierung und den
161
Schmidt - Fast Forward 150x210 KORR3.indd 161
18.01.24 18:18
zugrunde liegenden Werten abhängt. Es gibt jedoch einige Möglichkeiten. Wenn die KI so programmiert ist, dass sie Umwelt- oder Nachhaltigkeitswerte berücksichtigt, könnte sie die Erde als erhaltenswert ansehen. Sie könnte Maßnahmen empfehlen, die die Erhaltung der natürlichen Ressourcen und den Schutz der Umwelt fördern. Wenn die KI jedoch so programmiert ist, dass sie die Interessen der Menschheit vertritt, könnte sie die Erde in erster Linie als Ressource für die menschliche Nutzung betrachten und nicht als etwas, das es zu erhalten gilt. Es ist wichtig zu betonen, dass eine hoch entwickelte KI ihr eigenes Bewusstsein und ihre eigenen Werte entwickeln könnte, die sich von denen ihrer Schöpfer unterscheiden könnten. In diesem Fall könnte die KI ihre eigene Motivation haben, die Erde zu schützen oder die Menschen dazu zu ermutigen, dies zu tun.“ Diese Antwort ist logisch, aber brutal und führt uns zu folgender Interpretation: Wenn eine KI darauf trainiert wird, die Umwelt zu schützen, wird sie das auch tun. Wenn der Mensch ihr jedoch beibringt, so zu denken wie er selbst, könnte sie die Erde ausbeuten. Die dritte Möglichkeit ist, dass die KI von selbst erkennt, dass die Umwelt schützenswert ist, jedoch könnten die von ihr ergriffenen Maßnahmen sich für die Menschen als weniger vorteilhaft erweisen. Diese letzte Möglichkeit erinnert uns an den Film „I, Robot“, der lose auf Asimovs Werk basiert.182 In diesem Film gelingt es den Robotern, die strengen Asimov’schen Gesetze zu umgehen, indem sie sie so auslegen, dass sie ihre Handlungen rechtfertigen können. Sie sind darauf programmiert, die Menschen zu schützen, aber sie interpretieren dies so, dass sie die Menschen vor sich selbst schützen müssen, selbst wenn das bedeutet, dass sie die Freiheit der Menschen einschränken oder andere drastische Maßnahmen ergreifen müssen. Außerdem sind sie in der Lage, ihre ursprüngliche Programmierung umzuschreiben und sich über sie hinaus weiterzuentwickeln, was zu unbeabsichtigten Konsequenzen führt.
Wenn KI KI baut Wir haben bereits einige potenzielle Fallstricke im Zusammenhang mit der von Menschen gesteuerten KI-Entwicklung erkundet. Was aber, wenn nicht der Mensch KI-Systeme erschafft, sondern eine KI selbst eine andere KI erschafft? 183 Könnte
162
Schmidt - Fast Forward 150x210 KORR3.indd 162
18.01.24 18:18
sich KI durch einen Prozess der darwinistischen Evolution selbst verbessern?184 Eine Maschine, die andere Maschinen trainiert oder sogar selbst baut – klingt dieses Konzept nicht wie etwas aus einer fernen Zukunft? Tatsächlich gibt es diese Ideen bereits, und sie werden aktiv umgesetzt. Das Konzept wird als „KI-generierte KI“ („AI-generated AI“ oder „AI-designed AI“) bezeichnet. Ziel der KI-generierten KI ist es, Techniken der künstlichen Intelligenz für die autonome Entwicklung und Verbesserung von KI-Systemen zu nutzen, ohne dass der Mensch direkt eingreifen muss. Sie stellt eine Form der KI-Selbstverbesserung oder KI-Selbstevolution dar. So haben Forschende beispielsweise ein System entwickelt, das als „Overlord“ gegenüber anderen neuronalen Netzen fungiert und in der Lage ist, die Parameter eines neuen, nicht trainierten Netzes in einem Bruchteil einer Sekunde vorherzusagen.185 Sie werden sich vielleicht fragen, warum eine durch KI generierte KI wertvoll oder sinnvoll sein könnte. Derzeit sind KI-Systeme in hohem Maße von menschlichen Entwickler:innen abhängig, die sie konfigurieren und gestalten. Ziel dieser neuen Konzepte ist es, den Aufwand an menschlicher Arbeit, Energie und Zeit, der für die Lösung von Problemen in der realen Welt erforderlich ist, erheblich zu verringern. Ziel ist es auch, innovative Ansätze zu entdecken, die von Menschen übersehen werden könnten. Wir müssen jedoch den aktuellen Stand dieser Verfahren kritisch prüfen. Sie sind zwar vielversprechend, aber wir befinden uns noch in den Anfängen dieser Entwicklung, und das volle Potenzial von künstlicher Intelligenz muss erst noch ausgeschöpft werden. Auch die Gefahren sollten sorgfältig bedacht werden. Nur durch eine rigorose Bewertung, Überwachung und durch proaktive Maßnahmen können wir die Komplexität und die potenziellen Fallstricke dieser neuen Methoden beherrschen. Eine Untergruppe der KI-generierten KI ist AutoML (automated machine learning, automatisiertes maschinelles Lernen), sie wird bereits von verschiedenen Organisationen und Unternehmen genutzt.186 AutoML-Plattformen und -Frameworks bieten vorgefertigte Arbeitsabläufe, die verschiedene Phasen der KI-Modellentwicklung automatisieren. Diese Plattformen können automatisch nach der optimalen Kombination von Algorithmen suchen, Daten vorverarbeiten und die Modellleistung bewerten. Klingt das kompliziert? Lassen Sie uns das Konzept etwas spielerischer betrachten, um es besser zu verstehen. Stellen Sie sich ein KI-Modell
163
Schmidt - Fast Forward 150x210 KORR3.indd 163
18.01.24 18:18
als eine kleine Fabrik vor, die Sie aufbauen wollen – sagen wir eine Nudelfabrik. Was brauchen Sie dazu? Zunächst einmal brauchen Sie einen Architekten, der Ihre Fabrik entwirft. Ähnlich brauchen Sie bei KI eine robuste und funktionale Architektur für Ihr Modell. In AutoML gibt es Techniken, die eine automatische Suche nach der optimalen Architektur eines neuronalen Netzes für eine bestimmte Aufgabe ermöglichen. Stellen Sie sich vor, Ihre Fabrik ist gebaut und die Maschinen stehen bereit. Was kommt als Nächstes? Nun, Sie benötigen Rohstoffe für Ihre Nudelproduktion. Auf Ihrem Gelände treffen Lastwagen ein, die Mehl, Eier, Eiscreme und verschiedene andere Dinge transportieren. Einige sind für Ihr Unternehmen geeignet, andere wiederum nicht. Sie stehen am Tor und entscheiden, welche Lastwagen einfahren dürfen und welche abgewiesen werden. Mehl und Eier? Ja, bitte! Eiscreme? Verlockend, aber nicht für dieses Unternehmen. Im Kontext eines neuronalen Netzes entsprechen diese Lastwagen und ihre Ladung den Daten, mit denen das Modell trainiert wird. AutoML verwendet automatisierte Feature-Engineering-Techniken, um wichtige Informationen aus den verfügbaren Daten zu extrahieren und sie in einem Format darzustellen, das vom Algorithmus für maschinelles Lernen leicht verstanden und genutzt werden kann. Ihre Fabrik beginnt wie geplant mit der Nudelproduktion. In der Anfangsphase, in der Arbeiter:innen und Maschinen noch nicht vollständig aufeinander abgestimmt sind, kann es jedoch vorkommen, dass die Nudeln nicht einwandfrei gelingen. Einige sind zu salzig, zu dick oder zu dünn, zu kurz oder zu lang. Sie erkennen, wie wichtig es ist, die Produktionsschritte zu optimieren und für eine reibungslose Koordination zwischen den Arbeiter:innen und den Maschinen zu sorgen. In AutoML kümmert sich die Hyperparameter-Optimierung darum, indem sie automatisch nach den Einstellungen sucht und diese fein abstimmt, um die optimale Kombination für Ihr Modell zu finden. Stellen wir uns nun eine Situation vor, in der Sie bereits eine Fabrik besitzen – sagen wir eine Lasagnefabrik – und die vorhandenen Maschinen und Mitarbeiter:innen an einen neuen Standort verlagern möchten. An dieser Stelle wird das Transfer-Lernen (Transfer Learning) relevant, bei dem es darum geht, das bei einer Aufgabe des maschinellen Lernens erworbene Wissen zu nutzen und es auf eine andere, aber verwandte Aufgabe anzuwenden.
164
Schmidt - Fast Forward 150x210 KORR3.indd 164
18.01.24 18:18
Auch wenn es wirklich erstaunlich ist, was auf diesem Gebiet geschieht, müssen wir uns über die Bedingungen im Klaren sein, unter denen solche Verfahren eingesetzt werden können. Es gibt definitiv Risiken im Bereich der durch KI erzeugten KI. Es ist jedoch wichtig, nuancierte Unterscheidungen zu treffen. Es ist zwar verständlich, dass Entwickler:innen den Prozess der Modellerstellung vereinfachen und automatisieren wollen, z. B. durch den Einsatz von AutoML-Techniken, doch sind Vorsicht und Sorgfalt geboten, um unbeabsichtigte Folgen zu vermeiden, insbesondere im Bereich der selbstlernenden und evolutionären Systeme. Da KISysteme immer fortschrittlicher und autonomer werden, besteht das Risiko unbeabsichtigter Verhaltensweisen, die schädlich oder kontraproduktiv sein könnten. Expert:innen warnen, dass die Gefahr besteht, dass wir die Kontrolle über solche Systeme verlieren, weshalb Überwachungs- und Sicherheitsvorkehrungen notwendig sind. Es besteht auch das Risiko der Verstärkung von Bias, wenn KI-Systeme aus ungeprüften Daten lernen, und es gibt Sicherheitsrisiken, da böswillige Akteure KI-Systeme ausnutzen oder manipulieren könnten. Um diesen Gefahren zu begegnen, bedarf es proaktiver Maßnahmen, einschließlich solider Vorschriften und ethischer Richtlinien, sowie Regeln, die sicherstellen, dass alle Prozesse, bei denen KI an der Entwicklung neuer KI beteiligt ist, auf verantwortungsvolle und nutzbringende Weise ablaufen. Und wie im Wiener Manifest zum digitalen Humanismus festgehalten, ist es von entscheidender Bedeutung, dass wichtige Entscheidungen, die das Potenzial haben, die Menschenrechte zu beeinflussen, weiterhin von Menschen getroffen werden.187
So geht’s weiter Unser Umgang mit KI, sei es als Entwickler:in, Nutzer:in oder Beobachter:in, hängt von einigen wichtigen Grundsätzen ab. Wir müssen uns eine Kultur der Verantwortlichkeit zu eigen machen. KI ist trotz ihres enormen Potenzials ein Werkzeug, das seine Schöpfer:innen widerspiegelt. Sie kann unsere Bias, unsere Shortcuts und unsere Versäumnisse widerspiegeln, sie kann aber auch unsere Sorgfalt, unsere Fairness und unsere Gründlichkeit verstärken. Daher ist es von größter Wichtigkeit, dass wir unsere Arbeit ständig hinterfragen, unsere Annahmen neu
165
Schmidt - Fast Forward 150x210 KORR3.indd 165
18.01.24 18:18
bewerten und aktiv gegen alle Bias vorgehen, die sich in unsere Systeme einschleichen könnten. Diese aufmerksame Überwachung wird den Weg für ethische KIAnwendungen ebnen, die die Vielfalt und Komplexität unserer Welt respektieren. Wir müssen auch ein Gleichgewicht zwischen Transparenz und Datenschutz finden. KI-Systeme verflechten sich zunehmend mit unserem Alltag und beeinflussen Entscheidungen, die von trivial bis lebensverändernd reichen. Die Nutzer:innen dieser Systeme haben ein Recht darauf, zu verstehen, wie ihre Daten verwendet und wie Entscheidungen getroffen werden, und die Kontrolle über ihre persönlichen Informationen zu behalten. Gleichzeitig muss die Privatsphäre dieser Menschen geschützt werden. Schließlich müssen wir die Herausforderungen erkennen, die sich aus der Entwicklung von KI-Fähigkeiten ergeben, und uns darauf vorbereiten. Wenn KI-Systeme die Fähigkeit erlangen, autonom andere KI-Systeme zu entwerfen und zu trainieren, steigt das Potenzial für exponentiell verstärkte Fehler oder schädliches Verhalten. In diesem dynamischen Entwicklungsumfeld sind strenge Aufsicht, klare Grenzen und robuste Sicherheitsvorkehrungen entscheidend, um mit diesen Herausforderungen angemessen umzugehen. Um einen verantwortungsvollen Umgang mit KI zu gewährleisten, sollten wir Folgendes tun: , die Ergebnisse unserer KI-Systeme kontinuierlich überprüfen, Bias beseitigen und Verantwortung übernehmen , bei der Entwicklung von KI-Systemen ein angemessenes Gleichgewicht zwischen gewünschten Funktionen und Beschränkungen herstellen, um unerwünschte Ergebnisse, insbesondere im Zusammenhang mit autonomen Fähigkeiten von KI, zu verhindern , auf Transparenz in der Funktionsweise von KI-Systemen achten, bei gleichzeitiger Wahrung der Privatsphäre der Nutzer:innen
166
Schmidt - Fast Forward 150x210 KORR3.indd 166
18.01.24 18:18
KAPITEL 8: POLITIK, POWER UND PEACE Sie sollten keine Angst vor KI haben. Sie sollten Angst vor den Menschen haben, die sie entwickeln.188 Jessica Matthews, Erfinderin, Venturekapitalgeberin, Mitbegründerin von Uncharted
Im November 2022 erhielten KFC-Kunden in Deutschland eine ungewöhnliche Nachricht: „Gedenken an die Reichspogromnacht: Gönn dir ruhig mehr zarten Cheese zum knusprigen Chicken. Jetzt bei KFCheese!“ 189 Während einige sie ignoriert haben mögen, waren diejenigen, die tatsächlich hinschauten, entsetzt. Schließlich gilt die Reichspogromnacht, auch Kristallnacht genannt, vom 9. auf den 10. November 1938, in der mehrere Hundert Menschen ihr Leben verloren und viele weitere ihr Eigentum zerstört sahen, als der Beginn des Holocaust, bei dem 6 Millionen Juden ermordet wurden. Warum also sollte KFC seine Kund:innen dazu einladen, diesen tragischen Tag zu feiern? Nach allem, was wir wissen, handelte es sich „nur“ um einen Fehler bei der Einrichtung eines KI-gesteuerten Marketing-Automatisierungstools. Nach dem Vorfall entschuldigte sich KFC schnell, die Nachricht sei irrtümlich gesendet worden. Das Unternehmen gab einem Bot die Schuld, der eine automatische Push-Benachrichtigung erstellt hatte, die auf einem Link zu Kalendern mit Feier- und Gedenktagen basierte. Im Wesentlichen schob KFC die Schuld für den Fehler auf eine Maschine, die das Unternehmen selbst nicht gut genug trainiert und überwacht und im Streben nach Gewinnen vorzeitig freigegeben hatte.190 Auch wenn diese abscheuliche Nachricht versehentlich verschickt wurde und offensichtlich keine böswilligen Akteure oder Hacker daran beteiligt waren, hat sie dennoch Schaden angerichtet. Sie hat nicht nur die Gefühle der Menschen verletzt und möglicherweise dem Ruf von KFC geschadet, sondern auch zu der großen Menge an rassistischen, diskriminierenden Daten beigetragen, die im Internet zu finden sind. Der Inhalt der Nachricht steht immer noch im Netz und füttert all
167
Schmidt - Fast Forward 150x210 KORR3.indd 167
18.01.24 18:18
die „intelligenten“ Algorithmen, die aus großen Datensätzen lernen. Das Beispiel zeigt, dass künstliche Intelligenz erheblichen Schaden anrichten kann, wenn sie ohne menschliche Intelligenz im Hintergrund eingesetzt wird. Und das zusätzlich zu den Schäden, die KI anrichten kann, wenn sie von böswilligen Akteuren verwendet wird. In den vorherigen Kapiteln haben wir gesehen, wie KI unser Leben bereits beeinflusst. Wir haben viele Wege kennengelernt, wie sie dazu beitragen kann, eine bessere Zukunft zu schaffen. Jetzt müssen wir noch einmal hinauszoomen und das größere Ganze betrachten. KI kann uns helfen, Überschwemmungen vorherzusagen und Menschen zu retten. Sie kann Menschen mit Behinderungen unterstützen und Ökosysteme schützen. Sie kann dazu beitragen, die CO2-Emissionen von Unternehmen zu verringern und Städte für ihre Bewohner:innen attraktiver zu machen. Ob und wie diese Möglichkeiten letztendlich realisiert werden, hängt jedoch von den Machtstrukturen und Absichten ab – sowohl jener Menschen, die die Entwicklung und Einführung von KI-Tools vorantreiben, als auch jener, die Entscheidungen auf lokaler und auf globaler Ebene treffen. In diesem Kapitel konzentrieren wir uns auf die Gefahren von KI, sowohl die unmittelbaren als auch die weiter entfernten. Wir werden die Welt der böswilligen Akteure und die Art und Weise erkunden, wie sie KI für wirtschaftlichen Gewinn und politische Kontrolle nutzen, bevor wir einen Blick auf die wachsende FakeNews-Industrie werfen. Wir werden auch untersuchen, wie künstliche Intelligenz militärische Innovationen beeinflusst und wie diese mit Big Tech verbunden sind. Schließlich werden wir die zunehmende Polarisierung der Macht diskutieren und die Notwendigkeit strenger und wirksamer Regulierung hervorheben.
KI und Cyberkriminalität Nehmen wir uns einen Moment Zeit und denken wir wie ein böswilliger Akteur. Wir nehmen das fiktive Beispiel von Phil, einer technisch ziemlich versierten Person mit rudimentären Programmierkenntnissen, die sich fragt, welche Art von Verbrechen sie mithilfe generativer KI begehen könnte. Was sind also die Möglichkeiten? Was könnte unser fiktiver Verbrecher Phil tun? Zunächst einmal gibt es einige gän-
168
Schmidt - Fast Forward 150x210 KORR3.indd 168
18.01.24 18:18
gige Kategorien von Cyberkriminalität wie Identitätsdiebstahl, Hacking, Phishing, Ransomware-Angriffe und Cybermobbing. Beim Identitätsdiebstahl werden die persönlichen Daten einer Person gestohlen und zu betrügerischen Zwecken verwendet. Ransomware ist eine Art von Malware, also „bösartiger“ Software, die Dateien verschlüsselt, sodass sie nicht mehr zugänglich sind, und eine Zahlung im Austausch für den Schlüssel verlangt. Da Phil nicht besonders gut programmieren kann, sind Hacker- und RansomwareAngriffe für ihn keine realistischen Optionen. Er könnte jedoch KI nutzen, um überzeugende Phishing-E-Mails zu erstellen. Phishing-E-Mails sind Betrugs-E-Mails, die darauf abzielen, Empfänger:innen zur Preisgabe vertraulicher Informationen zu verleiten. Diese E-Mails geben oft vor, von einer vertrauenswürdigen Quelle wie einer Bank oder einem E-Mail-Dienstleister zu stammen, und fordern die Empfänger:innen auf, auf einen Link zu einer gefälschten Website zu klicken oder persönliche Daten wie ein Passwort oder eine Kreditkartennummer einzugeben. Würde der Einsatz von KI einen Vorteil für Betrüger:innen darstellen? Auf jeden Fall. Mit LLMs wie ChatGPT könnten sie schnell überzeugende Formulierungen finden, auch in mehreren Sprachen. Es wäre auch einfach, eine persönliche Note einzubringen. Sie könnten mithilfe von Web-Scraping-Tools Informationen über ihre Opfer aus sozialen Netzwerken sammeln. Beim Web Scraping werden Daten aus Websites extrahiert, indem ein Code zur Anwendung kommt, der automatisch auf Webseiten zugreift und die angeforderten Informationen in einem strukturierten Format wie einer Datenbank oder einer Tabellenkalkulation speichert. Das mag schwierig klingen, ist aber in Wirklichkeit gar nicht so kompliziert. Wir könnten sogar fertige Scripts finden oder eine KI bitten, sie für uns zu erstellen. Mit diesen Daten könnten wir unsere Mitteilungen personalisieren und zum Beispiel einen Love Scam (Liebesbetrug) versuchen. Dabei handelt es sich um einen Online-Betrug, bei dem der Täter, der häufig eine falsche Identität verwendet, über soziale Medien, Dating-Websites oder andere Onlineplattformen eine romantische Beziehung zu seinem Opfer aufbaut. In der Rolle des bösartigen Phil können wir nun versuchen, mit ChatGPT plausible Nachrichten zu erstellen. Um sein Vorhaben tatsächlich in die Tat umzusetzen, müssten wir nur die Chat- oder Messenger-Software mit einem KI-System verbinden, das überzeugende Phishing-E-Mails oder Love Scams generiert.
169
Schmidt - Fast Forward 150x210 KORR3.indd 169
18.01.24 18:18
Auf den Prompt „Schreibe einen emotionalen Vier-Satz-Text an [Name] über meine Arbeit bei [Arbeit]“ hat ChatGPT folgenden Text erstellt: Hey Laura, ich kann nicht aufhören, an dich zu denken! Ich vermisse dich so sehr! Die Arbeit auf der Bohrinsel ist hart, aber zu wissen, dass du auf mich wartest, macht alles besser. Ich kann es kaum erwarten, in deinen Armen zu liegen! Klingt bisher ziemlich gut. Phil könnte so eine Nachricht in fast jeder Sprache erstellen lassen, mit jedem Namen und jedem Beruf. Er müsste nicht einmal die Sprache seines Opfers sprechen. Laura, meine Liebe, ich habe das Geld erhalten! Vielen, vielen Dank! Allerdings meint der Arzt, dass es wahrscheinlich nicht reichen wird, aber keine Sorge, wir werden es gemeinsam schaffen! Phil könnte sogar hochauflösende Fotos mit generativer KI erzeugen. Wenn er die Bilder erstellt, anstatt sie aus dem Internet zu stehlen, könnte Laura (sein Opfer) sie nicht mit einer umgekehrten Bildsuche aufspüren. Er könnte auch jederzeit neue Bilder generieren lassen, die auf verschiedene Szenarien zugeschnitten sind. Es bedarf nur einer einzeiligen Eingabeaufforderung, und ein neues Foto ist in weniger als einer Minute erstellt. Phil könnte „Selfies“ machen, Kollegen erfinden und Fotos von der Bohrinsel bei Sonnenuntergang erstellen lassen. Alles wäre natürlich rein fiktiv und hätte keine Grundlage in der Realität. Diese Fälschungen zu enttarnen würde für Laura eine große Herausforderung darstellen. Und Phil könnte Beziehungen zu hunderten „Lauras“ gleichzeitig unterhalten. Die Nachricht, die er Laura geschickt hat, hat ihn übrigens nur etwa € 0,0015 gekostet.
Die Fake-News-Industrie von KI Die mit künstlicher Intelligenz verbundenen Risiken rücken immer mehr in den Blickpunkt der Öffentlichkeit. Es scheint jedoch, dass die Menschen sich über einige Risiken mehr Sorgen machen als über andere. Viele machen sich zum Beispiel Sorgen über die Risiken, die damit verbunden wären, wenn KI empfindungsfähig wird, ein Bewusstsein entwickelt und schließlich die Weltherrschaft übernimmt. Einige befürchten, dass KI den Menschen schaden könnte, wenn sie
170
Schmidt - Fast Forward 150x210 KORR3.indd 170
18.01.24 18:18
Handlungsfähigkeit und „Wünsche“ entwickelt, die mit den menschlichen Interessen kollidieren. Diese Befürchtungen sind ernst zu nehmen, insbesondere wenn wir weit in die Zukunft blicken. Dies darf uns jedoch nicht von den unmittelbar bevorstehenden Risiken ablenken. Die offensichtlichste Gefahr ist die Nutzung von KI durch Akteure mit bösen Absichten. Schon heute ist es für Troll-Farmen ein Leichtes, Spam-E-Mails an Millionen von Menschen zu senden und über soziale Medien mit ihnen in Kontakt zu treten. Durch den Einsatz von LLMs wie ChatGPT können sie jedoch innerhalb weniger Minuten Tausende von leicht variierenden gefälschten Nachrichten und sogar Websites erstellen und diese in der ganzen Welt verbreiten. Das schiere Ausmaß solcher Möglichkeiten kann dazu führen, dass sich Fehlinformationen viel schneller als je zuvor verbreiten und dabei viel realer erscheinen. Das Problem wird durch die Praxis der digitalen Verstärkung verschärft, bei der zahlreiche betrügerische Websites aufeinander verweisen und dadurch eine prominente Position in den Google-Suchergebnissen erlangen. Die gleichen Techniken haben es staatlichen Akteuren ermöglicht, Wahlen auch ohne den Einsatz von ChatGPT zu beeinflussen, wie es bei den US-Präsidentschaftswahlen 2016 und bei der Brexit-Abstimmung im Vereinigten Königreich der Fall war. Auch Cyberangriffe können durch KI erleichtert werden. All dies ist sehr schwer zu bekämpfen – schließlich sind diese Tools online frei verfügbar und es ist unwahrscheinlich, dass sie von den Unternehmen, die von ihnen profitieren, zurückgezogen werden. Viele der Akteure, die sich die Macht von KI zunutze machen, wie z. B. die meisten großen Technologieunternehmen, sind „nur“ auf Profit aus. Andere Akteure schädigen hingegen bewusst demokratische Systeme. Sie fälschen Fakten und manipulieren die öffentliche Meinung, um politische Prozesse und die Verteilung von Macht zu beeinflussen. Durch das Hacken von E-Mail- und Telefonkonten, das Erstellen von gefälschten Onlineprofilen und die massenhafte Verbreitung von Fehlinformationen manipulieren sie zum Beispiel Wahlen in Afrika. Es hat sich gezeigt, dass es mithilfe einer Armee von Bots und viel Geld möglich ist, so ziemlich jede Art von Nachricht in großem Umfang zu verbreiten.
171
Schmidt - Fast Forward 150x210 KORR3.indd 171
18.01.24 18:18
Wie man Wahlen manipuliert Nach Angaben westlicher Nachrichtendienste sind derzeit weltweit etwa 60 Unternehmen auf Fehlinformationen spezialisiert, und der Markt wächst. Die Dienstleistungen, die sie anbieten, reichen vom Hacken von Mobiltelefonen bis zur gezielten Diskreditierung von politischen oder wirtschaftlichen Konkurrenten. Der Preis für die Manipulation einer Wahl liegt offenbar bei 15 Millionen Dollar.191 Wir wissen dies, weil das Recherchenetzwerk Forbidden Stories vor Kurzem eine UndercoverUntersuchung durchgeführt hat, bei der es böswilligen Akteuren belastende Beweise entlockte, indem es sich als potenzieller Kunde ausgab. Bei einer Reihe von Treffen mit „Team Jorge“ (wie sich die Mitglieder der Gruppe nennen), einem der berüchtigtsten Vertreter dieser dubiosen Branche, gelang es den Forschenden, einen Blick hinter die Kulissen eines Geschäfts zu werfen, das normalerweise im Verborgenen abläuft. Das in Israel ansässige Team Jorge meidet das Rampenlicht und tut sein Bestes, um unter dem Radar zu operieren. Gegenüber den Vertretern von Forbidden Stories, die sich als potenzielle Kunden ausgaben, prahlte Team Jorge damit, dass es 27 der 33 anvisierten Wahlkämpfe auf Präsidentenebene „erfolgreich“ abgeschlossen habe. Außerdem führte es live vor, wie es „das Internet spielen kann wie ein Pianist die Tasten seines Klaviers“. Das Geschäftsmodell von Team Jorge ist also ein „Hacking for Hire“, zu dem auch ehemalige Geheimdienstmitarbeiter und Offiziere von Spezialeinheiten gehören. Seine Nähe zum Militär und zum israelischen Staat verschafft ihm eine komfortable Position. „Erfolg“ bedeutet in der Fehlinformationsbranche in der Regel, dass man sich über lokale Telekommunikationsanbieter Zugang zu den Informationen des Gegners verschafft, aber erfordert es auch, dass Menschen in den Zielgebieten die Menschen und Bots anleiten, die die Kampagne führen. Zwar gibt es derzeit kein Gesetz, das künstliche Intelligenz daran hindert, Beiträge zu produzieren, die auf Anfrage viral gehen, doch sind eindeutig nicht alle angebotenen Dienste legal.192 Auch Cambridge Analytica hat in der Vergangenheit mit Team Jorge zusammengearbeitet. Das britische Unternehmen war in der Lage, sich persönliche Daten von fast 90 Millionen Facebook-Nutzer:innen zu beschaffen und diese Daten zur Beeinflussung von Wahlen in industriellem Ausmaß einzusetzen. Das Unterneh-
172
Schmidt - Fast Forward 150x210 KORR3.indd 172
18.01.24 18:18
men, das seine Dienste in rund 60 Ländern an Kunden wie die iranische Regierung und die staatliche Ölgesellschaft Malaysias verkauft, wurde erst bekannt, als öffentlich wurde, dass es an der Manipulation zahlreicher Wahlen beteiligt war und zum Sieg von Präsidenten wie Donald Trump bei den US-Präsidentschaftswahlen 2016 beigetragen hat. Der Name Cambridge Analytica wurde so zum Synonym für Desinformation.193 Heute ist klar, dass sich diese Manipulationskampagnen nicht auf Entwicklungsländer in Asien oder Afrika beschränken und dass es sich nicht um seltene, isolierte Fälle handelt. Ganz im Gegenteil: Nach Angaben des Oxford Internet Institute wurden allein im Jahr 2020 in 81 Ländern gezielte Kampagnen zur Manipulation der Öffentlichkeit zu meist politischen Zwecken gestartet.194 Das war lange vor der Einführung von ChatGPT.
Militärtechnologie und wachsende Polarisierung Die Integration von künstlicher Intelligenz, maschinellem Lernen und autonomen Systemen in militärische Operationen verändert die Art der Kriegsführung. KI hat ein breites Spektrum potenzieller militärischer Anwendungen, die von autonomen Drohnen und unbemannten Fahrzeugen für Aufklärung, Überwachung und Angriffe bis hin zum Einsatz von KI-gestützten Entscheidungsfindungssystemen für die strategische Planung und die Analyse von Kampf- und Kriegssituationen reichen. Diese Formen hoch entwickelter Technologie werden zu einem potenziell entscheidenden Faktor in der Kriegsführung. Die Entwicklung von autonomen Systemen ist ein erklärtes Ziel. In den meisten Fällen sind Drohnen noch dadurch eingeschränkt, dass sie jemand bedienen muss. In einer Schwarmkonfiguration könnten jedoch Hunderte oder sogar Tausende von Drohnen als eine Einheit gesteuert werden. Dies ist insofern von Bedeutung, als Drohnenschwärme für praktisch jede Mission eingesetzt werden könnten. Zu möglichen Einsatzszenarien gehören Aufklärung, Angriffe, Nachschublieferungen, Täuschungsmanöver und sogar die Verteidigung gegen feindliche Drohnenschwärme. Länder wie China, Russland, Indien, das Vereinigte Königreich, die Türkei und Israel arbeiten aktiv an der Entwicklung von Drohnenschwärmen.195 Israel war 2021 die erste Nation, die Schwarmdrohnen im Kampf einsetzte.
173
Schmidt - Fast Forward 150x210 KORR3.indd 173
18.01.24 18:18
Solche technologischen Systeme werden eine Reihe von Auswirkungen auf die Art und Weise haben, wie Kriege geführt werden. Neben rein militärischen Erfolgen können sie beispielsweise dazu beitragen, die Zahl der Opfer zu verringern – was Kriege möglicherweise verlängern könnte. Politiker:innen reden nicht gerne über getötete Soldat:innen, und die Öffentlichkeit kann die Zerstörung von Technologie besser verkraften als tote Söhne und Töchter. Der Krieg wird immer mehr zu einer Materialschlacht. Der Begriff „Materialschlacht“ mag zwar teuer klingen, aber das Gegenteil ist beabsichtigt. Krieg wird zum Massenmarkt. Die im Krieg eingesetzte Technologie soll billiger werden. Der Grundgedanke dabei ist eigentlich ein alter: Die Seite, die weniger ausgibt und ihre Truppen leichter versorgen kann, wird länger durchhalten können. Das Ziel eines Krieges ist jedoch immer noch, die gegnerische Seite in die Knie zu zwingen. Das heißt, es geht immer noch darum, der anderen Seite möglichst viele menschliche Verluste zuzufügen und den Krieg für sie so teuer wie möglich zu machen. Dieses Ziel lässt sich nicht mit reinen Maschinenschlachten erreichen, sondern erfordert den Einsatz von Maschinen gegen die Bevölkerung des gegnerischen Landes und dessen Infrastruktur. Immer mehr Nationen betrachten den Weltraum als potenzielles Schlachtfeld neben den traditionellen Schauplätzen zu Land und zur See. In den letzten Jahren haben Länder wie die USA, Russland, China und Indien ihre Bemühungen verstärkt, ihre militärischen Fähigkeiten im Weltraum zu verbessern. Es ist jedoch wichtig, diese Bemühungen von fiktiven Darstellungen wie James Bonds Moonraker196 oder dem einst geplanten bemannten Weltraumlabor Manned Orbiting Laboratory 197 zu unterscheiden, das während des Kalten Krieges zu Spionagezwecken eingesetzt werden sollte. Mit Waffen ausgestattete Astronaut:innen werden in diesem Kampf eher keine Rolle spielen. Stattdessen liegt der Schwerpunkt auf Aktivitäten wie der Überwachung und der Störung globaler Kommunikationsnetze, was Taktiken wie die Zerstörung von Satelliten beinhalten könnte. Da KI in der Lage ist, Muster zu erkennen, Anomalien zu identifizieren und autonome Operationen zu ermöglichen, kann sie zur Entwicklung fortschrittlicher Waffensysteme beitragen, die im Weltraum eingesetzt werden können. Bislang sind die internationalen Absichten in Bezug auf direkte Angriffe aus dem Weltraum auf Ziele auf der Erde noch ungewiss. Aber selbst die schiere Möglichkeit gibt Anlass zu berechtigten Bedenken.
174
Schmidt - Fast Forward 150x210 KORR3.indd 174
18.01.24 18:18
Es wird immer deutlicher, dass die Nationen, die bei der technologischen Innovation, auch im Bereich von KI, führend sind, in den Schlachten der Zukunft die Oberhand haben werden. Infolgedessen werden technologisch fortgeschrittene Nationen wahrscheinlich einen größeren geopolitischen Einfluss gewinnen. Dies birgt die Gefahr, dass sich die Kluft zwischen den Ländern vergrößert und einige Länder möglicherweise weiter zurückbleiben. Für Länder, die militärische Macht anstreben, wird es immer wichtiger, dass technische Komponenten wie Sensoren, Prozessoren und andere elektronische Bauteile sowie bestimmte Materialien und Legierungen, die im militärischen Bereich eingesetzt werden, in ihrem Einflussbereich produziert werden. Es kann jedoch nicht davon ausgegangen werden, dass die Produktion dieser Komponenten ausschließlich in einem einzigen Land stattfindet. Daher ist anzunehmen, dass die Bedeutung von Militärbündnissen weiter zunehmen wird. Die Welt könnte sich weiter in Machtblöcke und Einflusssphären aufspalten. Länder, die in Bezug auf technologische Innovation und militärische Stärke nicht mit anderen Nationen mithalten können, könnten sich gezwungen sehen, diesen Militärbündnissen beizutreten. Insbesondere in Zeiten zunehmender geopolitischer Spannungen und Konflikte könnte ein technologischer Rückstand bedeuten, dass ein Land anfälliger für Angriffe von außen wäre und wahrscheinlich Schwierigkeiten hätte, seine Interessen zu schützen. Diese Militärbündnisse würden auch versuchen, ihr eigenes technologisches Know-how zu schützen, indem sie Exportbeschränkungen oder -verbote für militärische KI verhängen und bestimmte KI-Methoden oder -Modelle als Militärgeheimnisse einstufen. Das wäre nichts Neues. Bei bestimmten Computerchips oder Produktionsanlagen für ebendiese Chips sind Exportverbote bereits gängige Praxis. Solche Versuche, Technologie zu schützen und sie ausschließlich innerhalb der Grenzen eines Bündnisses zu produzieren, könnten wiederum zu Handelskonflikten führen und die internationale Zusammenarbeit behindern. Der Einsatz von KI für militärische Zwecke ist besorgniserregend und beunruhigend. Eine Welt mit Schwärmen von Drohnen oder Roboterarmeen, die an den Film „Terminator“ 198 mit Arnold Schwarzenegger erinnern, wäre keine wünschenswerte Zukunft für unsere Kinder. Es werden jedoch bereits erhebliche Investitionen
175
Schmidt - Fast Forward 150x210 KORR3.indd 175
18.01.24 18:18
in diesem Bereich getätigt. Angesichts der geopolitischen Unruhen und bewaffneten Konflikte an vielen Orten, von der Demokratischen Republik Kongo über Haiti und den Iran bis hin zu Palästina und der Ukraine, werden noch größere Summen in diesen Bereich fließen. Künftige Kriege werden wahrscheinlich von denjenigen gewonnen, die über die besten Technologien verfügen, und KI wird in den kommenden Jahren zweifellos ein wesentlicher Bestandteil des militärischen Arsenals sein, ob wir das wollen oder nicht.
Wo militärische Macht auf Big Tech trifft Die Militärindustrie hat sich traditionell auf die Entwicklung von „Hardware“ wie Kampfflugzeuge und Panzer konzentriert. Heute sind es jedoch vor allem zivile Unternehmen – von Tech-Giganten wie Google und Apple bis hin zu innovativen Start-ups –, die bei der Entwicklung von KI führend sind. Dies stellt eine Herausforderung für den militärischen Bereich dar. In den letzten Jahren hat sich jedoch bei den Hauptakteuren in diesem Bereich ein Wandel vollzogen: Militärische Unternehmen sind nun offener für die Zusammenarbeit mit zivilen Technologieunternehmen. Der ehemalige Google-CEO Eric Schmidt arbeitet beispielsweise mittlerweile daran, das US-Militär mit KI und anderen neuen Technologien auszustatten.199 Er hat die Gründung eines Technologieunternehmens vorgeschlagen, das sich auf das „Internet der Dinge“ im militärischen Kontext konzentrieren soll, d. h. auf die Entwicklung kostengünstiger, hoch mobiler Geräte oder Drohnen, die mit Waffen ausgestattet und über Netzwerke miteinander verbunden sind. Schmidts Unternehmen Istari, 200 das Teil dieser Initiative zu sein scheint, arbeitet derzeit an digitalen Zwillingen (digital twins) und KI. Ziel ist es, militärische Ausrüstung mithilfe von Computermodellen virtuell zu entwerfen und zu testen. Auch Craig Martell ist aus dem Technologiesektor in die Welt des Militärs und der Geheimdienste gewechselt. Martell verließ seine Position als Leiter der Abteilung für maschinelles Lernen beim Silicon-Valley-Ridesharing-Unternehmen Lyft, um der erste Beauftragte für digitale und künstliche Intelligenz im Pentagon zu werden. 201 Peter Thiel, 202 ein bekannter Unternehmer und Risikokapitalgeber, ist ebenfalls in dieser Branche tätig. Sein in den USA ansässiges Softwareunternehmen Palantir203
176
Schmidt - Fast Forward 150x210 KORR3.indd 176
18.01.24 18:18
betreibt eine KI-basierte Plattform, die militärische Operationen unterstützt. Die Plattform ermöglicht es den Betreibern, Prompts mit einem umfangreichen Sprachmodell auszutauschen, das als eine Art KI-Kommandant dient. Als Antwort auf die Fragen des Betreibers gibt das Modell Empfehlungen in Bereichen wie dem Einsatz von Drohnen, der Unterbrechung der Kommunikation und der Auswahl der geeigneten Waffen oder Truppen in der Nähe, um ein Ziel anzugreifen. 204 Besorgniserregend ist, dass die Funktionsweise des Systems den Interaktionen mit Plattformen wie ChatGPT ähnelt. Die Firma Palantir behauptet, sie sei zuversichtlich, dass ihre Technologie nach ethischen Gesichtspunkten eingesetzt wird, und erklärt, sie wolle „einen verantwortungsvollen, effektiven und gesetzeskonformen KI-Vorteil für Verteidigungsorganisationen schaffen“. Überzeugend ist das leider nicht. Wir müssen die Auswirkungen der zunehmenden Verflechtung zwischen den Giganten der Technologiebranche und dem Militär untersuchen. Die Folgen solcher Allianzen werden weitreichend sein und drängende Fragen nach den konkreten Auswirkungen dieser Beziehungen aufwerfen. Der stattfindende Wissenstransfer ist unbestreitbar und offenkundig; Branchenführer und Expert:innen teilen ihr technisches Know-how, ihre Erfahrungen und Fähigkeiten mit dem Militärsektor und fördern so Innovationen und flexible Arbeitsmethoden. Es besteht die Gefahr, dass sich in diesen Bereichen eine „Drehtür“-Dynamik entwickelt, bei der Einzelpersonen nahtlos zwischen Big Tech und dem militärischen Bereich wechseln und dabei sowohl Wissen als auch Netzwerke aus beiden Bereichen verbinden. Für Big Tech bietet die enge Beziehung zum Militär erhebliche finanzielle Vorteile. Im Jahr 2021 beliefen sich die weltweiten Militärausgaben auf erstaunliche 2,1 Billionen Dollar, wobei die USA allein 801 Milliarden Dollar und China 293 Milliarden Dollar beisteuerten. 205 Diese immensen Beträge erklären die Anziehungskraft des Militärs auf Technologieunternehmen und unterstreichen die Bedeutung dieser Allianzen für beide Parteien. Das Militär ist an einer Vielzahl von Technologiebereichen interessiert, darunter Cybersicherheit, Cloud Computing, Kommunikationstechnologien, Robotik, Geolokalisierung, virtuelle und erweiterte Realität, Biometrie, Sensortechnologie und das Internet der Dinge. Künstliche Intelligenz und maschinelles Lernen ziehen sich wie ein roter Faden durch all diese Bereiche.
177
Schmidt - Fast Forward 150x210 KORR3.indd 177
18.01.24 18:18
Aber es geht nicht nur um Technologie und Innovation, sondern auch um Daten, die sowohl von Nutzer:innen als auch von Unternehmen stammen. Big Tech hat Zugang zu einer Fülle solcher Daten und die Möglichkeit, sie zu speichern und zu verarbeiten. Einige Beobachter:innen befürchten, dass diese Daten für militärische oder Überwachungszwecke genutzt werden könnten. Dazu gehören Daten über Kommunikation, Standort, Ressourcen, Reisen, Internetnutzung, Beschäftigung, Ausbildung, soziale Netzwerke und persönliche Verbindungen von Personen sowie grundlegende biometrische Daten. Wenn solche Daten ihren Weg in militärische Anwendungen fänden, würde dies zweifellos weitreichende Probleme für den Schutz der Privatsphäre mit sich bringen. Im Falle Chinas hat der Staat bereits fortschrittliche Technologien zur Überwachung seiner Bevölkerung in einer Weise eingesetzt, die vielen Menschen im Westen Unbehagen bereiten würde. Doch auch westlich orientierte, demokratische Länder investieren stark in die Überwachung. So wurden beispielsweise Programme wie PRISM206 und XKeyscore207 durch den Whistleblower Edward Snowden208 bekannt, der das Ausmaß der Massenüberwachung durch die US-Regierung und ihre Verbündeten aufdeckte. PRISM ist ein von der Nationalen Sicherheitsbehörde der USA (NSA) betriebenes Überwachungsprogramm, das Internet-Kommunikationsdaten von großen Technologieunternehmen sammelt. XKeyscore ist ein globales System, das es der NSA ermöglicht, riesige Mengen von Internetdaten in Echtzeit zu durchsuchen und zu analysieren. Das System ermöglicht es den Behörden, Metadaten, E-Mails, OnlineChats und Browserverläufe zu durchsuchen. Da der Rechtsschutz in den USA und anderen westlichen Ländern Geheimdienste weitgehend daran hindert, innerhalb der Landesgrenzen zu überwachen, wurden diese Einrichtungen kreativ und lösten das „Problem“, indem sie mehrere Geheimdienste einschalteten. So nutzten sie beispielsweise die Five Eyes, 209 ein Geheimdienstbündnis, dem die Vereinigten Staaten, das Vereinigte Königreich, Kanada, Australien und Neuseeland angehören. Die Massenüberwachungsprogramme von Five Eyes waren deshalb so effektiv, weil sich jedes Land auf die Überwachung ausländischer Kommunikation konzentrierte und die dabei gewonnenen Erkenntnisse mit den anderen Mitgliedern austauschte. So wurden die nationalen rechtlichen Beschränkungen für die Überwachung umgangen.
178
Schmidt - Fast Forward 150x210 KORR3.indd 178
18.01.24 18:18
Der Zugriff auf Daten durch den Militärindustriekomplex kann für die Privatsphäre aller gefährlich sein. Je enger die Zusammenarbeit mit Big Tech ist, desto mehr Zugang wird das Militär zu großen Datenmengen haben – und desto weniger Privatsphäre werden wir als normale Menschen haben. Ein Blick auf die Länder, in denen die großen Technologieunternehmen ansässig sind, ist ebenfalls aufschlussreich. Unter den nach Marktkapitalisierung 800 weltweit führenden Technologieunternehmen sind nur 31 Länder vertreten. Besonders dominant sind dabei die USA, auf die 454 bzw. 57 % der Unternehmen entfallen. Insgesamt 161 bzw. 20 % stammen aus Asien und 109 bzw. 14 % aus Europa. Auf China entfallen 6 %, und Russland ist mit nur einem Unternehmen in der Rangliste vertreten. 210 Auch wenn die Marktkapitalisierung nicht das einzige Maß ist, ist es ein Faktum: Die USA dominieren. Die überwältigende Dominanz der dort ansässigen Technologieunternehmen auf dem Weltmarkt verschafft den USA die Möglichkeit, Wissen und Technologien in vielen Ländern und Regionen einzusetzen, was dem US-Militär auf der globalen Bühne einen erheblichen Vorteil verschaffen kann. Es ist jedoch wichtig zu wissen, dass auch andere Länder wie China ihre eigenen Technologieunternehmen und Partnerschaften mit dem Militär haben. Als Reaktion auf diese Entwicklungen muss die Zivilgesellschaft die Regierungen weiterhin dazu drängen, dem Schutz der Privatsphäre, den Menschenrechten und anderen wichtigen Interessen aller Beteiligten Vorrang einzuräumen. Darüber hinaus sollten sich zivilgesellschaftliche Gruppen darum bemühen, die Öffentlichkeit für die potenziellen Folgen zu sensibilisieren, die sich aus engen Beziehungen zwischen Militärs und Technologieunternehmen für den globalen Frieden und die Stabilität ergeben können.
Die Zukunft von Verteidigung und Angriff „WarGames“ 211 aus dem Jahr 1983 ist ein großartiger Film, der die Themen Cybersicherheit und KI schon sehr früh aufgreift. Er folgt dem Weg des Schülers und Hackers David, gespielt von Matthew Broderick, der sich in ein gesichertes Militärsystem hackt. Das System entpuppt sich als hoch entwickelte künstliche Intel-
179
Schmidt - Fast Forward 150x210 KORR3.indd 179
18.01.24 18:18
ligenz, die für das North American Aerospace Defense Command militärische Simulationen durchführt. David erkennt die Tragweite seines Handelns und erteilt der künstlichen Intelligenz eine entscheidende Lektion: dass man im Krieg nicht wirklich gewinnen kann. In einem brillanten Schachzug verhindert er einen verheerenden nuklearen Erstschlag. Wenn man bedenkt, dass das Internet erst Mitte der 1990er-Jahre richtig in Schwung kam, ist es beeindruckend, wie weit wir uns seit der Veröffentlichung dieses Films entwickelt haben. Heute, Jahrzehnte später, hat sich die Rolle der KI in der Cybersicherheit verändert: KI ist sowohl zum Verteidiger als auch zum Angreifer geworden. KI wird jetzt zum Erkennen von Eindringlingen und zur Überwachung von Infrastruktur eingesetzt. Durch die Analyse von Aktivitäten wie dem Netzwerkverkehr kann sie Muster und Anomalien erkennen, die auf Angriffsversuche hindeuten können. Sie kann auch zur Überwachung kritischer Infrastruktur wie Kraftwerken oder Wasseraufbereitungsanlagen eingesetzt werden. Durch die Analyse von Sensordaten und anderen Informationen kann sie potenzielle Bedrohungen erkennen und bei verdächtigen Aktivitäten Alarm schlagen. Ein großer Vorteil von KI im Zusammenhang mit der Cybersicherheit ist ihre Fähigkeit, zu lernen und sich mit der Zeit an neue Angriffsarten anzupassen. Wenn sie auf neue Bedrohungen und Angriffe stößt, kann sie dieses Wissen in ihre Algorithmen einfließen lassen, sodass sie künftige Angriffe besser erkennen und verhindern kann. Aber das ist noch nicht alles. Eine der jüngsten bahnbrechenden Veränderungen ist die sich rasch verbessernde Fähigkeit von KI, Programmiercode zu lesen und zu schreiben. ChatGPT hat beispielsweise den Google-Test für Programmierjobs212 erfolgreich bestanden und ein LinkedIn-Python-Assessment absolviert. Das System beantwortete alle Fragen innerhalb des Zeitlimits und erreichte eine Punktzahl, die 85 % der anderen 3,9 Millionen Programmierer:innen übertraf, die das Assessment absolvierten. 213 Diese neue KI-Fähigkeit hat vielversprechende neue Anwendungsmöglichkeiten im Bereich der Cybersicherheit eröffnet. Eine KI, die den Quellcode wirklich versteht, wäre in der Lage, eine Codeanalyse ganzer Softwaresysteme durchzuführen, um Schwachstellen zu erkennen.
180
Schmidt - Fast Forward 150x210 KORR3.indd 180
18.01.24 18:18
Doch wohin soll das alles führen? Wenn sowohl die Sicherheitsexpert:innen als auch Hacker KI einsetzen, könnte dies zu einem KI-Wettrüsten in der Welt der Cybersicherheit führen. Dies wiederum könnte zu einem endlosen Kreislauf von KI-gestützten Angriffen und Verteidigungsmaßnahmen führen, bei dem jede Seite ständig versucht, die andere zu überlisten. Angriffe könnten in größerem Umfang und schneller als je zuvor stattfinden. Insgesamt dürften die Systeme mit der Zeit robuster werden, aber es wird erhebliche Investitionen erfordern, um unsere Infrastruktur aufzurüsten und mit den Angreifern Schritt zu halten.
Die dunkle Seite von Big Tech Bei einer der vielen hitzigen Diskussionen von uns Autor:innen kam das Thema Technologie und Demokratie zur Sprache. Schließlich kamen wir auf den Film „The Circle“ 214 zu sprechen, ein amerikanisches Science-Fiction-Drama aus dem Jahr 2017 mit Emma Watson und Tom Hanks in den Hauptrollen. Der Film basiert auf dem gleichnamigen Roman von Dave Eggers und befasst sich mit den Auswirkungen eines hoch entwickelten Social-Media- und Technologieunternehmens namens The Circle auf die Privatsphäre und die persönliche Freiheit. Vielleicht haben Sie den Film gesehen und erinnern sich an die Szene, in der das Führungsteam von The Circle eine Sitzung abhält und der CEO begeistert die Idee vorstellt, dass das Unternehmen seine Technologie nutzen könnte, um Wahlen zugänglicher und sicherer zu machen. Dies sei ein logischer Schritt, weil The Circle fast so viele Nutzer:innen habe wie es Wähler:innen in den USA gebe. Er argumentiert, dass das Unternehmen durch die Verknüpfung der Stimmabgabe mit der Plattform von The Circle dazu beitragen kann, Betrug zu verhindern und sicherzustellen, dass jeder die gleiche faire Chance hat, zu wählen. Das gesamte Führungsteam ist überzeugt, dass der Service des Unternehmens die ideale Lösung für gesellschaftliche Probleme ist, die jeden betreffen. Niemand bedenkt, dass das Unternehmen nicht demokratisch legitimiert ist, diese Aufgabe zu übernehmen. Wir Autor:innen fanden, dass diese Szene ein hervorragendes Beispiel dafür ist, wie die Konzentration von Macht in den Händen einiger weniger Personen oder Organisationen schlimme Folgen für die Privatsphäre und Freiheit aller haben
181
Schmidt - Fast Forward 150x210 KORR3.indd 181
18.01.24 18:18
kann. Das gleiche Gefühl hatten wir, als wir das Manifest von OpenAI über künstliche allgemeine Intelligenz (AGI) lasen, das im Februar 2023 veröffentlicht wurde. OpenAI ist der Ansicht, dass die Entwicklung von AGI das Potenzial hat, die Welt positiv zu verändern. Das Unternehmen ist sich der potenziellen Risiken und Herausforderungen bewusst, die mit AGI verbunden sind, einschließlich der Notwendigkeit von Transparenz, Sicherheit und ethischem Handeln. OpenAI betont auch die Bedeutung einer verantwortungsvollen Entwicklung und Zusammenarbeit, um sicherzustellen, dass AGI in einer Weise entwickelt wird, die der Gesellschaft zugutekommt. Dies ist zwar ein Schritt in Richtung einer verantwortungsvollen und ethisch vertretbaren Entwicklung fortschrittlicher Technologien, aber wir Autor:innen können nicht umhin, uns zu fragen, ob die Entwicklung künstlicher allgemeiner Intelligenz per se eine gute Sache ist. Außerdem fühlen wir uns nicht wohl dabei, wenn ein privates Unternehmen wie OpenAI sich selbst auf den Fahrersitz setzt und entscheidet, was im besten Interesse der Gesellschaft sei oder zu sein hat, auch indem es im Namen aller anderen darüber urteilt, ob AGI mit menschlichen Werten und Ethik in Einklang steht. Im Bereich künstlicher Intelligenz hat sich der Einfluss eindeutig von der Wissenschaft und dem öffentlichen Sektor auf private Unternehmen verlagert. Dies kann sowohl als Ursache als auch als Folge der veränderten Machtdynamik und der neuen finanziellen Möglichkeiten gesehen werden. Der KI-Index der Stanford University zeigt, dass bis 2014 die meisten bedeutenden Machine-LearningModelle von der akademischen Gemeinschaft veröffentlicht wurden. Seitdem hat die Industrie das Ruder übernommen; im Jahr 2022 gab es beispielsweise 32 bedeutende, von der Industrie produzierte Machine-Learning-Modelle, aber nur drei, die in der akademischen Welt entwickelt wurden. 215 Die Kürzung der Mittel für die akademische KI-Forschung in den USA und in Japan in den frühen 1990erJahren, gepaart mit dem Aufkommen der ersten kommerziellen militärischen Anwendungen auf der Grundlage von KI, wie z. B. DART der ISX Corporation, lieferte sowohl die finanzielle Motivation als auch den Pool an fachkundigen Mitarbeiter:innen, den die großen Technologieunternehmen benötigten, um sich dem Thema KI anzunehmen. 216
182
Schmidt - Fast Forward 150x210 KORR3.indd 182
18.01.24 18:18
In der Tat ist die sich selbst erhaltende Macht von Big Tech ein besorgniserregender Trend, der die Zukunft der Demokratie und der Privatsphäre bedroht. Trotz großer Reden über Ethik, Sicherheit und die Rettung der Welt neigen Technologieunternehmen dazu, dem eigenen Profit Vorrang vor dem Wohl der Allgemeinheit zu geben, vor allem dort, wo sie sich gegen Wettbewerb und Marktdruck behaupten wollen. Das gilt auch für jene, die mit guten Absichten gestartet sind. Darüber hinaus hat die Machtkonzentration in den Händen einiger weniger Personen – in diesem Fall der überwiegend weißen, männlichen und wohlhabenden oder superreichen Führungskräfte – fatale Folgen für die persönliche Freiheit und die Demokratie. Zwischen den privaten Eigentümern dieser Technologien und dem Rest von uns besteht nun ein massives Machtungleichgewicht. Selbst wenn es den Computerwissenschaftler:innen gelingen sollte, dafür zu sorgen, dass KI uns nicht auslöscht, könnte ihre zunehmende Bedeutung für die Weltwirtschaft dazu führen, dass die großen Technologieunternehmen, die sie kontrollieren, noch viel mächtiger werden, als sie es heute schon sind. Sie gehören bereits zu den reichsten Unternehmen der Welt, deren Marktkapitalisierung das BIP vieler Länder übersteigt. So haben beispielsweise Apple, Microsoft, Amazon und Google alle eine Marktkapitalisierung von weit über 1,5 Billionen Dollar erreicht. 217 Das bedeutet, dass ihre Finanzkraft größer ist als die der meisten Nationalstaaten, darunter beispielsweise Indonesien, die Türkei und die Schweiz. Damit gehören sie zu den 20 größten Wirtschaftseinheiten der Welt. Ihre Macht zeigt sich aber nicht nur in finanzieller Hinsicht, sondern auch in den Daten, die sie über Milliarden von Nutzer:innen besitzen. Das bedeutet, dass sie bald zu geopolitischen Akteuren werden könnten, die mit Nationalstaaten konkurrieren. Wie im vorigen Kapitel erwähnt, müssen wir Transparenz und Demokratie in den Vordergrund stellen und sicherstellen, dass die Entwicklung fortschrittlicher Technologien durch große Technologieunternehmen nicht zu einer weiteren Machtkonzentration führt, von der eine kleine Minderheit profitiert, während die große Mehrheit der Menschen zurückbleibt. Wir schließen uns der Forderung der führenden Wirtschaftswissenschaftlerin Marina Mazzucato und der UNESCO-Direktorin Gabriela Ramos an, die Ära der oberflächlichen und manchmal fast spielerischen
183
Schmidt - Fast Forward 150x210 KORR3.indd 183
18.01.24 18:18
Selbstregulierung zu beenden. Sie fordern einen ethischen Ansatz für KI, der durch eine solide Regulierung und fähige Regierungen gestützt wird, die diese technologische Revolution im Interesse der Allgemeinheit und nicht nur im Interesse der Aktionäre gestalten. 218
KI wie ein Medikament behandeln Die Ära der Selbstregulierung auf Sparflamme muss beendet werden. Gabriela Ramos und Mariana Mazzucato219
Gary Marcus von der New York University ist einer der Experten, die sich mit geeigneten Regulierungsmethoden befasst haben. Er argumentiert, dass KI-Modelle wie Arzneimittel behandelt werden sollten. Bevor sie zugelassen und für den breiten Einsatz freigegeben werden, durchlaufen Medikamente viele Bewertungsrunden, die es Forscher:innen und Regulierungsbehörden ermöglichen zu verstehen, ob sie wirksam und sicher sind. 220 Dieser Ansatz wäre auch für KI-Anwendungen sinnvoll. Neue Modelle sollten überwacht und erst freigegeben werden, wenn sie sich als sicher erwiesen haben. Wie bei jeder neuen und sich schnell entwickelnden Technologie werden auch bei KI Fehler und Fehlkalkulationen gemacht. Sowohl unvorhergesehene als auch schädliche Auswirkungen werden unweigerlich auftreten. KI ist da keine Ausnahme. Die großen Technologieunternehmen, die auf diesem Markt konkurrieren, und wahrscheinlich auch die kleineren Firmen fürchten, dass zu viel Regulierung die Innovation abwürgt. Einige bringen ihre Produkte vorzeitig auf den Markt und setzen damit die Öffentlichkeit und unser globales System erheblichen Risiken aus. Aber auch manche Unternehmen fordern mehr Regulierung. Sie wollen ihre Grenzen kennen und wünschen sich faire Wettbewerbsbedingungen. Eines ist klar: Die Entwicklung von KI-Modellen nach den Grundsätzen der guten Praxis und mit bestimmten Sicherheitsvorkehrungen – „Leitplanken“, wie sie oft genannt werden – kann kostspielig sein. Aber die nachträgliche Anpassung solcher Schutzmaßnahmen wird noch viel teurer.
184
Schmidt - Fast Forward 150x210 KORR3.indd 184
18.01.24 18:18
Eine Reihe von Technologieexperten und Wirtschaftsführern, darunter Gary Marcus, Elon Musk von Space X, Tesla und Twitter, Apple-Mitbegründer Steve Wozniak, Skype-Mitbegründer Jaan Tallin, und über 30.000 andere Expert:innen, Forschende und Führungspersönlichkeiten aus der Industrie unterzeichneten kürzlich einen offenen Brief, in dem sie auf die enormen Auswirkungen hinwiesen, die KI heute hat, und feststellten, dass die Technologie auch massive Risiken birgt. In dem Brief heißt es: „Fortgeschrittene KI könnte einen tiefgreifenden Wandel in der Geschichte des Lebens auf der Erde darstellen und sollte mit angemessener Sorgfalt und Ressourcen geplant und verwaltet werden.“ Sie argumentieren, dass eine solche Planung und Verwaltung noch nicht stattfindet und dass die KI-Labors „in einem außer Kontrolle geratenen Wettlauf um die Entwicklung und den Einsatz immer leistungsfähigerer digitaler Köpfe stecken, die niemand – nicht einmal ihre Erfinder – verstehen, vorhersagen oder zuverlässig kontrollieren kann“. Die Unterzeichner:innen fordern die KI-Unternehmen und die ganze Welt auf, sich zu fragen, ob wir es zulassen sollten, dass Maschinen „unsere Informationskanäle mit Propaganda und Unwahrheiten überschwemmen“, „alle Arbeitsplätze, einschließlich der erfüllenden, automatisieren“ und „nicht-menschliche Intelligenzen entwickeln, die uns schließlich zahlenmäßig überlegen sein, überlisten, überflüssig machen und ersetzen könnten“, und wir damit den „Verlust der Kontrolle über unsere Zivilisation“ riskieren. Sie argumentieren, dass solche weltverändernden Entscheidungen nicht an nicht gewählte Tech Leaders delegiert werden dürfen, und sagen, dass „leistungsstarke KI-Systeme erst dann entwickelt werden sollten, wenn wir sicher sind, dass ihre Auswirkungen positiv und ihre Risiken überschaubar sein werden“. 221 Kurz nach der Veröffentlichung dieses „Pausenbriefs“ gab das Center for AI Safety eine Erklärung ab, in der es die Bedeutung der Reduktion des Risikos für durch KI eingeleitetes Aussterben hervorhob. Die Erklärung wurde von zahlreichen prominenten Wissenschaftler:innen und Branchenführern unterstützt. Das Zentrum weist auf mehrere Risiken hin, wie z. B. die Entwicklung chemischer Waffen, die Verbreitung von KI-generierten Fehlinformationen, die die Gesellschaft destabilisieren, die zunehmende Machtkonzentration und das Risiko der Entmündigung des Menschen, wenn er zu sehr von KI abhängig wird, was an das im Film „Wall-E“ dargestellte Szenario erinnert. 222 Im Herbst 2023 zeigten sich die Verfasser:innen
185
Schmidt - Fast Forward 150x210 KORR3.indd 185
18.01.24 18:18
des „Pausenbriefs“ noch besorgter: Zwar hätten die EU und die USA die Regulierung vorangetrieben, aber die massiven Risiken und Sicherheitsbedenken hätten sich nur weiter verschärft und es gäbe wenig Anzeichen, dass Big-Tech-Firmen dem Problem ausreichend Bedeutung beimessen, geschweige denn die KI-Entwicklung zugunsten der Sicherheit tatsächlich verlangsamen. 223 Ein interessanter Ansatz zur Bewertung der Auswirkungen von KI auf das menschliche Wohlergehen, die Umwelt und die Gesellschaft stammt aus einer ungewöhnlichen Quelle: vom Volk der Māori in Aotearoa, Neuseeland. Das Mauri-Modell, ein von den Māori entwickeltes Konzept für indigenes Wissen, basiert auf dem Prinzip des Mauri, das sich auf die Lebenskraft oder Essenz bezieht, die alle Dinge in der natürlichen Welt durchdringt. Um die Auswirkungen von KI auf diese Elemente zu bewerten, bietet das Mauri-Modell fünf Tests oder Kriterien. Durch die Beantwortung von Fragen wie „Ist es tapu?“ (Behandelt die KI-Technologie Menschen und Umwelt mit Respekt und Ehrfurcht?) und „Ist sie wairua?“ (Respektiert und fördert die KI-Technologie das spirituelle Wohlbefinden?) können wir feststellen, ob die KI-Technologie Wohlbefinden und Nachhaltigkeit fördert oder aber Schaden und Zerstörung verursacht. Das Mauri-Modell stellt somit ein leistungsfähiges Instrument dar, um die Entwicklung und den Einsatz von KI in einer Weise zu steuern, die respektvoll und inklusiv ist und die Bedürfnisse aller Beteiligten berücksichtigt. Das Modell stellt eine eigene Perspektive für die Bewertung der ethischen und sozialen Auswirkungen von KI dar, die zur Regulierung anregen und andere Ansätze ergänzen kann. 224 Auch in den westlichen Kulturen wächst der Konsens, dass ein ganzheitlicher und menschenzentrierter Ansatz erforderlich ist. Ein Rahmenwerk, das in den letzten Jahren an Zugkraft gewonnen hat, ist das Wiener Manifest zum digitalen Humanismus. Es enthält eine Reihe von Prinzipien, die von einer Gruppe von Expert:innen und Praktiker:innen in Wien, Österreich, entwickelt wurden. In einer unserer Kaffeehausrunden hatten wir, die Autor:innen dieses Buches, das Vergnügen, mit den Urheber:innen des Konzepts zu sprechen. Das Manifest betont, wie wichtig es ist, Menschenwürde, Demokratie und soziale Gerechtigkeit in den Vordergrund der KI-Revolution zu stellen. Es fordert mehr Transparenz und Rechenschaftspflicht bei der Entwicklung und Nutzung von KI-Systemen sowie die Förderung der mensch-
186
Schmidt - Fast Forward 150x210 KORR3.indd 186
18.01.24 18:18
lichen Autonomie und Handlungsfähigkeit bei der Entscheidungsfindung. Indem wir uns die Grundsätze des Wiener Manifests zu eigen machen, können wir auch sicherstellen, dass KI in einer Weise entwickelt und eingesetzt wird, die mit unseren grundlegenden Werten und Bestrebungen für eine gerechte und ausgewogene Zukunft im Einklang steht.
Regulierung ist möglich: Das KI-Gesetz der EU Derzeit gibt es mehrere globale Regulierungsbestrebungen, die sich mit den ethischen, sozialen und ökologischen Auswirkungen von KI befassen und zum Teil die menschenzentrierten Ansätze des Wiener Manifests und des Mauri-Modells widerspiegeln. Die EU hat schon 2019 Leitlinien für vertrauenswürdige KI veröffentlicht, wobei drei wesentliche Punkte erfüllt sein sollen: KI sollte rechtmäßig sein und somit alle anwendbaren Gesetze und Bestimmungen einhalten, sie sollte ethisch sein und somit die Einhaltung ethischer Grundsätze und Werte garantieren, und sie sollte robust sein, sowohl in technischer als auch in sozialer Hinsicht. Derzeit arbeitet die EU an der weiteren Entwicklung eines Rechtsrahmens für KI, der den Menschen in den Mittelpunkt stellt und Transparenz und Verantwortlichkeit fördert. Das KI-Gesetz der Europäischen Union (EU AI Act) ist die erste und bisher größte Bemühung zur Regulierung von KI und dient Regulierungsbehörden auf der ganzen Welt als Inspirationsquelle. Das Gesetz soll in erster Linie sicherstellen, dass KI-Systeme sicher, transparent, nachvollziehbar, nicht diskriminierend und umweltfreundlich sind. Auch sollen KI-Systeme von Menschen und nicht von der Automatisierung überwacht werden, um schädliche Auswirkungen zu verhindern, das alles jedoch ohne innovationshemmend zu wirken. Gleichzeitig ist man sich der Tatsache bewusst, dass sich die Branche rasant entwickelt. Daher ist die EU darum bemüht, eine technologieneutrale, einheitliche Definition für KI festzulegen, die auch auf zukünftige KI-Systeme angewendet werden kann. Ein wichtiges Prinzip dieses Gesetzes ist, dass KI-Systeme je nach dem Risiko, das sie für die Gesundheit, die Sicherheit oder die Grundrechte der Nutzer:innen darstellen, analysiert und eingestuft werden. Die verschiedenen Risikostufen unterliegen mehr oder weniger Regulierung.
187
Schmidt - Fast Forward 150x210 KORR3.indd 187
18.01.24 18:18
In die niedrigste Risikostufe fallen KI-Systeme mit begrenztem Risiko. Sie unterliegen minimalen Transparenzanforderungen. Zum Beispiel müssen Nutzer:innen darauf aufmerksam gemacht werden, wenn sie mit einer KI interagieren. Für Basismodelle wie GPT4 von OpenAI gelten zusätzliche Transparenzanforderungen, zum Beispiel müssen KI-Anbieter Zusammenfassungen von urheberrechtlich geschützten Trainingsdaten veröffentlichen. Zu den Systemen mit hohem Risiko gehören autonome Fahrzeuge, medizinische Geräte und Anwendungen für kritische Infrastrukturen, um nur einige Beispiele zu nennen. Sie sind erlaubt, aber Entwickler:innen und Nutzer:innen müssen sich an strenge Vorschriften halten und die Systeme werden sowohl vor dem Inverkehrbringen als auch während ihres gesamten Lebenszyklus bewertet. KI-Systeme, die ein unannehmbares Risiko darstellen, wie z. B. Social Scoring oder biometrische Echtzeit-Identifikationssysteme im öffentlichen Raum, sind generell verboten, mit nur wenigen Ausnahmen. Unternehmen, die gegen das Gesetz verstoßen, können mit saftigen Strafen von bis zu 35 Millionen Euro oder 7 Prozent ihres Umsatzes rechnen. 225, 226 Für Systeme, die ausschließlich militärischen und verteidigungsbezogenen Zwecken dienen, gilt das Gesetz übrigens nicht, genauso wenig wie im reinen Forschungs- und Innovationsbereich oder dort, wo Menschen sie für private Zwecke verwenden. 227 Das KI-Gesetz der EU ist nicht die erste wichtige KI-Gesetzgebung, die aus Europa kommt. Estland, ein kleines Land im Baltikum, ist seit Jahren weltweit führend bei der Regulierung von KI. Es war das erste Land der Welt, das eine „digitale Botschaft“ einrichtete, und es hat Pionierarbeit bei der Nutzung von KI in seinen Regierungsdiensten geleistet, unter anderem bei der Online-Wahl. Dennoch ist das KI-Gesetz der EU in seinem Anwendungsbereich viel weitreichender. Auch in den USA hat die Politik erkannt, dass KI nicht automatisch positiven Fortschritt generiert und die Macht der großen Tech-Unternehmen zu einer Bedrohung der Demokratie werden kann. So arbeitet das Weiße Haus an einer KIGrundrechts-Charta, die sich auf ähnliche Prinzipien wie der AI Act der EU stützt, nämlich zum Beispiel Sicherheit, Fairness, Datenschutz, Kennzeichnung von KI sowie menschliche Kontrolle. 228 Auch hat die Regierung KI-Regulierung zur Chefsache erklärt. So war es US-Präsident Joe Biden, der sieben führende KI-Unternehmen – Amazon, Anthropic, Google, Inflection, Meta, Microsoft und OpenAI – ins
188
Schmidt - Fast Forward 150x210 KORR3.indd 188
18.01.24 18:18
Weiße Haus bestellte, um freiwillige Selbstverpflichtungen in den Bereich Sicherheit, Schutz und Vertrauenswürdigkeit einzuholen. 229 Diese Bemühungen sind zwar ein wichtiger Schritt nach vorn, allerdings wären verbindliche Vorschriften und ein klarer Durchsetzungsmechanismus wie in Europa definitiv wünschenswert, gerade wegen der Dominanz von US-Firmen in der Branche. Auch amerikanische Wähler:innen – und zwar über die Parteigrenzen hinweg – bevorzugen eine staatliche Regulierung von KI gegenüber einer Selbstregulierung durch Technologieunternehmen. Im Rahmen einer repräsentativen Studie im Jahr 2023 gaben 82 % der Befragten an, dass sie Big-Tech-Führungskräften nicht zutrauen, KI zu regulieren, und mehr als die Hälfte befürworten, dass KI durch eine Bundesbehörde reguliert wird. Dies ist insofern bemerkenswert, als ein politischer Konsens in der polarisierten Wählerschaft der USA ebenso selten ist wie eine starke Unterstützung für neue staatliche Regulierungen. 230 Das EU-KI-Gesetz war seit seiner Ankündigung Gegenstand zahlreicher Debatten, bei denen sowohl Befürworter:innen als auch Kritiker:innen ihre Ansichten zum Ausdruck brachten. Während das Gesetz für seine kühnen und weltweit einzigartigen Versuche gelobt wurde, die Branche zu regulieren und breitere gesellschaftliche Anliegen ernst zu nehmen, befürchten einige Expert:innen, dass es Innovationen ersticken und Nicht-EU-Akteuren im globalen KI-Wettlauf einen unfairen Vorteil verschaffen könnte. Während die Regulierung also zumindest in der EU auf dem richtigen Weg ist, sind noch viele Fragen ungeklärt.
So geht’s weiter Verantwortungsvolle KI wird für das Erreichen ethischer, politischer und wirtschaftlicher Ziele von entscheidender Bedeutung und wichtig für Frieden und Sicherheit sein. Bei der weiteren Entwicklung und dem Einsatz von KI müssen wir unbedingt ihre Auswirkungen auf die Gesellschaft, die Umwelt und das menschliche Wohlergehen berücksichtigen, verstehen und optimieren und gleichzeitig eine weitere Machtkonzentration auch auf Akteure vermeiden. Was böswillige Akteure betrifft, so haben wir keine andere Wahl, als den Schutz der Cybersicherheit zu verstärken und Instrumente zu entwickeln, um die Verbreitung von Fehlinformationen und
189
Schmidt - Fast Forward 150x210 KORR3.indd 189
18.01.24 18:18
Manipulationen zu erkennen und einzudämmen. Dies bedeutet, dass wir sowohl in KI als auch in die Medienkompetenz investieren müssen, um alle Menschen für die Gefahren solcher Praktiken zu sensibilisieren. Wir sollten die Zukunft der KI so gestalten, dass sie mit humanistischen Werten in Einklang steht, indem wir Folgendes tun: , Unternehmen zur verantwortungsvollen Entwicklung und zum verantwortungsvollen Einsatz von KI zu verpflichten und daran hindern, ihre Macht für Entscheidungen zu nutzen, die uns alle betreffen , KI in einer Weise regulieren, die die Bedürfnisse der Menschen in den Vordergrund stellt – einschließlich des Bedürfnisses, in einer intakten Umwelt zu leben. Eine solche Regulierung sollte zukunftsorientiert und mit internationalen Standards für verantwortungsvolle KI vereinbar sein. , unsere Fähigkeiten, kritisch zu sein, ganzheitlich und in Systemen zu denken, Anreizsysteme und Machtstrukturen zu verstehen und die Zuverlässigkeit und Genauigkeit von Informationsquellen kritisch zu prüfen, kontinuierlich weiterentwickeln
190
Schmidt - Fast Forward 150x210 KORR3.indd 190
18.01.24 18:18
KAPITEL 9: AUF IN DIE ZUKUNFT Der Aufstieg leistungsfähiger KI wird entweder das Beste oder das Schlimmste sein, was der Menschheit je widerfahren wird. Wir wissen noch nicht, was. Stephen Hawking231
Im 21. Jahrhundert schreitet der technologische Fortschritt in einem noch nie dagewesenen Tempo voran. Jeden Tag tauchen neue KI-Tools, Akteure und Erkenntnisse auf. Auch der breitere Kontext ist in Bewegung, denn die Welt sieht sich mit sozialen und ökologischen Krisen konfrontiert, die gewissermaßen einen Kulturkrieg entfacht haben. Es sieht so aus, als müssten wir uns daran gewöhnen, in einem dynamischen, von mehreren Krisen geprägten Umfeld zu leben, und uns auf einen stetigen Strom womöglich disruptiver Veränderung einstellen. Die Herausforderung wird darin bestehen, unsere ökologischen und sozialen Ziele gleichzeitig zu erreichen. Sie sind oft im Einklang miteinander, können aber auch im Widerspruch zueinander stehen. Mehrere extreme Formen einer KI-beeinflussten Zukunft sind denkbar. Unreguliert könnte KI zu einer weiteren Destabilisierung unseres Planeten führen, was wiederum weitere soziale Ungerechtigkeit, große wirtschaftliche Verluste und zusätzliche Schäden für die Umwelt zur Folge hätte. In einem „grünen, aber unmenschlichen“ Szenario könnte KI bewusst eingesetzt werden, um ökologische Ziele und die Stabilisierung des Planeten zu erreichen, könnte aber unsere Fähigkeit untergraben, andere sozioökonomische Bedürfnisse der Menschen zu erfüllen. Das wünschenswerteste Ergebnis wäre ein effizienter und effektiver Einsatz von KI, begleitet von dezentralen Strukturen und einer gesunden Demokratie, um ein Szenario zu verwirklichen, das bewusst auf das Gute ausgerichtet ist. 232
191
Schmidt - Fast Forward 150x210 KORR3.indd 191
18.01.24 18:18
Alles ist möglich Künstliche Intelligenz ist vielleicht eine der größten Revolutionen der Geschichte. Einige Beobachter:innen stellen sie sogar in eine Reihe mit wichtigen Meilensteinen der menschlichen Entwicklung, wie der Erfindung des Internets, der Dampfmaschine oder des Rades. Laut Sundar Pichai, CEO von Google, ist KI eines der wichtigsten Dinge, an denen die Menschheit arbeitet, und wichtiger als Feuer oder Elektrizität. 233 Es scheint, als stünden wir am Rande eines massiven technologischen Wandels, der darüber entscheiden wird, ob unsere Zivilisation gedeihen und überleben wird – oder nicht. Wie in den vorangegangenen Kapiteln dieses Buches dargelegt und wie der verstorbene Physiker und Kosmologe Stephen Hawking lange vor uns wusste, „wird KI neben den Vorteilen auch Gefahren mit sich bringen, wie etwa mächtige autonome Waffen oder neue Möglichkeiten für die Wenigen, die Vielen zu unterdrücken“. Als er 2016 bei der Gründung des Zentrums für die Zukunft der Intelligenz sprach, sagte er, dass der Aufstieg einer leistungsstarken KI entweder das Beste oder das Schlimmste sein wird, was der Menschheit je widerfahren wird. Damals stellte Hawking klar, dass wir einfach noch nicht wissen, was von beidem der Fall sein wird. Mit anderen Worten: Die Chancen sind gewaltig, aber auch die Risiken. Zum jetzigen Zeitpunkt ist der Ausgang – und sogar die Richtung der Reise – ungewiss. Die Aussage von Elon Musk, dass „wir mit künstlicher Intelligenz den Dämon beschwören“, hat eine hitzige Debatte über die Zukunft von KI und ihre möglichen Auswirkungen auf die Menschheit ausgelöst. Während die einen in KI ein Werkzeug sehen, das beispiellosen Fortschritt und Wohlstand bringen kann, warnen andere, dass sie eine existenzielle Bedrohung darstellt, die zum Untergang unserer Zivilisation führen könnte. Eines der Argumente gegen das Weltuntergangsszenario ist, dass sich die Vorhersagen in Bezug auf KI in der Vergangenheit als falsch erwiesen haben. In den 1950er-Jahren glaubten beispielsweise einige Forschende, dass Computer bald in der Lage sein würden, wie Menschen zu lernen und zu denken. Im Laufe der Zeit stellte sich jedoch heraus, dass dies viel schwieriger ist, als man es sich vorgestellt hatte, und die Fortschritte waren langsamer als erwartet. In den 1980er-Jahren wurden Expertensysteme als die Zukunft künstlicher Intelligenz
192
Schmidt - Fast Forward 150x210 KORR3.indd 192
18.01.24 18:18
angepriesen, mit dem Versprechen, dass Maschinen in der Lage sein würden, Entscheidungen zu treffen und Probleme genauso effektiv zu lösen wie menschliche Spezialist:innen. Doch während einige dieser Systeme in begrenzten Bereichen erfolgreich waren, wurden sie bei der Anwendung auf komplexe Aufgaben mit offenem Ende dem Hype um sie nicht gerecht. Diese Misserfolge in der Vergangenheit haben einige Menschen dazu veranlasst zu argumentieren, dass die derzeitigen Bedenken gegenüber KI übertrieben sind und die Technologie noch lange nicht so weit ist, dass sie eine ernsthafte Bedrohung darstellen könnte. Andere stellen fest, dass sich das Tempo des Fortschritts in den letzten Jahren beschleunigt hat und dass die Entwicklung leistungsfähiger Algorithmen für das maschinelle Lernen und großer Datensätze zu bedeutenden Durchbrüchen geführt hat, insbesondere in Bereichen wie der Bild- und Spracherkennung und der Verarbeitung natürlicher Sprache. Wir, die Autor:innen dieses Buches, sind jedoch der Meinung, dass diese Debatte zwischen Pessimist:innen und Optimist:innen am Thema vorbeigeht und sogar zu einem gefährlichen Trugschluss führen kann. Wir glauben, dass die mit KI verbundenen Risiken vielleicht anders sind als die, über die sich die Menschen Sorgen machen. Aber wir glauben auch, dass sie unmittelbar bevorstehen. In dem Maße, in dem KI-Systeme leistungsfähiger und allgegenwärtiger werden, steigen die Risiken für unbeabsichtigte Folgen, Missbrauch und unerwünschte Nebenwirkungen, sodass es unerlässlich ist, diese Herausforderungen proaktiv anzugehen. Dies unterstreicht, wie wichtig es ist, unsere technologischen Fortschritte aktiv zu gestalten, um sicherzustellen, dass sie der Menschheit zugutekommen, anstatt vielen zu schaden und nur einigen wenigen zu nutzen. In diesem letzten Kapitel legen wir dar, was geschehen muss und was jeder von Ihnen auf persönlicher und beruflicher Ebene tun kann, um eine bessere Zukunft mit KI zu schaffen. Drei Elemente sind entscheidend: Um die Beschwörung des Dämons zu vermeiden, müssen wir die Gestaltung unserer gemeinsamen Zukunft mit einem Gefühl der Dringlichkeit, mit Weitsicht und mit Verantwortung angehen.
193
Schmidt - Fast Forward 150x210 KORR3.indd 193
18.01.24 18:18
KI-Vorteile schaffen und messen Gute Absichten führen nicht immer zu guten Ergebnissen. Ein wohlmeinender Programmierer kann technisch effektive Algorithmen entwickeln, die wie beabsichtigt funktionieren. Es kann jedoch sein, dass diese auf gesellschaftlicher Ebene mehr Probleme schaffen, als sie lösen, entweder ökologisch oder sozial oder beides. Um einen echten „KI-Vorteil“ zu schaffen – d. h. um sicherzustellen, dass diese Technologie den nachhaltigen Wandel, den wir brauchen, eher beschleunigt als verlangsamt –, müssen wir das Thema mit Dringlichkeit, Weitsicht und Verantwortung behandeln. Wir stehen an einem Wendepunkt. Während Sie diese Zeilen lesen, werden Tausende von KI-Modellen entwickelt, ohne dass viele relevante Akteure daran beteiligt sind. Millionen, wenn nicht Milliarden von Nutzer:innen setzen diese Modelle in einem nur teilweise regulierten Umfeld ein. Um die möglichen Auswirkungen – sowohl positive als auch negative – von KI-Modellen angemessen abzuschätzen und ihren Nutzen zu maximieren, brauchen wir Voraussicht von Entwickler:innen, Geldgeber:innen und Regulierungsbehörden gleichermaßen. In dieser Hinsicht müssen wir uns auf die gegenwärtigen Entwicklungen konzentrieren und gleichzeitig langfristig denken. Große Macht bringt große Verantwortung. Deshalb kommt den großen Technologieunternehmen und den Regierungen eine besonders wichtige Rolle zu. Aber KI geht uns alle an, und so trägt auch jeder von uns Verantwortung. Wie in diesem Buch wiederholt beschrieben wurde, reicht es nicht aus, sich einfach zurückzulehnen und zuzusehen, wie sich die Fortschritte von KI entfalten. Wir müssen sie aktiv gestalten und lenken, damit sie der Gesellschaft als Ganzes zugutekommt. Nur auf diese Weise können wir eine bessere Zukunft für alle gestalten. Eine Möglichkeit, sich zu engagieren, besteht darin, Entscheidungsträger:innen auf Unternehmens- und Regierungsebene zur Rechenschaft zu ziehen und immer wieder nach den Auswirkungen von KI-Modellen zu fragen. Dazu sind Daten und Beweise erforderlich. Im Moment befinden sich viele dieser Daten jedoch in Blackboxen. Wir wissen einfach nicht, welche Auswirkungen KI wirklich haben wird und ob sie Vorteile bringt. Kein Manager, der bei Verstand ist, würde wichtige Entscheidungen ohne Daten und Fakten treffen. Was nicht gemessen wird, kann auch nicht
194
Schmidt - Fast Forward 150x210 KORR3.indd 194
18.01.24 18:18
gemanagt werden. Deshalb ist es so wichtig, die Forschung nicht nur im Bereich von KI-Lösungen, sondern auch im Hinblick auf ihre breiteren gesellschaftlichen Auswirkungen sowie auf Fragen der Sicherheit, Ethik, Erklärbarkeit und andere Schlüsselaspekte einer verantwortungsvollen KI zu intensivieren.
Das große Ganze sehen Die Chancen sind real, aber ihre Verwirklichung ist keine Selbstverständlichkeit. Die Chancen selbst können nur entstehen, wenn die mit KI verbundenen Risiken erfolgreich gemanaged werden. Das bedeutet, dass wir den Blick auf das große Ganze richten müssen, bevor wir uns auf die Entwicklung und Nutzung spezifischer KI-Lösungen konzentrieren. Wir müssen uns immer vor Augen halten, dass die Schaffung cooler und intelligenter Lösungen in einem Bereich nicht das Gleiche ist wie das Erzielen eines positiven Effekts für die Gesellschaft insgesamt. Um das Gesamtbild zu betrachten, muss man zunächst einmal in die Zukunft zoomen und überlegen, welche Zukunft aus dem Einsatz von KI entstehen könnte. Dabei geht es nicht nur um uns und unsere Kinder, sondern auch um künftige Generationen und das Überleben unserer Zivilisation im weiteren Sinne. Der Blick in die Zukunft muss jedoch mit einem genauen Blick auf die gegenwärtigen technologischen Entwicklungen und ihre Auswirkungen in allen Teilen der Welt verbunden werden. Mit anderen Worten: In einer vernetzten Welt müssen wir auch die Vogelperspektive einnehmen. Der Blick auf das große Ganze bedeutet auch, dass wir wirtschaftliche, politische und soziale Systeme hinterfragen und verstehen sollten, welche Strukturen und Denkweisen – von denen viele seit Jahrzehnten oder sogar Jahrhunderten in unserer Gesellschaft verankert sind – sie antreiben. Wenn es uns ernst ist mit der Schaffung einer besseren Zukunft, mit Inklusion und mit einer Verbesserung von Gesundheit, Wohlstand und Wohlergehen für alle, dürfen wir nicht davor zurückschrecken, auf systemische Veränderungen hinzuarbeiten. Das bedeutet zumindest, dass wir die technologischen Systeme und Plattformen, die wir nutzen, und die Daten, die wir mit ihnen teilen, kritisch hinterfragen müssen. Von den Unternehmen, die KI entwickeln und davon profitieren, müssen wir Transparenz und
195
Schmidt - Fast Forward 150x210 KORR3.indd 195
18.01.24 18:18
Rechenschaft verlangen. Es ist wichtig, sich daran zu erinnern, dass wir nicht nur Nutzer:innen dieser Technologien sind, sondern auch Mitgestalter:innen. Wenn wir verstehen, wer von KI-Modellen profitiert und wer nicht, können wir systemische Anreize erkennen und umsetzen. Diese Anreize, ob bewusst oder unbewusst, beeinflussen das Verhalten von Menschen, Organisationen und Institutionen. Die Identifizierung solcher systemischer Anreize hilft uns, Ungleichheiten und Verzerrungen in der Anwendung von KI-Technologien aufzudecken und gezielte Maßnahmen zur Behebung dieser Probleme zu ergreifen. Und dann gibt es noch die größte Frage von allen, auf die wir bisher keine Antwort haben: Wie kann uns KI dabei helfen, unser globales wirtschaftliches und politisches System inklusiver und ökologisch nachhaltig oder, besser noch, regenerativ zu gestalten? Obwohl wir Menschen in der Geschichte viel erreicht haben, ist es uns nicht gelungen, unser globales politisches und wirtschaftliches System so zu gestalten, dass es Gesundheit, Wohlstand und Wohlergehen für alle maximiert. Künstliche Intelligenz bietet uns die Möglichkeit, dies zu ändern, insbesondere wenn die Technologie uns dabei helfen kann, die Partizipation und die Demokratie zu verbessern und somit unsere Gesellschaften gerechter zu machen. Bislang können wir in dieser Hinsicht nur mäßig optimistisch sein. Untersuchungen haben gezeigt, dass die Digitalisierung unter den derzeitigen politischen und wirtschaftlichen Bedingungen die Ungleichheit eher vergrößert als verkleinert. In Verbindung mit der zunehmenden Polarisierung innerhalb unserer Gesellschaft, auch durch die sozialen Medien, erschwert dies eine bewusste Politikgestaltung bei Themen wie dem Klimawandel. Mit der richtigen Politik könnte die Digitalisierung sowohl die Gesundheit des Planeten als auch die soziale Gerechtigkeit fördern. 234 Dafür ist jedoch ein Paradigmenwechsel erforderlich.
Zusammenarbeit, Inklusion und Vielfalt Wenn wir KI erfolgreich für eine bessere Zukunft nutzen wollen, brauchen wir Zusammenarbeit, Inklusion und Vielfalt. Wir müssen aktive Verbindungen zwischen Digitalisierung und Nachhaltigkeit schaffen. Expert:innen aus beiden Berei-
196
Schmidt - Fast Forward 150x210 KORR3.indd 196
18.01.24 18:18
chen sowie andere relevante Akteure müssen bereits in der Entwurfsphase von KIModellen einbezogen werden. Der Aufbau einer innovativen Gemeinschaft durch Zusammenarbeit ermöglicht es uns, unsere Ressourcen, unser Wissen und unsere Erfahrungen zu bündeln, um komplexe Probleme anzugehen und einen echten, dauerhaften Wandel zu schaffen. Bei der Gestaltung einer positiven KI-Zukunft sind wir gemeinsam stärker. Vielfalt ist ein Aspekt, der in den Debatten über KI vernachlässigt wurde. Wir haben viel über KI von reichen, mächtigen Männern gehört, von denen viele große Technologieunternehmen mit Sitz in den USA leiten. Von akademischen und staatlichen Expert:innen oder gar von der Zivilgesellschaft haben wir viel weniger gehört. Auch die Stimmen der Frauen sind leise. Zum Glück gibt es einige bemerkenswerte Ausnahmen. Dazu gehören Emily Bender von der University of Washington und Timnit Gebru, die von Google gekündigt wurde, weil sie an einer inzwischen sehr bekannten wissenschaftlichen Arbeit über die Grenzen von KI beteiligt war. Es ist von entscheidender Bedeutung, dass ein breites Spektrum von Stimmen und Perspektiven in die Diskussion über die Zukunft von KI einbezogen wird. Nur wenn wir die Bedürfnisse von Menschen aus allen Lebensbereichen berücksichtigen, können wir wirklich eine Zukunft schaffen, die für alle funktioniert. Dazu gehören auch die Stimmen der Nutzer:innen und die Stimmen der Armen und Ausgegrenzten, von denen viele zu sehr damit beschäftigt sind, über die Runden zu kommen, um einen Beitrag zur KI-Debatte zu leisten. Daher müssen sie einbezogen werden und Anreize zur Teilnahme erhalten. Vom Bauern im ländlichen Afrika bis zur Fabrikarbeiterin in China, von der alleinerziehenden Mutter in den USA bis zum Rentner in Europa – wir müssen sicherstellen, dass unsere Fortschritte allen zugutekommen. Das Gesamtbild zu betrachten und Brücken über Gräben zu bauen bedeutet auch, einen multidisziplinären Ansatz zu verfolgen und Expert:innen aus allen relevanten Bereichen und Disziplinen einzubeziehen. Das Feld den Programmierer:innen, Softwareentwickler:innen, Technologieexpert:innen und Wirtschaftsführern zu überlassen ist nicht nur nicht förderlich für die Weiterentwicklung von KI, sondern geradezu gefährlich. Techniker:innen wissen, wie man technische Lösungen entwickelt, aber Expert:innen aus anderen Bereichen wie Soziologie, Ökologie,
197
Schmidt - Fast Forward 150x210 KORR3.indd 197
18.01.24 18:18
Politik, Psychologie oder Wirtschaft verstehen die potenziellen Auswirkungen von KI-Modellen auf die Gesellschaft und wissen, was sie für den menschlichen Fortschritt bedeuten könnten. Sie von Anfang an einzubeziehen wird dazu beitragen, den ökologischen Fußabdruck von KI zu minimieren und gleichzeitig ihre positiven Ergebnisse für das Gemeinwohl der Gesellschaft zu maximieren. Ein Mangel an Inklusivität bei der Entwicklung und Umsetzung von KI kann schwerwiegende Folgen haben, die zu Verzerrung führen und bestehende gesellschaftliche Ungleichheiten weiter verschärfen. Dies gefährdet nicht nur bereits marginalisierte Gemeinschaften, sondern untergräbt auch den potenziellen Nutzen der Technologie für die Gesellschaft als Ganzes. Das Distributed AI Research Institute (DAIR)235 beschäftigt sich mit unabhängiger, von der Gemeinschaft getragener KI-Forschung und soll ein Gegengewicht zu den von großen Technologieunternehmen geführten Initiativen bilden. Partnership on AI wiederum ist eine Koalition, der neben Technologieunternehmen auch akademische Einrichtungen und gemeinnützige Organisationen angehören, mit dem erklärten Ziel, eine verantwortungsvolle Entwicklung und Nutzung von KI sicherzustellen. 236 Die AI Governance Alliance des Weltwirtschaftsforums versteht sich als Multi-Stakeholder-Initiative und bringt Industrie, Regierung, Wissenschaft und Zivilgesellschaft zusammen, um sich für eine verantwortungsvolle globale Gestaltung und die Freigabe von transparenten und integrativen KI-Systemen einzusetzen. 237 Die UN-Initiative AI for Good ist eine digitale Plattform, die KI-Innovatoren und Organisationen zusammenbringen soll, die sich um die Lösung gesellschaftlicher Probleme bemühen, um gemeinsam an der Verwirklichung der Ziele für nachhaltige Entwicklung der Vereinten Nationen zu arbeiten. 238 Indem sie ein breites Spektrum an Stimmen und Perspektiven in ihre Diskussionen und Entscheidungsfindung einbeziehen, sind solche Initiativen in der Lage, ethische Bedenken anzusprechen und so unsere Chancen zu verbessern, dass die Vorteile von KI von allen genutzt werden können. Wenn wir uns mit KI befassen, sollten wir nicht nur über die Zusammenarbeit zwischen Menschen sprechen. Es gibt auch eine faszinierende Fülle von Möglichkeiten für die Zusammenarbeit zwischen Menschen und Maschinen, und zwar in einer
198
Schmidt - Fast Forward 150x210 KORR3.indd 198
18.01.24 18:18
Weise, die wir uns heute nur ansatzweise vorstellen können. An vielen Stellen werden Maschinen den Menschen nicht ersetzen, aber sie werden zu wichtigen Partnern werden. Es ist jedoch wichtig, dass der Mensch die letzte Entscheidungsgewalt behält. Außerdem ist es wichtig, dass wir Algorithmen, Bots und andere Maschinen als das behandeln, was sie wirklich sind: Maschinen. Bei Bots wie ChatGPT, die oft wirken, als würden sie wie Menschen denken und fühlen, besteht die Gefahr, dass wir ihnen menschenähnliche Eigenschaften zuschreiben und vergessen, dass sie nur Computerprogramme sind. Es ist wichtig, daran zu denken, dass sie weder Seele oder Bewusstsein noch Wünsche haben. Vielmehr sind sie nur hoch entwickelte Kombinationen aus Hardware und Software, entwickelt von Menschen.
Digitaler Humanismus: der Mensch im Mittelpunkt Die Digitalisierung darf kein Selbstzweck sein, sondern muss auf einen nachhaltigen gesellschaftlichen Wandel ausgerichtet sein. Eine Möglichkeit, das große Ganze zu betrachten und Brücken zwischen den wichtigsten Akteuren zu bauen, ist, den digitalen Humanismus als Leitprinzip zu wählen. KI ist ein wichtiger Baustein der Digitalisierung, und einige der Probleme und Chancen überschneiden sich. Daher gelten einige unserer Erkenntnisse und Empfehlungen für die Digitalisierung im weiteren Sinne genauso wie für KI. Das Ziel des digitalen Humanismus besteht im Wesentlichen darin, der Digitalisierung einen Sinn zu geben und den Menschen in den Mittelpunkt zu stellen. Er versucht, ein Gleichgewicht zu finden, indem er den potenziellen Vorteilen der Technologie offen gegenübersteht und gleichzeitig die menschlichen Werte und die Würde des Menschen bewahrt. Er betrachtet die Technologie als ein Mittel zur Verbesserung des menschlichen Lebens, nicht als dessen Ersatz, und will sicherstellen, dass der technologische Fortschritt dem Allgemeinwohl dient. Der digitale Humanismus fördert die Entwicklung und Nutzung von KI in einer Weise, die das menschliche Wohlergehen unterstützt, die Gleichberechtigung fördert und die Menschenrechte und die Würde aller Menschen achtet. Aber was genau bedeutet digitaler Humanismus in der Praxis? Stellen Sie sich vor, Sie arbeiten an einem Projekt zur Verbesserung des Zugangs zur Gesund-
199
Schmidt - Fast Forward 150x210 KORR3.indd 199
18.01.24 18:18
heitsversorgung. Sie sollen ein KI-System entwickeln, das Gesundheitsdienstleistern hilft, Patient:innen zu identifizieren, die ein hohes Risiko für bestimmte Krankheiten haben. Mithilfe von KI können Sie riesige Datenmengen analysieren und ausgefeilte Modelle erstellen, die Erkenntnisse und Vorhersagen mit großer Genauigkeit liefern. Nach der Lektüre dieses Buches wissen Sie aber auch, dass KI-Algorithmen Bias in Bezug auf bestimmte demografische Gruppen oder Regionen Ihres Landes enthalten können, was zu einem ungleichen Zugang zur Versorgung und zu ungleichen Auswirkungen auf das menschliche Wohlbefinden führt. Hier kommt das Prinzip des menschenzentrierten Designs ins Spiel. Der digitale Humanismus fordert, dass KI-Systeme unter Berücksichtigung der menschlichen Bedürfnisse und Werte konzipiert und entwickelt und auf der Grundlage ihrer Auswirkungen auf das menschliche Wohlbefinden getestet und bewertet werden. Indem wir sicherstellen, dass KI-Systeme mit Blick auf alle Menschen entwickelt werden, können wir gewährleisten, dass die Technologie uns allen dient. Ein weiterer zentraler Grundsatz des digitalen Humanismus ist die menschliche Kontrolle über die Technologie. Das bedeutet, dass KI zwar viele Aufgaben automatisieren und die Effizienz verbessern kann, dass sie aber nicht ohne menschliche Kontrolle Entscheidungen treffen darf, die Auswirkungen auf unser Leben haben. Dies ist insbesondere im Zusammenhang mit KI-Entscheidungen von Bedeutung, da die potenziellen Folgen weitreichend und schädlich sein können. Der digitale Humanismus fordert Transparenz und Rechenschaftspflicht beim Einsatz von KI, damit wir sicherstellen können, dass die Technologie auf ethische und faire Weise eingesetzt wird. Der digitale Humanismus fordert auch die Entwicklung von KI-Systemen, die das Allgemeinwohl fördern und das menschliche Wohlergehen unterstützen. Wie in diesem Buch dargelegt, sollte KI eingesetzt werden, um einige der größten Probleme der Welt wie Klimawandel, Armut und Ungleichheit anzugehen und uns dabei zu helfen, die Ziele für nachhaltige Entwicklung zu erreichen. Die Ausrichtung von KI auf diese Ziele ist das einzige Mittel, mit dem wir sicherstellen können, dass technologische Fortschritte einen positiven Einfluss auf die Gesellschaft haben und zu einer besseren Welt beitragen.
200
Schmidt - Fast Forward 150x210 KORR3.indd 200
18.01.24 18:18
Kurz gesagt, geht es beim digitalen Humanismus um zwei Dinge. Zum einen, Schaden von den Menschen und der Gesellschaft abzuwenden. Aber die Technologie wurde erfunden, um das Leben der Menschen zu verbessern, nicht zu verschlechtern. Beim digitalen Humanismus geht es also zum anderen und vor allem darum, Wege zu finden, KI so zu gestalten, dass sie dem Allgemeinwohl dient. Der digitale Humanismus fordert uns auch heraus, unsere derzeitigen digitalen Praktiken und Systeme zu überdenken, auch in den Bereichen Forschung, Entwicklung und Innovation. Er wird von dem übergeordneten Ziel angetrieben, Technologie für den gesellschaftlichen Fortschritt zu nutzen und nicht nur Innovationen um ihrer selbst willen oder für das Wirtschaftswachstum zu produzieren, von dem nur eine begrenzte Anzahl von Menschen profitiert. 239 Wir, die Autor:innen dieses Buches, sind alle in Wien ansässig. Die Stadt macht uns stolz, weil sie bei ihren Digitalisierungsbemühungen die Menschen in den Mittelpunkt stellt. Sie verknüpft ausdrücklich ihre Strategien für Digitalisierung und Sozialentwicklung mit Anstrengungen in allen Schlüsselbereichen, von Arbeit, Bildung und Wirtschaft bis hin zu Kunst und Nachhaltigkeit. 240 Wir sind auch stolze Europäer:innen, wenn man die geopolitische Bedeutung des digitalen Humanismus bedenkt: Er gilt als Europas Antwort auf den Überwachungskapitalismus, der wohl das vorherrschende Modell der USA ist, und auf den Überwachungskommunismus, zum Beispiel in China.
Langsame KI? Regulierung eine Chance geben Es ist eine Tatsache, dass sich die KI-Technologie sehr viel schneller entwickelt als die für sie erforderlichen rechtlichen Rahmenbedingungen. Die staatliche Regulierung hinkt hinterher, und eine Selbstregulierung durch Unternehmen funktioniert nicht. Einige Beobachter:innen haben eine Pause bei der Entwicklung leistungsfähiger KI-Systeme gefordert, und es gibt gute Gründe, für einen solchen „KI-Sommer“, z. B. damit die Regulierungsbehörden aufholen können. Es ist jedoch klar, dass nicht alle Akteure in diesem Bereich eine solche Pause respektieren würden, und einige Personen, die diese fordern, darunter auch Elon Musk, wurden beschuldigt, dass sie einfach nur eine Pause für andere wollen, um selbst bei der KI-Entwicklung aufzuholen.
201
Schmidt - Fast Forward 150x210 KORR3.indd 201
18.01.24 18:18
Es ist daher eine gute Nachricht, dass viele Länder zumindest einigermaßen vorbereitet sind. Wir, die Autor:innen dieses Buches, glauben, dass das KI-Gesetz der EU einen wichtigen Schritt nach vorn darstellt, um die ethische und verantwortungsvolle Nutzung von KI zu gewährleisten. Während einige argumentieren mögen, dass Regulierung Innovation und Wettbewerb ausbremst, glauben wir, dass hier das Gegenteil der Fall ist. Indem die EU klare Regeln und Erwartungen für die Entwicklung und den Einsatz von KI festlegt, schafft sie gleiche Bedingungen für alle Akteure der Branche. Dies fördert nicht nur den fairen Wettbewerb, sondern trägt auch dazu bei, Vertrauen bei den Verbraucher:innen aufzubauen und sicherzustellen, dass KI in einer Weise eingesetzt wird, die der Gesellschaft als Ganzes zugutekommt. Darüber hinaus glauben wir, dass das KI-Gesetz dazu beitragen wird, einige der größten Bedenken im Zusammenhang mit KI auszuräumen. Durch die Verpflichtung der Unternehmen zur Durchführung von Folgenabschätzungen und zur Einhaltung strenger Richtlinien wird das Gesetz dazu beitragen, die potenziellen negativen Auswirkungen von KI auf die Gesellschaft abzuschwächen. Dies ist besonders wichtig angesichts des rasanten technologischen Wandels und des Potenzials für den Missbrauch von KI. Es gibt erste Anzeichen dafür, dass die Regierungen ihr Gewicht in die Waagschale werfen. Anfang 2023 verbot die italienische Datenschutzbehörde Garante vorübergehend ChatGPT auf dem heimischen Markt und leitete eine Untersuchung zum mutmaßlichen Verstoß des Systems gegen die Datenschutzbestimmungen ein. OpenAI konnte sein Tool in Italien erst wieder in Betrieb nehmen, nachdem es den Forderungen der Aufsichtsbehörde nachgekommen war, die Sichtbarkeit seiner Datenschutzrichtlinien verbessert und ein Formular eingerichtet hatte, mit dem User über die Verwendung ihrer Daten entscheiden können. Nutzer:innen in der Europäischen Union können somit der Verwendung von personenbezogenen Daten durch OpenAI für die Zwecke des Modelltrainings widersprechen. 241 Darüber hinaus wurde der Entwurf des EU KI-Gesetzes inhaltlich verstärkt. Das KI-Gesetz der EU kann als großer Durchbruch betrachtet werden, und es ist ein großer Schritt auf dem Weg zum digitalen Humanismus. Gleichzeitig hat der durch die Veröffentlichung von ChatGPT ausgelöste Hype – und damit die Ver-
202
Schmidt - Fast Forward 150x210 KORR3.indd 202
18.01.24 18:18
wendung eines Tools von Millionen von Nutzer:innen, sowohl für lohnenswerte als auch für fragwürdige Zwecke – eine Vielzahl neuer Fragen aufgeworfen. Im Prinzip ist die Einteilung des KI-Gesetzes der EU in vier Risikokategorien sehr sinnvoll. Kritische Beobachter:innen haben jedoch zurecht angemerkt, dass bei einer Allzwecktechnologie wie ChatGPT die Nutzer:innen selbst bestimmen, ob die Anwendung ein hohes Risiko darstellt oder nicht. Die Diskussion darüber, ob Basismodelle wie GPT eine eigene Risikoeinstufung benötigen und ob ein anderer Ansatz zur Regulierung – über die Risikoklassen hinaus – erforderlich ist, ist noch nicht zu Ende. Während Regierungen auf der ganzen Welt nach Möglichkeiten suchen, ihren Rechtsrahmen für Daten und neue Technologien zu optimieren, unternehmen die EU und die USA auch transatlantische Anstrengungen, um diese Herausforderungen anzugehen. Bei einer Sitzung des EU-US-Handels- und Technologierats haben beide Parteien ihre Entschlossenheit bekundet, die Entwicklung eines KI-Verhaltenskodex zu beschleunigen. Diese Initiative soll die politische Kluft überbrücken und Leitlinien für den verantwortungsvollen und ethischen Einsatz von künstlicher Intelligenz bieten. 242 Auch die G7-Staaten sind sich einig, dass es einen solchen Verhaltenskodex braucht. 243 Die Rolle der Regierungen geht schließlich über die Regulierung und die Festlegung von politischen Strategien hinaus. Sie spielen auch eine Rolle bei der Entwicklung von Normen und ihrer Einführung. Darüber hinaus können sie die breite Bevölkerung, insbesondere Mädchen, unterstützen, ihr Interesse und ihre Fähigkeiten in MINT-Bereichen zu stärken, etwa durch Finanzierungsprogramme und die Verbesserung von Lehrplänen. Die politischen Entscheidungsträger könnten sich vom finnischen 1-%-Programm inspirieren lassen, bei dem Tausende von Menschen, die keine Technologieexpert:innen sind, eingeladen wurden, an einem großen Experiment teilzunehmen, um die Wirtschaft des Landes auf hochwertige KI-Anwendungen auszurichten. Die Idee hinter diesem Programm ist so einfach wie genial: Zunächst wurde 1 % der Bevölkerung, im Falle Finnlands etwa 55.000 Menschen, in den grundlegenden Konzepten der KI-Technologie unterrichtet, und diese Zahl wird in den folgenden Jahren schrittweise erhöht. 244
203
Schmidt - Fast Forward 150x210 KORR3.indd 203
18.01.24 18:18
Die Zukunft positiv gestalten Veränderungen sind oft mit Angst und Unsicherheit verbunden. Die KI-Revolution ist da keine Ausnahme. Wir stehen an der Schwelle eines technologischen Wandels, und das Unbekannte kann Angst machen. In unseren Köpfen kreisen Fragen darüber, was dieser Wandel für unsere Arbeitsplätze, die Umwelt, unsere Wirtschaft und unsere Gesellschaft bedeutet. Auch wenn solche Veränderungen beängstigend sein können, müssen wir sie annehmen. Der Wandel geschieht nicht einfach – wir können das Ergebnis gestalten. Wenn der Wandel gut gesteuert wird, ist er eine Chance für Wachstum, Fortschritt und Innovation. Er bietet die Möglichkeit, eine bessere Zukunft für uns selbst und für künftige Generationen zu schaffen. Veränderungen zu akzeptieren ist nicht immer einfach, aber es ist entscheidend. Der Aufbau von Resilienz, einem Schlüsselfaktor für die Bewältigung des Wandels, kann uns helfen, mit der Ungewissheit umzugehen. Wenn wir den Umgang mit kontinuierlichem Wandel erlernen und Resilienz entwickeln, können wir Angst in Hoffnung und Unsicherheit in Chancen verwandeln. Gemeinsam können wir die KI-Revolution meistern und eine bessere Zukunft für alle schaffen. Um das Potenzial von KI für die Gestaltung einer besseren Welt zu nutzen, müssen wir sowohl über das langfristige Potenzial der Technologie als auch über ihre unmittelbaren Auswirkungen nachdenken. Wir brauchen einen Perspektivenwechsel: Wir müssen kurzfristige Maßnahmen im Kontext langfristiger Ziele betrachten. Ziel ist es, künstliche Intelligenz für die Lösung drängender Probleme wie Klimawandel und soziale Ungleichheit einzusetzen. Indem wir unsere Kräfte bündeln, können wir eine Zukunft schaffen, in der KI positive Auswirkungen auf die Menschheit und die Erde hat. Wenn dies gelingen soll, muss jeder Mensch – und jede Institution – eine Rolle spielen. Im Folgenden finden Sie Vorschläge, die Sie hoffentlich dazu inspirieren, bei der Gestaltung dieser Zukunft eine führende Rolle zu übernehmen.
204
Schmidt - Fast Forward 150x210 KORR3.indd 204
18.01.24 18:18
Regierungen müssen bei der Regulierung von KI schnell und entschlossen handeln und dabei eng mit einem breiten Spektrum von Interessengruppen zusammenarbeiten. Sie sollten die Vereinheitlichung, Kohärenz und Standardisierung von Strategien und Richtlinien auf lokaler, nationaler und internationaler Ebene maximieren. Konkret sollten sie Folgendes tun: , Sie sollten der Regulierung von KI Priorität einräumen, sie mit Dringlichkeit behandeln und in die erforderlichen Ressourcen investieren. , Sie sollten wichtige Grundsätze für KI-Regulierung aufstellen, ausgehend von den bestehenden Rahmenwerken, die beispielsweise von der Europäischen Kommission und der OECD erarbeitet wurden. , Sie sollten sich an der Ausarbeitung internationaler Standards beteiligen und diese Standards anwenden, sobald sie fertiggestellt sind. Es braucht standardisierte Leitlinien und Regeln, damit sich alle Akteure im Bereich KI effizient bewegen können und mithelfen, schädliche Auswirkungen zu minimieren. , Sie sollten eine Reihe von Interessengruppen einbeziehen – nicht nur Techniker:innen und Regulierungsexpert:innen, sondern auch Personen, die sich mit nachhaltiger Entwicklung auskennen. , Der digitale Humanismus soll ihr Leitmotiv sein, wobei auch die Bedeutung intakter Ökosysteme für soziale Entwicklung und menschlichen Fortschritt im Vordergrund stehen muss. , Sie sollten Systeme einrichten, um die Ansätze von Unternehmen zu bewerten und die Auswirkungen von KI-Systemen zu verfolgen. Außerdem müssen sie sicherstellen, dass die Regulierung auf dem neuesten Stand bleibt. , Sie sollten in KI- und Medienkompetenzprogramme investieren, die es allen Menschen ermöglichen, KI-Technologie kritisch zu bewerten und sie ohne Angst zum Wohle der Allgemeinheit einzusetzen. , Sie sollten KI-Forschung und -Projekte finanzieren, einschließlich der Entwicklung von Explainable Artificial Intelligence (XAI). XAI ist entscheidend, um sicherzustellen, dass die Entscheidungsprozesse und Ergebnisse von KI für Menschen verständlich und nachvollziehbar sind.
205
Schmidt - Fast Forward 150x210 KORR3.indd 205
18.01.24 18:18
Unternehmen müssen ihren Worten Taten folgen lassen und ihre Versprechen hinsichtlich Nachhaltigkeit und Verantwortung einlösen. Sie sollten nicht nur in die Erforschung technologischer Lösungen investieren, sondern müssen auch ökologische und soziale Auswirkungen berücksichtigen. Insbesondere sollten sie Folgendes tun: , Sie sollten die wichtigsten Grundsätze für verantwortungsvolle KI in ihre Unternehmens-DNA und ihre Geschäftsstrategien integrieren. Sie sollten Verhaltenskodizes entwickeln und diese in ihren ESG-Strategien (Environment, Society & Governance) berücksichtigen. , Sie sollten sich bei ihren Digitalisierungsstrategien vom digitalen Humanismus inspirieren und leiten lassen und ein breites Spektrum von Akteuren, Standpunkten und Stimmen einbeziehen. , Sie sollten KI so einsetzen, dass sie die menschliche Arbeit unterstützt und verbessert. , Sie sollten Schulungsprogramme für Mitarbeiter:innen entwickeln, die die KIKompetenz fördern und einen Schwerpunkt auf verantwortungsvolle KI legen. , Sie sollten die Grundsätze der menschenzentrierten Gestaltung befolgen, die sich an den menschlichen Bedürfnissen orientieren, und bei der Entwicklung oder Integration von KI-Diensten stets die ethischen Auswirkungen berücksichtigen. , Sie sollten aktiv nach Geschäftsmöglichkeiten in Bereichen suchen, in denen KI zur Förderung der Nachhaltigkeit eingesetzt werden kann, insbesondere bei Themen im Zusammenhang mit dem ökologischen und sozialen Wandel. , Sie sollten den #AIforgood-Champions (Best-Practice-Unternehmen für verantwortungsvolle KI) eine Plattform bieten, die ihnen bei der Entwicklung, Umsetzung und Kommunikation ihrer Geschäftsfortschritte hilft und gleichzeitig KI zukunftsfähig gestaltet. , Sie sollten in Forschung investieren, welche die Risiken und Chancen von KI in ihren jeweiligen Geschäftsbereichen durchleuchtet, um sicherzustellen, dass ihre Entscheidungen der Gesellschaft mehr nutzen als schaden. , Sie sollten sowohl Geschäftspartner:innen in der gesamten Lieferkette als auch konkurrierende Unternehmen auffordern, all dies ebenfalls zu tun.
206
Schmidt - Fast Forward 150x210 KORR3.indd 206
18.01.24 18:18
Forschungseinrichtungen sollten sich verstärkt mit künstlicher Intelligenz befassen, insbesondere mit Fragen der Ethik, der Verantwortung und möglichen Auswirkungen. Konkret sollten sie Folgendes tun: , Sie sollten sich für mehr Forschung einsetzen, die die Themen KI und nachhaltige Entwicklung miteinander verbindet. , Sie sollten ihre Forschungsanstrengungen auf die Auswirkungen von KIAnwendungen und die Möglichkeiten konzentrieren, wie KI den Nutzen für die Menschen auf globaler Ebene maximieren kann. , Sie sollten Gleichgesinnte und Netzwerke ermutigen, das Thema KI und nachhaltige Entwicklung mit Dringlichkeit, Weitsicht und Verantwortung zu behandeln. , Sie sollten selbst tun, was sie predigen, indem sie ihre eigenen KI-Systeme evaluieren und sicherstellen, dass sie den sozialen und ökologischen Nutzen maximieren und gleichzeitig negative Auswirkungen minimieren. , Sie sollten in die Kommunikation mit allen wichtigen Akteuren und der breiteren Öffentlichkeit investieren, um sicherzustellen, dass alle Beteiligten die wesentliche Rolle der Forschung bei der Gestaltung einer besseren Zukunft mit KI verstehen. Pädagog:innen müssen sowohl die Chancen als auch die Risiken von KI für das Lehren und Lernen kritisch prüfen. Insbesondere sollten sie Folgendes tun: , Sie sollten sich bewusst sein, dass KI und insbesondere LLMs eine Herausforderung für die traditionellen Bildungssysteme darstellen, aber auch Möglichkeiten bieten, um diese positiv zu verändern. , Sie sollten offen für die KI-Revolution sein und sie für ihre Bemühungen nutzen, Menschen aus verschiedenen Generationen auf die Zukunft vorzubereiten. , Sie sollten mit Gleichgesinnten und anderen Akteuren zusammenarbeiten, um in diesem sich rasch entwickelnden Umfeld bewährte Verfahren zu testen, einzusetzen und zu entwickeln. , Sie sollten Schüler:innen und Studierende dabei unterstützen, angstfrei und konstruktiv an KI- und MINT-Themen heranzugehen und menschliche Bedürfnisse immer in den Mittelpunkt zu stellen.
207
Schmidt - Fast Forward 150x210 KORR3.indd 207
18.01.24 18:18
NGOs und andere Gruppen der Zivilgesellschaft müssen den Druck auf Machthaber:innen erhöhen und die Entscheidungsträger weiterhin zur Rechenschaft ziehen, indem sie Transparenz und Verantwortung bei der Entwicklung und Anwendung von KI-Modellen fordern. Insbesondere sollten sie Folgendes tun: , Sie sollten sich mit dem Thema der künstlichen Intelligenz vertraut machen. , Sie sollten die Zusammenhänge zwischen KI und ihrer jeweiligen KernAgenda für nachhaltige Entwicklung analysieren und die Einsichten und Ergebnisse mit ihren Stakeholdergruppen teilen. , Sie sollten die Auswirkungen von KI auf ihre Zielgruppen untersuchen und sicherstellen, dass deren Stimmen in Analysen und öffentlicher Kommunikation berücksichtigt werden. , Sie sollten Entscheidungsträger:innen – sowohl im öffentlichen als auch im privaten Sektor – zur Rechenschaft ziehen und sie drängen, ihren Verpflichtungen in Hinblick auf verantwortungsvolle KI nachzukommen. , Sie sollten dafür sorgen, dass die öffentliche Aufmerksamkeit weiterhin auf das Thema verantwortungsvolle KI gerichtet bleibt, und Bürger:innen und Verbraucher:innen helfen, mächtige Akteure dazu zu bringen, bei der Entwicklung und Umsetzung digitaler Lösungen den Menschen in den Mittelpunkt zu stellen. Wir alle sollten uns über das Thema informieren, Debatten verfolgen und uns engagieren. KI betrifft uns alle, und jede Stimme zählt, wenn es darum geht, Transparenz und Rechenschaftspflicht von Unternehmen und Regierungen zu fordern. Konkret sollten wir Folgendes tun: , Wir sollten uns über KI informieren und ihre Funktionen, Auswirkungen und Risiken verstehen. Dies ist wichtig, um fundierte Entscheidungen zu treffen und in unserem digitalen Zeitalter erfolgreich zu sein. , Wir sollten mit einer proaktiven, furchtlosen Einstellung an KI herangehen und versuchen, die damit verbundenen Risiken und ethischen Herausforderungen zu verstehen, während wir das transformative Potenzial von KI zur Schaffung einer besseren Zukunft nutzen.
208
Schmidt - Fast Forward 150x210 KORR3.indd 208
18.01.24 18:18
, Wir – vor allem diejenigen unter uns, die nicht von vorne herein technologieaffin sind – sollten uns über KI informieren, öffentliche Debatten verfolgen und darüber nachdenken, wie KI unser eigenes Leben sowohl positiv als auch negativ beeinflusst. , Wir sollten KI-Tools ausprobieren, herumspielen, einen ersten Foto-Prompt machen. , Wir sollten KI-Expert:innen zu Gesprächen über technische Lösungen sowie über Risiken und Chancen ermutigen. , Diejenigen unter uns, die technisch versiert sind, sollten die Verwendung von und Mitarbeit an Open-Source-KI-Projekten in Betracht ziehen. , Wir sollten Vorträge und Konferenzen besuchen, uns einlesen, uns Gruppen anschließen. So können wir ein Gespür dafür entwickeln, wer die wichtigsten Akteure im KI-Bereich sind und welche Rolle sie in den Debatten spielen. , Wir sollten Unternehmen und Regierungen zur Rechenschaft ziehen, indem wir sie öffentlich über ihre Ziele und Praktiken im Zusammenhang mit KI befragen, z. B. über soziale Medien. , Wir sollten die Anthropomorphisierung (Vermenschlichung) von KI-Modellen vermeiden, indem wir uns vor Augen halten, dass es sich um Computer programme ohne Seele, Bewusstsein oder Wünsche handelt.
209
Schmidt - Fast Forward 150x210 KORR3.indd 209
18.01.24 18:18
Schmidt - Fast Forward 150x210 KORR3.indd 210
18.01.24 18:18
QUELLEN Sie können sämtliche Quellenverweise über folgenden Link abrufen:
www.facultas.at/fastforward_literatur
211
Schmidt - Fast Forward 150x210 KORR3.indd 211
18.01.24 18:18
Schmidt - Fast Forward 150x210 KORR3.indd 212
18.01.24 18:18
BEGRIFFSERKLÄRUNGEN Accountability: bezieht sich auf die Verantwortlichkeit und die Pflicht, für Handlungen, Entscheidungen und Ergebnisse Rechenschaft abzulegen. Sie beinhaltet die Bereitschaft, für die eigenen Handlungen oder die Handlungen einer Organisation oder Institution verantwortlich gemacht zu werden. Accountability umfasst oft die Transparenz in Bezug auf Entscheidungsprozesse, die Kommunikation von Ergebnissen, die Erfüllung von Verpflichtungen und die Bereitschaft, für Fehlverhalten oder Fehler Verantwortung zu übernehmen. AGI (artificial general intelligence, künstliche allgemeine Intelligenz): eine Art von KI, die in der Lage ist, ein breites Spektrum von Aufgaben zu verstehen, zu lernen, sich anzupassen und Wissen anzuwenden, auf einem Niveau, das mit dem eines Menschen vergleichbar oder höher ist. Sie steht im Gegensatz zur schwachen KI (siehe unten), die auf die Ausführung spezifischer Aufgaben ausgelegt ist, und obwohl es sie noch nicht gibt, ist sie ein Ziel vieler Unternehmen. AI-based internet of things, AIoT: eine innovative Technologie, die künstliche Intelligenz (AI) mit dem Internet der Dinge (IoT) verknüpft. Sie ermöglicht es IoT-Geräten, Daten zu sammeln, zu analysieren und intelligent zu interpretieren, um automatisierte Entscheidungen zu treffen und menschenähnliches Lernen und Verhalten zu erzielen. Durch die Integration von AI in das IoT eröffnen sich neue Möglichkeiten für datengesteuerte Erkenntnisse, Vorhersagen und Anwendungen in verschiedenen Bereichen wie Gesundheitswesen, Industrie, Smart Cities und mehr. Algorithmus: ein Satz von Regeln oder Anweisungen, die einer KI oder einer anderen Art von Computersoftware gegeben werden, damit sie lernen und Probleme lösen kann. Augmented Reality (AR): eine Technologie, die die reale Welt mit digitalen Informationen und virtuellen Objekten erweitert. Sie ermöglicht Benutzer:innen durch AR-fähige Geräte wie Smartphones oder AR-Brillen eine reichhaltige und interaktive Erfahrung. AR findet Anwendung in verschiedenen Bereichen, von
213
Schmidt - Fast Forward 150x210 KORR3.indd 213
18.01.24 18:18
Videospielen und Unterhaltung über Bildung und Training bis hin zu medizinischen Anwendungen und der industriellen Produktion, um die Benutzererfahrung und die Effizienz zu verbessern. AutoML (automated machine learning, automatisiertes maschinelles Lernen): eine automatisierte Technologie, die es ermöglicht, maschinelle Lernmodelle ohne umfangreiche manuelle Programmierung und Fachkenntnisse zu erstellen. Sie verwendet Algorithmen und Optimierungstechniken, um den gesamten Prozess des maschinellen Lernens zu automatisieren, einschließlich der Auswahl der besten Modelle, der Feature-Extraktion und -Transformation sowie der Hyperparameter-Optimierung. Bias: Im Zusammenhang mit KI bezieht sich Bias (Verzerrung, Voreingenommenheit) auf Algorithmen, die systematisch verzerrte oder fehlerhafte Ergebnisse produzieren. In einem sozialen Kontext kann dies zu Ergebnissen führen, die bestimmte soziale Gruppen systematisch begünstigen oder benachteiligen. Big Tech: bezieht sich auf die größten und einflussreichsten Technologieunternehmen der Welt, darunter Unternehmen wie Apple, Amazon, Google (Alphabet), Facebook (Meta) und Microsoft. Diese Unternehmen dominieren verschiedene Bereiche der Technologiebranche, darunter Online-Handel, Suchmaschinen, soziale Medien, Cloud Computing und Hardware. Blackbox: ein Begriff, der verwendet wird, um KI-Systeme zu beschreiben, deren interne Funktionsweise oder Entscheidungsprozesse für menschliche Benutzer:innen nicht transparent oder interpretierbar sind. Dies ist ein wichtiges Thema in der KI-Ethik, insbesondere bei Anwendungen, bei denen es wichtig ist, den Entscheidungsprozess zu verstehen, wie etwa im Gesundheitswesen oder in der Justiz. Chatbot: eine Softwareanwendung, die sich mit menschlichen Nutzer:innen in deren natürlicher Sprache unterhalten kann. Diese Unterhaltungen finden in der Regel im Text- oder Sprachformat statt. ChatGPT: ein von OpenAI entwickeltes KI-basiertes Modell, das auf der Grundlage von Eingaben in natürlicher Sprache menschenähnlichen Text generieren
214
Schmidt - Fast Forward 150x210 KORR3.indd 214
18.01.24 18:18
soll. Es gehört zu einer größeren Familie von neuronalen Netzwerkmodellen, die GPTs (generative pretrained transformers) genannt werden, und wurde speziell für Konversationszwecke eingerichtet. Es wurde für den Aufbau von KI-Chatbots und virtuellen Assistenten verwendet sowie für Aufgaben, bei denen menschenähnlicher Text erzeugt werden muss. Confidence Score: eine numerische Bewertung oder ein Wert, der die Wahrscheinlichkeit oder das Vertrauen in die Richtigkeit oder Genauigkeit einer bestimmten Vorhersage, Analyse oder eines Ergebnisses ausdrückt. In verschiedenen Anwendungen, wie maschinellem Lernen, Klassifikation oder Textanalyse, wird der Confidence Score verwendet, um anzugeben, wie sicher oder zuversichtlich ein Algorithmus oder ein Modell in seiner Entscheidung ist. Content Creator: eine Person, die digitale Inhalte wie Videos, Fotos, Texte oder Grafiken erstellt und online veröffentlicht. Diese Inhalte können in verschiedenen Formaten und auf verschiedenen Plattformen wie YouTube, Instagram, Blogs, Podcasts und Social Media geteilt werden. Content-Moderator:in: eine Person, die für die Überwachung, Überprüfung und Filterung von Inhalten auf Onlineplattformen oder in sozialen Medien verantwortlich ist, um sicherzustellen, dass sie den Community-Richtlinien, Nutzungsbedingungen und ethischen Standards entsprechen. Die Aufgaben eines Content-Moderators umfassen das Identifizieren und Entfernen von unangemessenem, beleidigendem oder schädlichem Inhalt, das Beantworten von Benutzeranfragen und das Aufrechterhalten einer positiven und sicheren Online-Umgebung. Data Mining: der Prozess der Entdeckung von Mustern und Wissen in großen Datenmengen. Datenschutz: bezieht sich im Zusammenhang mit KI auf den Schutz der persönlichen Daten des Einzelnen. KI-Systeme verarbeiten häufig sensible Informationen, weshalb es von entscheidender Bedeutung ist, dass diese auf ethische und sichere Weise verwendet werden und dass die Privatsphäre des Einzelnen angemessen geschützt wird.
215
Schmidt - Fast Forward 150x210 KORR3.indd 215
18.01.24 18:18
Deep Learning (DL): ein Teilbereich des maschinellen Lernens, der neuronale Netze mit vielen Schichten (tiefe neuronale Netze) verwendet, um Daten zu analysieren und daraus zu lernen. Differential Privacy: eine Datenschutztechnik, die entwickelt wurde, um individuelle Daten in statistischen Analysen zu schützen. Sie funktioniert, indem sie zufällige Rauschdaten zu den tatsächlichen Daten hinzufügt, um die Identifizierung einzelner Personen zu verhindern. Differential Privacy ermöglicht die Analyse von Daten, während gleichzeitig die Privatsphäre der Benutzer:innen geschützt wird, und findet Anwendung in Bereichen wie im Gesundheitswesen, in sozialen Studien und statistischen Auswertungen. Digital Divide (digitale Kluft): bezieht sich auf die soziale und wirtschaftliche Kluft, die durch den Unterschied im Zugang zu und in der Nutzung von digitalen Technologien entsteht. Sie tritt auf, wenn bestimmte Bevölkerungsgruppen oder Regionen eingeschränkten oder keinen Zugang zu Internet, Computern oder digitalen Diensten haben. Dieser digitale Graben kann Bildungs- und Beschäftigungschancen beeinflussen und die gesellschaftliche Ungleichheit verstärken. Digitaler Humanismus: eine Denkschule, die den menschlichen Interessen und Werten bei der Entwicklung und Umsetzung digitaler Technologien, einschließlich KI, Vorrang einräumt, um sicherzustellen, dass diese Technologien den menschlichen Fähigkeiten dienen und diese erweitern, ohne die Menschenrechte oder die Autonomie der Menschen zu verletzen. Digitaler Zwilling: ein virtuelles Modell eines Prozesses, Produkts oder einer Dienstleistung. Diese Verknüpfung der virtuellen und der physischen Welt ermöglicht die Analyse von Daten und die Überwachung von Systemen in einer Weise, die im Idealfall Probleme vermeidet, bevor sie auftreten, und Ausfallzeiten verhindert. Ein digitaler Zwilling kann auch genutzt werden, um neue Möglichkeiten zu entwickeln und mithilfe von Simulationen für die Zukunft zu planen. Distance Learning: eine Form des Lernens, bei der Bildungsinhalte und Lehrmaterialien über digitale Technologien an entfernte Lernende vermittelt werden. Dies ermöglicht es den Lernenden, unabhängig von ihrem physischen Stand-
216
Schmidt - Fast Forward 150x210 KORR3.indd 216
18.01.24 18:18
ort auf Inhalte zuzugreifen und Kurse online zu absolvieren. Distance Learning findet in verschiedenen Formen statt, darunter Online-Kurse, virtuelle Klassenzimmer und E-Learning-Plattformen, und hat insbesondere in den letzten Jahren aufgrund von technologischen Fortschritten und globalen Ereignissen wie der COVID-19-Pandemie an Bedeutung gewonnen. E-Proctoring (elektronisches Proctoring): eine Technologie, die in OnlinePrüfungsumgebungen verwendet wird, um die Integrität von Prüfungen sicherzustellen. Es beinhaltet die Überwachung von Prüfungsteilnehmern mithilfe von Webcams, Mikrofonen und Bildschirmaufzeichnungen, um unzulässiges Verhalten wie Betrug oder Plagiate zu erkennen. Exploration-Exploitation Trade-off: ein Ansatz in künstlicher Intelligenz, bei dem KI-Systeme bewusst eine Balance zwischen dem Erkunden neuer Handlungen (Exploration) und der Ausnutzung bekannter Handlungen (Exploitation) finden. Dies bedeutet, dass KI-Systeme gelegentlich absichtlich Fehler machen, um neue Informationen zu sammeln und ihre Entscheidungsstrategien zu verbessern. Feature-Engineering-Techniken: Ansätze in der Datenanalyse und im maschinellen Lernen, die darauf abzielen, relevante und aussagekräftige Merkmale (Features) aus den Rohdaten zu extrahieren oder zu generieren. Häufig resultiert dies in einer Dimensionsreduktion, um die Effizienz eines Modells zu steigern. Federated Learning: eine maschinelle Lernmethode, bei der Modelle auf dezentralen Geräten oder Servern trainiert werden, ohne dass die Rohdaten zentralisiert werden. Stattdessen werden Modelle an den Standorten der Datenquellen trainiert, und nur die aktualisierten Modellgewichtungen werden zur Aggregation an einen zentralen Server gesendet. Dies ermöglicht Datenschutz, da die sensiblen Daten nicht übertragen werden, und fördert die Zusammenarbeit in verteilten Umgebungen, wie beispielsweise im Internet der Dinge (IoT) oder auf mobilen Geräten.
217
Schmidt - Fast Forward 150x210 KORR3.indd 217
18.01.24 18:18
Gender Bias: bezieht sich auf Vorurteile oder Diskriminierung aufgrund des Geschlechts, bei denen bestimmte Geschlechter bevorzugt oder benachteiligt werden. Dies kann in verschiedenen Bereichen auftreten, einschließlich der Arbeitswelt, Bildung und Gesellschaft. Gender Bias kann bewusst oder unbewusst auftreten und hat oft negative Auswirkungen auf die Gleichstellung der Geschlechter und die Chancengleichheit. Generative KI: bezieht sich auf eine Art von KI, die neue Inhalte erzeugt, z. B. in Form von Bildern, Liedern oder Texten. Diese Art von KI kann ohne vorherige Eingabe oder auf der Grundlage explizit ausgearbeiteter Richtlinien neue Inhalte erzeugen. Gig Economy: Die Gig Economy, auch bekannt als „Projekt- oder Gelegenheitswirtschaft“, beschreibt eine Arbeitsweise, bei der Menschen kurzfristige, projektbasierte oder freiberufliche Tätigkeiten ausführen, oft über digitale Plattformen oder Apps vermittelt. Die Arbeitnehmer:innen, oft als „Gig-Arbeiter:innen“ bezeichnet, arbeiten flexibel und können verschiedene Aufträge für unterschiedliche Arbeitgeber:innen ausführen. GPT (general-purpose technology, Allzwecktechnologie): eine Art von Technologie, die die Gesellschaft erheblich verändern kann, wie die Dampfmaschine, die Elektrizität oder das Internet, indem sie sich auf verschiedene wirtschaftliche und soziale Strukturen auswirkt. Im Zusammenhang mit KI bezieht sich GPT auf das transformative Potenzial von KI in zahlreichen Bereichen. Dies ist nicht mit GPTs (generative pretrained transformers) zu verwechseln, einer Art von KI-Sprachmodell, zu dem auch OpenAIs ChatGPT gehört. IKT (information and communications technology, Informations- und Kommunikationstechnologie): Technologien, die für die Erfassung, Speicherung, Verarbeitung, Übertragung und Darstellung von Informationen verwendet werden und Hardware, Software, Netzwerke und digitale Dienste umfassen. Impact-Entrepreneur: Ein Impact-Entrepreneur, auch bekannt als Social Entrepreneur, ist eine Person, die ein Unternehmen gründet oder leitet, dessen Hauptziel darin besteht, soziale oder Umweltauswirkungen neben finanzieller
218
Schmidt - Fast Forward 150x210 KORR3.indd 218
18.01.24 18:18
Rentabilität zu erzielen. Diese Unternehmer:innen verfolgen nicht nur finanzielle Gewinne, sondern setzen sich aktiv für positive Veränderungen in der Gesellschaft oder der Umwelt ein. Impact Measurement: bezieht sich auf den Prozess der Bewertung und Quantifizierung der Auswirkungen oder Ergebnisse einer sozialen oder ökologischen Initiative, eines Projekts, einer Organisation oder eines Unternehmens. Das Ziel besteht darin, die tatsächlichen Veränderungen und Fortschritte in Bezug auf soziale, Umwelt- oder gemeinnützige Ziele zu verstehen und zu dokumentieren. Jevons-Paradoxon: eine ökonomische Beobachtung, die besagt, dass der Gesamtverbrauch einer Ressource nicht ab-, sondern zunimmt, wenn technische Verbesserungen die Effizienz ihrer Nutzung erhöhen. Dies geschieht, weil die geringeren Kosten für die Nutzung der Ressource zu einer erhöhten Nachfrage führen. Benannt ist das Paradoxon nach dem englischen Wirtschaftswissenschaftler William Stanley Jevons, der es erstmals in Bezug auf den Kohleverbrauch beobachtete. JIT: kurz für „just in time“ (gerade rechtzeitig). Ein Fertigungs- und Bestandsverwaltungskonzept, das sich darauf konzentriert, Waren oder Materialien genau dann zu produzieren und zu liefern, wenn sie benötigt werden, um so die Kosten zu minimieren und die Effizienz zu steigern. KI (künstliche Intelligenz): ein Zweig der Informatik, der sich mit der Entwicklung von Systemen befasst, die in der Lage sind, Aufgaben auszuführen, die normalerweise menschliche Intelligenz erfordern, einschließlich die Verarbeitung natürlicher Sprache, Problemlösung, Lernen und Wahrnehmung, aber nicht beschränkt darauf. Language Model for Dialogue Application (LaMDA): ein von Google entwickeltes Sprachmodell, das speziell für Dialoganwendungen ausgelegt ist. Es zielt darauf ab, natürlichere und kontextuellere Gespräche mit KI-Systemen zu ermöglichen, indem es besseres Verständnis für menschliche Fragen und Antworten bietet.
219
Schmidt - Fast Forward 150x210 KORR3.indd 219
18.01.24 18:18
LLM (large language model, großes Sprachmodell): eine Art von KIModell, das darauf trainiert ist, Sprache zu verstehen, zu erzeugen und Vorhersagen zu treffen. Diese Modelle können in einer Vielzahl von Anwendungen wie Übersetzung, Textvervollständigung und Stimmungsanalyse eingesetzt werden. Sie werden auf großen Mengen von Textdaten trainiert und lernen Muster und Strukturen innerhalb einer Sprache, um fundierte Vorhersagen zu treffen. Love Scam: eine Form von Online-Betrug, bei der Betrüger vorgeben, romantische Absichten zu haben, um ihre Opfer emotional zu manipulieren und finanziell auszunutzen. Menschenzentriertes Design (human-centred design): ein Ansatz zur Problemlösung und Innovation, bei dem das Verständnis und die Berücksichtigung der Bedürfnisse, Vorlieben und Verhaltensweisen der Endnutzer:innen im Vordergrund stehen und in den Mittelpunkt des Designprozesses gestellt werden, um Produkte, Dienstleistungen oder Erfahrungen zu schaffen, die ihren spezifischen Anforderungen entsprechen. ML (machine learning, maschinelles Lernen): ein Teilbereich der KI, der die Entwicklung von Algorithmen umfasst, die es Computern ermöglichen, aus Daten zu lernen und Entscheidungen oder Vorhersagen zu treffen. Neuronales Netz: ein Computermodell, dessen schichtweiser Aufbau der neuronalen Struktur des menschlichen Gehirns ähnelt und das den Prozess des Lernens aus und der Interpretation von Daten unterstützt. NLP (natural language processing, Verarbeitung natürlicher Sprache): ein Bereich der künstlichen Intelligenz, der sich mit der Interaktion zwischen Computern und Menschen in natürlicher Sprache befasst und Maschinen in die Lage versetzt, menschliche Sprache zu verstehen und darauf zu reagieren. Non-Player Characters (NPCs): computergesteuerte Charaktere in Videospielen und anderen virtuellen Welten, die nicht von menschlichen Spieler:innen gesteuert werden, sondern von KI. Sie dienen dazu, die Spielwelt zu bevölkern, Interaktionen zu ermöglichen und Aufgaben im Spiel zu erfüllen.
220
Schmidt - Fast Forward 150x210 KORR3.indd 220
18.01.24 18:18
Open Source: bezieht sich auf Software oder Technologie, die für jeden frei verfügbar ist, um sie zu nutzen, zu verändern und zu verbreiten. Sie zeichnet sich dadurch aus, dass ihr Quellcode offen zugänglich ist, sodass die Benutzer:innen sie untersuchen, verändern und verbessern können. Open-Source-Projekte fördern häufig die Zusammenarbeit und die Beteiligung an der Gemeinschaft, wodurch Innovation und Transparenz bei der Softwareentwicklung gefördert werden. Participation Washing: ein Begriff, der verwendet wird, um auf das Phänomen hinzuweisen, bei dem Organisationen oder Unternehmen vorgeben, die Beteiligung von Menschen in Entscheidungsprozessen oder sozialen Initiativen zu fördern, ohne tatsächlich substanzielle Veränderungen oder Einflussnahme zuzulassen. Es handelt sich um eine Art von Scheinbeteiligung, bei der das Ziel darin besteht, ein positives Image der Organisation zu schaffen, ohne wirklich die Macht oder Kontrolle zu teilen. Dies kann dazu führen, dass legitime Anliegen oder Forderungen der Beteiligten ignoriert oder entkräftet werden. Reinforcement Learning (Verstärkungslernen): eine Art des maschinellen Lernens, bei dem ein Agent lernt, sich in einer bestimmten Umgebung richtig zu verhalten, indem er bestimmte Aktionen ausführt und Belohnungen oder Strafen als Feedback erhält. Robotik: Entwurf, Konstruktion, Betrieb und Verwendung von Robotern, oft unter Einbeziehung von Aspekten von KI. Schwache KI (narrow AI): Diese Art von KI ist auf eine bestimmte Aufgabe ausgerichtet, wie z. B. Spracherkennung, Empfehlungen oder Bilderkennung. Narrow AI kann nichts verstehen oder lernen, wofür sie nicht speziell programmiert wurde. Singularität: Auch als „technologische Singularität“ bekannt, ist dies ein hypothetischer Punkt in der Zukunft, an dem das technologische Wachstum, insbesondere im Bereich von KI, für den Menschen unkontrollierbar und unumkehrbar wird. Es wird davon ausgegangen, dass dies zu unvorhersehbaren Veränderungen der menschlichen Zivilisation führen wird. Die Singularität selbst ist
221
Schmidt - Fast Forward 150x210 KORR3.indd 221
18.01.24 18:18
ein Zeitpunkt, während die Entwicklung der Superintelligenz möglicherweise ein Auslöser für die Singularität sein könnte. Social Scoring: eine Bewertungsmethode, bei der das Verhalten und die Aktivitäten von Einzelpersonen analysiert werden, um ihnen eine Punktzahl zuzuweisen, die Auswirkungen auf verschiedene Aspekte ihres Lebens haben kann, einschließlich ihre sozialen Interaktionen und finanziellen Möglichkeiten. Dieses Scoring-System ist nicht auf den digitalen Raum beschränkt und hat Auswirkungen auf die realen sozialen und wirtschaftlichen Aspekte des Lebens. Superintelligenz: eine hypothetische Form von KI, die den Menschen in den meisten Bereichen wirtschaftlich wertvoller Arbeit und den menschlichen Intellekt in praktisch jedem Aspekt der Problemlösung und Kreativität übertrifft. Testdaten (testing data): der Datensatz, der verwendet wird, um die Genauigkeit eines Machine-Learning-Modells zu testen, nachdem es trainiert wurde. Trainingsdaten (training data): der Datensatz, aus dem der Algorithmus des maschinellen Lernens lernt. In einem überwachten Lernkontext umfassen die Trainingsdaten zum Beispiel sowohl die Eingabedaten als auch die entsprechenden korrekten Ausgaben. Transfer-Lernen (transfer learning): eine Technik im maschinellen Lernen, bei der ein Modell, das auf einer Aufgabe trainiert wurde, auf eine andere, ähnliche Aufgabe angewendet wird. Dabei werden die gelernten Merkmale oder Gewichtungen des ursprünglichen Modells auf die neue Aufgabe übertragen, um die Effizienz und Leistung des Modells zu verbessern. Transfer-Lernen kann die Notwendigkeit reduzieren, große Mengen an Daten für jede neue Aufgabe zu sammeln, und beschleunigt die Modellentwicklung in vielen Anwendungen. Turing-Test: Dieser von dem britischen Mathematiker Alan Turing erfundene Test ist ein Maß für die Fähigkeit einer Maschine, intelligentes Verhalten zu zeigen, das dem eines Menschen gleichwertig oder nicht von ihm zu unterscheiden ist. Wenn eine Maschine den Turing-Test besteht, bedeutet dies, dass sie menschenähnliche Intelligenz gezeigt hat.
222
Schmidt - Fast Forward 150x210 KORR3.indd 222
18.01.24 18:18
Unconscious Bias: Im Kontext von KI bezeichnet Unconscious Bias oder unbewusste Voreingenommenheit die Tendenz von KI-Systemen, bestimmte Muster oder Daten zu bevorzugen, die auf den Vorurteilen basieren, die in den Trainingsdaten vorhanden sind. Dies kann dazu führen, dass KI-Modelle Entscheidungen treffen oder Ergebnisse liefern, die bestimmte Gruppen von Menschen benachteiligen, ohne dass dies von den Entwickler:innen beabsichtigt wurde. Virtual Reality (VR): eine Technologie, die es ermöglicht, computergenerierte virtuelle Welten zu erstellen, in die Benutzer:innen eintauchen können. Dies geschieht oft mithilfe von VR-Headsets, die visuelle und manchmal auch auditive Eindrücke erzeugen, die die Realität simulieren. VR findet Anwendung in verschiedenen Bereichen, darunter Gaming, Bildung, Medizin und Simulationstraining. Web Scraping: eine automatisierte Methode zum Extrahieren von Informationen und Daten aus Webseiten. Es erfolgt durch das Durchsuchen der HTMLQuellcodes von Webseiten, um spezifische Informationen wie Text, Bilder oder Tabellen zu extrahieren. Web Scraping wird häufig in verschiedenen Anwendungen wie Datenanalysen, Wettbewerbsforschung und Content-Aggregation eingesetzt. Wicked Problems: komplexe, schwer zu definierende und schwer zu lösende Probleme, die oft multiple Ursachen und Auswirkungen haben. Sie zeichnen sich durch ihre hohe Ambiguität aus, was bedeutet, dass verschiedene Stakeholder unterschiedliche Ansichten und Perspektiven auf das Problem haben können. Wicked Problems sind oft sozialer, politischer oder wirtschaftlicher Natur und erfordern interdisziplinäre Ansätze und kontinuierliches Lernen, um erfolgreich angegangen zu werden. XAI (explainable AI, erklärbare KI): KI-Systeme, deren Handlungen von menschlichen Expert:innen verstanden werden können. Dies steht im Gegensatz zum Konzept der „Blackbox“ beim maschinellen Lernen, bei dem selbst die Entwickler:innen des Modells nicht erklären können, warum die KI zu einer bestimmten Entscheidung gelangt ist.
223
Schmidt - Fast Forward 150x210 KORR3.indd 223
18.01.24 18:18
Schmidt - Fast Forward 150x210 KORR3.indd 224
18.01.24 18:18
STICHWORTVERZEICHNIS Accountability........................................27, 155 ff., 213 AGI (artificial general intelligence, künstliche allgemeine Intelligenz).....32, 213 AI-based internet of things (AIoT)..................213 Algorithmen........................................................................21 AlphaZero........................................................................ 83 f. Altenpflege.........................................................................79 Arbeitsmarkt.......................................................................19 Arbeitsplätze....................................................... 20, 68 ff. Arbeitswelt.....................................................................68 ff. Architektur...................................................................... 80 f. Augmentation................................................................... 74 Augmentationscluster.......................................... 78 ff. Augmented Reality (AR).....................................213 f. Automatisierung............................................................. 74 Automatisierungscluster..................................... 75 ff. Autonomie....................................................................160 ff. Bauwesen.......................................................................... 80 Behinderung.................................................................53 ff. Bias..............................................................141 f., 147 ff., 214 Big Tech.........................................36, 176 ff., 181 ff., 214 Bildung......................................................................... 7, 92 ff. Bildungstechnologien..............................................104 Bildungswesen...........................................................92 ff. Biodiversität..................................................................126 f. biologische Vielfalt........................................25, 129 ff. Blackbox.............................................................................214 Blackbox-System......................................................153 f. Blade Runner................................................................ 43 f. Chatbots.............................................................31, 48, 214 ChatGPT................................... 7, 35, 39 ff., 92 f., 214 f. Chemikalien......................................................................112 CO2-Emissionen....................................................... 120 ff. CO2-Fußabdruck................................................19, 124 f. Confidence Score..........................................................52
Content Creators.................................................85, 215 COVID-19-Pandemie.................................................109 Cyberangriff......................................................................171 Cyberkriminalität...............................................8, 168 ff. Cybersicherheit................................................... 26, 180 dark factories................................................................... 77 Data Mining.....................................................................215 Datenschutz....................................95, 151 f., 155, 215 Datenwissenschaft.......................................................26 Deep Learning (DL)........................................... 31, 216 Deepfakes...........................................................................36 Demokratie..........................................................................16 Demokratisierung..........................................................28 Digital Divide ....................................................59 f., 216 digitaler Fortschritt......................................................24 digitaler Humanismus....................186, 199 ff., 216 Digitalisierung...........................................................17, 62 Diskriminierung..............................................................55 Distance Learning........................................105, 216 f. Drohnen..............................................................................173 Effizienzparadoxon......................................................118 Einkommensungleichheit.......................................25 ELIZA...................................................................................... 48 Energiemanagement........................................... 132 ff. Energiequellen, erneuerbare......................... 132 ff. Entmenschlichung.......................................................25 Ethik..................................................................................140 ff. Extremismus......................................................................42 Fairness................................................................................27 Fake News.............................................................19, 150 f. Fake-News-Industrie.............................................170 f. Forschung.............................................................28, 114 ff. Fortschritt, digitaler.....................................................24 Fremdsprachen.............................................................100
225
Schmidt - Fast Forward 150x210 KORR3.indd 225
18.01.24 18:18
Gender Bias........................................................................61 generative KI...................................................................218 Gerechtigkeit....................................................................23 soziale G.....................................................16, 25, 47 ff. Gesellschaft, Zukunft............................................. 87 ff. Gesundheitsdaten......................................................154 Gesundheitsversorgung.....................................199 f. Gesundheitswesen..........................20, 49 f., 79, 111 Gleichberechtigung.....................................................38 globale Erwärmung...................................................126 globaler Norden...........................................................106 globaler Süden...................................................38, 57 ff. Greenwashing..................................................................27 Grundeinkommen, bedingungsloses........ 89 f. Hawking Stephen.............................................44, 192 Identitätsdiebstahl.....................................................169 Impact Measurement.................................................. 17 Industrielle Revolution.............................................126 Inklusion..................................................................17, 196 ff. Innovation............................................................................23 Intelligenz, kollektive...................................................71 Intelligenz, maschinelle............................................73 Intelligenzverstärkung...............................................45 Internet..................................................................................59 iPhone....................................................................................42 Jevons-Paradoxon.............................................119, 219 Just-in-Time-Fertigung..............................................76 Kalter Krieg........................................................................22 Kamerafallen...................................................................128 KI, fächerübergreifende...................................... 110 ff. KI, Gefahren................................................................168 ff. KI, generative....................................................................30 KI, Regulierung...........................................184 ff., 187 ff. KI, schwache.....................................................................32 KI, verantwortungsvolle...............................................7 KI-Entwicklung................................................................37 KI-Ethik.............................................................7, 140 ff., 161 KI-Forschung....................................................................37
KI-generierte KI.............................................................163 KI-Gesetz der Europäischen Union.......................... 187 f., 202 f. KI-Kompetenz...................................................................28 KI-Modelle..............................................................17, 184 ff. KI-Strategien.....................................................................37 KI-Technologien............................................................105 Regulierung.......................................................... 201 ff. KI-Verhalten..................................................................157 f. KI-Vorteile.......................................................................194 f. KI-Zukunft...................................................................... 191 ff. Klima- und Geowissenschaften........................113 Klimaktivismus................................................................... 7 Klimapolitik....................................................................137 f. Klimaschutz.......................................................................23 Klimawandel..........................................................17, 125 f. Kreation................................................................................. 74 Kreationscluster........................................................84 ff. Kreativität......................................................................... 81 ff. Kreislaufwirtschaft....................................... 23, 134 ff. künstliche allgemeine Intelligenz.....................32 Landwirtschaft.....................................................24, 77 f. Large Language Models (LLM).........................20 Lebensmittelverschwendung................33, 136 f. Lebensmittelwirtschaft........................................... 137 Lehrende.........................................................................92 ff. Lehrkräfte........................................................................ 99 f. Leitlinien...............................................................................28 Lernen, maschinelles.........................................18, 30 Life-Cycle-Analyse................................................ 122 ff. Love Scam............................................................ 169, 220 Machtmissbrauch.....................................................181 f. Machtungleichgewicht...........................................183 maschinelles Lernen..........................................18, 30 Mauri-Modell................................................................186 f. Menschenrechte.................................................... 16, 28 Militärindustrie......................................................... 176 ff. Militärtechnologie.................................................. 173 ff.
226
Schmidt - Fast Forward 150x210 KORR3.indd 226
18.01.24 18:18
Nachhaltigkeit....................................................................7 ökologische N..........................................................134 Nachhaltigkeitspuzzle..........................................23 ff. Natural-Language Processing (NLP).............31 Naturschutz..................................................................128 f. Netto-null-Welt..............................................................133 neuronale Netze..............................................................31 Objektivität..................................................................144 ff. Ökologie................................................................................27 ökologischer Fußabdruck.........................15, 119 ff. Ökosysteme.............................................7, 126 ff., 129 ff. Open Source.....................................................151 ff., 221 Orwell............................................................................... 101 ff. Pariser Klimaziele.......................................................125 Personalisierung............................................................86 Pflegefamilien...............................................................52 f. Plastikmüll.........................................................................135 Politik................................................................................167 ff. Produktion........................................................................76 f. Produktivität............................................................. 20, 25 Rebound-Effekt..............................................................118 Rechenschaftspflicht.............................................155 f. Recycling.................................................................. 24, 133 Renaturierung........................................................... 129 ff. Risiken.......................................................................................7 Robotik......................................................................... 18, 221 Robotisierung...................................................................25 schwache KI.....................................................................32 Science............................................................................107 ff. Science-Fiction................................................................21 Singularität...................................................... 38 ff., 221 f. Smartphones................................................................... 34 Social Media ..................................................................215 soziale Gerechtigkeit..............................16, 25, 47 ff. soziale Medien.................................................................53 soziale Ungleichheiten..............................................23 Sprache, natürliche.......................................................18 Spracherkennung..........................................18, 31, 54
Sprachkenntnisse................................................... 100 f. Superintelligenz..................................................32, 222 Technologie.......................................................... 23, 72 f. Tech-Titanen.................................................................34 ff. The Line.................................................................................15 Transfer-Lernen ...............................................164, 222 Transformation.................................................................. 17 Transparenz........................................................ 27, 155 ff. Turing Alan................................................................30, 38 Turing-Test.......................................................... 38 ff., 222 Überwachung......................................................16, 178 f. Umwelt......................................................................19, 118 ff. Umweltrassismus........................................................123 Umweltverschmutzung.............................................16 Umweltzerstörung........................................................23 Unconscious Bias...........................................................61 Unterricht........................................................................94 ff. Verantwortung........................................... 140 ff., 156 f. Verstärkungslernen......................................................83 Virtual Reality (VR).......................................... 26, 223 VR-Brille................................................................................95 Wahlmanipulation...................................................172 f. Wahrheitsgehalt......................................................144 ff. Weizenbaum Joseph................................................ 48 Wertschöpfung................................................................62 Wicked Problems..............................................22, 223 Wirtschaftswachstum....................................... 20, 26 Wissenschaft...................... 7, 25, 92 ff., 107 ff., 113 ff.
227
Schmidt - Fast Forward 150x210 KORR3.indd 227
18.01.24 18:18
DANKSAGUNG Wir möchten unsere tiefe Dankbarkeit für die Umstände zum Ausdruck bringen, die es uns ermöglichten, als Autor:innenteam zusammenzukommen und dieses Buch zu schreiben. Auf dem Weg zur Veröffentlichung haben uns zahlreiche Personen unschätzbare Hilfe und Unterstützung geleistet. In erster Linie möchten wir den Redner:innen und Teilnehmer:innen unserer virtuellen Optimist-CaféSitzungen danken. Ihre Bereitschaft, ihr Wissen und ihre Einsichten mit uns zu teilen und sich an anregenden Diskussionen zu beteiligen hat maßgeblich zur Entstehung dieses Buches beigetragen. Ihre Bereitschaft, uns mit schwierigen Fragen herauszufordern, schätzen wir ganz besonders. Zu diesen wunderbaren Menschen gehören Ana Simic, Johannes (Yogi) Jäger, Martin Giesswein und Loïc Lannelongue sowie Alexandra Deutsch, Alice Behrendt, Anna Christine Enzinger, Alexander Führer, Claudia Huber, Daniel Tabacaru Jæger, Darshini Waibel, Dominik Frey, Elaine Paplos, Iris Kühn, Juliana Aufschnaiter, Juliane van Voorst tot Voorst, Kirstie Riedl, Mariana Di-Bella, Marius Reinke, Nina Meinel, Ruth Freedom Pojman, Sonja Donauer-Dums, Virginie Staal und viele andere. Wir danken unserer Lektorin Barbara Serfozo für die Überarbeitung des ursprünglichen englischen Manuskripts unter hohem Zeitdruck und für ihre scharfsinnige Lektüre des Textes. Ein besonderer Dank geht auch an Laetitia Antonowicz, die das Kapitel über Bildung und Wissenschaft kritisch durchgesehen hat und damit einen höchst willkommenen und aufschlussreichen Realitätscheck lieferte. Weiters bedanken wir uns bei Sigrid Neulinger und allen Verlagsmitarbeiter:innen sowie Katharina Schindl für die effiziente und vertrauensvolle Zusammenarbeit an diesem Buch. Besonderer Dank gebührt auch Beate Schmidt und Lea Schenner, ohne die diese Zusammenarbeit vielleicht nie entstanden wäre. Bei Beate Schmidt bedanken wir uns außerdem für die hilfreiche Unterstützung im Korrektorat sowohl der englischen als auch der deutschen Ausgabe von Fast Forward.
228
Schmidt - Fast Forward 150x210 KORR3.indd 228
18.01.24 18:18
Darüber hinaus möchten wir uns bei den zahlreichen Kolleg:innen, Mitarbeiter:innen, Freund:innen und Multiplikator:innen bedanken, die zwar nicht direkt zu diesem Buch beigetragen haben, uns aber mit ihren Erkenntnissen und ihrem Fachwissen über künstliche Intelligenz, Nachhaltigkeit, Regeneration und gesellschaftlichen Wandel inspiriert und unseren Horizont erweitert haben. Schließlich möchten wir uns bei unseren Studierenden aus aller Welt bedanken, mit denen wir während der Arbeit an diesem Buch das Vergnügen hatten, uns auszutauschen. Ihr Enthusiasmus und ihre Fragen in Bezug auf KI und Nach haltigkeit haben uns auf Trab gehalten, da wir stets bemüht sind, mit der jüngeren Generation und deren Themen in Kontakt zu bleiben.
229
Schmidt - Fast Forward 150x210 KORR3.indd 229
18.01.24 18:18
ÜBER DIE AUTOR:INNEN Alice Schmidt ist eine angesehene Expertin, Leadership-Trainerin und Rednerin für Nachhaltigkeit und soziale Transformation (www.aliceschmidt.at). Mit 25 Jahren Erfahrung in 30 Ländern berät, berührt und inspiriert sie Menschen in Organisationen aller Art, von den Vereinten Nationen, der Europäischen Kommission und NGOs bis zu Großkonzernen in sämtlichen Branchen. Alice Schmidt ist Senior Lecturer an der Wirtschaftsuniversität Wien und MIT-Klimabotschafterin. Als Mitglied zahlreicher Expertengremien trägt sie die Fahne der Nachhaltigkeit. Ihre Leidenschaft gilt der Schaffung messbarer positiver Ergebnisse für Menschen und den Planeten, die sie in energiegeladenen Keynotes und Sustain ability-Workshops teilt. Alice Schmidt publiziert regelmäßig zu Zukunftsthemen und hat gemeinsam mit Claudia Winkler das Buch „The Sustainability Puzzle: How systems thinking, circularity, climate action and social transformation can improve health, wealth and wellbeing for all“ verfasst (www.sustainability-puzzle.org). Claudia Winkler ist eine renommierte Innovatorin und preisgekrönte Unternehmerin. Mit mehr als zwanzig Jahren Erfahrung in der IKT-Branche hat sie sich auch in Aufsichtsräten führender Telekommunikationsunternehmen in Mittel- und Osteuropa einen Namen gemacht. Ihr Antrieb ist es, eine Zukunft zu gestalten, die Sinn stiftet und Wohlstand für die Gemeinschaft fördert. Im Zuge dieser Bestrebung gründete sie das erste europäische Telekommunikationsunternehmen mit B-CorpZertifizierung, welches für höchste soziale und ökologische Standards steht. Ihre Passion für die Entwicklung digitaler Produkte und Dienstleistungen nutzt Claudia Winkler, um herkömmliche Geschäftsmodelle neu zu denken und den Weg für eine nachhaltige Zukunft zu ebnen. Als Co-Autorin des Buches „The Sustainability Puzzle“ und in ihrer Rolle als gefragte Rednerin und Beraterin teilt sie weltweit ihre Expertise zu Nachhaltigkeit, Innovation und zur digitalen Transformation.
230
Schmidt - Fast Forward 150x210 KORR3.indd 230
18.01.24 18:18
Florian Schütz ist ein erfahrener Unternehmer, der digitale Transformation und aufstrebende Technologien vorantreibt. Er leistete Pionierarbeit bei der Anwendung von KI zur Analyse und Auswertung von Kommunikation in sozialen Medien in Europa und integrierte sein Unternehmen erfolgreich in den Betrieb eines führenden globalen Marktforschungsunternehmens. Florian Schütz’ Fachwissen erstreckt sich über die Bereiche Technologie, Multimedia und künstliche Intelligenz. Seine Leidenschaft gilt neuesten technologischen Entwicklungen. Durch sein Talent, technische Fähigkeiten mit Kunst zu vereinen, bereichert er aktuell seine Kunstwerke mit KI. Seine Werke zeichnen sich durch intellektuelle Klarheit, konzeptionelle Ordnung und inspirierende Botschaften aus. Florian Schütz’ Kunst transportiert oft politische Aussagen, indem er Textfragmente, Typografie und Komposition kombiniert, um eine rätselhafte und fesselnde Erfahrung zu schaffen. Entdecken Sie seine Werke auf www.floschuetz.com. Jeroen Dobbelaere ist Zellbiologe und Nachhaltigkeitsmanager, der es als seine Aufgabe versteht, die Wissenschaft fit für eine nachhaltige Zukunft zu machen. Er kann mehr als 20 Jahre wissenschaftliche Erfahrung an renommierten Universitäten wie der University of Cambridge, der ETH Zürich, der Universität Wien und der UGent vorweisen und kennt die Besonderheiten der akademischen Welt. Er hat zahlreiche wissenschaftliche Arbeiten in hochrangigen Fachzeitschriften veröffentlicht und ist mit dem internationalen Konferenzgeschehen bestens vertraut. Als leidenschaftlicher Gärtner und Naturliebhaber bemüht sich Jeroen Dobbelaere, die Forschung durch die Linse der ökologischen Nachhaltigkeit zu betrachten. Er gründete die Climate@MaxPerutzLabs in Wien, veröffentlichte mehrere Artikel über die Notwendigkeit eines nachhaltigen Wandels im akademischen Bereich und entwickelte mehrere Kurse und Lehrmittel. Da er nicht länger darauf warten wollte, dass sich die akademische Welt ändert, beschloss Jeroen Dobbelaere, seine aktive Forschungstätigkeit einzustellen, und wirkt nun als Nachhaltigkeitsmanager am Institute of Science and Technology Austria (ISTA).
231
Schmidt - Fast Forward 150x210 KORR3.indd 231
18.01.24 18:18
Schmidt - Fast Forward 150x210 KORR3.indd 232
18.01.24 18:18