Künstliche Intelligenz
Seit ChatGPT und Dall-E von einer breiten Masse genutzt werden, ist es schwer, die Anwesenheit von künstlicher Intelligenz in unserem Alltag zu ignorieren. Aber was ist Künstliche Intelligenz (KI) eigentlich und welchen Einfluss haben diese Technologien auf unsere Welt?
Die Abkürzung AI wird in diesem Zusammenhang auch oft verwendet und ist einfach die Abkürzung der englischen Übersetzung „Artificial Intelligence“.
Was haben dein Social Media Stream, der Sprachassistent deiner Tante und selbstfahrende Autos gemeinsam? Sie alle sind digitale Technologien, in die künstlich-intelligente Systeme eingebettet sind. Künstliche Intelligenz ist also nicht „ein“ Ding. Eigentlich ist künstliche Intelligenz ein großes Forschungsfeld, das versucht, menschliche Fähigkeiten mithilfe von Informatik in Maschinen und Computern nachzubauen.
Welches Gesicht ist echt?
KI-Systeme können schon ziemlich gute Bilder erfundener menschlicher Gesichter errechnen. Bei diesem Spiel werden dir zwei Bilder gezeigt, eines von einem existierenden menschlichen Gesicht und ein Bild von einem KI-generierten Gesicht: Erkennst du, welches echt ist?
Wie „Which Face Is Real“ zeigt, kommen Bilder KI-generierter Gesichter den echten Fotos real exisiterender Menschen schon sehr, sehr nah. Die kleinen Stellen, die uns heute noch irritieren und verraten, dass ein Bild sicherlich „KI-generiert“ oder „fake“ ist, sind bei besseren Modellen schon verschwunden. Wie schnell die Verbesserung generativer KI-Systeme voranschreitet, kannst du an folgenden Bildern erahnen.
Was können künstlich-intelligente Systeme bereits und was sind verbreitete Mythen über KI? Die grundlegenden Möglichkeiten von künstlich-intelligenten Systemen, deren Funktionen, Chancen, aber auch die gesellschaftlichen Risiken und Herausforderungen kannst du in diesem E-Learning Kapitel kennenlernen.
inhaltsverzeichnis
Was können unterschiedliche KI-Systeme heute schon?
Was können unterschiedliche KI-Systeme heute schon?
Herausforderungen die KI-Systeme mitbringen
Herausforderungen die KI-Systeme mitbringen
Was können unterschiedliche KI-Systeme heute schon?
Selbstfahrende Autos sind keine utopische Vision der Zukunft mehr. Du kannst dir Aufsätze, Geschäftsbriefe und Gedichte von künstlich intelligenten Systemen erstellen lassen. Und auch wenn du dich bei einem Kund:innendienst meldest, weil es mal wieder Probleme mit deiner Bestellung oder Lieferung gibt, triffst du meist zunächst auf einen Bot und kommunizierst nicht direkt mit einem Menschen.
KI-Systeme in deinem Leben gibt es nicht erst seit kurzem. Die meisten Menschen verwenden schon sehr viel länger KI-Systeme, als ihnen bewusst ist. Wie sieht es zum Beispiel mit der Werbung aus, die du in deinem News Feed vorgeschlagen bekommst? Gibt es diese Werbung erst seit kurzem oder schon seit du begonnen hast Social Media und das Internet zu nutzen? Ja, ganz richtig, die Werbung nervt uns schon länger als ein Jahr. Diese sogenannten Empfehlungssysteme oder aus dem Englischen „recommender systems“ begegnen uns in unserem Surfalltag immer und immer wieder.
Empfehlungssyteme (engl. recommender systems) empfehlen uns nicht zufällig Dinge, die uns interessieren. Dahinter stecken Berechnungen algorithmischer Systeme. Aus Daten unseres Surfverhaltens oder unserer Social Media Aktivitäten werden Profile erstellt(„ Profiling“), um uns Webseiteninhalte, Suchmaschinenergebnisse oder Produkte vorzuschlagen. KI-Systeme werden nicht nur in der digitalen Welt, die wir privat nutzen, eingesetzt. Ebenso nutzen Unternehmen diese bereits häufig in der Personalplanung zum Bewerten und Reihen von Bewerbungen. Auch im Straßenverkehr verwenden Menschen KI-Systeme, um zum Beispiel die Zeitschaltung von Ampelsystemen zu planen. Auch die Forschung macht sich KI-Modelle zunutze und setzt sie zum Beispiel bei der Entwicklung neuer Medikamente ein.
Schau dir an, was künstlich intelligente Systeme können!
Im Web gibt es unzählige KI-Systeme, die du ausprobieren kannst. Beachte! Viele der Systeme verarbeiten deine Daten und speichern deine Eingaben, um ihre Algorithmen so zu verbessern.
Ein Beispiel ist Quick Draw von Google, welches versucht, deine Skizzen zu erkennen: www.quickdraw.withgoogle.com
Auch hier – dieses KI-System speichert deine Skizzen!
Mit Hilfe von KI bietet ein Wiener Unternehmen beispielsweise an, Texte und Videos in Gebärdensprache zu übersetzen und für Gehörlose zugänglich zu machen: www.simax.media.
Manche dieser Bilderkennungs-KI-Systeme haben auch guten Datenschutz:
- Die App Flora Incognita wird von einer deutschen Uni entwickelt. Du kannst sie auch ohne einen Account zu haben oder deinen Standort freizugeben nutzen. Mit dieser App kannst du herausfinden, wie diese wunderschöne Blume, die es schafft, zwischen Straße und Hauswand zu wachsen, heißt.
- Auf ki-menschlich-erklärt, kannst du bei einem datenschutzfreundlichen KI-Modell testen, wie gut es Gesichter erkennt und was du tun kannst, damit dein Gesicht von diesem System nicht als Gesicht erkannt wird.
Mythen der künstlichen Intelligenz
Was fällt dir spontan ein, wenn du an „künstliche Intelligenz“ denkst?
Ein Roboter, der die Weltherrschaft an sich reißen möchte. Künstliche Intelligenz ist objektiv und trifft immer bessere Entscheidungen als Menschen. Künstliche Intelligenz kann alle Probleme lösen.
Achtung! Wenn dir diese Gedanken in den Kopf gekommen sind, sei dir bewusst, das sind alles Geschichten und Bildern, die aus der Popkultur oder Science-Fiction Romanen beziehungsweise Filmen stammen. Oft steckt vielleicht ein kleines Fünkchen Wahrheit in diesen Geschichten. Das Ausmaß und die Spannung der Geschichten wird aber durch Übertreibung und das Weiterspinnen von bestehendem Wissen, Technologien und Gedanken zum Thema KI erzeugt.
Im folgenden kannst du dir anschauen, was gängige Mythen rund um KI sind und was tatsächlich hinter diesen Geschichten steckt und unser Leben beeinflusst oder beeinflussen kann.
Was ist Künstliche Intelligenz?
Wir wissen jetzt, wo und wie wir KI-Systeme im Alltag verwenden und was KI-Systeme nicht sind. Aber was steckt jetzt eigentlich genau dahinter? In diesem Kapitel nähern wir uns dem Begriff der künstlichen Intelligenz, überlegen, wie man gut über KI-Systeme spricht und lernen grob, welche unterschiedlichen KI-Systeme es gibt.
Der Begriff „Künstliche Intelligenz“ wird sehr häufig verwendet, ohne klar zu sagen, um welche Technologie es genau geht. Dabei wird oft verschleiert, dass – wie alle Technologien – auch KI von Menschen entwickelt wird. KI-Systeme sind also von Menschen gemachte Technologien.
Was noch? KI-Forschung umfasst ein großes Fachgebiet innerhalb der Informatik. Forschende beschäftigen sich in diesem Bereich mit der Automatisierung von dem, was wir Menschen unter intelligentem Verhalten verstehen. Wenn du dir in diesem Kapitel ansiehst, welche unterschiedlichen Technologien wir momentan unter dem Begriff KI zusammenfassen wird dir auch klarer, dass es sich zum Teil auch mehr um einen Marketingbegriff als eine technische Definition handelt.
Um eine Technologie als KI zu benennen, braucht diese zwei weitere Eigenschaften. Zum einen braucht die Technologie Autonomie. Also ein gewisses Maß an Selbstständigkeit. Autonomie kann man auch beschreiben, als eine Fähigkeit von Technologie, die ohne dauerhaft von Menschen überwacht oder gesteuert zu werden komplexe Aufgaben erledigen kann. Dabei können wir zum Beispiel an selbstfahrende Autos denken. Eine zweite wichtige Eigenschaft, um eine Technologie als „intelligent“ zu beschreiben, ist die Anpassungsfähigkeit. Als anpassungsfähig gilt ein System, dem es möglich ist, aus Erfahrungen und neuen Daten zu „lernen“ und bessere Ergebnisse zu erzielen.
Eine Definition von Nils Nilsson, einem KI-Forscher an der Universität Stanford, lautet:
„Künstliche Intelligenz ist jene Aktivität, die sich dem intelligent machen von Maschinen widmet und Intelligenz ist jene Qualität, die es einer Entität ermöglicht in ihrer Umwelt angemessen und mit Voraussicht zu funktionieren.“
Definitionen von KI gibt es viele und sie bleiben weiterhin umstritten. Die Schwierigkeit zu definieren, was genau KI-Systeme sind, liegt unter anderem auch darin, dass die Beschreibung von dem, was „Intelligenz“ ist, sehr schwierig ist und nicht abschließend beantwortet werden kann.
Wie über KI sprechen?
Vielleicht ist es dir schon aufgefallen: Wir sprechen in dem Kapitel weder von „der“ Künstlichen Intelligenz als eine handelnde Agentin, wenn es um ein KI-Werkzeug geht, noch nutzen wir die in Umgangsprache und Nachrichten üblichen Formulierungen wie „Erstes von KI gezeichnetes Graffiti …“ (www.w24.at/News) oder „KI kann Herkunft des primären Tumors erkennen“ (www.mdr.de/wissen). Das ist eine bewusste Entscheidung, um dem Missverständnis KI hätte eigene Handlungsmacht, würde autonom agieren oder menschliche Eigenschaften haben, wie träumen oder halluzinieren, entgegenzuwirken.
Geschichte Künstlicher Intelligenz
Künstlich-intelligente Systeme nutzen wir nicht erst seit gestern in unserem Alltag, wie wir zu Beginn dieses Kapitels schon bemerkt haben. Schon vor dem aktuellen Höhenflug von KI-Systemen wie ChatGPT von openAI, bard von Google oder Open Source-Modellen wie GPT4All oder Automatic1111 waren KI-Systeme schon im Alltag vieler unbemerkt präsent.
Die Anfänge von KI im Sinne einer wissenschaftlichen Disziplin reichen noch viel weiter zurück. Sogar bis in die 1940-er Jahre! Warte … gab es da überhaupt schon Computer? In den 1940-er Jahren steckte die Entwicklung des Computers noch in den Kinderschuhen. Erinnern wir uns jetzt wieder an einen alten Bekannten aus Kapitel 4 zum Thema Digitale Verschlüsselung, der zu dieser Zeit gelebt und gewirkt hat ... Na??? ... Genau! Alan Turing! Die zahlreichen wissenschaftlichen Erfindungen von Alan Turing bescherten ihm den Titel „Gründervater der Informatik“. Seine Erfindungen waren für die technologische Entwicklung von KI-Systemen grundlegend und sind es bis heute.
Dazu zählt die nach ihm benannte Turing-Vollständigkeit (1936). Eine universelle Turingmaschine kann alle berechenbaren Funktionen berechnen. Ist also nicht von vornherein auf bestimmte Anwendungen und Rechenoperationen beschränkt. Unsere Computer sind solche Maschinen. Und schließlich der Turing-Test (1950), der bis heute Anwendung findet, um herauszufinden, ob eine Maschine intelligentes und damit menschliches Verhalten zeigt.
Turing-Test
Eine Person kommuniziert durch ein Computersystem mit einer Maschine, weiß jedoch nicht, ob gerade eine Maschine oder ein Mensch antwortet. Wenn die Person nach dem Gespräch nicht ausschließen kann, dass es sich um einen Menschen handelt, hat die Maschine den Turing-Test bestanden und kann als „intelligent“ bezeichnet werden.
Der Begriff „Künstlichen Intelligenz“ kommt aus dem Jahr 1956. „Künstliche Intelligenz“ wurde zuerst von John McCarthy und anderen Forschern verwendet, um ihren Vorhaben einen gut klingenden und verkaufbaren Namen zu geben. In den folgenden Jahren gab es bedeutende Fortschritte, darunter die Entwicklung des Perzeptrons durch Frank Rosenblatt im Jahr 1958.
In den 1970-er Jahren gab es einige Rückschläge und Herausforderungen in der KI-Forschung. Es folgte der erste "KI-Winter". Es gab wenig Geld für Forschung und weniger Erfolge. In den 1980-er Jahren gab es Aufwind: Es entstanden bekannte Expertensysteme, [davon erfährst du später mehr]. Diese Systeme nutzen Regeln und Wissen von Expert:innen auf bestimmten Gebieten, um komplexe Probleme zu lösen.
In den späten 1980-er und frühen 1990-er Jahren folgte ein zweiter „KI-Winter“. Es gab überhöhte Erwartungen und nur unzureichende Fortschritte.
Ab den späten 1990er Jahren erlebte die KI-Forschung einen neuen Aufschwung. Dieser war angetrieben durch Fortschritte in der Rechenleistung, Algorithmen und Datenverfügbarkeit. Aus dieser Zeit stammt die Entwicklung moderner maschineller Lernverfahren und tiefe neuronale Netze zur breiten Anwendung von KI-Technologien in verschiedenen Bereichen wie Bilderkennung, Sprachverarbeitung und autonomen Fahren.
Das Chinesische Zimmer
Das chinesische Zimmer ist ein Gedankenexperiment, welches infrage stellt, ob nur die Tatsache, dass eine Maschine auf eine Frage korrekt und identisch zu einem Menschen antwortet, deswegen schon als intelligent zu bezeichnen ist: Es befindet sich eine Person, die kein Chinesisch spricht, in einem Raum und erhält eine Frage auf Chinesisch. Nur anhand der Bücher, Unterlagen und Anweisungen im Zimmer antwortet die Person korrekt – also so, dass eine sich außerhalb des Raumes befindende, chinesisch sprechende Person annimmt, dass die Person Chinesisch kann.
KI und angrenzende Gebiete
Bereiche, die richtigerweise oft in Zusammenhang mit KI gebracht werden, aber nicht ausschließlich dem Gebiet der Künstlichen Intelligenz angehören, sind Robotik, Big Data und Statistik. Es gibt Überschneidungen der Felder Robotik und KI, aber das Feld der Robotik ist viel größer als nur diese Schnittmenge. Manche Roboter verwenden KI, wenige KI-Systeme haben was mit Robotern zu tun. Big Data ist das Feld der Verarbeitung gigantischer Datenmengen, wie sie im Zuge der Digitalisierung anfallen und worin herkömmliche Methoden der Verarbeitung und Analyse nicht mehr funktionieren. Wie schon besprochen, ist das massive Aufkommen digitaler Daten ein Fundament für KI. Auch Statistik ist ein von KI zu trennender Bereich: Sowohl die anfänglichen als auch die neuesten KI-Systeme nutzen statistische Methoden, allerdings beschäftigt sich die Statistik als Disziplin mit der Analyse von Daten und dem Erarbeiten und Stützen von Thesen.
Ist KI gleich KI? – Begriffe und Abgrenzungen
In dem Gebiet der Künstlichen Intelligenz wird zwischen spezifischer und allgemeiner KI unterschieden.
Ein KI-System der spezifischen KI (engl.: Narrow AI) wir für eine bestimmte Aufgabe eingesetzt, also zum Ausführen einer bestimmte Tätigkeit genutzt. Könnte ein KI-System mehrere sehr unterschiedliche Aufgaben lösen, würde es als allgemeine KI (engl.: General AI) bezeichnet werden.
Eine weitere, synonyme Unterscheidung von künstlich-intelligenten Systemen ist die in schwache und starke KI (engl.: Weak and Strong AI werden als Synonyme zu Narrow und General AI verwendet). Ein KI-System wird als starke KI bezeichnet, wenn es wirklich „intelligent“ ist. Als schwache KI wird ein System bezeichnet, wenn es nur „intelligentes“ Verhalten aufweist – also für einzelne Aufgaben genutzt werden kann (z. B. Route planen, Text erstellen, Spiel gewinnen, Bild generieren).
Spezifische KI oder schwache KI kann gleich verwendet werden. Alle KI-Systeme, die es bis heute gibt, fallen in diese Kategorie. Eine starke KI oder allgemeine KI (auf Englisch wird eben oft von AGI – Artificial General Intelligence gesprochen) könnte eigenständig denken, wie ein Mensch und verschiedene komplexe Aufgaben übernehmen und vollständig autonom „handeln“. Diese Art der KI-Systeme gibt es derzeit nicht.
Hat KI ein Bewusstsein?
Derzeit existierende KI-Systeme haben kein menschliches Bewusstsein. Vielmehr simulieren KI-Systeme Teilbereiche von Bewusstsein oder Verhalten, welches ein Vorhandensein von Bewusstsein vortäuscht. Die Definition von Bewusstsein ist vielschichtig und komplex. Es kann gemeint sein, Gedanken zu haben, Wahrnehmungen „erleben“ zu können, Entscheidungen treffen zu können oder um sich selbst zu wissen.
Forschende (unter anderem Psycholog:innen und Kognitionswissenschaftler:innen) versuchen seit langer Zeit anhand von Konzepten und Modellen das menschliche Erleben und Verhalten von Menschen abzubilden. Dazu gehört auch der Versuch, unser eigenes Bewusstsein zu entschlüsseln und verständlich abzubilden. Wissenschafter:innen sind inzwischen schon näher an dieses Ziel herangekommen, dennoch bilden aktuelle Konzepte und Modelle die Komplexität des menschlichen Bewusstseins bei weitem noch nicht komplett ab. Mithilfe von Methoden aus der Informatik wurde nun versucht, dieses Wissen rund um das Erleben und Verhalten von Menschen zu simulieren. Gleichzeitig simulieren Sie Bewusstsein „nur“ und haben keinerlei Zugang zu den Prozessen, die in uns Menschen natürlich ablaufen.
In Zukunft können KI-Systeme menschliches Bewusstsein immer besser nachahmen und uns immer besser davon überzeugen, dass diese Systeme gleich denken oder sogar fühlen könnten wie wir Menschen. Ihre Prozesse sind aber nur eine Simulation, eine Nachbildung des menschlichen Bewusstseins. Zum Beispiel kann ein Roboter uns davon überzeugen, traurig zu sein oder sich zu freuen. Wir Menschen schreiben Maschinen aber auch relativ schnell menschliche Eigenschaften zu, weil wir als soziale Wesen dazu neigen, Menschliches in der Außenwelt zu sehen. KI-Systeme können Wissen über die Umgebung haben, können Entscheidungen treffen und sensorische Inputs interpretieren. Das tun sie völlig anders als Menschen. Die Anatomie von einem menschlichen Auge und einer Kameraaufnahme sind genau so unterschiedlich wie deren weitere Verarbeitung.
Der größte Unterschied von Mensch und Maschine ist aber das fehlende Erleben in Maschinen. Bewusstseinszustände beim Menschen haben einen Erlebnisgehalt, und es ist nicht klar, wie das Gehirn Erleben produziert.
Stell dir vor, es ist Sommer, du bist im Garten und ein gefülltes Glas steht direkt vor dir auf dem Tisch. Wenn du das Glas vor dir siehst und es greifen möchtest, um zu trinken, werden Reize zum Gehirn geleitet, dort verarbeitet und schließlich kannst du mit deiner Hand das Glas greifen. Nichts aber macht es zwingend, dass du das Glas als kalt oder warm wahrnimmst und ein Erleben der Situation in dir erzeugt wird. Dieses subjektive Erleben hängt von unterschiedlichen Dingen ab. Zum Beispiel von äußeren Umständen regnet es oder scheint die Sonne. Genauso hängt es aber auch von eigenen Vorerfahrungen und deiner Stimmung ab. Dieses menschliche und einzigartige Erleben von Umwelt und Verhalten eines jeden Menschen ist noch nicht entschlüsselt. Nichts in der jetzigen Funktionsweise von KI-Systemen deutet auf eine Technologie hin, die auch nur ansatzweise menschliches Erleben erzeugen kann.
Wie funktionieren künstlich-intelligente Systeme?
Künstliche Intelligenz – warum gerade jetzt der ganze Hype?
„Lass das doch einfach ChatGPT für dich erledigen!“. Ist das nicht die Antwort, die man momentan von allen Seiten zu hören bekommt, wenn man einen Text für die Schule schreiben muss oder ein Bewerbungsschreiben und auch wenn man selbst etwas programmieren möchte? Wenn du dann nicht Bescheid weißt und nachfragst: „Was ist denn ChatGPT?“ wirst du meistens die kurze Antwort bekommen „Künstliche Intelligenz“ mit der Hoffnung, dass keine weiteren Fragen kommen. Gut, dass du hier bei uns im E-Learning gelandet bist, denn danach musst du keine Angst mehr vor weiteren Nachfragen haben.
Mit ChatGPT von OpenAI ist die Beschreibung „Künstliche Intelligenz“ also in aller Munde. Aber nicht durch Zufall gab es im Bereich der KI in den letzten zehn Jahren so viele Fortschritte. Maßgeblich für die Weiterentwicklung künstlicher Intelligenz, wie wir sie heute haben, sind große Veränderungen in vor allem drei Bereichen:
Massive Rechenleistung (Hardware)
In Computern werden zig Rechnungen pro Sekunde durchgeführt, aber wie viele das sind, hat sich über die Jahre enorm verändert. Man spricht von einer Vergrößerung der Rechenleistung. Im Englischen wird das auch „Computer“ genannt, also Computing Power. Die erhöhte Rechenpower hängt mit der Weiterentwicklung von GPUs, also Graphics Processing Units zusammen, also den Prozessoren. Es können zunehmend mehr Operationen von den neuesten Computer-Chips ausgeführt werden, weil sie mehr Transistoren auf der gleichen Fläche verbaut haben.
Massive Datenverfügbarkeit
Viele KI-Systeme, besonders aber die im Bereich Maschinelles Lernen, brauchen Unmengen an Daten. Gesichtserkennungssoftware braucht zum Beispiel sehr viele Bilder von menschlichen Gesichtern, um anhand riesiger Datensets Muster zu erkennen. Ohne wissentlich eingewilligt zu haben, werden sehr viele unserer Daten dazu genutzt, KI-Systeme zu trainieren.
Verbesserte Algorithmen (Software)
Frühe KI-Systeme sind mit heutigen kaum zu vergleichen: Nicht nur, wie viele Daten sie verarbeiten und wie schnell sie das machen, sondern auch die Methoden, anhand derer sie das bewerkstelligen sind andere. Die Weiterentwicklung von Lernalgorithmen und der Einsatz von tiefen neuronalen Netzen zum Beispiel ermöglichte es KI-Modellen mit unterschiedlichen neuen Fähigkeiten auszustatten. Was mit all diesen Begriffen genau gemeint ist, schauen wir uns in diesem Kapitel an.
Wie lassen sich gegenwärtige KI-Systeme einteilen?
Da allgemeine/starke KI nicht existiert, beschäftigten wir uns im folgenden Kapitel genauer mit spezifischer/schwacher KI. Dem Teil also, den wir in unserem Alltag häufig verwenden. Manchmal verwenden wir KI-Systeme bewusst, manchmal werden aber auch Entscheidungen über oder für uns von KI-Systemem getroffen, ohne dass wir es ganz genau wissen. Also schauen wir uns einmal an, „Wo unterstützen mich KI-Systeme bereits in meinem Alltag?“ und „Welche unterschiedlichen KI-Systeme werden momentan genutzt?“
Spezifische KI lässt sich in zwei große Gruppen unterscheiden: Die eine Gruppe umfasst symbolische KI-Systeme (auch Expertensysteme genannt), die zweite Gruppe bilden subsymbolische KI-Systeme (werden auch als Lernende Systeme bezeichnet).
Symbolische KI – Expertensysteme
Symbolische KI finden wir zum Beispiel bei Ampeln im Straßenverkehr, vor allem in Städten sind diese meistens in einer Verkehrsleitzentrale vernetzt. Hier wird häufig symbolische KI verwendet, um den Vorrang zwischen Verkehrsteilnehmenden, also Fußgänger:innen, Fahrrädern, Autos etc. zu regeln.
Die Ampelschaltung – also ob für mich als Fußgänger:in grün oder rot ist – wird anhand bestimmter Regeln entschieden. Diese Regeln werden von Menschen vorgegeben und werden durch Maschinen in der für uns sichtbaren Ampelschaltung umgesetzt. Die symbolische KI stellt das klassische Gebiet der KI-Forschung dar. Ende der 70-er und in den frühen 80-er Jahren erlebte die Forschung an symbolischen KI-Systemen, sogenannte Expertensysteme, einen Aufschwung. Deshalb werden diese Ansätze auch manchmal als „GOFAI – Good Old-fashioned-AI“ (deutsch. „Gute Alte KI“) bezeichnet.
Ganz allgemein nutzen symbolische KI-Systeme Verfahren, die regelgeleitet handeln und klar strukturierte Dateneingaben brauchen, um zu funktionieren. Dieser Ansatz in der KI versucht Probleme nach Methoden der Logik zu lösen. Hierfür wird ein System an Wissen mittels mathematischer Regeln so zusammengefasst, dass die Software aus diesem Wissenspool Ergebnisse liefert. Anhand dieser allgemeinen Regeln lösen Expertensysteme vordefinierte Problemstellungen, daher wird dieser Ansatz auch als Top-down-Ansatz bezeichnet. Die Regeln und Mechanismen werden von oben, also von außerhalb des KI-Systems, durch die menschlichen Entwickler:innen vorgegeben. Die Lösungswege der KI sind auch später noch nachvollziehbar. Das heißt, auf welcher Grundlage und welche Parameter zur Lösung eines Problems geführt haben, ist für Menschen nachvollziehbar. Ergebnisorientierte Verfahren werden eingesetzt, um Probleme anhand von genau definierten Regeln und Logiken zu lösen.
Ein sehr bekanntes Beispiel ist Deep Blue, der Schachcomputer der Firma IBM. Gegen diesen Schachcomputer hat 1997 der amtierende Schachweltmeister Garri Kasparow verloren. Dem System wurden die Regeln des Schachspiels und zusätzlich unterschiedliche Eröffnungen gefüttert sowie Ziele innerhalb von Schachspielen gewichtet. Deep Blue konnte nach Berechnungen mit den vorhandenen Informationen 200 Millionen Schachpositionen pro Sekunden durchrechnen und besiegte Kasparow durch pure Rechenleistung.
Deep Blue, der Computer, der an Bildschirm und Tastatur vorne links im Bild hing, berechnete die Schachzüge gegen den damaligen Weltmeister Kasparow. Ein Mensch bewegte die Figuren entsprechend am Brett. Nicht im Bild zu sehen sind die Schränke mit unzähligen Prozessoren, die Deep Blue ausgemacht haben.
Welche Probleme lösen solche symbolischen KI-Systeme bereits in unserem Alltag?
Stellt sich jetzt vielleicht die Frage … für was braucht man einen Schachcomputer? Manche von uns haben vielleicht noch nie Schach gespielt. Stimmt! Aber es gibt viele Bereiche, in denen symbolische KI-Systeme eingesetzt werden. Expertensysteme werden im medizinischen Bereich genutzt, um zum Beispiel Mediziner:innen die Analyse von Krankheitsbildern oder konkreten Bilddaten zu erleichtern. Expertensysteme werden herangezogen, um die kürzeste Route zum nächsten Badesee zu planen. Genauso regeln diese Systeme den Verkehr durch die Ampelschaltungen in Städten. Nicht zuletzt werden Expertensysteme auch von Unternehmen eingesetzt, um die Bewerbungsunterlagen potenzieller Mitarbeiter:innen automatisch zu reihen.
Beispiel Expertensystem für Krebsbehandlung
Beispiel Expertensystem für Krebsbehandlung
Manche Erkrankungen, zum Beispiel Krebserkrankungen brauchen komplexe Lösungen: Viele unterschiedliche Faktoren müssen gleichzeitig berücksichtigt werden, es gibt detaillierte Leitlinien zur Behandlung und immer wieder neue wissenschaftliche Erkenntnisse. Daher gibt es für Ärzt:innen Expertensysteme, die eine Wissensbasis haben, die von den Entwickler:innen der Software aktuelle gehalten wird. Für die Behandlung eines neuen Falles können sich Ärzt:innen dann Schritt für Schritt durch sehr komplexe Diagnose und Behandlungsschritte arbeiten und dann mit dieser Unterstützung Entscheidungen treffen. Da es um die Gesundheit von Patient:innen geht, ist es sehr wichtig, dass Ärzt:innen wissen, wie das System funktioniert (z. B. ONKOleit)
Beispiel automatisierte Bewerbungsverfahren
Beispiel automatisierte Bewerbungsverfahren
Auch bei Bewerbungsverfahren wird Software verwendet, um automatisch eine Vorauswahl zu treffen, welche Bewerber:innen zu einem Bewerbungsgespräch eingeladen werden. KI-Systeme analysieren Bewerbungsunterlagen, vergleichen sie mit bestimmten Kriterien und treffen dann eine Auswahl. Dadurch können Unternehmen aus einer großen Anzahl an Bewerbungen vielleicht schneller Kandidat:innen identifizieren, die möglicherweise am besten zur ausgeschriebenen Stelle passen.
Unternehmen nutzen diese Technologie aufgrund ihrer Effizienz, allerdings gibt es auch Risiken: Was, wenn die Software aufgrund fehlerhafter Programmierung oder unvollständiger Daten falsche Entscheidungen trifft? Wie betrifft das Bewerber:innen, die weniger Möglichkeit haben, sich persönlich zu präsentieren, wenn der Kontakt zwischen Unternehmen und Bewerber:innen geringer wird? Und: Wer ist verantwortlich, wenn KI-Systeme Diskriminierung, die sie aus vorhandenen Daten abgeleitet haben, weiterführen?
Beispiel Systeme zur Verkehr- bzw. Routenplanung
Beispiel Systeme zur Verkehr- bzw. Routenplanung
Viele Menschen nutzen Navigationsapps täglich. Sie errechnen für uns den besten Weg von A nach B. Als Wissensbasis des Systems werden festgelegte Regeln zur Straßen- und Verkehrsführung herangezogen, basierend auf Eingaben (wie Wetter, Uhrzeit und Wochentag) wird dann die beste Route berechnet. Teil der Wissensbasis können auch historische Verkehrsdaten sein, allerdings kommen diese auch ohne sich anpassende Lernprozesse aus. Es gibt also kein dynamisches Erkennen neuer Muster. Navigations-Apps errechnen manchmal „kürzeste Routen“, die direkt durch Wohngebiete und verkehrstechnisch eigentlich als beruhigt geplante Zonen, gehen.
Symbolische KI
- regelgeleitet → Menschen legen die Regeln explizit fest, anhand derer der vom Menschen entwickelte Algorithmus entscheidet.
- Prozess bis zum Ergebnis ist nachvollziehbar.
- braucht klar strukturierte Dateneingaben → verwendete Daten beeinflussen immer die Entscheidung (vgl. Kochrezept, siehe Definition Algorithmus).
Subsymbolische KI – Lernende Systeme
Du hast dich vielleicht schon einmal gefragt: „Warum wird mir eigentlich auf Social Media immer Werbung angezeigt, von Dingen, die mich betreffen, die mir vielleicht sogar gefallen?“. In diesem Kapitel beschäftigen wir uns damit, was hinter dieser personalisierten Werbung und den sogenannten Empfehlungssystemen (engl.: recommender systems) steckt?
Du erinnerst dich bestimmt aus dem ersten Kapitel Warum Datenschutz? Daran, dass das Geschäftsmodell vieler großer Unternehmen daraus besteht, mit deinen „Daten zu handeln“. Also Profile von Nutzer:innen weiterzuverkaufen, um zum Beispiel eine Vorhersage zu deinem Kaufverhalten zu treffen. Wie kann jetzt also diese Anhäufung an losen, unstrukturierten Daten Vorhersagen über zukünftiges Verhalten von Menschen berechnen? Oft gehen wir fälschlicherweise davon aus, dass ganz spezielle einzelne Datenpunkte extrem wichtig und wertvoll für Unternehmen sind. Das eigentliche Gold in den riesigen Datenhäufen liegt aber darin, diese riesigen Datenmengen möglichst so zu strukturieren und herunterzubrechen, dass sie immer bessere Vorhersagen über ein mögliches zukünftiges Ereignis treffen. Also zum Beispiel, was du höchstwahrscheinlich kaufen möchtest. Dabei kommt jetzt subsymbolische KI ins Spiel.
Regelbasierte Systeme, wie wir sie gerade kennengelernt haben, sind sehr aufwendig und deswegen für die Lösung mancher Probleme wenig sinnvoll. Insbesondere mit sehr großen, unstrukturierten Datenmengen ist dieses Vorgehen nicht geeignet. Zusätzlich zu den Expertensystemen (symbolische KI) entwickelte sich also die Idee des Maschinellen Lernens (ML, eigentlich engl. Machine Learning). Ein häufiger Anwendungsfall der Methode des ML ist personalisierte Werbung. Das Ziel von Menschen, die ML einsetzen, ist es, in großen unstrukturierten Datenmengen Muster zu erkennen. Das gibt es inzwischen auch schon sehr lange. Personalisierte Werbung nervt uns ja auch nicht erst seit gestern. ML wird nach wie vor intensiv genutzt und ist in unser aller Leben sehr präsent – wenn wir genauer hinsehen.
In der Zwischenzeit gab es erstaunliche Weiterentwicklungen in diesem Teilgebiet der KI. Es wurden künstliche neuronale Netze (KNNs) und Deep Learning (DL) (engl. für: „Tiefes Lernen“) von Expert:innen entwickelt und umgesetzt. Auch Large Language Models (LLM), die zum Beispiel ChatGPT, wie wir es kennen, erst möglich gemacht hat und andere Formen von KI, die zum Beispiel Bilder oder Videos erstellen können, sogenannte generative KI, wollen wir uns im nächsten Abschnitt genauer ansehen.
Diese Methoden sind in unserem Alltag sehr häufig eingesetzt, auch wenn wir das oft gar nicht wissen. Die Weiterentwicklungen im Bereich Maschinelles Lernen, die nicht regelbasiert und nach Prinzipien der Logik funktionieren, wie neuronale Netze, Deep Learning oder LLM werden auch unter dem Begriff „subsymbolische oder nicht-symbolische Systeme“ zusammengefasst. Alles was als „neuronale KI“ bezeichnet wird, fällt hier hinein.
Maschinelles Lernen
Wie finden Unternehmen mithilfe von Machine Learning jetzt also heraus, was mich vermutlich interessiert und was ich mit hoher Wahrscheinlichkeit kaufen möchte?
ML Systeme kommen nicht durch Magie und Zauber zu ihren Ergebnissen und die Systeme nutzen auch keine gläserne Kugel, um in die Zukunft zu schauen. Das Zauberwort, das wir hier brauchen, heißt „Statistik“. Die Statistik ist ein Teilgebiet der Mathematik und wir begegnen ihr ganz oft in unserem Alltag, ohne wirklich davon zu wissen. So begegnen wir der Statistik in unterschiedlichen Formen, zum Beispiel in Form von Machine Learning Algorithmen täglich in unserem Newsfeed, wenn wir durch Social Media scrollen.
Um KI nicht komplett zu entzaubern, ist es doch wahnsinnig spannend, dass wir Menschen es mit dieser „langweiligen“ Mathematik geschafft haben, Systeme zu bauen, die uns helfen, immer genauere Vorhersagen über die Zukunft zu treffen. Oder besser gesagt darüber, was wir in Zukunft erwarten. In Wahrheit kann KI keine Zukunft vorhersagen, da sie mit Daten aus der Vergangenheit trainiert wurde, außerdem können ML Systeme ihre Berechnungen selbstständig anpassen, wenn sie neue Informationen bekommen. Faszinierend ist also definitiv die Tatsache, dass ML Systeme durch Rückmeldungen (auch Feedback genannt durch z. B. Menschen) ihre Vorhersagen und Berechnungen selbstständig verändern. Das Ziel der Veränderung innerhalb des Systems ist es immer genauere Vorhersagen über ein zukünftiges Geschehen auf Basis von Vergangenem zu treffen.
ML kann für die folgenden Aufgaben sehr gut eingesetzt werden, da ML Systeme selbstständig aus Daten lernen können, sind sie sehr gut im Vorhersagen von Werten, Berechnung von Wahrscheinlichkeiten (z. B. Kaufwahrscheinlichkeit), Erkennen von Gruppen, Erkennen von Zusammenhängen, Reduktion von Dimensionen und Optimierung.
Das Ziel der Menschen, wenn sie Machine Learning einsetzen, ist es also einen Algorithmus aus Daten einen Rechenweg lernen zu lassen. Aber weiter ist es auch wichtig, dass dieser Algorithmus selbstständig dazu lernt, wenn dem KI-System neue Daten gefüttert werden. So soll ein Machine Learning System nicht nur für bekannte Daten gute Ergebnisse liefern, sondern auch für neue Daten, vielleicht Daten, die erst morgen erzeugt werden. Zum Beispiel dein Klickverhalten auf Social Media von morgen.
Im Fall von personalisierter Werbung können diese Systeme anhand einer Vielzahl von vermeintlich unzusammenhängenden Klicks, Surfverhalten und Views eine präzise Aussage über zukünftiges Kaufverhalten von Personen treffen und somit auf persönliches Verhalten zugeschnittene Werbung anzeigen. Zusätzlich können diese Systeme die berechneten Ergebnisse (Vorhersagen, Kategorisierungen) durch das Einsetzen unterschiedlicher Lernmethoden mit jedem Training präziser machen und genauere Treffer landen. KI-Systeme, die ML verwenden, können dann anhand komplizierter Berechnungen eine Wahrscheinlichkeit für einen bestimmten Ausgang vorhersagen.
Rainer Mühlhoff, ein deutscher Forscher, der sich viel mit KI-Systemen und Gesellschaft beschäftigt, erklärt in diesem Ausschnitt, wie personalisierte Werbung funktioniert und was durch den Einsatz über Nutzer:innen von Social Media Plattformen errechnet/vorhergesagt“ werden kann.
Grundsätzliches
- ML-Algorithmen lernen selbst durch Daten.
- Bei ML geht es oft darum, Vorhersagen zu treffen.
- IT-Systeme lernen automatisch Muster und Zusammenhänge aus Daten und verbessern die Genauigkeit, ohne explizit darauf programmiert zu sein.
- KI-Systeme, deren Grundlage ML ist, können Muster und Regelmäßigkeiten in unübersichtlichen Datenmengen erkennen.
Arten von Machine Learning
Wie machen diese KI-Systeme, die mit ML funktionieren, das mit dem Lernen jetzt eigentlich? Wie bekommt das System Rückmeldung, ob die Werbeanzeige in deinem Feed ein Treffer war? Und wer oder was entscheidet das?
Für diese Berechnungen gibt es verschiedene Methoden innerhalb des Bereichs des ML. Das heißt Systeme, die auf ML basieren, lernen nach unterschiedlichen Prinzipien. Sie verwenden also unterschiedliche maschinelle Lerntypen. Maschinelle Lerntypen werden eingeteilt in überwachtes Lernen (engl.: supervised learning), unüberwachtes Lernen (engl.: unsupervised learning), teilüberwachtes Lernen und bestärkendes Lernen (engl.: reinforcement learning). Jeder Lerntyp verlangt nach unterschiedlichen Daten. Je nach Lerntyp müssen die Daten vorher sehr zeitintensiv sortiert und gelabelt (engl.: beschriftet) werden, können unstrukturiert gesammelt werden oder entstehen erst durch Feedback.
1. Überwachtes Lernen/ Supervised learning
Beim überwachten Lernen erhält ein KI-System große Datensätze, die im Vorhinein alle beschriftet werden müssen. Ihnen müssen also Labels verpasst werden, die zum Beispiel anzeigen: „Das ist eine Katze“. Die Labels werden von Menschen vergeben, das heißt Menschen entscheiden über Eigenschaften, die Daten voneinander trennen oder Daten zu Kategorien zusammenfügen. Mit diesen gelabelten Datensätzen wird das ML-System trainiert. Das heißt, in den Daten, die dem ML-System zum Lernen zur Verfügung gestellt werden, sind bereits korrekte Ausgabewerte enthalten. Also beispielsweise dieses Bild gehört in die Kategorie Hund und das andere in die Kategorie Katze.
Überwachtes Lernen hilft dabei, Daten in Gruppen zusammenzufügen (Klassifizierung). Wenn die Aufgabe lautet: „Sortiere die Bilder nach Hunden und Katzen.“, ist überwachtes Lernen sehr hilfreich. Eine mögliche Lösung für ein bestimmtes Bild könnte dann lauten: „Das Bild zeigt mit 90 % Wahrscheinlichkeit die Kategorie Katze“.
Es ist ebenfalls möglich, mit überwachtem Lernen Vorhersagen über zukünftige Immobilienpreise zu treffen (Regression). Dafür benötigt das System Werte, die ununterbrochen über einen bestimmten Zeitraum gesammelt wurden. Die Zahlenwerte dienen als Eingabe (Input) in das ML-System und bestehen aus unterschiedlichen Bereichen (Faktoren), wie zum Beispiel Zimmeranzahl, Wohnfläche, Lage, Ausstattung. All diese Faktoren fließen in einem ML-System in die Berechnung ein, um anhand vergangener Erfahrungswerte eine Vorhersage darüber zu treffen, wie die Immobilienpreise sich in den nächsten 2, 5, 20 oder 50 Jahren entwickeln könnten. Der Output ist bei Regression ein Zahlenwert.
Ein weiteres Beispiel für Überwachtes Lernen und Klassifikation sind Spamfilter bzw. Spam Detection , also „Spam Erkennung“: In diesem Fall wird ein KI-Modell mit Datensätzen, die aus echten Mails bestehen und Fake-Mails – Phishing – und dem jeweiligen Laben „echt“ oder „Spam“ trainiert. Einen Teil der gelabelten Daten behält man sich im Normalfall und damit zu testen, ob das neu trainierte Modell die Daten richtig einordnet.
Beispiel Radiologie: Unterstützung beim Erkennen von Krankheiten
Beispiel Radiologie: Unterstützung beim Erkennen von Krankheiten
Radio-Eye – Charité Berlin
Patient:in bekommt MRT, etwas Auffälliges, aber Seltenes zeigt sich. Wie tun? Arzt/Ärztin versucht nicht nur zu beschreiben, was da zu sehen ist, sondern auch einen Befund zu stellen: was hat der/die Patient:in? Das Bild mit der Datenbank von Radio-Eye abgeglichen und ähnliche Bilder werden dem Arzt/der Ärztin zur Verfügung gestellt mit der Diagnose, die bei der verbundenen Patient:in gegeben wurde, außerdem errechnet das KI-System, wie gut der Treffer ist, also wie ähnlich die Bilder einander jeweils sind. Für die Ärzte/Ärztinnen selbst wäre es unmöglich in der gleichen Zeit so viele Bilder zu sichten und genauso genau abzugleichen. Das können Maschinen sehr gut.
Das Bild zeigt einen Ausschnitt aus dem Programm Radio Eye. Zwei Computermonitore zeigen detaillierte Aufnahmen des Gehirns aus verschiedenen Blickwinkeln und Schichten.
2. Unüberwachtes Lernen/unsupervised learning
Beim unüberwachten Lernen lernt ein System durch das Suchen und Erkennen von Mustern in Datenmengen. Dabei gibt es keine Labels, also auch keine genaue Richtung, in die das System sucht. Die so im Training erkannten Muster, dienen im Einsatz des ML-Systems dann der Vorhersage neuer Daten. Ziel ist also nicht das Finden bestimmter Kategorien, sondern die grundlegende Frage, welche Kategorien oder Muster es in den Daten finden kann. Das unüberwachte Lernen wird verwendet, um Daten zu gruppieren – dabei werden sogenannte Cluster gebildet. Diese Fähigkeiten können eingesetzt werden, um Gruppen anhand von Gemeinsamkeiten zu beschreiben oder Ausreißer aus Gruppen zu erkennen.
Stell dir vor, du hast 1000 Puzzleteile vor dir liegen, weißt aber nicht welches Bild diese am Ende ergeben. Du fängst mal an und schüttest zuerst alle Puzzleteile auf den Tisch und sortierst die Teile grob: Randstücke zusammen, die blauen Stücke zusammen, die grünen Teile auch… So kannst du dir Clustering vorstellen, das Modell sucht nach Gemeinsamkeiten in großen Datenmengen.
Banken und Kreditkartenunternehmen nutzen Clustering zum Beispiel, um ungewöhnliche Transaktionen zu erkennen und gesondert prüfen zu können.
Die Grafik veranschaulicht, wie ein Modell durch unüberwachtes Lernen Muster in unbeschrifteten Eingabedaten erkennt und diese in Gruppen (Cluster) sortiert. (All emojis designed by OpenMoji).
3. Teilüberwachtes Lernen
Eine Anwendung des unüberwachten Lernen ist es Vorbereitungen von Datensätzen für das überwachte Lernen zu generieren. Das ist dann das sogenannte „Teilüberwachte Lernen“ und kombiniert die ersten beiden Lerntypen. In einem ersten Schritt wird dann meist ein großer Datensatz mit unüberwachtem Lernen in Cluster/Kategorien anhand von Merkmalen aus den Daten heraus eingeteilt. Die vorverabeiteten Daten und Labels werden dann in einen Algorithmus eingepflegt, der mit dem Lerntyp „überwachtes Lernen“ rechnet.
Ein Vorteil vom teilüberwachten Lernen ist, dass man damit große Datensätze von denen nur ein Teil gelabelt ist, besser in Modellen auswerten kann. Mit den gelabelten Daten kann man ein kleines KI-System trainieren, welches dann die restlichen Daten labeln kann. Dadurch kann das Modell trotz ursprünglich wenig gelabelten Daten relativ genau werden. Das Beschriften oder Labeln von Daten kann sehr aufwendig sein, weshalb es hilfreich ist einen Teil davon automatisieren zu lassen. Im Bereich der Spracherkennung reicht es dann zum Beispiel aus nur einen Teil der Audiodateien zu verschriftlichen. Dann kann das KI-Modell mit diesem kleineren Datenset schon trainiert werden und dann auf die restlichen Daten angewandt werden. Dadurch errechnet sich das Modell Daten zum Lernen selbst.
4. Bestärkendes Lernen/reinforcement learning (RL)
Für manche Anwendungsfälle, beispielsweise autonomes Fahren, reicht weder überwachtes noch unüberwachtes noch die Kombination aus beiden Lerntypen aus. Es gibt einfach viel zu viele Möglichkeiten im Straßenverkehr, die nicht alle aufgelistet werden können. Damit autonomes Fahren möglich ist, gibt es einen weiteren Lerntypen, das „Reinforcement Learning (RL)“ oder bestärkendes Lernen. Der Begriff und das Konzept des bestärkenden Lernens ist nicht neu. Viel mehr wurde der Begriff schon in den 1950-er Jahren durch die Psychologie geprägt. Ziel der Forschenden war es, das Lernverhalten in der Natur abzubilden.
Auch bei diesem Lerntyp kommt das System ohne gekennzeichnete Datensätze aus. Beim bestärkenden Lernen wird einem System nur ein Ziel gegeben und es lernt durch Erfahrung. Das heißt, beim Erreichen des Ziels, bspw. beim Gewinnen eines beliebigen Spiels, erhält das System in diesem Fall eine positive Belohnung durch die Interaktion mit der Umwelt des ML-Systems. Die Belohnung kann auch negativ sein, wenn die Taktik, die das System berechnet hat, nicht näher zum Ziel geführt hat. Das System passt die Berechnungen einer bestimmten Taktik entsprechend an und die Trainingsdaten entstehen aus diesen Zyklen. Anstelle von Datensätzen trainiert sich das System an Daten, die in der Lernumgebung entstehen.
Bestärkendes Lernen wird also immer dann eingesetzt, wenn es zu viele mögliche Zustände für die Lösung eines Problems gibt. Konkret hilft uns das bestärkende Lernen momentan dabei, KI-Systeme für autonomes Fahren zu trainieren, die Bewegungsfähigkeiten von Robotern zu verbessern oder Computern beizubringen Spiel zu spielen.
(Computer-)Spiele eignen sich deswegen so gut für bestärkendes Lernen, weil die Grundvoraussetzungen, also die Umgebung für das Modell, den Agenten, schon klar beschrieben ist.
Denk mal an das simple Computerspiel Pac-Man: Die Umgebung ist klar definiert: Es gibt ein Spielfeld, Wege und Wände. Ein Agent würde eine Belohnung bekommen für das Essen von Punkten und Gespenstern und möglichst langes Überleben. Über viele, viele Runden kann der Agent das Verhalten im Spiel und die eigene Strategie anpassen, so sammelt das KI-System (Agent) viele Daten. Das sind sehr viele verschiedene Spielszenarien. Die alle als Regeln in das System einzugeben, wie es bei Expertensystemen passiert, wäre sehr aufwendig.
Allgemein gesprochen findet RL vor allem dort seine Anwendung, wo ein Problem nur mit einer Vielzahl aus aufeinanderfolgenden Entscheidungen gelöst werden kann. Theoretisch könnten Programmierer:innen all diese Möglichkeiten ganz konkret einem Computer vorschlagen. Mit RL möchte man aber ganz gezielt eine Kette von Wenn-Dann-Bedingungen verhindern. Manchmal ist es auch einfach in der Praxis unmöglich für Programmierer:innen alle Eventualitäten abzusehen (bspw. Autonomes Fahren). Und manchmal erhofft man sich, dass KI-Modelle neue Strategien für komplexe Probleme entwickeln, auf welche ein Mensch womöglich gar nicht kommen würde. Zum Beispiel war das der Fall bei AlphaGo, die Maschine entwickelte unter anderem mit RL neue Spiel-Strategien, auf welche Menschen bisher nicht gekommen sind.
Im Feld Künstliche Intelligenz ändern sich viele Dinge recht schnell. Zum Beispiel welche Methoden des Maschinellen Lernen für welche Problemstellungen eingesetzt werden. Da wird viel ausprobiert. Unüberwachtes Lernen oder Bestärkendes Lernen wurde ja wenig für medizinische Anwendungen genutzt, weil diese Anwendungen exakt sein müssen und vor allem erklärbar – oder möchtest du eine bestimmte Behandlung bekommen, weil ein KI-System das empfiehlt, aber niemand weiß warum genau diese und nicht eine andere? Ja, genau, das möchte niemand. Die bereits genannte Blackbox macht es uninteressant KI-Systeme mit nicht nachvollziehbaren Lernverfahren für solche Zwecke zu nutzen. Inzwischen ist es aber auch so, dass es Forschung zur Interpretability gibt, also zur Interpretierbarkeit von KI-Modellen und wer weiß … vielleicht verstehen wir in den nächsten Jahren besser, wie KI-Systemen zu bestimmten Outputs kommen?
Symbolische vs. Subsymbolische KI
Wichtig ist: Bei beiden Systemen sind Menschen mit im Spiel und treffen Entscheidungen. Bei beiden Arten von KI-Systemen entscheiden Menschen, welche Daten zunächst in das System eingegeben werden. Also zum Beispiel, welche Bilder oder Texte einem System zur Verfügung gestellt werden, um Berechnungen anzustellen und sie zu verarbeiten.
Der Unterschied liegt darin, dass bei symbolischer KI (Expertensystemen, ADM) auch die Regeln und Kriterien vorgegeben werden, nach welchen zum Beispiel Bilder von Hunden und Katzen vom System sortiert werden sollen. Der Vorteil hier ist: Wir können verstehen, auf welcher Grundlage das System unsere Daten sortiert.
Bei subsymbolischer KI werden diese Regeln nicht mehr von Menschen vorgegeben, sondern das System formt selbst Regeln und Kategorien aus den Daten heraus. Wir Menschen haben daher bis jetzt keine Einsicht in die Regeln und Kategorien, nach welchen selbstlernende Systeme sortieren, Output generieren und unsere Daten verarbeiten. Wir sprechen deshalb auch von einer „Blackbox“, also einer schwarzen Box, in die wir Menschen bisher keinen Einblick haben. Wie am Anfang dieses Kapitels kurz erwähnt, ist diese Methode wahnsinnig wertvoll, wenn es um große und unstrukturierte Datensätze geht.
Manche ML-Lösungen sind nicht exakt genug für bestimmte Problemstellungen, weswegen das eigentlich ältere Werkzeug „Expertensystem“ in diesen Fällen weiterhin genutzt wird. Für manche Probleme und Aufgabenstellungen ist die Definition von Regeln weiterhin die beste Lösung.
Künstliche Neuronale Netze
In der Zwischenzeit gab es erstaunliche Weiterentwicklungen im Bereich des Machine Learning. Es wurden künstliche neuronale Netze von Expert:innen entwickelt und umgesetzt. Ein Teilgebiet von ML sind künstliche neuronale Netze. Was steckt dahinter? Menschen nutzen schon sehr lange die Natur als Vorbild oder Inspirationsquelle für technische Innovationen.
Bei der Entwicklung neuronaler Netze haben Entwickler:innen sich von der Funktionsweise des menschlichen Gehirns inspirieren lassen. Neuronale Netze sind also der Versuch, Neuronen, die zur Informationsweitergabe durch elektrische Impulse in menschlichen und auch tierischen Körpern zuständig sind, nachzubilden.
Was macht unser menschliches Gehirn denn so besonders? Und wie funktioniert es überhaupt? Was ist überhaupt ein Neuron?
Was macht unser menschliches Gehirn denn so besonders? Und wie funktioniert es überhaupt? Was ist überhaupt ein Neuron?
Unser zentrales Nervensystem – dazu gehören unser Gehirn und das Rückenmark – ist dafür zuständig mit unserem peripheren Nervensystem, also zum Beispiel Motorneuronen, die deine Bewegungen steuern, zu kommunizieren. Im Gehirn befinden sich 100 Milliarden Neuronen, also spezielle Nervenzellen, die unter anderem dafür sorgen, dass wir überhaupt denken und handeln können. Die meisten dieser Dinge laufen in unserem Alltag völlig selbstverständlich ab, ohne dass wir uns bewusst wahnsinnig anstrengen müssen oder aktiv zum Beispiel darüber nachdenken müssen, wie wir denn jetzt einen Fuß vor den nächsten setzen müssen, damit wir gehen können.
Ein Neuron besteht immer aus einem Zellkörper und mehreren Fortsätzen, um Input von anderen Neuronen empfangen zu können. Es gibt ein Axon, das für die Weiterleitung der Reize zuständig ist. Mit den sogenannten Dendriten ist das Neuron komplett, denn damit kann ein Neuron den generierten Output an das nächste Neuron weitergeben. Unzählige Neuronen bilden zusammen ein riesiges Netzwerk in unserem Gehirn, das die ganze Zeit miteinander kommuniziert, auch wenn wir schlafen. Es ist hoch komplex und verbraucht circa 20 % der Energie, die unserem Körper zur Verfügung steht. Allerdings macht das Gehirn nur 2 % unseres Körpergewichts aus. Dieser hohe Energieverbrauch ist für Tiere sehr ungewöhnlich.
Technisch wird versucht, die Funktionsweise eines Neurons zu modellieren, also nachzubauen. Dazu kann man dann entweder Modellneuron sagen oder Perceptron. Genau wie bei einem Neuron gibt es einen Input, also eine Eingabe in die „Maschine“. Was diesem neuronalen Netz zum Verarbeiten zur Verfügung gestellt wird, entscheidet bei einem Modellneuron nicht eine „neutrale“ Instanz, sondern wird immer von Menschen entschieden (z. B. ein Datensatz voller Bilder). Dieser Input wird in einer zweiten Komponente mit einer mathematischen Rechnung verarbeitet, diese Berechnung führt zu einem Output. Auch ein Perceptron folgt also dem Schema Input > Verarbeitung > Output.
Deep Learning
Deep Learning ist ein Teilgebiet künstlicher neuronaler Netze und somit auch ein Teilgebiet des Machine Learning.
Die im oberen Abschnitt erklärten einfachen neuronalen Netzwerke bilden die Grundlage für die Weiterentwicklung der Methode des Deep Learning (DL). Deep Learning kann man ins Deutsche mit „Tiefes Lernen“ übersetzen. Bei DL werden Inputs in mehreren Schichten, sogenannter künstlicher neuronaler Netze (KNN, engl.: artificial neural networks, ANNs) verarbeitet. Da hier mehrere Schichten genutzt werden, wird von „tiefem Lernen“ gesprochen. Dieses Teilgebiet von ML nutzt seit 2010 mehrere Schichten in künstlich neuronalen Netzwerken, inspiriert durch die Vernetzung unzähliger Neuronen im menschlichen Gehirn.
Knüpfen wir hier noch einmal an das Grundprinzip eines Perceptrons an, das nach dem Schema Input > Verarbeitung > Output funktioniert. Das Ergebnis des Verarbeitungsschritts, also im Falle des Perceptrons einer mathematischen Rechnung, muss nicht notwendigerweise das Endprodukt eines neuronalen Netzwerks sein. Bei DL gibt es wie gesagt mehrere Schichten, die wiederum aus sehr vielen Perceptronen bestehen. Der Output der ersten Schicht kann wiederum als Input für eine zweite Schicht genutzt werden, in der dann wieder Berechnungen mit den neuen, vom System berechneten Werten gemacht werden. Der Output dieser Berechnung geht dann als Input für Perceptronen an eine dritte Schicht und so weiter.
Hier an diesem Punkt können wir Menschen nicht mehr nachvollziehen, was genau die Eingaben für weitere Berechnungen des KI-Systems sind. Also auch Expert:innen und Entwickler:innen können das nicht wissen. Deshalb sprechen wir von den Schichten aus Perceptronen zwischen Input-Layer (deutsch: „Eingabe-Schicht“) und Output-Layer (deutsch: „Ausgabe Schicht“) auch von einer „Black Box“ oder „Hidden-layers“ (deutsch: versteckte Schichten), weil wir nicht wissen, was und mit welchen Eingaben und Gewichten ein neuronales Netz rechnet. Wie das DL-System also genau zum Output kommt, ist meist nicht klar, da Datenverarbeitung in sogenannten Hidden Layers passiert.
Im Wesentlichen reguliert die Gewichtung, also das Verstärken und Abschwächen der Verbindungen zwischen Perceptronen, die Ergebnisse von neuronalen Netzen. Das wird auch als das Trainieren eines neuronalen Netzwerkes bezeichnet.
Das Grundprinzip ist also bei Neuronen in unserem Gehirn und Perceptronen in einem künstlichen neuronalen Netz das Gleiche. Jedes Neuron erhält Input (eine Eingabe), verarbeitet diesen und gibt den Output dann an das nächste Neuron weiter. Lernen funktioniert nach dem Prinzip der Verstärkung und Abschwächung von Verbindungen im menschlichen Gehirn und diesem nachempfunden auch in künstlichen neuronalen Netzen.
Large Language Models (LLM)
Durch künstliche neuronale Netze und die Weiterentwicklung der Deep Learning Technologie konnten natürliche Sprachverarbeitung und Spracherkennung deutlich verbessert werden.
Vielleicht hast du den Begriff Large Language Models (LLMs) im Zusammenhang mit KI schon einmal gehört. Das sind kurz gesagt Sprachmodelle. Large bedeutet „groß“ und bezeichnet die Anzahl an Perceptronen (künstlichen Neuronen), die auch Parameter genannt werden. Es gibt keine klare Anzahl, die ein Language Model von einem Large Language Model unterscheidet. Die größten Modelle bis heute (2024) reichen von Millionen bis zu Milliarden Parametern. Der zweite Teil „Language Model“ heißt übersetzt „Sprachmodell“.
ELIZA war eines der ersten Sprachmodelle, die am MIT (Massachusetts Institute of Technology), 1966 entwickelt wurden. ELIZA war aber noch kein LLM, es war ein einfaches Sprachmodell und gehörte noch zum Feld der symbolischen KI und nutzte noch kein Maschinelles Lernen.
Einfache Sprachmodelle können die Fähigkeit haben, Sprache zu generieren. Ein solches Sprachmodell generiert Texte nicht nach inhaltlichem Verständnis, sondern nach statistischen Prinzipien. Es berechnet, wie hoch ist die Wahrscheinlichkeit dafür, dass nach einer bestimmten Reihenfolge von Zeichen und Worten bestimmte andere Worte folgen. Vereinfacht kann man sich das am folgenden Beispielsatz anschauen:
„Die Katze fängt…“
a) … die Maus.
b) … den Schraubenzieher.
c) … den Baum.
Wir würden sagen: „Na klar, es muss Antwort a) sein. Nur das macht Sinn.“. Selbst ein sehr einfaches Sprachmodell würde vermutlich auf diese Antwort kommen, da es aus menschlichen Daten (geschriebene Texte, gesprochene Sprache etc.) gelernt hat, dass Menschen auf den Satzanfang „Die Katze fängt …“ sehr oft „... die Maus.“ wählen würden. Die Wahrscheinlichkeit für das Satzende „... die Maus.“, ist in diesem Fall, verglichen mit den anderen Auswahloptionen, also am höchsten. Deshalb hat ein solches Sprachmodell aber noch lange keinen Sinn in dem Inhalt des Satzes entdeckt. Es „versteht“ also überhaupt nicht, was sich eigentlich hinter den Wörtern Katze, Maus, Schraubenzieher und Baum befindet und wie diese miteinander oder mit dem Wort „fangen“ in Zusammenhang stehen. Das Sprachmodell „interessiert“ nur, wie wahrscheinlich eine gewisse Aneinanderreihung von Zeichen und Wörtern ist.
ChatGPT ist doch auch ein Sprachmodell, oder? Ist das alles, was ChatGPT kann? Nein, nicht ganz, aber das Grundprinzip ist noch immer das Gleiche. Nämlich, dass Texte generiert werden, indem die Wahrscheinlichkeit aufeinanderfolgender Worte und Zeichen berechnet wird. Was die Bedeutung hinter den Worten ist, verstehen auch Large Language Models (LMMs) wie ChatGPT heute nicht. Warum können LLMs dann heute trotzdem so gute Texte erstellen, die nicht von menschlich generierten Texten zu unterscheiden sind?
Schauen wir uns das Funktionsprinzip von LLMs mal genauer am Beispiel ChatGPT an.
Wofür steht jetzt eigentlich G-P-T in ChatGPT?
G steht für „Generative“, also generierend – womit beschrieben wird, dass etwas erstellt wird
P steht für „Pre-Trained“, also vortrainiert.
T steht für „Transformer“, ja also das schauen wir uns gleich noch etwas genauer an.
T wie Transformer bezeichnet eine bestimmte neuronale Netz-Architektur, die von Google entwickelt und 2017 bei einer Konferenz durch einen wissenschaftlichen Artikel mit dem Namen „Attention is all you need“, „Aufmerksamkeit ist alles, was du brauchst“, veröffentlicht wurde. Diese Deep-Learning Architektur greift also auf die Idee zurück, dass „Aufmerksamkeitsprozesse“ genauso ein Teil von Large Language Models sein können und helfen können, diese besser zu machen. Die Architektur funktioniert so gut, weil sie erlaubt, die Aufmerksamkeit auf die Teile der Input Sequenz zu fokussieren, die in dem Moment am relevantesten ist. Also ähnlich wie bei uns Menschen. Auch wir müssen unsere Aufmerksamkeit auf wenige Dinge beschränken, um gut in unserer Umgebung klar zu kommen. Auch hier bedient sich die technische Entwicklung wieder an der Funktionsweise der menschlichen Wahrnehmung. Viel genauer müssen wir uns den Transformer nicht ansehen, das würde etwas zu weit gehen.
P wie Pre-Trained an:
Um LLMs zusammensetzen zu können, brauchen wir all das Wissen, das wir uns in diesem Kapitel bereits angeeignet haben, die ganzen Entwicklungen im Forschungsbereich der künstlichen Intelligenz:
- Symbolische KI (Expertensysteme)
Subsymbolische KI (Lernenden Systeme): Machine Learning, Künstliche Neuronale Netze und Deep Learning
Die Zusammensetzung dieser Bereiche haben dazu geführt, dass wir heute alle über ChatGPT und Co – sogenannte LLMs sprechen können. Beim sogenannten Trainieren von LLMs durch riesige Datensätze werden die oben beschriebenen Modelle in unterschiedlichen Schritten verwendet und erfüllen unterschiedliche Aufgaben beim Trainingsprozess. Ein gewöhnlicher Trainingsprozess bei LLMs sieht folgendermaßen aus:
1. Schritt Unüberwachtes Pretraining – „Vortraining“
1. Schritt Unüberwachtes Pretraining – „Vortraining“
Hier sind wir jetzt bei dem P von ChatGPT angekommen, das für Pre-Training steht. Den ersten Schritt bei der Entwicklung eines neuen LLMs wird als „Vortraining“ beschrieben. Hier wird mithilfe von unüberwachten Methode (subsymbolisch) trainiert.
Dem Modell wird als Datenbasis eine riesige Menge unstrukturierter Textdaten vorgelegt. Das Ziel dieser ersten Trainingsphase ist es, dass das Modell selbstständig Muster, Zusammenhänge und Strukturen in Texten findet. Das System lernt also anhand sich wiederholender Aufgaben, das nächste Wort in einem Satz vorherzusagen. Also konkret lernt es, die Wahrscheinlichkeit für verschiedene Wortfolgen aus den Daten heraus zu bestimmen. Ein sogenanntes „vortrainiertes LLM“ kann also Texte produzieren, indem es anhand von Wahrscheinlichkeiten das nächste Wort oder den nächsten Satz vorhersagt. Darin enthalten sind ebenso alle Fakten, Verzerrungen und Fehler in Texten.
Hier kann es aber auch noch passieren, dass die KI auf die Frage „Wie ist dein Vorname?“ mit „Wie ist dein Nachname?“ antwortet, weil im Datensatz eventuell viele leere Formulare enthalten waren, die statistisch wiedergeben, dass eine wahrscheinliche Antwort auf die Frage „Wie ist dein Vorname?“, „Wie ist dein Nachname?“ lauten muss. Das vortrainierte LLM ist also noch nicht richtig geeignet, eine gute Assistenz für eine menschliche Umgebung zu sein. Würde man in den Trainingsdatensatz vielleicht eher Chatverläufe eingeben, könnten die Antworten nach dem Pre-Training auch wieder anders aussehen. Du merkst also, die Antworten eines LLM hängen stark davon ab, welche Daten wir einem Model geben. Und diese Entscheidung wird nicht maschinell getroffen, sondern Menschen treffen die Entscheidung darüber, welche Datensätze fürs Training verwendet werden.
2. Schritt Finetuning – „Feinabstimmung“
2. Schritt Finetuning – „Feinabstimmung“
Im zweiten Schritt, der sogenannten „Feinabstimmung“ (engl. „finetuning“), ist es das Ziel, spezifischeres Wissen und potenziell symbolisches Wissen in das Modell mit einzubringen. Damit soll erreicht werden, dass das LLM lernt, allgemeine statistische Zusammenhänge auf spezifische Aufgaben anzuwenden. Die Datengrundlage für diesen zweiten Trainingsschritt ist das allgemein vortrainierte Modell aus dem ersten Schritt. Es wird mit einer kleineren Menge aufgabenspezifischer Daten weitertrainiert. Diese zusätzlichen Daten sind meist gelabelt und repräsentieren die Aufgaben, für die das Modell optimiert werden soll (z. B. Frage-Antwort, Textzusammenfassung, Dialogführung). Da diese oft sehr teuer sind, weil sie normalerweise von Menschen erstellt werden müssen, wird hier oft ein kleineres Datenset verwendet. Dieser Schritt wird deshalb auch „supervised instruction fine-tuning“ genannt.
3. Reinforcement Learning from Human Feedback – RLHF
3. Reinforcement Learning from Human Feedback – RLHF
In einem dritten Schritt wird das LLM darauf trainiert, Output zu generieren, der näher an dem ist, was Menschen wollen oder mögen. Ziel ist es also durch einen sich wiederholenden Prozess, in welchem menschliches Feedback die Hauptrolle spielt, mit der Zeit immer menschenähnlichere Ergebnisse zu liefern. Durch sehr viele Wiederholungen und menschliches Feedback lernt das LLM also Antworten zu generieren, die Menschen als hilfreich, relevant und qualitativ hochwertig einschätzen. Das LLM gibt also immer wieder auf ihren Berechnungen basierende Ergebnisse aus, die dann von menschlichen Bewerter:innen beurteilt werden. Dieser Prozess wird auch als „Alignment“ bezeichnet, da ein vortrainiertes KI System hier mit menschlichen Intention abgeglichen (engl. aligned) wird. Das „Alignment“ ist also ein sehr, sehr wichtiges Thema im Bereich der Entwicklung von LLMs.
G wie „Generative“
„Generativ“ bedeutet eigentlich nur, dass die KI aus ihren Berechnungen heraus etwas neues/noch nicht Gesehenes (h)erstellen kann. Also zum Beispiel einen Text für uns zusammenstellt, den es so zuvor noch nie gesehen hat.
Aber man kann doch auch Bilder, Sprache und Videos von KI erstellen lassen, richtig? Ja, ganz richtig. Durch die Weiterentwicklung der LLMs, also der textbasierten Sprachmodelle, gab es seit Anfang der 2020-er Jahre eine rasante Entwicklung von LLMs hinzu LMMs, also Large Multimodal Models. Die Transformer Archtitektur, also das T in ChatGPT, ermöglichte diese Entwicklung. Inzwischen kann man durch künstliche Intelligenz nicht nur neue, noch nie gesehene Texte generieren, sondern genauso Bilder und Videos. Unterschiedliche Formen des Inputs und des Outputs von generativer KI nennt man auch Modalitäten.
„Multimodal“ kann also bedeuten, dass ...
- Input und Output eines LMMs unterschiedliche Modalitäten haben. Das bedeutet ich kann als Input in eine dafür entwickelte und trainierte KI zum Beispiel einen Text eingeben, aus welcher diese dann ein Bild erstellt (text-to-image).
- Oder auch anders herum. Ich gebe einer KI ein Bild und möchte, dass diese mir eine Beschreibung des Bildes in Textform entwickelt. Beispiele:
- Digitalisieren von handschriftlichen Notizen.
- Das Verstehen von komplexen Dingen, z. B. verstehen von komplexen Parkschildern, entziffern von historischen Handschriften.
- Es kann auch bedeuten, dass nur der Input multimodal ist, dass also Bilder oder Text eingegeben werden kann, das Model selbst kann aber nur im Textformat antworten.
Multimodal kann auch bedeuten, dass nur die Ausgabe in unterschiedlichen Modalitäten generiert werden kann. Zum Beispiel kann ich nur Text eingeben, aber das Model kann mir eine neue Ausgabe in Text oder Bild Form erzeugen/berechnen.
Unter dem Begriff generative KI fassen wir also Systeme zusammen, die aufgrund von Wahrscheinlichkeiten durch ihr Training Gedichte, andere Texte, Songs, gesprochene Sprache, Bilder oder Videos für uns auf Basis ihrer Berechnungen erschaffen können. Die neuen Ergebnisse können in unterschiedlichen Formen entstehen.
Generative KI Modelle sind also ein Bereich der künstlichen Intelligenz, die bestimmte Muster und Strukturen aus den Trainingsdaten lernen und daraus neue Daten (Texte, Bilder, Videos, Code ….) generieren. Diese neuen Daten haben ähnliche Eigenschaften wie die Daten, auf welchen sie trainiert wurden. Das heißt zusammengefasst sowohl LLMs als auch LMMs können „Generative KI“ sein.
LLMs kurzgefasst
- LLMs arbeiten als selbstanpassende Sprachmodelle.
- LLMs können verschiedene Aufgaben in natürlicher Sprache ausführen, z. B. Zusammenfassen, Übersetzen, Vorhersagen und Erstellen von Texten, in dem sie einen Eingabetext nehmen und wiederholt das nächste Wort vorhersagen.
- Beispiele für LLMs: GPT-Modellreihe von OpenAI (z. B. GPT-3.5 und GPT-4), Googles PaLM und Gemini (verwendet in Bard), Metas LlaMA-Familie von Open-Source-Modellen, Anthropics Claude-AI-Modelle.
Wo begegne ich in meinem Alltag vielleicht sogar unbemerkt KI-Systemen?
- Manchmal ist es gar nicht so leicht zu wissen, ob ein System KI nutzt oder nicht. Karen Hao vom MIT hat folgende Flowchart erstellt, die wir übersetzt haben. In der Darstellung wird KI vor allem als Machine Learning definiert und symbolische KI nicht abgedeckt: Quelle: Is it using AI? Karen Hao – FlowChart
Eine strenge Abgrenzung der unterschiedlichen Teilgebiete der KI ist gar nicht so leicht, weil oft Teilgebiete der KI, die sonst nichts mit Maschinellem Lernen zu tun haben, ML nutzen, um Ergebnisse zu verbessern. Die derzeit sehr präsenten KI-Systeme sind entweder ML-Systeme oder verwenden sogar DL.
Vorsicht! Generative KI kann nicht nur für gute Dinge verwendet werden, wie es mit jeder neuen Technologie so ist, kommt es darauf an, was Menschen daraus machen. Technologie an sich ist neutral, wie und wofür wir sie benutzen, ist entscheidend. Es nutzen zum Beispiel auch Kriminelle dieses Werkzeug gerne für ihre Zwecke, um zum Beispiel Geld von dir zu erpressen.
Herausforderungen die KI-Systeme mitbringen
Wir haben jetzt schon festgestellt, dass verschiedene KI-Systeme uns in sehr verschiedenen Bereichen des Lebens unterstützen und uns Arbeit abnehmen können. Es gibt auch einige Risiken mit KI-Systemen, die wir uns jetzt genauer ansehen wollen. Diese Herausforderungen zu benennen und zu erkennen ist sehr wichtig, um besser verstehen zu können, wie wir die Ergebnisse von KI-Systemen einordnen und nutzen können. Wenn wir die möglichen Probleme kennen, können wir die KI-Systeme besser beurteilen und sicherstellen, dass sie richtig funktionieren und ihr Einsatz nicht schädlich ist.
Außerdem ist es wichtig, unterschiedliche Stimmen zu hören, um die weitere Entwicklung von KI-Systemen fair und ohne Diskriminierung zu gestalten. Nur so können wir sicherstellen, dass KI-Systeme für alle Menschen fair sind und niemanden benachteiligen. Lasst uns also genauer anschauen, welche Herausforderungen es mit KI-Systemen geben kann und warum es so wichtig ist, diese Probleme zu verstehen und zu lösen.
Frühe Zweifel am Feld der Künstlichen Intelligenz
KI-Systeme sind älter als es scheint und Bedenken dazu gibt es ebenso lange. Aus der Popkultur sind uns Bilder einer übermächtigen KI, die sich gegen Menschen wendet bekannt. Die Bedenken, die Norbert Wiener (1894 – 1964) schon sehr früh hatte richten sich jedoch eher an Menschen, die Maschinen nutzen können, um andere Menschen zu überwachen oder auszubeuten.
Norbert Wiener (1894 - 1964) war ein amerikanischer Mathematiker und Philosoph. Er entwickelte die Idee, dass viele komplexe Systeme auf Rückkopplungsprozessen beruhen. Das bedeutet, dass ein System Informationen aus der Umgebung braucht, um gut zu funktionieren. Diese Informationen werden dann in einer Schleife verarbeitet. Ein Beispiel ist ein einfaches Thermostat: Es misst die Raumtemperatur und heizt, bis der gewünschte Zustand erreicht ist. Das Feld, das diese Zusammenhänge betrachtet, wurde dann „Kybernetik“ genannt. Wiener erkannte, dass Systeme durch Kommunikation und Kontrolle lernen und sich selbst steuern können. Ähnlich dem menschlichen Gehirn, das Erfahrungen speichert, indem es Verbindungen stärkt. Diese Prinzipien sind die Grundlage für heutige KI-Systeme wie Künstliche Neuronale Netze und Deep Learning.
Wiener warnte, dass Automatisierung nicht nur Vorteile bringt, sondern auch soziale Spannungen verursachen kann. Die Gefahr liege weniger in den Maschinen selbst, sondern in ihrer Nutzung durch Menschen. Wiener betonte ebenfalls, dass der Einsatz automatischer Maschinen nicht automatisch zur Lösung sozialer Probleme führen wird und verdeutlicht das mit folgenden Worten.
„Denken wir daran, dass die automatische Maschine, was auch immer wir von Gefühlen halten, die sie haben oder nicht haben kann, das genaue wirtschaftliche Äquivalent der Sklavenarbeit ist. Jede Arbeit, die mit Sklavenarbeit konkurriert, muss die wirtschaftlichen Bedingungen der Sklavenarbeit akzeptieren.“ (Norbert Wiener – The Human Use of Human Beings, 1989, S. 162)
Überwachung, Kontrolle und Transparenz
Dieses Zitat führt uns auch zu der sehr kritischen Frage: „Wer hat die Macht und die Kontrolle über KI-Systeme und entscheidet folglich darüber, für wen oder was Sie eingesetzt werden?“.
Die Entwicklung und Herstellung von High-Tech Computerchips (wie den Graphics Processing Units – GPU), die für ML-Systeme gebraucht werden, geht von nur einer Handvoll Unternehmen aus. Die Entwicklungsumgebung sowie Software, die diese Firmen entwickeln, bestimmt wie Forschung im Bereich KI stattfindet. Eine weitere Sache, über die wir im Kapitel bisher nicht gesprochen haben, ist Geld. Die Entwicklung von mächtigen KI-Systemen bzw. riesigen LLMs bedarf sehr großer Datenmengen und Rechenleistung – beides ist teuer und benötigt wartungs-, energie- und ressourcenintensive Rechenzentren.
Beide Punkte bedeuten, dass die Entwicklung subsymbolischer KI und damit der mächtigsten Softwaresysteme, die es gibt und der Zugang dazu stark hierarchisch organisiert ist. Das bedeutet sehr viele Menschen, Organisationen, Firmen und Regierungen der Welt können sich gar nicht einbringen. Ihren Interessen und Bedürfnissen können sie schwer Gehör verschaffen, selbst wenn sie von den Veränderungen, die der Einsatz algorithmischer Systeme bringen, betroffen sind.
Umgekehrt werden KI-Systeme ja genutzt, um Inhalte auf Plattformen zu empfehlen. Das beeinflusst, wie wir Medien konsumieren. Soziale Medien sind entscheidend geworden, um Meinungen und Vorlieben zu erfassen, wobei Interaktionen die Sichtbarkeit von Inhalten erhöhen. Diese Mechanismen können leicht manipuliert werden, indem durch hohe Interaktionen bestimmte Inhalte bevorzugt angezeigt werden, was die KI-Modelle beeinflusst. Dies bietet die Möglichkeit, die öffentliche Meinung zu beeinflussen, insbesondere durch politische Propaganda, die von Bots verstärkt wird. Bots können Fake-Accounts erstellen und Interaktionen generieren, um falsche Informationen zu verbreiten, die dann auch Beachtung finden, obwohl dahinter keine Menschen mit Meinungen stehen, sondern Computersysteme. Habe ich also die Möglichkeit, meine Wahlkampagne auf diese Art zu führen, wird es deutlich leichter zum Beispiel Präsident der USA zu werden.
„Bias“ – Vorurteil, Voreingenommenheit, Verzerrung
Was kann passieren, wenn viele Menschen eine Technologie nutzen, bei der nur sehr wenige nicht demokratisch gewählte Personen das Sagen haben, wie diese entwickelt wird?
Viele Menschen glauben, dass Maschinen objektiver oder fairer entscheiden als Menschen. Das stimmt aber nicht immer, besonders bei KI-Systemen. Auch KI-Systeme können Vorurteile reproduzieren, was auf Englisch "Bias" genannt wird. Bias bedeutet, dass die Ergebnisse verzerrt oder unfair sein können. Wir vergessen oft, dass auch Maschinen von Menschen gemacht sind und Menschen im Hintergrund Entscheidungen treffen, auch wenn diese Menschen für uns oft nicht sichtbar sind.
Wie kommt „der Bias“ jetzt eigentlich in ein KI-System?
Verzerrungen können an verschiedenen Stellen in ein KI-System gelangen. Die Biases innerhalb eines KI-Systems hängen grundsätzlich von den Daten ab, mit welchen die KI trainiert wurde, dem Design bzw. der Architektur und der Zielsetzung ab.
Ganz am Anfang steht ein Entwickler:innen-Team vor der Entscheidung, welches Ziel ein bestimmtes KI-System erfüllen soll. Bereits bei der Zieldefinition kann ein Bias in ein KI-System gelangen. Es gibt aufseiten der Entwickler:innen nämlich wenig Vielfalt innerhalb der Teams. Die meisten Entwickler:innen momentan sind männlich und leben in sehr reichen Weltregionen. Dadurch fehlen Perspektiven marginalisierter Gruppen bei der Entscheidung, welche Probleme als wichtig angesehen werden und welche nicht. So passiert es schnell, dass bestimmte Personengruppen bei der Entwicklung von KI vergessen oder absichtlich ausgeschlossen werden.
Auch die Daten, mit welchen ein KI-System trainiert wird, enthalten Verzerrungen und Vorurteile. Die Trainingsdaten stammen aus der realen Welt und spiegeln gesellschaftliche Vorurteile wider. Wenn KI-Systeme mit verzerrten Daten trainiert werden, berechnet eine KI auch Muster in den Daten, die durch Stereotype entstehen und somit wird die Benachteiligung von marginalisierten Personengruppen mit trainiert. Diese Verzerrungen können zu starken Benachteiligungen im Leben von Personen führen. Zum Beispiel gibt es immer wieder Fälle von Diskriminierung in der automatisierten Bilderkennung. Diese Diskriminierung kommt durch unausgeglichene Bilddatensätze zustande, mit welchen ein Algorithmus trainiert wird. Enthält dieser Bilder von vor allem weißen Personen und nur wenige Bilder von Schwarzen Menschen führt das dazu, dass das System Schwarze Menschen anhand von Bildern schlechter erkennt.
Ein weiterer wichtiger Punkt, an dem sich Verzerrungen in KI-Systeme einschleichen können, ist im Design und der Architektur. Bei der Architektur geht es darum, welche Merkmale ein KI-System heranzieht, um Berechnungen anzustellen, die dann zum Beispiel über die Eignung für einen bestimmten Job entscheiden.
Ein Beispiel ist ein von Amazon entwickeltes System zur Auswahl von Bewerber:innen. Dieses System benachteiligte Frauen, weil es mit Daten früherer Einstellungen trainiert wurde, die Männer bevorzugten. Da haben wir einmal wieder das Problem der Verzerrungen in Trainingsdatensätzen. Es zeigt sich aber auch, dass die Auswahl der Merkmale, die eine KI zur Entscheidungsfindung nutzt, entscheidend ist, um genaue und faire Ergebnisse zu liefern. Diese Merkmale können das Geschlecht, die Ausbildung oder die Berufserfahrung sein. Das Problem bei vor allem selbstlernenden KI-Systemen ist aber, dass wir nicht hineinsehen können und somit nicht nachsehen können, wie ein KI-System zu Ergebnissen kommt. Wir haben hier wieder das Problem der „Blackbox“.
Ein weiteres Beispiel für Verzerrungen mit weitreichenden Folgen war der Einsatz eines KI-Systems im Gesundheitsbereich in den USA. Dieser Algorithmus sollte Patient:innen mit besonderem Pflegebedarf identifizieren, empfahl aber seltener afroamerikanische Patient:innen, obwohl diese eine gleiche Krankheitsschwere hatten wie weiße Patient:innen. Der Grund: Die KI basierte ihre Entscheidung auf den Behandlungskosten, und für afroamerikanische Menschen wird in den USA weniger Geld ausgegeben. Das hat die KI gelernt und bewertete das Risiko für Afroamerikaner:innen daher geringer. Mit diesem Entscheidungssystem werden afroamerikanische Patient:innen klar benachteiligt.
Verzerrungen in KI-Systemen sind ein ernstes Problem, das zu Diskriminierung von bestimmten Personengruppen beiträgt und Stereotype reproduziert. Entwickler:innen müssen sich dessen bewusst sein und Maßnahmen ergreifen, um die Verzerrungen zu erkennen und zu verringern. Vielfalt in den Entwicklungsteams und sorgfältige Auswahl der Trainingsdaten sind wichtige Schritte, um faire und genaue KI-Systeme zu entwickeln.
Chatbots - Die „allwissenden“ Orakeln
Wir verlassen uns heute schon stark auf die Ergebnisse, die uns KI-Systeme liefern. Aber Vorsicht – sie können eben zum einen Verzerrungen enthalten, aber es kann auch sein, dass ein Chatbot dir ganz falsche Informationen erfindet.
Chatbots wie OpenAI's ChatGPT, Google's Bard oder Microsoft's BingChat können die Illusion erzeugen, sie seien allwissend. Es stimmt zwar, dass diese KI-Systeme auf einen riesigen Schatz an Wissen zugreifen können, jedoch kann man sich nicht auf den Wahrheitsgehalt der Informationen verlassen. Teilweise erfinden Chatbots einfach Antworten (sog. halluzinieren), die plausibel klingen, aber falsch sind und zensieren Informationen, die den kommerziellen Interessen der dahinterstehenden Firmen schaden könnten. Weiter können diese Chatbots die politischen Ansichten ihrer Macher:innen wiedergeben und alternative Standpunkte ausblenden. Hier spielt die Frage:„Wer hat die Macht“ auch wieder eine bedeutende Rolle. Die Art und Weise, wie man eine Frage stellt, beeinflusst ebenfalls stark die Antwort, die man ausgespuckt bekommt.
Das heißt für dich: glaube zuerst einmal nicht alles, was LLMs wie ChatGPT schreiben und überprüfe die Antworten auf ihren Wahrheitsgehalt.
Soziale Komponente – Einseitige Lösungen für vielschichtige Probleme
Es gibt Tendenzen zu glauben, dass KI alle gesellschaftlichen Probleme lösen kann. Diese vereinfachte Sichtweise ignoriert jedoch die Komplexität und Vielschichtigkeit dieser Probleme. Technik sollte nicht automatisch als „die“ Lösung für komplexe gesellschaftliche Herausforderungen betrachtet werden. Stattdessen sollten technische Lösungen gezielt auf spezifische Teilprobleme angewendet werden, ohne sie als die einzige Lösung zu sehen. Schauen wir uns das anhand von drei ausgewählten Bereichen einmal an:
Weit verbreitet sind inzwischen KI-Freund:innen. Dabei handelt es sich vor allem um erstellte Materialien wie Bilder, Videos oder Chatnachrichten, die Frauen künstlich nachbilden. Mithilfe von generativer KI wird so die Illusion einer Frau erstellt, das Aussehen und Verhalten können die Nutzer:innen gestalten. Viele Nutzer:innen verbringen Stunden am Tag damit, eine Beziehung zu dieser fiktiven Person aufzubauen, die sie selbst gestaltet haben. Interessant ist auch, dass die Trends von Suchanfragen zeigen, dass viel mehr nach „AI girlfriend“ gesucht wird als nach „AI boyfriend“. Manchmal wird diese Art von Partner:innschaft als Lösung für Vereinsamung und Isolation von Menschen herangezogen, die laut Umfragen eher Männer trifft. Auf der anderen Seite bringt diese Entwicklung weitere schwerwiegende Probleme für vor allem marginalisiert Gruppen mit sich. Die Darstellungen von Frauen reduzieren sich durch KI-Freund:innen vor allem auf Stereotype. Das heißt Vorurteile und Sexismus werden durch diese Art von Bots noch verstärkt. Zum anderen ist es auch sehr problematisch, dass auch Bilder von realen Frauen verwendet werden, um eine KI-Freundin zu erstellen. Das Thema sexualisierte Gewalt an Frauen durch Verwendung von generativer KI in Form von Deepfakes ist schon jetzt ein großes Problem. Die Zahlen in diesem Bereich sind momentan erschreckend hoch.
Wichtig ist, dass Personen, deren Probleme gelöst werden sollen, miteinbezogen werden. Im Bereich digitale Barrierefreiheit wird oft betont, dass KI-Systeme viele Probleme von Menschen mit Behinderungen lösen können. KI kann zum Beispiel Alternativtexte für Bilder erstellen, was den Zugang zu visuellen Inhalten für sehbehinderte Nutzer:innen ermöglicht. LLMs können auch Texte in Leichter Sprache erstellen, was den Zugang für Menschen mit Lernbehinderung oder für Nicht-Muttersprachler:innen zu wichtigen Inhalten verbessert. Trotzdem gibt es Herausforderungen wie reproduzierten Ableismus und neue, unsichtbare Barrieren. Außerdem gibt es die Gefahr, dass Menschen mit Behinderung noch unsichtbarer werden und ein gesellschaftlicher Unwille zu echter Inklusion immer weniger wird durch immer bessere Assistenzsysteme.
Es ist wichtig, dass wir sowohl die Ergebnisse von KI-Systemen als auch deren Einsatz kritisch hinterfragen und verschiedene Stimmen einbeziehen, um faire und wirksame Lösungen für vielschichtige soziale Probleme zu finden.
Es wird deutlich, wie notwendig es ist, algorithmische Systeme sicher, nützlich und fair für alle zu gestalten. Trotz der Risiken, die mit KI-Technologien verbunden sind, ist der potenzielle Nutzen groß. Um negative Konsequenzen schlecht umgesetzter KI-Systeme zu vermeiden, sollten wir höchstes Maß an Verantwortlichkeit, Verantwortung und Transparenz (Accountability – Responsibility – Transparency: ART) wahren. Dafür ist die Mitarbeit vieler Bereiche gefordert: Verantwortlichkeit meint, dass Menschen, die KI-Anwendungen entwerfen, entwickeln und bereitstellen, erklären und rechtfertigen müssen, wie die zugrunde liegenden Modelle, Algorithmen und Technologien ihre Ergebnisse erzeugen. Verantwortung bezieht sich auf die gemeinsame Pflicht, sicherzustellen, dass KI-Anwendungen Ethik, Werte und Vielfalt in allen Ebenen und Bereichen der Forschung und Entwicklung berücksichtigen. Transparenz bedeutet, dass alle Aspekte von KI einschließlich der genutzten Datensätze und generierten Outputs, offengelegt und überprüft werden sollten.
Du bist am Ende des E-Learning Kapitels zu KI angekommen. Wie an anderen Stellen menschlicher Geschichte ermöglichen technologische Veränderungen sehr viele gesellschaftliche Veränderungen und Verschiebungen von Macht. Welche Veränderungen neue Technologien mit sich bringen, muss nicht einfach geschehen. Auch du kannst darüber nachdenken, welche Veränderungen es sind, die KI uns Menschen bringen soll. Technik wird immer von Menschen entwickelt und sollte auch für Menschen sein und nicht zum Beispiel gegen sie eingesetzt werden.