KI - Invasion der Algorithmen #ESSAY #TECHNOLOGIE #KI

Algorithmen-Alarm – Demokratie bedroht

Michael W. Bader - Februar 2023

Gefahr durch künstliche Intelligenz

Die potentiellen Einsatzmöglichkeiten von künstlicher Intelligenz (KI) sind riesig, sie soll bis 2025 ein Drittel der gesamten Wertschöpfung ausmachen,1 für effizientes staatliches Handeln sorgen, die Wissenschaft beschleunigen und das Klima retten.2 Für all diese Aufgaben braucht man künstliche Intelligenz vor allem dafür, die riesigen Datenmengen zu verarbeiten, die nicht zuletzt durch das „Internet der Dinge" jeden Tag zusammenkommen, Datenmengen die für Analysezwecke einfach zu groß und deren darunter liegende Muster zu komplex sind. Dies ist z. B. bei YouTube der Fall, wo jede Minute 400 Stunden Videomaterial hochgeladen werden,3 welches nach verbotenen oder gestohlenen Inhalten gecheckt werden muss. Eine Arbeit, für die ca. 72.000 Menschen 8 Stunden täglich Filme anschauen müssten und die von der KI während des Uploads in Echtzeit erledigt wird.4

Ein beeindruckendes Beispiel für angewandte künstliche Intelligenz ist auch das GPT-3-Modell von OpenAI. Hierbei handelt es sich um eine KI, die Texte so gut produzieren kann, dass ein entsprechender Artikel der beliebten Technologie-Nachrichtenseite „Hacker News" sehr hoch bewertet wurde, ohne dass überhaupt bemerkt wurde, dass der Inhalt künstlich erstellt war.5

Geradezu beängstigend smart präsentiert sich ChatGPT, die aktuelle Variante des GPT-3 Sprachmodells von OpenAI. Auf die Frage „Bitte erkläre ChatGPT im Unterschied zu GPT-3“ liefert das System folgende Antwort:

GPT-3 (Generative Pretrained Transformer 3) ist ein maschinelles Lernmodell für Natursprachen, das von OpenAI entwickelt und trainiert wurde. Es ist eines der größten und leistungsstärksten Modelle seiner Art und kann eine Vielzahl von Aufgaben im Bereich der maschinellen Spracherkennung und -verarbeitung ausführen, wie z. B. Texterzeugung, Übersetzung, Frage-Antwort-Systeme und mehr. CHATGPT ist eine spezialisierte Anwendung von GPT-3, die auf die Erzeugung von Konversationen optimiert wurde. Es wurde trainiert, um auf Fragen von Benutzern in natürlicher Sprache zu antworten und eine ansprechende Konversation zu führen. Im Gegensatz zu GPT-3, das ein allgemeines Sprachverständnis hat, ist CHATGPT spezialisiert auf die Interaktion mit Benutzern und ist eher für Anwendungen wie Kundensupport, Chatbots und virtuelle Assistenten geeignet. https://chat.openai.com/chat am 13.02.2023 - 13:21

Der aktuelle KI-Boom beruht im Wesentlichen auf Machine Learning und Deep Learning, wobei es sich bei ersterem um KI-Anwendungen handelt, bei denen Systeme bestimmte Aufgaben auf Basis von gelernten Zusammenhängen ausführen. Über entsprechend gesammelte Daten können Algorithmen selbstständig „lernen", ohne detailliert programmiert werden zu müssen. Beispiele für maschinelles Lernen sind Produktempfehlungen bei Amazon, die Vorhersage von Kundenverhalten für unterschiedliche Anbieter oder z. B. die Erkennung von Kreditkartenbetrug.

Bei Deep Learning geht es um die Arbeit mit neuronalen Netzen, die dafür eingesetzt werden, komplexe Muster zu erkennen, Texte zu deuten oder um Cluster zu bilden und Objekte auf Bildern zu klassifizieren 6, entsprechende Anwendungen finden sich z. B. im Bereich Bilderkennung, Spracherkennung oder maschinelle Übersetzung. Und der Einsatz von Algorithmen wächst rasant weiter: Künstliche Intelligenz entscheidet nicht nur über Finanzinvestitionen, sondern auch über die Artikel, die wir lesen, über unsere persönliche Kreditwürdigkeit, über die Einladung zu einem Bewerbungsgespräch, über Studierfähigkeit und über potentielle Straffälligkeit.

All dies ist technisch sicher sehr beeindruckend, aber eben auch gefährlich und zwar gleich aus mehreren Gründen: Zunächst ist davon auszugehen, dass oft die einzelnen Schritte im Rechenprozess nicht mehr nachvollzogen werden können und Entscheidungen damit intransparent werden. Im Weiteren können von dem System schlicht Fehler gemacht werden, mit außerordentlich schwerwiegenden Konsequenzen für die jeweils Betroffenen, und vor allem besteht ein großes Problem in der Diskriminierung bestimmter ethnischer Gruppen und in der Benachteiligung von Frauen durch moderne KI.7 Bedauerlicherweise sind große Mengen von Trainingsdaten keineswegs fair und ausgewogen und in keiner Weise etwa Abbild einer objektiven Realität. Viele Trainingsdaten stecken voller „Bias" und damit voller Voreingenommenheit, weshalb man mit Maciej Cegłowski durchaus behaupten könnte, dass Machine Learning eine Art „Geldwäsche für Vorurteile" darstellt.8 Laut einem taz-Bericht vom 29. Mai 2021 lassen z. B. die Klangfilter von Diensten wie „Zoom" die Stimmen von Frauen weniger ausdrucksstark, kompetent und charismatisch erscheinen und bewirken so eine strukturelle Benachteiligung.9 Andere gesundheitsbezogene Algorithmen, die eigentlich Nierenfunktionen berechnen oder Herzversagen vorhersagen sollten, verwenden dabei die Hautfarbe als zentrales Kriterium und liefern diskriminierende Resultate.10

Außerdem darf man nicht vergessen, dass Machine-Learning-Systeme eigentlich grundsätzlich immer strukturkonservativ sind, weil sich Analyseergebnisse immer aus historischen Daten ableiten und entsprechende Systeme also stets aus einem Abbild der Vergangenheit folgern, wie Dinge zukünftig sein werden. Die Vergangenheit normiert damit Gegenwart und Zukunft und gibt damit eindeutig den Raum der Möglichkeiten vor. Dies nimmt sich bei Fragen wie z. B. der Gendergerechtigkeit, der Klimakatastrophe oder der sozialen Ungleichheit der Menschen geradezu zynisch aus.11

Jedenfalls sind Fehleranfälligkeit, Intransparenz, mangelnde Nachvollziehbarkeit und Diskriminierung durch Algorithmen eine gefährliche Bedrohung der Rechtsstaatlichkeit und unserer auf Bürgerrechten und Demokratie basierenden Gesellschaft.

Demokratie schützen

In Anbetracht diverser damit verbundener Gefahren ist KI-Technologie ganz grundsätzlich zu hinterfragen, namhafte Zeitgenossen wie Stephen Hawking, Elon Muskoder Bill Gateswarnen vor Entwicklungen auf diesem Feld, die ihrer Auffassung nach sogar zum unkontrollierbaren Selbstläufer durch die Entstehung sog. Superintelligenzen mutieren könnten (Nick Bostrom 12). Aber nicht nur wegen potentiell übergriffiger Superintelligenzen, sondern vor allem auch wegen des unregulierten Einsatzes der ganz normalen sog. „schwachen KI" und der damit verbundenen Gefährdung unserer Demokratien, muss dringend ein gesellschaftlicher Diskurs stattfinden. Rasch müssen dort, wo Gefahren drohen, tragfähige Schutz-Mechanismen vor der geschilderten KI-Falle eingerichtet werden und praktische Vorschläge, an denen es nicht mangelt, endlich umgesetzt werden.

Allerdings geht es hierbei nicht nur um die Einrichtung von irgendwelchen KI-Überwachungsinstanzen und Enquete-Kommissionen, sondern auch um ganz Grundsätzliches, nämlich um die Frage nach der Funktionsweise des modernen Datenkapitalismus und der Beschränkung der Allmacht der großen Hightech-Konzerne. Die Frage nach dem zukünftigen Einsatz von KI umfasst viele gesellschaftliche Richtungsentscheidungen, die eben nicht übermächtigen Firmenmonopolen überlassen werden dürfen, einfach deshalb, weil sie in ihren Auswirkungen uns alle betreffen: Die Zivilgesellschaft muss in die Frage nach der Ausgestaltung und dem Einsatz von KI einbezogen werden.

Verschmelzung von Mensch und Maschine

Dies gilt besonders auch für die Frage, in welche Richtung überhaupt weitergeforscht und weiterhin Milliardenbeträge investiert werden sollen. Google z. B. ist genau in diese Richtung unterwegs und voll dabei, Fakten zu schaffen. Der Technologiedirektor bei Google LLC, Ray Kurzweil, sieht im Wesentlichen große Chancen für die Menschheit, wenn es endlich so weit wäre, die menschliche Intelligenz und die Maschinen-Intelligenz zu verschmelzen. 13 Kurzweil sieht eine 50-prozentige Wahrscheinlichkeit, dass wir die „Generelle künstliche Intelligenz" im Jahr 2029 erreichen und für dieses Ziel wird tatsächlich auch Tag und Nacht gearbeitet. Im Jahr 2045 soll unser Gehirn mit der Cloud verbunden werden - wenn es die dann überhaupt noch gibt, angesichts des Technologietrends zur Dezentralisierung der Verarbeitung von Daten.14

Kurzweil versteht bekanntlich unter dem Begriff der Singularität vor allem den Einstieg in eine Mensch-Maschinen-Zivilisation, bei der die Menschheit allerdings als Krone der Schöpfung abdanken muss. Unsere Zivilisation bliebe nach Kurzweil menschlich - sie würde der Menschlichkeit sogar in vielerlei Hinsicht mehr Ehre machen als die heutige; der Menschheitsbegriff würde sich jedoch von seinen biologischen Wurzeln lösen, orakelt Kurzweil.15 Kurzweil geht es vor allem auch um die Denkgeschwindigkeit, die durch die Verbindung von Mensch und Maschine maximiert werden könne. Dies wäre insbesondere dann möglich, wenn im Molekularbereich gefertigte, wenige Mikrometer große Roboter, sogenannte „Nanobots", auch in den Hirnkapillaren unterwegs wären, um unsere Intelligenz drastisch zu vergrößern und die 100-Billionen-Grenze synaptischer Verschaltungen beim Menschen überwinden würden!

Ist von einer solchen Verschmelzung von Mensch und Maschine tatsächlich auszugehen? Kann es sein, dass uns Cyborgs in Sachen Menschlichkeit überholen und dies bereits in relativ kurzer Zeit? Sicherlich, selbstlernende Systeme können heute tatsächlich schon eine ganze Menge, Deep-Learning-Routinen mit entsprechenden neuronalen Netzen sind enorm leistungsstark. Was ihnen jedoch nicht zur Verfügung steht, ist die Fähigkeit, selbstständig zu denken und entsprechend selbstständig zu handeln. Eigentlich, wie z. B. auch Julian Nida-Rümelin und Nathalie Weidenfeld feststellen, „denkt ein Computer in unserem Sinne sowieso überhaupt nicht".16 Nach ihrer Meinung können Computer zwar Denken erfolgreich simulieren, sogar viele menschliche Denkvorgänge, zum Beispiel algebraische Operationen präziser und schneller vornehmen als Menschen. Aber trotz dieser perfekten Simulation menschlichen Denkens liegt bei einem Rechnersystem kein eigenes verständiges Erfassen, kein Problembewusstsein, keine Einsicht in die Zusammenhänge vor.17

Wie Richard David Precht in diesem Zusammenhang anmerkt, denken Menschen im Gegensatz zu Computern eben nicht „regelbasiert", wodurch menschliche Entscheidungsrahmen nicht begrenzt und durch eine Zielfunktion festgelegt sind. Gerade das „Nicht-Programmierte" erlaubt es Menschen, sich und die Welt zu „reflektieren". „Computer und Programme dagegen sind unfähig, das eigene Wissen zu wissen."18 Nach einem von Volker Wittpahl herausgegebenen VDE/Themenband19, verfügt KI weder über ein eigenes (Selbst-)Bewusstsein20, noch über die Fähigkeit zur Selbstreflektion, ganz zu schweigen von Vernunft, Emotionalität, Empathie und Kreativität, wobei letzteres natürlich stark von der Definition von Kreativität abhängig ist.

Und um an dieser Stelle nochmals auf die unheimliche Fähigkeit von GPT-3 zurückzukommen, auf menschenähnliche Weise zu schreiben, muss festgehalten werden, dass dieses System, trotz seiner Fähigkeit, überzeugende Texte zu generieren, die Welt nicht so versteht, wie wir Menschen dies tun.Dieses System scheint eher bestehende Begriffszusammenhänge zu kombinieren und hieraus den jeweils nächsten Satz zu bauen, eine Funktionsweise, die bei Themen gut funktioniert, über die bereits viel geschrieben wurde.21 Allerdings lässt sich das Wissen der KI nicht so einfach auf gänzlich neue Informationen übertragen, wie dies Menschen vermögen, das System ist eben nicht in der Lage, eigenständig zu denken.22

Künstliche Intelligenz hat nach mehrheitlicher wissenschaftlicher Auffassung kein Verständnis für komplexe Zusammenhänge,23 es fehlt ihr an etwas wie gesundem Menschenverstand ebenso wie an einem irgendwie gearteten Bewusstsein, welches allerdings für die von Kurzweil prophezeite selbstständig handelnde neue „Krönung der Schöpfung" in Form künstlicher Intelligenzen unumgänglich wäre. Die Systeme müssten aus der Verarbeitung von verfügbaren Informationen Gründe für ihr Verhalten ableiten und über eine gewisse Selbstreflexion verfügen können. Sie müssten in der Lage sein, sich ständig an geänderte Bedingungen anzupassen, und mit diesen interagieren können, nur so wäre eine dem Menschen ähnliche Handlungsfähigkeit denkbar.24

Genau diese Voraussetzungen für Handlungsfähigkeit allerdings stehen KI nicht zur Verfügung.25 Das menschliche Bewusstsein verfügt nach dem Neurologen Joachim Bauer über die Fähigkeit, „in einer gegebenen Situation unterschiedliche Verhaltensoptionen zu entwerfen, ihre jeweiligen Folgen zu antizipieren und sie gegeneinander abzuwägen." 26 KI-Systeme sind nicht in der Lage, genau dies zu tun, besonders auch deshalb nicht, weil eine solche Abwägung immer auch den sozialen Kontext einbeziehen müsste, bei dem auch die jeweiligen Folgen einer Handlung zu verantworten sind.27

Wer also davon ausgeht, dass vielleicht eine dem Menschen in jeder Hinsicht überlegene KI-Superintelligenz entstehen wird, der könnte dabei nach Nemitz auf einen Taschenspielertrick hereinfallen, bei dem zunächst das menschliche Denken als komplett mechanisiert betrachtet wird, sodann die Überlegenheit der Maschine im mechanistischen Denken konstatiert und damit die potentielle Überlegenheit einer künstlichen Intelligenz über den Menschen behauptet wird.28 Zusammengefasst wird aus Sicht des Autors in absehbarer Zukunft wohl eher nicht von einem Auftreten von Superintelligenzen und einer Übernahme der Cyborgs auszugehen sein.

Auch Lebewesen sind (nur) Algorithmen

Viel gefährlicher als eine solche Superintelligenz ist dagegen aber eine relativ neue Sicht der Wissenschaft auf den Menschen, die sich auch im KI-Kontext zeigt. Hier besteht der nächste logische Trick darin, gleich den ganzen Menschen als Algorithmus zu interpretieren, der rein materiell, als eine Art Biocomputer funktioniert. Nach Yuval Noah Harari29 scheint sich die Wissenschaft, insbesondere der Fachrichtungen Computer Science und Biotechnologie, dieser Auffassung immer mehr anzuschließen. Nach Constantin Rothkopf von der Universität Darmstadt gilt z. B.: „Auch Lebewesen sind Algorithmen! Ich glaube: Diese Erkenntnis wird einen fundamentalen Wandel herbeiführen. Sie wird verändern, wie wir über uns selbst und unser Menschsein denken."30

Insbesondere die Biowissenschaften stellen nach Harari damit klassische Annahmen infrage, die vor allem auch die Sicht auf das menschliche Individuum betreffen, welches nicht mehr als eigenständiges Selbst, sondern als Ansammlung verschiedener Algorithmen zu verstehen wäre. Infrage gestellt wird in diesem Zusammenhang vor allem auch, dass das Ich eines Individuums über einen eigenen freien Willen verfügt. Es wird im Gegenteil davon ausgegangen, dass die Algorithmen, aus denen ein Mensch besteht, eben gerade nicht frei sind, sondern, von Genen und Umweltzwängen beeinflusst, Entscheidungen entweder deterministisch oder zufällig treffen.

Unter dieser Voraussetzung könnte man versucht sein, davon auszugehen, dass ein externer Algorithmus u. U. viel besser über einen Menschen Bescheid weiß als dieser selbst, vor allem dann, wenn er ständig alle erfassbaren Lebensäußerungen in digitalisierter Form zur Verfügung gestellt bekäme31 und sämtliche Systeme des Körpers und des Gehirns permanent überwachen würde. Ein solches System, so könnte man meinen, würde deshalb immer ganz genau wissen, wie gerade das individuelle persönliche Befinden ist, was gerade gedacht, empfunden und gewollt wird.

Der Vorteil eines solchen einmal entwickelten (Überwachungs-) Algorithmus könnte neben der präzisen Feststellung persönlicher Bedürfnisse nicht zuletzt auch darin liegen, gleich auch viele gesellschaftliche Entscheidungen von Wählern und Konsumenten mit zu übernehmen, wüsste er doch zumindest theoretisch am besten, was für uns als Einzelne und als Gesellschaft das Richtige ist.32

Solche und ähnliche Horrorszenarien könnten nach Harari den Individualismus ebenso wie den Liberalismus spätestens dann zusammenbrechen lassen, wenn uns die Algorithmen eben besser kennen als wir uns selbst. „Liberale Gewohnheiten wie Wahlen" könnten überflüssig werden, wenn z. B. Google in der Lage sein wird, unsere Überzeugungen besser zu repräsentieren"33, argwöhnt Harari. Um allerdings solche apokalyptischen Perspektiven umsetzen zu können, müssen immer noch größere Datenmengen verarbeitet werden, welche die Kapazitäten des menschlichen Gehirns überschreiten, weshalb die Verarbeitung dieser Datenmengen allein schon aus quantitativen Gründen Algorithmen überlassen werden muss, die auf diesem Wege immer mehr Gestaltungsmacht in der Gesellschaft erhalten.

Dataismus und andere Paradigmen

Die Konsequenz aus dieser gefährlichen Weltsicht ist nach Hatari der sogenannte „Dataismus",34 eine Weltauffassung, nach der die gesamte menschliche Spezies als einziges Datenverarbeitungssystem betrachtet werden muss.35 Jedes Wesen wird gemäß diesem Ansatz danach beurteilt, wie gut es Daten verarbeitet, wobei auch jedes politische oder wirtschaftliche System als algorithmisches System erklärt wird. Dataisten setzen auf maximale Datenerhebung sowie Big Data und plädieren dafür, wichtige Entscheidungen Rechnersystemen zu überlassen. Hierbei spielt das Internet der Dinge eine entscheidende Rolle, welches sich nicht nur über Stadt, Land und Fluss, sondern auch über das gesamte Universum ausbreiten soll. Grundlage ist die vollständige sogenannte „Informationsfreiheit" und damit der konsequente Zugang zu absolut allen, auch intimsten Daten der Bürger, eine Freiheit, welche allerdings nicht mit „Meinungsfreiheit" zu verwechseln ist.36

Für Harari ist eine kritische Überprüfung dieser dataistischen Auffassungen eine der zentralen wissenschaftlichen Herausforderungen des 21. Jahrhunderts und wegen der gesellschaftlichen Implikationen auch ein drängendes politisches und ökonomisches sowie philosophisches und sozialwissenschaftliches Problem. Hängt doch enorm viel davon ab, ob wir das ganze Leben auf stringente Datenverarbeitung reduzieren oder eben doch eher auf Individualität und bewusste Intelligenz statt auf scheinbar überlegene und nicht-bewusste Algorithmen setzen.37 Harari warnt jedenfalls eindrücklich davor, den Dataismus zu einem einheitlichen und für alle Fachrichtungen verbindlichen wissenschaftlichen Paradigma zu machen, welches in Folge zu einem scheinbar unangreifbaren Dogma werden könnte, auch wenn sich diesbezügliche Annahmen später als falsch herausstellen sollten.38

Gegen diesen von Harari diagnostizierten Dataismus als Folge der Digitalisierung der Lebenswelt und der Reduzierung des Geistes auf neuronale Prozesse, bei der der Mensch tatsächlich immer mehr als ein Produkt aus Daten und Algorithmen erscheinen könnte und wir unsere Maschinen und unsere Gehirne zu neuen Subjekten erheben, gegen genau diese Selbstverdinglichung des Menschen argumentiert z. B. auch der Philosoph und Psychiater Thomas Fuchs.39

Fuchs plädiert nicht nur für eine kritische Rezeption der allgegenwärtigen Verherrlichung der vielfältigen bunten Möglichkeiten von Big Data und KI, sondern vor allem auch der erkenntnistheoretischen und anthropologischen Voraussetzungen des Dataismus und insbesondere auch des Transhumanismus. Hierzu gehört die bereits erwähnte Sichtweise, nach der Organismen prinzipiell als biologische Maschinen interpretiert werden, die allesamt von genetischen Programmen gesteuert werden, wobei ein eigenständiges Selbst und individuelle Subjektivität angeblich keine Rolle spielen.40

Alle bekannten Phänomene unseres Bewusstseins werden innerhalb dieses Denkmusters auf Prozesse neuronaler Informationsverarbeitung reduziert, die einen Input nach algorithmischen Regeln in einen entsprechenden Output umwandeln. Nicht subjektives Erleben, sondern scheinbar nur die bereits erwähnte Funktion von Input, Datenverarbeitung und Output soll unseren Geist ausmachen.41 Insbesondere auch der Transhumanismus betrachtet hierbei den Menschen als ein unvollkommenes, quasi „blindwüchsig entstandenes und daher schlecht konstruiertes, fehlerhaftes Produkt"42, welches es in jeder Hinsicht zu optimieren und zumindest in Teilen zu substituieren gilt.

Diese aus Sicht des Autors fragwürdigen entwicklungsbiologischen Setzungen über die notwendige Optimierung des Menschen, nach denen Krankheit, Altern und Tod nur lästige aber letztlich technisch zu lösende Fehlfunktionen darstellen, sind wichtige Voraussetzung dataistischer Weltsicht. Eine Weltsicht, die uns Menschen - als Folge der Fortschritte der Neurowissenschaften - als reine Produkte unserer Neuronen und menschliche „Subjektivität als ein Epiphänomen von Hirnprozessen" erscheinen lässt.43

Alle bekannten Phänomene unseres Bewusstseins werden auf Prozesse neuronaler Informationsverarbeitung reduziert, Prozesse, die prinzipiell auf beliebigen Trägern („Hardware") ablaufen und sogar durch künstliche Systeme simuliert werden können.Werden allerdings Organismen prinzipiell als biologische Maschinen interpretiert, die von genetischen Programmen gesteuert werden, bleibt kein Platz für das eigenständige Selbst, ebenso wenig wie für die menschliche Subjektivität und schützenswerte Individualität.44

Paradigmen widersprechen

Gegen all diese naturalistisch-reduktiven Hypothesen setzt Fuchs das menschliche Bewusstsein als Prozess, welches seiner Auffassung nach nicht aus rein zerebralen Funktionen besteht, sondern als Gesamtergebnis der „Selbstorganisation eines biologischen Systems" funktioniert.45 Seiner Auffassung nach sind wir Menschen uns nur als physisch verkörperte, leibliche Wesen einander wirklich, ganz einfach deshalb, weil es keineKommunikation oder Empathie zwischen Gehirnen gibt.46 Konkrete leibliche Existenz scheint also die Voraussetzung für Bewusstsein und zwischen-menschliche Kommunikation zu sein und gerade nicht ein körperloses abstraktes Bewusstsein.47 „Unsere Leiblichkeit, Lebendigkeit und verkörperte Freiheit sind die Grundlagen einer selbstbestimmten Existenz"48, einer Existenz, welche die neuen Technologien zwar gebraucht, aber sich ihnen nicht unterordnet.49

Fuchs wendet sich deshalb nachdrücklich gegen jede Art der Technisierung des Menschen, bei der wir uns selbst als Objekte im Sinne von Algorithmen oder neuronal determinierten Maschinen verstehen. Und in der Tat kann bei einer solchen Selbstverdinglichung die Gefahr bestehen, sich freiwillig denjenigen auszuliefern, die über solche Technologien verfügen und diese in ihrem Interesse manipulieren können.50

In eine ganz ähnliche Richtung verweist auch der Philosoph Markus Gabriel z. B. mit seinen Arbeiten „Ich ist nicht Gehirn"51 oder „Der Sinn des Denkens".52 Auch Gabriel wendet sich gegen die Vorstellung, dass künstliche Intelligenz etwa im menschlichen Sinne denken könne, und zwar deshalb, weil auch für ihn das menschliche Denken grundsätzlich an biologische Bedingungen gebunden ist und keinen Vorgang reiner Datenverarbeitung darstelle.53 Gabriel beschreibt das Denken als eine Art natürlichen Sinn, vergleichbar dem menschlichen Hören, Fühlen oder Schmecken, als ein auch biologisch fundiertes Sinnesorgan54, welches nicht künstlich nachgebaut werden kann.55

Das Denken als sechster Sinn wird stets auch durch die anderen Sinnesorgane, zum Beispiel durch die Wahrnehmung von Farben oder Tönen, mitgeprägt56 und insbesondere diese Verbindung des Denkens mit anderen Sinnesorganen lässt sich nach Gabriel mit digitalen Systemen eben nicht simulieren und nachbilden.57 Deshalb handelt es sich bei der Arbeit von künstlicher Intelligenz letztlich immer (nur) um Informationsverarbeitung nach logischen Regeln und ist damit menschlicher Intelligenzleistung nicht vergleichbar.

Denn genau diese algorithmische Verarbeitung von Information unterscheidet nach Gabriel wiederum ganz grundsätzlich KI von menschlichem Denken, welches im Regelfall gerade nicht strengen logischen Anforderungen folgt, sondern vielmehr von verschiedenen Einflüssen, wie z. B. auch unseren Emotionen, mit beeinflusst wird. „Die Logik ist eine normative Disziplin, die beschreibt, wie wir unter idealisierten Bedingungen denken sollten. So denken wir aber nicht.", stellt Gabriel nüchtern fest.58 Ein Sachverhalt, den er aber insbesondere auch mit dem Freiheitsgrad menschlichen Denkens verbunden sieht, sich eben nicht an logische Spielregeln halten zu müssen.

Gerade diese Freiheit ist für Gabriel ein wichtiges Merkmal der menschlichen Intelligenz, kurz: "Unsere Abweichung von einem Ideal der Rationalität ist der Quotient unserer Intelligenz".59 All dies stellt die einfache Gleichstellung von künstlicher und menschlicher Intelligenz, ebenso wie die des menschlichen Denkens mit dem Abarbeiten logischer Schrittfolgen durch digitale Systeme, massiv infrage, auch und gerade wenn diese Berechnungen z. B. im Rahmen von Machine-Learning-Anwendungen stattfinden.

Nicht nur der praktische Einsatz der Algorithmen kann damit Freiheitsrechte und Demokratie gefährden, sondern auch wissenschaftstheoretische Ansätze, wie z. B. Lebewesen auf Algorithmen zu reduzieren.

Homo sapiens kein Auslaufmodell

Unter Beachtung dieser Überlegungen zur Natur menschlicher Intelligenz und des menschlichen Denkens sollten wir deshalb, bevor wir den Homo sapiens endgültig zum Auslaufmodell erklären, die genannten erkenntnistheoretischen und anthropologischen Voraussetzungen kurz noch einmal auf Plausibilität und wissenschaftliche Evidenz hin überprüfen. Es scheint, dass wir überbordendem Dataismus ebenso konsequent entgegentreten sollten wie auch der Degradierung aller Lebewesen zu Algorithmen.

Aber Vorsicht, der Dataismus hat starke Freunde und mächtige Fürsprecher und vor allem auch das ganz große Geld an seiner Seite! Und hier schließt sich der Kreis von aktuellen Wissenschaftsentwicklungen zurück zu Ray Kurzweil und Alphabet, wo an genau solchen Visionen jeden Tag gearbeitet wird. Finanziert mit Geldern, welche wir als Konsumenten und Steuerzahler täglich aufbringen und bei deren Verwendung uns eine gewisse Mitsprache der Sache nach zustünde. Gelder, welche aber zumindest nicht gegen das Gemeinwohl eingesetzt werden sollten.

Aufmerksam gilt es deshalb in Zukunft Gemeinwohl gegen private Einzelinteressen abzuwägen und alles Grundsätzliche zur Gestaltung der Wirtschaft nicht individualistisch, sondern da, wo alle betroffen sind, demokratisch zu regeln. Durch eine Beteiligung der Menschen bei allen wichtigen KI-Fragen und eine gemeinwohlorientierte Verwaltung dieser Technologien besteht durchaus die Möglichkeit, künstliche Intelligenz nutzbringend für die Menschen einzusetzen. Hierbei darf allerdings der Einsatz von KI nicht als alternativlos akzeptiert werden, es geht nicht nur darum, Trainingsdaten irgendwie zu optimieren und die verwendeten Algorithmen an irgendwelche Wertehorizonte zu binden. Die richtige Lösung könnte vielleicht auch darin liegen, KI nicht nur immer weiter zu verbessern, sondern das eine oder andere System einfach abzuschalten.60

Dennoch geht es bei diesem kurzen Essay nicht um Maschinenstürmerei, KI kann, gesellschaftlich kontrolliert und gemeinwohlorientiert verwertet, mit Sicherheit viel Gutes leisten. Dies z. B. in der kontrollierten Steuerung komplexer Technik, der Übernahme monotoner und zeitraubender Tätigkeiten in Industrie und Verwaltung, analytischer und operativer Unterstützung in der Medizin, Unterstützung auch im Bereich von Wissenschaft und Forschung und - bspw. und nicht zuletzt - vielleicht tatsächlich sogar auch bei der eingangs erwähnten Bewältigung der Klimakatastrophe.

Ohne Zweifel befinden wir uns inmitten großer technologischer und gesellschaftlicher Veränderungen, die sicherlich auch durch die gegenwärtige Pandemie weiter verschärft werden. Jeder von uns kann durch engagiertes Eintreten dazu beitragen, dass Humanität, Rechtsstaatlichkeit und Demokratie nicht auf der Strecke bleiben, sondern vielleicht sogar gestärkt werden können.

Göppingen im Januar 2023

Michael W. Bader

Literaturverzeichnis

Apt, Wenke und Kai Priesack, „KI und Arbeit - Chance und Risiko zugleich." in Künstliche Intelligenz: Technologie, Anwendung, Gesellschaft (iit-Themenband), hrsg. von Volker Wittpahl, 221-238, Springer eBook Collection. Berlin, Heidelberg: Springer-Verlag, 2019.

Bader, Michael W., „Herrschaft der Algorithmen: Wie Künstliche Intelligenz unsere Freiheit bedroht." 27.05.2016. https://www.gfe-media.de/blog/kuenstliche-intelligenz-herrschaft-der-algorithmen/ (letzter Zugriff: 21. Dezember 2021).

Bauer, Joachim, Selbststeuerung: Die Wiederentdeckung des freien Willens, 2. Aufl. Taschenbuchausgabe. München: Wilhelm Heyne, 2018.

Bostrom, Nick, Superintelligenz: Szenarien einer kommenden Revolution. Berlin: Suhrkamp, 2014.

Brouwer, Bree, „YouTube Now Gets Over 400 Hours Of Content Uploaded Every Minute." tubefilter (26.07.2015). https://www.tubefilter.com/2015/07/26/youtube-400-hours-content-every-minute/.

Fuchs, Thomas, Das Gehirn - ein Beziehungsorgan: Eine phänomenologisch-ökologische Konzeption, 6. aktualisierte u. erweiterte Auflg. Stuttgart: W. Kohlhammer, 2021.

–––, Verteidigung des Menschen: Grundfragen einer verkörperten Anthropologie, 3. Auflg. suhrkamp taschenbuch wissenschaft 2311. Berlin: Suhrkamp, 2021.

Gabriel, Markus, Der Sinn des Denkens, 2. Aufl. Ullstein TB 06120. Berlin: Ullstein Taschenbuch Verlag, 2020.

–––, Ich ist nicht Gehirn: Philosophie des Geistes für das 21. Jahrhundert, 3. Aufl. Berlin: Ullstein Taschenbuch Verlag, 2020.

Gabriel, Markus und Christian Rabhansl, „Ohne Bewusstsein keine Intelligenz: Mensch und Maschine." Deutschlandfunk Kultur (12. 01. 2019). https://www.deutschlandfunkkultur.de/mensch-und-maschine-ohne-bewusstsein-keine-intelligenz-100.html (letzter Zugriff: 18. Dezember 2021).

getAbstract, „Auch Lebewesen sind Algorithmen!" getAbstract journal (o. D.). https://journal.getabstract.com/de/2020/09/02/auch-lebewesen-sind-algorithmen/ (letzter Zugriff: 28. Dezember 2021).

Geuter, Jürgen, „Der Fehler liegt im System: Künstliche Intelligenz." Zeit Online (30.09.2021). https://www.zeit.de/digital/2021-09/kuenstliche-intelligenz-begriffserklaerung-ki-systeme-strukturelle-probleme-gemeinwohl (letzter Zugriff: 18. Dezember 2021).

Harari, Yuval Noaḥ, Homo deus: Eine Geschichte von Morgen, 10. Aufl. München: C. H. Beck, 2017.

Klumbies, Hans, „Markus Gabriel denkt über das Denken nach." Wissen57 (o. D.). https://www.wissen57.de/markus-gabriel_der-sinn-des-denkens.html (letzter Zugriff: 28. Dezember 2021).

Lehmann, Hendrik, „›Künstliche Intelligenz kann nicht über sich selbst nachdenken‹: Amazon-Chefforscher Hendrik Lehmann." Tagesspiegel Online 19.04.2018. https://www.tagesspiegel.de/themen/tagesspiegel-berliner/amazon-chefforscher-kuenstliche-intelligenz-kann-nicht-ueber-sich-selbst-nachdenken/21219060.html (letzter Zugriff: 19. Dezember 2021).

Lobe, Adrian, „Ist die Menschheit bald am Ende …: ›Homo Deus‹." Zeit Online (10.04.2017). https://www.zeit.de/kultur/literatur/2017-04/homo-deus-yuval-noah-harari-buchkritik (letzter Zugriff: 27. Dezember 2021).

Nemitz, Paul und Matthias Pfeffer, Prinzip Mensch: Macht, Freiheit und Demokratie im Zeitalter der Künstlichen Intelligenz, 2. Aufl. Bonn: J. H. W. Dietz Nachf., 2020.

Nida-Rümelin, Julian und Nathalie Weidenfeld, Digitaler Humanismus: Eine Ethik für das Zeitalter der Künstlichen Intelligenz, 2. Aufl. München: Piper, 2020.

Perlentaucher, „Rezensionsnotiz zu Frankfurter Allgemeine Sonntagszeitung, 09.08.2020." Perlentaucher (o. D.). https://www.perlentaucher.de/buch/thomas-fuchs/verteidigung-des-menschen.html.

Pillou, Marc, „Willkommen im Zeitalter des Dataismus." Bildungsdirektion Kanton Zürich (2018). https://blog.edu-ict.ch/wp-content/uploads/2018/12/1544179714447_Willkommen-im-Zeitalter-des-Dataismus-Marc-Pilloud-181128.pdf (letzter Zugriff: 20. Dezember 2021).

Precht, Richard David, Künstliche Intelligenz und der Sinn des Lebens. München: Goldmann, 2020.

Raveling, Jan, „Was ist künstliche Intelligenz? Die Definition des Begriffs KI." WFB Wirtschaftsförderung Bremen 22.04.2020. https://www.wfb-bremen.de/de/page/stories/digitalisierung-industrie40/was-ist-kuenstliche-intelligenz-definition-ki (letzter Zugriff: 18. Dezember 2021).

Redaktion manage it, „Fortschritte bei der künstlichen Intelligenz des Jahres 2020 - Hype und Realität." manage it (18.01.2021). https://ap-verlag.de/fortschritte-bei-der-kuenstlichen-intelligenz-des-jahres-2020-hype-und-realitaet/66349/ (letzter Zugriff: 27. Dezember 2021).

Seiler, Johannes, „Markus Gabriel: Computer können nie menschliche Intelligenz nachbilden." Rheinische Friedrich-Wilhelms-Universität Bonn (03.09.2018). https://idw-online.de/de/news701513 (letzter Zugriff: 18. Dezember 2021).

Stubbe, Julian, Jan Wessels und Guido Zinke, „Neue Intelligenz, neue Ethik?" in Künstliche Intelligenz: Technologie, Anwendung, Gesellschaft (iit-Themenband), hrsg. von Volker Wittpahl, 239-254, Springer eBook Collection. Berlin, Heidelberg: Springer-Verlag, 2019.

Wikipedia, „Dataismus.". https://de.wikipedia.org/wiki/Dataismus (letzter Zugriff: 28. Dezember 2021).

Wintermayr, Arabella, „Eine KI ist auch nur ein Mensch: Diskriminierung in Videochats." taz.de (29. 05. 2021). https://taz.de/!112354/ (letzter Zugriff: 19. Dezember 2021).

Wittpahl, Volker, Hrsg., Künstliche Intelligenz: Technologie, Anwendung, Gesellschaft (iit-Themenband). Springer eBook Collection. Berlin, Heidelberg: Springer-Verlag, 2019.

Wüstholz, Florian, „Minuspunkte für Hautfarbe." Algorithmwatch/CH (03.12.2020). https://algorithmwatch.ch/de/racial-health-bias/ (letzter Zugriff: 2. Januar 2022).

Wuttke, Laurenz, „Natural Language Processing (NLP): Funktionen, Aufgaben und Anwendungsbereiche.". https://datasolut.com/natural-language-processing-einfuehrung/ (letzter Zugriff: 27. Dezember 2021).

Zweig, Katharina, Ein Algorithmus hat kein Taktgefühl: Wo künstliche Intelligenz sich irrt, warum uns das betrifft und was wir dagegen tun können, 5. Aufl. München: Heyne, 2019.


  1. Jan Raveling, „Was ist künstliche Intelligenz? Die Definition des Begriffs KI." WFB Wirtschaftsförderung Bremen 22.04.2020. https://www.wfb-bremen.de/de/page/stories/digitalisierung-industrie40/was-ist-kuenstliche-intelligenz-definition-ki (letzter Zugriff: 18. Dezember 2021).
  2. Jürgen Geuter, „Der Fehler liegt im System: Künstliche Intelligenz." Zeit Online (30.09.2021). https://www.zeit.de/digital/2021-09/kuenstliche-intelligenz-begriffserklaerung-ki-systeme-strukturelle-probleme-gemeinwohl (letzter Zugriff: 18. Dezember 2021).
  3. Bree Brouwer, „YouTube Now Gets Over 400 Hours Of Content Uploaded Every Minute." tubefilter (26.07.2015). https://www.tubefilter.com/2015/07/26/youtube-400-hours-content-every-minute/.
  4. Raveling, „Was ist künstliche Intelligenz?".
  5. Redaktion manage it, „Fortschritte bei der künstlichen Intelligenz des Jahres 2020 – Hype und Realität." manage it (18.01.2021). https://ap-verlag.de/fortschritte-bei-der-kuenstlichen-intelligenz-des-jahres-2020-hype-und-realitaet/66349/ (letzter Zugriff: 27. Dezember 2021).
  6. Laurenz Wuttke, „Natural Language Processing (NLP): Funktionen, Aufgaben und Anwendungsbereiche.". https://datasolut.com/natural-language-processing-einfuehrung/ (letzter Zugriff: 27. Dezember 2021).
  7. Katharina Zweig, Ein Algorithmus hat kein Taktgefühl: Wo künstliche Intelligenz sich irrt, warum uns das betrifft und was wir dagegen tun können, 5. Aufl (München: Heyne, 2019). S. 215.
  8. Geuter, „Der Fehler liegt im System".
  9. Arabella Wintermayr, „Eine KI ist auch nur ein Mensch: Diskriminierung in Videochats." taz.de (29. 05. 2021). https://taz.de/Diskriminierung-in-Videochats/!5770053/ (letzter Zugriff: 19. Dezember 2021).
  10. Florian Wüstholz, „Minuspunkte für Hautfarbe." Algorithmwatch/CH (03.12.2020). https://algorithmwatch.ch/de/racial-health-bias/ (letzter Zugriff: 2. Januar 2022).
  11. Geuter, „Der Fehler liegt im System".
  12. Nick Bostrom, Superintelligenz: Szenarien einer kommenden Revolution (Berlin: Suhrkamp, 2014).
  13. Michael W. Bader, „Herrschaft der Algorithmen: Wie Künstliche Intelligenz unsere Freiheit bedroht." 27.05.2016. https://www.gfe-media.de/blog/kuenstliche-intelligenz-herrschaft-der-algorithmen/ (letzter Zugriff: 21. Dezember 2021).
  14. Paul Nemitz und Matthias Pfeffer, Prinzip Mensch: Macht, Freiheit und Demokratie im Zeitalter der Künstlichen Intelligenz, 2. Aufl. (Bonn: J. H. W. Dietz Nachf., 2020). S. 27.
  15. Bader, „Herrschaft der Algorithmen".
  16. Julian Nida-Rümelin und Nathalie Weidenfeld, Digitaler Humanismus: Eine Ethik für das Zeitalter der Künstlichen Intelligenz, 2. Aufl. (München: Piper, 2020). S. 109.
  17. Ebd. S. 109.
  18. Richard David Precht, Künstliche Intelligenz und der Sinn des Lebens (München: Goldmann, 2020). S. 25.
  19. Volker Wittpahl, Hrsg., Künstliche Intelligenz: Technologie, Anwendung, Gesellschaft (iit-Themenband). Springer eBook Collection (Berlin, Heidelberg: Springer-Verlag, 2019).
  20. Wie in dem VDE/Themenband Künstliche Intelligenz ausgeführt, sieht auch Ralf Herbrich, Leiter der KI-Forschung bei Amazon die größte Schwäche von KI im fehlenden Bewusstsein: „Zu glauben, dass Künstliche Intelligenz eben intelligent ist, also über sich selbst nachdenken und Schlüsse ziehen, sich selber modifizieren und selbst Lernverfahren erfinden könnte – das ist heute nicht möglich und noch ein sehr offenes Forschungsgebiet". Wenke Apt und Kai Priesack, „KI und Arbeit – Chance und Risiko zugleich." in Künstliche Intelligenz: Technologie, Anwendung, Gesellschaft (iit-Themenband), hrsg. von Volker Wittpahl, 221-238, Springer eBook Collection (Berlin, Heidelberg: Springer-Verlag, 2019). S. 223, diese beziehen sich auf Hendrik Lehmann, „›Künstliche Intelligenz kann nicht über sich selbst nachdenken‹: Amazon-Chefforscher Hendrik Lehmann." Tagesspiegel Online 19.04.2018. https://www.tagesspiegel.de/themen/tagesspiegel-berliner/amazon-chefforscher-kuenstliche-intelligenz-kann-nicht-ueber-sich-selbst-nachdenken/21219060.html (letzter Zugriff: 19. Dezember 2021).
  21. https://ap-verlag.de/fortschritte-bei-der-kuenstlichen-intelligenz-des-jahres-2020-hype-und-realitaet/66349/
  22. https://neuroflash.com/de/blog/gpt-3-deutsch/
  23. Wenke Apt und Kai Priesack, „KI und Arbeit - Chance und Risiko zugleich." in Künstliche Intelligenz (s. Anm. 20). S. 222.
  24. Floridi und Sanders, Dennett, zitiert nach Julian Stubbe, Jan Wessels und Guido Zinke, „Neue Intelligenz, neue Ethik?" in Künstliche Intelligenz: Technologie, Anwendung, Gesellschaft (iit-Themenband), hrsg. von Volker Wittpahl, 239-254, Springer eBook Collection (Berlin, Heidelberg: Springer-Verlag, 2019). S. 245.
  25. Scheutz, zitiert nach Wenke Apt und Kai Priesack, „KI und Arbeit - Chance und Risiko zugleich." in Künstliche Intelligenz (s. Anm. 20). S. 245.
  26. Joachim Bauer, Selbststeuerung: Die Wiederentdeckung des freien Willens, 2. Aufl. Taschenbuchausgabe (München: Wilhelm Heyne, 2018). S. 165.
  27. Ebd. S. 168.
  28. Nemitz und Pfeffer, Prinzip Mensch. S. 151.
  29. Yuval Noah Harari, Homo deus: Eine Geschichte von Morgen, 10. Aufl. (München: C. H. Beck, 2017).
  30. getAbstract, „Auch Lebewesen sind Algorithmen!" getAbstract journal (o. D.). https://journal.getabstract.com/de/2020/09/02/auch-lebewesen-sind-algorithmen/ (letzter Zugriff: 28. Dezember 2021).
  31. Hier kann bereits heute eine ganze Menge gemessen und an Daten erhoben werden. Von biometrischen Informationen wie Fingerabdruck und Gesichtsscan (Relief, Markante Punkte), über physiometrische Daten wie Tipp-Rhythmus und Geschwindigkeit, Maus- und Trackpad-Nutzung, Augenbewegung, Gesichtsmuskulatur (Mimiktracking), Schritte, Herzschlag, Hautwiderstand, Körpertemperatur, Stimme (Husten, etc.) bis hin zu psychometrischen Daten über Worthäufigkeit, Satzkomplexität, dialektische Fluidität, Wertehaltungen und weitere Persönlichkeits-Eigenschaften, die allesamt bereits heute erfasst werden können. Marc Pillou, „Willkommen im Zeitalter des Dataismus." Bildungsdirektion Kanton Zürich (2018). https://blog.edu-ict.ch/wp-content/uploads/2018/12/1544179714447_Willkommen-im-Zeitalter-des-Dataismus-Marc-Pilloud-181128.pdf (letzter Zugriff: 20. Dezember 2021).
  32. Harari, Homo deus. S. 444.
  33. 33anc) Adrian Lobe, „Ist die Menschheit bald am Ende …: ›Homo Deus‹." Zeit Online (10.04.2017). https://www.zeit.de/kultur/literatur/2017-04/homo-deus-yuval-noah-harari-buchkritik (letzter Zugriff: 27. Dezember 2021); Pillou, „Willkommen im Zeitalter des Dataismus".
  34. Wikipedia, „Dataismus.". https://de.wikipedia.org/wiki/Dataismus (letzter Zugriff: 28. Dezember 2021).
  35. „Die Menschen werden sich nicht mehr als autonome Wesen betrachten, die ihr Leben entsprechend den eigenen Wünschen führen, sondern viel eher als eine Ansammlung biochemischer Mechanismen, die von einem Netzwerk elektronischer Algorithmen ständig überwacht und gelenkt werden." Harari, Homo deus. S. 445.
  36. Diese sogenannte „Informationsfreiheit" für datenverarbeitende Unternehmen, das Zugriffsrecht auf alle erzeugten Daten zu haben, ist nicht mit der Informationsfreiheit zu verwechseln, wie sie das Informationsfreiheitsgesetz regelt, nämlich das Grundrecht des Bürgers, alle Dokumente und Akten der öffentlichen Verwaltung einsehen zu können.
  37. Ebd. S. 533.
  38. Ebd. S. 533.
  39. Thomas Fuchs, Verteidigung des Menschen: Grundfragen einer verkörperten Anthropologie, 3. Auflg. suhrkamp taschenbuch wissenschaft 2311 (Berlin: Suhrkamp, 2021).
  40. Ebd. S. 12.
  41. Ebd. S. 12.
  42. Ebd. S. 14.
  43. Ebd. S. 14.
  44. Ebd. S. 12.
  45. Perlentaucher, „Rezensionsnotiz zu Frankfurter Allgemeine Sonntagszeitung, 09.08.2020." Perlentaucher (o. D.). https://www.perlentaucher.de/buch/thomas-fuchs/verteidigung-des-menschen.html.
  46. Diesen leiblichen Kontakt mit anderen bezeichnete z. B. Merleau-Ponty als „Zwischenleiblichkeit", Fuchs, Verteidigung des Menschen. S. 13.
  47. Ebd. S. 12.
  48. Die Bedeutung faktischer Leiblichkeit und physischer Lebendigkeit für das Vorhandensein von Bewusstsein zeigt sich nach Fuchs schon allein daran, dass wir Andere bereits „intuitiv anhand ihres leiblichen Ausdrucks, ihrer Gesten und ihres Verhaltens" verstehen und Babys z. B. sehr früh die emotionalen Äußerungen der Eltern durch deren Melodik, Rhythmik und Dynamik in ihrem eigenen Leib mitvollziehen und „mitspüren". Ebd. S. 13,und Thomas Fuchs, Das Gehirn – ein Beziehungsorgan: Eine phänomenologisch-ökologische Konzeption, 6. aktualisierte u erweiterte Aufl. (Stuttgart: W. Kohlhammer, 2021). S.209
  49. Fuchs, Verteidigung des Menschen. Umschlagseite.
  50. Ebd. S. 17.
  51. Markus Gabriel, Ich ist nicht Gehirn: Philosophie des Geistes für das 21. Jahrhundert, 3. Aufl. (Berlin: Ullstein Taschenbuch Verlag, 2020).
  52. Markus Gabriel, Der Sinn des Denkens, 2. Aufl. Ullstein TB 06120 (Berlin: Ullstein Taschenbuch Verlag, 2020).
  53. Hans Klumbies, „Markus Gabriel denkt über das Denken nach." Wissen57 (o. D.). https://www.wissen57.de/markus-gabriel_der-sinn-des-denkens.html (letzter Zugriff: 28. Dezember 2021).
  54. Zum Thema biologischer Externalismus siehe Gabriel, Der Sinn des Denkens. S. 31
  55. Ebd. S. 29.
  56. Johannes Seiler, „Markus Gabriel: Computer können nie menschliche Intelligenz nachbilden." Rheinische Friedrich-Wilhelms-Universität Bonn (03.09.2018). https://idw-online.de/de/news701513 (letzter Zugriff: 18. Dezember 2021).
  57. Ebd.
  58. Markus Gabriel und Christian Rabhansl, „Ohne Bewusstsein keine Intelligenz: Mensch und Maschine." Deutschlandfunk Kultur (12. 01. 2019). https://www.deutschlandfunkkultur.de/mensch-und-maschine-ohne-bewusstsein-keine-intelligenz-100.html (letzter Zugriff: 18. Dezember 2021).
  59. Ebd.
  60. Geuter, „Der Fehler liegt im System".