← Zurück zum Inhaltsverzeichnis | Buchsammlung
Kapitel 12 von 14
12 min Lesezeit

Kapitel 12: Rechnerische Intelligenz – Maschinelle Intelligenz vs. menschliche Kognition

Zwei fundamental verschiedene Systeme

Menschliche Intelligenz und maschinelle Intelligenz sind nicht Varianten desselben Phänomens, sondern fundamental verschiedene Systeme. Sie operieren auf verschiedenen Substraten, folgen verschiedenen Prinzipien, haben verschiedene Stärken und Limitationen.

Menschliche Intelligenz ist biologisch – sie basiert auf neuronalen Netzwerken aus Neuronen, Synapsen, Neurotransmittern. Diese Systeme sind analog, stochastisch, hochgradig parallel. Sie operieren mit etwa 86 Milliarden Neuronen, jedes mit Tausenden von Verbindungen. Die Gesamtheit dieser Verbindungen – etwa 100 Billionen Synapsen – definiert die Struktur der Kognition (Herculano-Houzel, 2009).

Maschinelle Intelligenz ist digital – sie basiert auf Transistoren, die binäre Zustände repräsentieren (0 oder 1). Diese Systeme sind diskret, deterministisch (abgesehen von absichtlichem Zufall), seriell oder begrenzt parallel. Moderne Prozessoren haben Milliarden von Transistoren, aber ihre Verarbeitungsarchitektur ist fundamental anders als die des Gehirns.

Diese strukturellen Unterschiede führen zu funktionalen Unterschieden. Was für Menschen einfach ist, ist für Maschinen schwer – und umgekehrt. Dieses Phänomen wird als Moravecs Paradoxon bezeichnet (Moravec, 1988).

Moravecs Paradoxon – Was einfach ist, ist schwer

Hans Moravec beobachtete: High-level reasoning (Schach, Mathematik, logisches Denken) ist für Computer einfach, aber low-level sensomotorische Fähigkeiten (Gehen, Objekterkennung, manuelle Geschicklichkeit) sind für Computer schwer.

Ein Computer kann Schach auf Weltmeisterniveau spielen, aber er kann nicht durch ein unebenes Terrain laufen wie ein zweijähriges Kind. Ein Computer kann komplexe mathematische Beweise führen, aber er kann nicht intuitiv erkennen, ob ein Gesicht fröhlich oder traurig ist. Ein Computer kann Millionen von Datenpunkten analysieren, aber er kann nicht spontan ein Glas Wasser greifen, ohne es umzustoßen.

Diese Asymmetrie ist nicht technologische Limitation, sondern strukturelle Konsequenz. High-level reasoning ist evolutionär jung – es entstand vor etwa 50.000 bis 100.000 Jahren. Low-level sensomotorische Fähigkeiten sind evolutionär alt – sie entstanden vor Hunderten von Millionen von Jahren. Die evolutionär alten Fähigkeiten sind hochgradig optimiert, implizit, unbewusst. Die evolutionär jungen Fähigkeiten sind explizit, bewusst, regelhaft.

Computer sind gut in expliziten Regeln. Sie sind schlecht in impliziten Mustern. Deshalb ist Schach einfach (explizite Regeln), aber Gehen schwer (implizite Muster). Deshalb ist Mathematik einfach (formale Logik), aber soziale Interaktion schwer (implizite Normen).

Narrow AI – Spezialisierung ohne Verständnis

Moderne KI ist narrow AI – spezialisiert auf spezifische Aufgaben, unfähig zu Generalisierung. Ein System, das Schach spielt, kann nicht Dame spielen. Ein System, das Bilder klassifiziert, kann nicht Texte übersetzen. Ein System, das Sprache generiert, kann nicht Auto fahren.

Diese Spezialisierung ist nicht temporäre Limitation, sondern strukturelle Eigenschaft. Narrow AI-Systeme sind trainiert durch überwachtes Lernen – sie lernen Muster in Trainingsdaten, aber sie verstehen diese Muster nicht. Sie haben keine Weltwissen, keine kausale Modellierung, kein konzeptuelles Verständnis.

Ein Bildklassifikationssystem kann erkennen, dass ein Bild eine Katze zeigt – aber es versteht nicht, was eine Katze ist. Es weiß nicht, dass Katzen biologische Organismen sind, dass sie essen, schlafen, sich reproduzieren. Es hat keine Theory of Mind, keine Intentionalität, kein Bewusstsein. Es ist ein statistischer Musterdetektor, kein kognitives System (Marcus, 2018).

Diese Limitation ist fundamental. Deep Learning basiert auf Mustererkennung in Daten. Aber Verständnis erfordert mehr als Muster – es erfordert kausale Modelle, kontrafaktisches Reasoning, konzeptuelle Integration. Diese Fähigkeiten sind nicht durch mehr Daten oder größere Modelle erreichbar. Sie erfordern fundamental andere Architekturen (Pearl & Mackenzie, 2018).

Das Frame Problem – Die Unmöglichkeit vollständiger Kontextualisierung

Das Frame Problem, formuliert von John McCarthy und Patrick Hayes, beschreibt eine fundamentale Herausforderung für AI: Wie kann ein System wissen, welche Aspekte einer Situation relevant sind und welche ignoriert werden können? (McCarthy & Hayes, 1969)

Ein Mensch weiß intuitiv, dass wenn er eine Tür öffnet, die Position der Möbel im Raum nicht verändert wird. Er weiß, dass wenn er einen Apfel isst, der Apfel verschwindet, aber der Tisch, auf dem er lag, nicht. Diese Intuition ist nicht explizit gelernt, sondern implizit akkumuliert durch Millionen von Erfahrungen.

Ein Computer hat diese Intuition nicht. Er muss explizit programmiert werden, welche Aspekte einer Situation sich ändern und welche konstant bleiben. Aber die Anzahl möglicher Aspekte ist astronomisch groß. Jede Aktion hat unendlich viele potenzielle Konsequenzen – die meisten irrelevant, aber einige relevant. Wie entscheidet das System, welche relevant sind?

Menschen lösen dieses Problem durch Common Sense – implizites Weltwissen, akkumuliert über Jahre der Erfahrung. Computer haben keinen Common Sense. Sie haben nur explizite Regeln oder statistische Muster. Diese sind nicht ausreichend für flexible, kontextsensitive Inferenz.

Das Frame Problem ist nicht gelöst. Es ist eine fundamentale Barriere für General AI – Systeme, die in beliebigen Kontexten operieren können, so wie Menschen (Shanahan, 2016).

Symbol Grounding – Die Bedeutungslosigkeit von Symbolen

Das Symbol Grounding Problem, formuliert von Stevan Harnad, fragt: Wie können Symbole Bedeutung haben? (Harnad, 1990)

Ein Computer manipuliert Symbole – Bits, die Zahlen, Wörter, Bilder repräsentieren. Aber für den Computer sind diese Symbole bedeutungslos. Sie sind arbiträre Muster ohne referentielle Verbindung zur Welt. Ein Mensch versteht, dass das Wort „Apfel" sich auf ein physisches Objekt bezieht – rot, rund, essbar. Ein Computer versteht nur, dass „Apfel" ein String ist, der statistisch mit anderen Strings korreliert („Obst", „rot", „essen").

Diese Korrelationen sind nicht Bedeutung. Sie sind statistische Assoziationen. Ein System kann perfekt in der Manipulation von Symbolen sein, ohne jemals zu verstehen, was diese Symbole bedeuten. Das ist die Essenz von Searles Chinese Room Argument (diskutiert in Kapitel 5): Syntaktische Manipulation ist nicht semantisches Verständnis.

Harnad argumentiert, dass Symbole nur Bedeutung haben, wenn sie geerdet sind – verbunden mit sensorischen Erfahrungen, mit motorischen Aktionen, mit kausalen Interaktionen mit der Welt. Ein Mensch weiß, was „Apfel" bedeutet, weil er Äpfel gesehen, berührt, geschmeckt hat. Ein Computer hat keine sensorischen Erfahrungen. Seine Symbole sind ungeerdet, bedeutungslos.

Diese Limitation ist nicht trivial. Sie erklärt, warum AI-Systeme spektakulär scheitern können – sie manipulieren Symbole korrekt, aber sie verstehen nicht, was diese Symbole bedeuten. Sie produzieren grammatisch korrekte Sätze, die semantisch absurd sind. Sie klassifizieren Bilder korrekt, aber interpretieren sie falsch.

Die Stärken rechnerischer Intelligenz

Trotz dieser Limitationen hat maschinelle Intelligenz signifikante Stärken:

Geschwindigkeit: Computer verarbeiten Informationen billionenfach schneller als Neuronen. Ein neuronales Signal propagiert mit etwa 100 m/s. Ein elektrisches Signal in einem Prozessor propagiert mit etwa 200.000.000 m/s. Diese Geschwindigkeit erlaubt Computer, Aufgaben in Sekunden zu erledigen, die Menschen Jahre kosten würden.

Präzision: Computer machen keine Fehler in der Berechnung (abgesehen von Hardware-Defekten oder Bugs). Menschen machen kontinuierlich Fehler – sie vergessen, sie approximieren, sie biassen. Computer führen Milliarden von Operationen aus ohne Degradation.

Skalierbarkeit: Computer können parallelisiert werden. Ein Problem kann auf Tausende von Prozessoren verteilt werden, die gleichzeitig operieren. Menschliche Kognition ist nicht parallelisierbar – ein Mensch kann nicht sein Gehirn auf Tausende von Köpfen verteilen.

Speicher: Computer haben perfekten Speicher. Sie vergessen nicht, sie degradieren nicht, sie verzerren nicht. Menschen vergessen kontinuierlich, rekonstruieren Erinnerungen, konfabulieren.

Diese Stärken machen Computer überlegen in spezifischen Domänen – Berechnung, Datenanalyse, Logik, Speicherung. Aber sie machen Computer nicht überlegen in allen Domänen. Die Stärken sind komplementär, nicht ersetzend.

Komplementarität statt Konkurrenz

Die funktionale Perspektive auf maschinelle Intelligenz ist: Sie ist Werkzeug, nicht Ersatz. Computer ergänzen menschliche Kognition, sie ersetzen sie nicht. Sie sind gut in Aufgaben, in denen Menschen schlecht sind – schnelle Berechnung, große Datenmengen, präzise Speicherung. Sie sind schlecht in Aufgaben, in denen Menschen gut sind – kontextuelles Verständnis, soziale Interaktion, kreative Problemlösung.

Die optimale Konfiguration ist nicht Mensch vs. Maschine, sondern Mensch + Maschine. Hybrid-Systeme nutzen die Stärken beider – menschliche Intuition + maschinelle Präzision, menschliches Verständnis + maschinelle Geschwindigkeit, menschliche Kreativität + maschinelle Skalierbarkeit.

Diese Komplementarität ist nicht romantisch, sondern pragmatisch. Sie akzeptiert, dass verschiedene Systeme verschiedene Fähigkeiten haben. Sie nutzt diese Fähigkeiten strategisch, statt zu versuchen, ein System durch das andere zu ersetzen.

Das bedeutet: Die Zukunft ist nicht Singularität (Maschinen ersetzen Menschen), sondern Kooperation (Maschinen ergänzen Menschen). Diese Kooperation erfordert Verständnis der Limitationen beider Systeme – und Design, das diese Limitationen kompensiert.


Quellen:

86%