Intelligenz und Intentionalität - Klassischer Computationalismus - Die Philosophie der Psychologie
Philosophie: Ein Leitfaden zu fortgeschrittenen Themen - Sykalo Yevhen 2025 Inhalt

Die Philosophie der Psychologie

Klassischer Computationalismus

Intelligenz und Intentionalität

Unsere bisherige Diskussion konzentrierte sich auf den rechnerischen Ansatz für einen Aspekt des Geistes, die Intelligenz. Es gibt jedoch einen anderen Aspekt des Geistes, den wir noch nicht behandelt haben, einen, der eine sehr unterschiedliche Beziehung zu rechnerischen Ideen aufweist, nämlich die Intentionalität.

Für unsere Zwecke können wir Intelligenz als eine Fähigkeit betrachten, eine Fähigkeit zu verschiedenen intelligenten Aktivitäten wie dem Lösen mathematischer Probleme, der Entscheidung, ob man ein Graduiertenstudium aufnehmen sollte, oder dem Herausfinden, wie Spaghetti hergestellt werden. Diese Analyse von Intelligenz als Fähigkeit zu lösen, herauszufinden, entscheiden und Ähnlichem ist eine mentalistische Analyse, keine behavioristische.

Intentionalität betrifft das Über-etwas-Sein. Intentionale Zustände repräsentieren die Welt als auf eine bestimmte Weise beschaffen. Der Gedanke, dass der Mond voll ist, und der Wahrnehmungszustand, den Mond als voll zu sehen, beziehen sich beide auf den Mond und stellen ihn als voll dar. Beide sind also intentionale Zustände. Wir sagen, dass der intentionale Gehalt sowohl des Gedankens als auch des Wahrnehmungszustands darin besteht, dass der Mond voll ist. Ein einzelner intentionaler Gehalt kann sehr unterschiedliche Verhaltenswirkungen haben, abhängig davon, zu welcher Person er in Beziehung steht. Zum Beispiel kann der Wunsch, reich zu sein, zum Sparen anregen, während der Glaube, reich zu sein, zum Ausgeben anregt. Absichtsvoll zu sein ist nur eine Art intentionaler Zustand; Glauben und Wünschen sind andere. Intentionalität ist ein wichtiges Merkmal vieler mentaler Zustände, aber viele Philosophen glauben, dass sie nicht das Kennzeichen des Mentalen ist. Es gibt körperliche Empfindungen, wie zum Beispiel die Erfahrung des Orgasmus, die echte mentale Zustände darstellen, aber keinen intentionalen Gehalt besitzen. Vielleicht gibt es einen kleinen intentionalen Gehalt, etwa räumliche Informationen, doch der phänomenale Gehalt der Erfahrung, das Erleben selbst, wird eindeutig nicht vollständig durch diesen Gehalt erfasst.

Die gerade erwähnten Merkmale des Denkens stehen in engem Zusammenhang mit Merkmalen der Sprache. Gedanken repräsentieren Dinge, beziehen sich auf Dinge und können wahr oder falsch sein; dasselbe gilt für Sätze. Der Satz „Bruce Springsteen wurde in der UdSSR geboren“ bezieht sich auf Springsteen, stellt ihn als in der Sowjetunion geboren dar und ist falsch. Es wäre überraschend, wenn der intentionale Gehalt von Gedanken und Sprache unabhängige Phänomene wären, weshalb es natürlich erscheint, das eine auf das andere zurückzuführen oder eine gemeinsame Erklärung zu suchen. Wir werden diese Idee weiter verfolgen, doch zuvor soll der Unterschied zwischen Intelligenz und Intentionalität klarer werden.

Ein Weg, die Unterscheidung zwischen Intelligenz und Intentionalität zu erfassen, besteht darin, zu beachten, dass nach Meinung vieler Autoren Intentionalität ohne Intelligenz möglich ist. John McCarthy, der Schöpfer der künstlichen Intelligenz-Sprache LISP, vertritt die Auffassung, dass Thermostate intentionale Zustände besitzen aufgrund ihrer Fähigkeit, Temperatur zu repräsentieren und zu kontrollieren. Es gibt eine Denkrichtung, die Baumringe als Inhalte zuweist, weil sie das Alter des Baumes repräsentieren. Aber keine Denkrichtung hält Baumringe für intelligent. Ein intelligentes System muss bestimmte intelligente Fähigkeiten besitzen, Fähigkeiten, bestimmte Arten von Handlungen auszuführen, und Baumringe können dies nicht. Weniger kontrovers besitzen Worte auf einer Seite und Bilder auf einem Fernsehbildschirm Intentionalität. Zum Beispiel bezieht sich meine vorherige Bemerkung, dass McCarthy LISP erschuf, auf McCarthy. Worte auf einer Seite besitzen jedoch keine Intelligenz. Die Intentionalität von Worten auf einer Seite ist abgeleitet, nicht original. Abgeleiteter intentionaler Gehalt wird von den ursprünglichen intentionalen Inhalten intentionale Systeme wie uns vererbt. Wir haben großen Spielraum, den Symbolen abgeleiteten Gehalt zu geben; wir könnten entscheiden, dass „McCarthy“ nun Minsky oder Chomsky repräsentiert. Originale intentionale Inhalte sind die Inhalte, die die Repräsentationen eines intentionalen Systems für dieses System haben und unterliegen nicht unserem Willen. Worte auf einer Seite haben abgeleitete Intentionalität, aber keinerlei Intelligenz, auch nicht abgeleitete, was immer das sein könnte.

Umgekehrt kann es Intelligenz ohne Intentionalität geben. Stellen wir uns vor, ein Ereignis von vernachlässigbarer, aber nicht null Wahrscheinlichkeit tritt ein: Teilchen aus einem Sumpf kommen zufällig zusammen und erzeugen eine exakte Molekül-für-Molekül-Kopie Ihres Gehirns. Das Sumpf-Gehirn ist möglicherweise intelligent, weil es viele der gleichen Fähigkeiten wie Ihr Gehirn besitzt. Verbinden wir es mit den richtigen Eingaben und Ausgaben und geben ihm ein Rechenproblem, so erhalten wir eine intelligente Antwort. Es gibt jedoch Gründe zu bezweifeln, dass es die intentionalen Zustände besitzt, die Sie haben, oder überhaupt irgendeine Intentionalität. Da es nicht an Eingabegeräte angeschlossen ist, hat es nie Informationen aus der Welt erhalten. Geht Ihr Gehirn einen identischen Prozess durch, beispielsweise den Gedanken, dass Bernini das Pantheon beschädigt hat, hat das Sumpf-Gehirn die phänomenalen Eigenschaften dieses Gedankens, wie beim Orgasmus besprochen. Was Sie empfinden, wenn Sie diesen Gedanken denken, ist dasselbe, was das Sumpf-Gehirn erlebt. Doch im Gegensatz zu Ihnen hat es keine Ahnung, wer Bernini war, was das Pantheon ist oder was Vandalismus bedeutet. Keine Information über Bernini hat das Sumpf-Gehirn erreicht, kein Signal vom Pantheon. Hätte es einen Mund, würde es nur Worte formen. Niemand sollte daher zufrieden sein mit der Vorstellung, dass das Sumpf-Gehirn den Gedanken denkt, dass Bernini das Pantheon beschädigt hat.

Die Schlussfolgerung: Was ein System intelligent macht, ist, was es tun kann, wozu es fähig ist. Intelligenz ist zukunftsorientiert. Was ein System intentional macht, hängt dagegen teilweise von seiner kausalen Geschichte ab; es muss eine Geschichte haben, die seine Zustände dazu bringt, die Welt zu repräsentieren, also Intentionalität zu besitzen. Intentionalität hat eine vergangenheitsorientierte Anforderung. Ein System kann die zukunftsorientierten Anforderungen der Intelligenz erfüllen, während es die vergangenheitsorientierte Anforderung der Intentionalität nicht erfüllt. Philosophen streiten darüber, wie zukunftsorientiert Intentionalität ist, ob das Denken über etwas die Fähigkeit erfordert, es „zu verfolgen“, doch es besteht weitgehend Einigkeit, dass ein vergangenheitsbezogener Bestandteil vorhanden ist.

Sehen wir nun, was der Unterschied zwischen Intelligenz und Intentionalität mit dem Computermodell des Geistes zu tun hat. Die Methode der funktionalen Analyse, die intelligente Prozesse erklärt, indem sie sie auf nicht-intelligente mechanische Prozesse reduziert, erklärt die Intentionalität nicht. Die Teile eines intentionalen Systems können ebenso intentional sein wie das gesamte System. Insbesondere können die Komponentenprozessoren eines intentionalen Systems Symbole manipulieren, die sich auf dieselben Dinge beziehen wie die Symbole, die vom Gesamtsystem manipuliert werden. Der Multiplikator wurde zuvor durch eine Zerlegung in Geräte erklärt, die addieren, subtrahieren und Ähnliches tun. Die Zustände des Multiplikators waren intentional, da sie sich auf Zahlen bezogen. Die Zustände des Addierers, Subtrahierers usw. beziehen sich ebenfalls auf Zahlen und sind daher ähnlich intentional.

Es gibt jedoch eine wichtige Beziehung zwischen Intentionalität und funktionaler Zerlegung, die im nächsten Abschnitt erläutert wird. Obwohl die Zustände des Multiplikators und des Addierers sich auf Zahlen beziehen, repräsentieren die Zustände der Tore Ziffern, und allgemein verschiebt sich der Gegenstand der Repräsentationen, wenn man von komplexen Prozessoren zu primitiven Prozessoren wechselt.

Das Gehirn als syntaktische Maschine: Eine semantische Maschine antreiben

Um die Idee des Gehirns als syntaktische Maschine zu verstehen, ist es wichtig, den Unterschied zwischen der Zahl 1 und dem Symbol, in diesem Fall einer Ziffer, T, zu erkennen. Der Unterschied zwischen der Stadt Boston und dem Wort „Boston“ ist offensichtlich. Die erste hat schlechte Autofahrer, das zweite keine Menschen oder Autos, aber sechs Buchstaben. Niemand würde Stadt und Wort verwechseln, doch es ist weniger klar, was der Unterschied zwischen der Zahl 1 und der Ziffer T ist. Es ist zu beachten, dass viele verschiedene Symbole dieselbe Zahl bezeichnen können, etwa „II“ in römischen Zahlen und „two“ in alphabetischer Schreibweise, und ein Symbol, etwa „10“, kann in verschiedenen Zählsystemen unterschiedliche Zahlen bezeichnen.

Mit dieser Unterscheidung erkennt man einen wichtigen Unterschied zwischen Multiplikator und Addierer. Der Algorithmus des Multiplikators ist notationsunabhängig: n mal m durch wiederholtes Addieren von n funktioniert in jeder Notation. Das Programm zur Umsetzung dieses Algorithmus ist ebenfalls notationsunabhängig. Es hängt von den Eigenschaften der dargestellten Zahlen ab, nicht von den Darstellungen selbst. Im Gegensatz dazu hängt der interne Betrieb des Addierers von der Binärnotation ab, und seine Beschreibung spricht von Ziffern, nicht von Zahlen. Der Addierer nutzt, dass ein exklusives-oder-Tor Symbolunterschiede erkennt, liefert eine 1, wenn seine Eingaben unterschiedliche Ziffern sind, und eine 0, wenn die Eingaben gleich sind. Dieses Tor liefert die richtige Antwort allein, solange kein Übertrag stattfindet. Der Trick des exklusiven-oder-Tores beruht darauf, dass egal welche zwei Ziffern gleichen Typs addiert werden, die rechtsstehende Ziffer des Ergebnisses gleich bleibt. Dies gilt in der Binärnotation, nicht in anderen Notationen, etwa im Dezimalsystem.

Die Eingaben und Ausgaben sowohl des Multiplikators als auch des Addierers müssen als Zahlen referenziert betrachtet werden. Andernfalls könnte man den Multiplikator nicht als einen Algorithmus zur Multiplikation von Zahlen durch Addition verstehen. Sobald wir jedoch ins Innere des Addierers gehen, müssen die Binärzustände als Symbole selbst verstanden werden, da die Algorithmen notationsabhängig sind. Diese Verschiebung des Gegenstandsbereichs tritt noch deutlicher in manchen Rechenvorrichtungen auf, in denen Algorithmen über Teile von Dezimalziffern operieren. In einem Taschenrechner beispielsweise unterscheidet sich eine „8“ von einer „3“ durch zwei Segmente, die zur Umwandlung ausgeschaltet werden. In solchen Geräten betreffen die Algorithmen diese Segmente.

Dies liefert eine weitere Charakterisierung primitiver Prozessoren. Typischerweise erreichen wir bei der funktionalen Zerlegung eines Systems einen Punkt, an dem sich der Gegenstand von Zahlen oder Dingen auf die Symbole selbst verschiebt. Eingaben und Ausgaben von Addierer und Multiplikator beziehen sich auf Zahlen, die der Tore auf Ziffern. Diese Verschiebung tritt meist auf der Ebene primitiver Prozessoren auf. Die Funktionsweise höherer Komponenten wie des Multiplikators kann durch ein Programm erklärt werden, das Zahlen manipuliert. Die Funktionsweise der Tore kann nicht durch Zahlenmanipulation erklärt werden; sie muss symbolisch erklärt werden, auf niedrigeren Ebenen etwa über Elektromagnete. Auf der grundlegendsten Rechenebene sind Computer Symbolverarbeiter, weshalb das Computermodell des Geistes oft als Sichtweise der Symbolmanipulation beschrieben wird.

Den Addierer als syntaktische Maschine zu sehen, die eine semantische Maschine antreibt, erfordert die Unterscheidung zweier Funktionen: eine, die Zahlen auf Zahlen abbildet, und eine, die Symbole auf Symbole abbildet. Die Symbolfunktion betrachtet Ziffern als Symbole ohne Beachtung ihrer Bedeutung. Sie lautet: 0 und 0 ergeben 0; 0 und 1 ergeben 1; 1 und 0 ergeben 1; 1 und 1 ergeben 10. Die Idee ist, dass wir etwas Physisches in einer Maschine oder ihren Ausgaben als Symbole interpretieren und einen anderen physikalischen Aspekt als Eingaben oder Ausgaben. Unter dieser Interpretation führen bestimmte Symbol-Eingaben zu bestimmten Symbol-Ausgaben. Die Symbolfunktion ist damit eine Frage der kausalen Struktur der Maschine unter dieser Interpretation.

Diese Symbolfunktion wird gespiegelt durch eine Funktion, die die Zahlen der linken Ziffern auf die Zahlen der rechten abbildet. Diese Funktion bildet Zahlen auf Zahlen ab und kann als semantische Funktion bezeichnet werden, da sie die Bedeutung der Symbole betrifft. Sie lautet: 0 und 0 ergeben 0; 0 und 1 ergeben 1; 1 und 0 ergeben 1; 1 und 1 ergeben 2. Die erste Funktion bildet Symbole auf Symbole, die zweite die Zahlen, auf die sich diese Symbole beziehen, auf andere Zahlen. Unter der offensichtlichen Eins-zu-eins-Zuordnung zwischen beiden Domänen ist die erste Funktion eine Art linguistisches Abbild der zweiten.

Der Schlüsselgedanke des Addierers ist ein Isomorphismus zwischen diesen beiden Funktionen. Der Konstrukteur hat eine Maschine gefunden, deren physische Aspekte symbolisch interpretiert werden können, und unter dieser symbolischen Interpretation gibt es symbolische Regelmäßigkeiten: bestimmte Symbole in Eingaben ergeben andere Symbole in Ausgaben. Diese symbolischen Regelmäßigkeiten entsprechen rationalen Beziehungen zwischen den semantischen Werten der Symbole, zum Beispiel der Addition. Der Isomorphismus erklärt, wie ein Symbol-manipulierendes Gerät Zahlen addieren kann.

Die Idee des Gehirns als syntaktische Maschine, die eine semantische Maschine antreibt, verallgemeinert dieses Bild auf die symbolischen Aktivitäten des menschlichen Denkens. Wir besitzen symbolische Strukturen im Gehirn, und Natur und Lernen sorgen dafür, dass Korrelationen zwischen kausalen Interaktionen dieser Strukturen und nützlichen Beziehungen zwischen den Bedeutungen bestehen. Ein grobes Beispiel: Die Gehirnstruktur „Hai“ verursacht die Gehirnstruktur „Gefahr“, wodurch wir das Schwimmen in haiverseuchten Gewässern vermeiden.

Primitive mechanische Prozessoren „kennen“ nur die syntaktischen Formen der Symbole, die sie verarbeiten, nicht deren Bedeutung. Dennoch steuern diese bedeutungsblinden Prozessoren Prozesse, die Sinn ergeben—Entscheidungen, Problemlösungen und Ähnliches. Es besteht eine Korrelation zwischen den Bedeutungen unserer internen Repräsentationen und deren Form. Dies erklärt, wie unsere syntaktische Maschine die semantische Maschine antreiben kann.

Die zuvor erwähnte Korrelation zwischen kausalen Interaktionen symbolischer Strukturen im Gehirn und rationalen Beziehungen zwischen deren Bedeutungen kann irreführend sein, wenn sie das Bild vermittelt, dass ein Neurowissenschaftler einfach das Gehirn öffnet, die Symbole sieht und dann ihre Bedeutung bestimmt. Diese Vorstellung kehrt die Entdeckungsreihenfolge um und vermittelt einen falschen Eindruck davon, was ein Symbol ausmacht.

Symbole im Gehirn entdeckt man, indem man zunächst interessante Beziehungen zwischen mentalen Zuständen kartiert und dann Aspekte dieser Zustände identifiziert, die aufgrund ihrer Rolle im System als symbolisch betrachtet werden können. Funktion, im Sinne der Rolle im System, verleiht einem Symbol seine Identität, auch bei englischen Schriftzeichen, obwohl dies schwer zu erkennen ist, da diese Funktionen durch Gewohnheit und Konvention verfestigt sind. Beim Lesen ungewohnter Handschrift bemerken wir ein unorthodoxes Symbol, die seltsame Art einer Person, einen Buchstaben zu schreiben. Wie erkennen wir, welcher Buchstabe es ist? Anhand seiner Funktion. Die Funktion eines Symbols wird ersichtlich, indem man sieht, wie es in Sätzen mit vertrauten Wörtern auftritt, deren Bedeutung man erraten kann. Auf dieser Grundlage lässt sich leicht feststellen, welcher Buchstabe im letzten Satz durch '%' ersetzt wurde.

Ist eine Wand ein Computer?

John Searle argumentiert gegen die computationale These, dass das Gehirn ein Computer sei. Er sagt nicht, dass die These falsch ist, sondern dass sie trivial sei, weil, wie er vorschlägt, alles ein Computer ist; tatsächlich ist alles jeder Computer. Insbesondere ist seine Wand ein Computer, der Wordstar berechnet. Die Punkte des vorhergehenden Abschnitts erlauben ein leichtes Verständnis der Motivation für diese Behauptung und zeigen, was daran problematisch ist. Dort sahen wir, dass der Schlüssel zur Berechnung in einem Isomorphismus liegt. Wir ordnen die Dinge so, dass, wenn bestimmte physische Zustände einer Maschine als Symbole verstanden werden, kausale Beziehungen zwischen diesen Symbolzuständen nützliche rationale Beziehungen zwischen den Bedeutungen dieser Symbole widerspiegeln. Diese Spiegelung ist ein Isomorphismus. Searles Behauptung ist, dass eine solche Art von Isomorphismus trivial sei. Wir können zwei Aspekte der Wand zu einem bestimmten Zeitpunkt als die Symbole null und eins betrachten und dann einen Aspekt der Wand zu einem späteren Zeitpunkt als eins, und somit hat die Wand gerade null plus eins gleich eins berechnet. Searle schlägt vor, dass deshalb alles, oder vielmehr alles, das groß oder komplex genug ist, um genügend Zustände zu haben, jeder Computer ist, und die Behauptung, das Gehirn sei ein Computer, keine Wirkung hat.

Das Problem bei dieser Argumentation ist, dass der Isomorphismus, der eine syntaktische Maschine eine semantische Maschine antreiben lässt, umfassender ist, als Searle anerkennt. Insbesondere muss der Isomorphismus nicht nur eine bestimmte Berechnung umfassen, die die Maschine tatsächlich ausführt, sondern alle Berechnungen, die die Maschine hätte ausführen können. Der Punkt wird klarer, wenn man sich eine Art exklusives-oder-Gatter vorstellt.

Die Berechnung von eins plus null gleich eins wird durch einen bestimmten Pfad dargestellt. Die Berechnung von null plus eins gleich eins folgt einem anderen Pfad, und so weiter. Nun zum Kernpunkt: Damit die Wand dieser Computer sein kann, reicht es nicht aus, dass sie Zustände hat, die null und eins entsprechen, gefolgt von einem Zustand, der eins entspricht. Sie muss auch so beschaffen sein, dass, wenn die Eingabe eins durch null ersetzt worden wäre, die Ausgabe eins durch null ersetzt worden wäre. Mit anderen Worten, sie muss symbolische Zustände haben, die nicht nur die tatsächliche Berechnung, sondern auch die möglichen Berechnungen, die der Computer hätte ausführen können, erfüllen. Und das ist nicht trivial.

Searle erkennt diesen Punkt an, beharrt jedoch darauf, dass es dennoch keine Tatsache darüber gibt, ob das Gehirn ein bestimmter Computer ist. Ob etwas ein Computer ist, argumentiert er, hängt davon ab, ob wir seine Zustände auf eine bestimmte Weise interpretieren, und das liegt in unserer Hand. Er sagt, wir könnten nicht einerseits behaupten, dass etwas ein digitaler Computer sei, nur weil wir eine Syntax darauf anwenden können, und dann annehmen, dass es eine objektive Frage bezüglich seines physischen Betriebs gäbe, ob ein natürliches System wie das Gehirn ein digitaler Computer ist. Searle hat recht, dass es teilweise in unserer Hand liegt, ob etwas ein Computer ist und welcher Computer es ist. Aber das gegebene Beispiel zeigt, dass es nicht vollständig in unserer Hand liegt.

Ein Stein zum Beispiel ist kein exklusives-oder-Gatter. Wir haben zwar einen großen Spielraum, wie wir ein Gerät interpretieren, aber es gibt auch sehr wichtige Einschränkungen dieses Spielraums, und genau das macht die Behauptung substanziell, dass das Gehirn ein Computer einer bestimmten Art ist. Da nicht alles als exklusives-oder-Gatter beschrieben werden kann, liegt es nicht vollständig in unserer Hand, ob etwas ein exklusives-oder-Gatter ist.





Über den Autor

Dieser Artikel wurde von Sykalo Yevhen zusammengestellt und redigiert — Bildungsplattform-Manager mit über 12 Jahren Erfahrung in der Entwicklung methodischer Online-Projekte im Bereich Philosophie und Geisteswissenschaften.

Quellen und Methodik

Der Inhalt basiert auf akademischen Quellen in mehreren Sprachen — darunter ukrainische, russische und englische Universitätslehrbücher sowie wissenschaftliche Ausgaben zur Geschichte der Philosophie. Die Texte wurden aus den Originalquellen ins Deutsche übertragen und redaktionell bearbeitet. Alle Artikel werden vor der Veröffentlichung inhaltlich und didaktisch geprüft.

Zuletzt geändert: 01/11/2025