ÜBER DIE MATERIE DES GEISTES. Relektüre von Edelman 1992. Teil 6

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 29.August 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

Gerald M.Edelman, Bright Air, Brilliant Fire. On the Matter of the Mind, New York: 1992, Basic Books

BISHER

Teil 1

Teil 2

Teil 3

Teil 4

Teil 5

WICHTIGE POSITIONEN

Zur Erinnerung, einige der wichtigen Positionen, auf die bislang hingewiesen wurde:

EDELMAN

Edelman benutzt die Arbeitshypothese, dass das, was wir ‚Geist‘ nennen, sich nur ab bestimmten Zeitpunkten während der allgemeinen Evolution ‚gezeigt‘ (‚emerged‘) hat, und zwar sehr spät.(vgl. S.41) Und dies setzt die Annahme voraus, dass die fundamentale Basis für alles Verhalten und für die ‚Sichtbarwerdung‘ (‚emergence‘) des Geistes die Anatomie und Morphologie der biologischen Strukturen ist sowie deren Funktionen.(vgl. S.41)

ASPEKTE DER DISKUSSION BISHER

Im Kontext seiner Argumentation kritisiert Edelman viele bekannte Positionen im Bereich Philosophie und Psychologie aus der eingeschränkten Perspektive ihres Bezuges zu den materiellen Strukturen heraus, die von ihm – letztlich wie bei Kant, nur mit anderem Akzent, mehr oder weniger – als ‚Ermöglichung des Geistes‘ gesehen werden. Diese Kritik in dieser speziellen Perspektive ist zum Teil berechtigt, aber auch nur zu einem sehr eingeschränkten Teil, da die kritisierten Personen und Positionen von den neuen Erkenntnissen noch gar nichts wissen konnten. Über diese enge Perspektive des expliziten Bezugs zu materiellen Strukturen hinaus repräsentieren die kritisierten Positionen aber auch Perspektiven, die ‚in sich eine methodische Rechtfertigung‘ besitzen, die Edelman schlicht nicht erkennt. Hier verkürzt zur Erinnerung einige seiner ‚methodischen blinden Flecken‘:

  1. … zugleich die Arbeitshypothese aufzustellen, dass damit Analyse- und Erklärungsansätze von vornherein zu verurteilen sind, die Verhaltensdaten (Psychologie) bzw. auch introspektive Daten (Philosophie) als solche als Basis nehmen ohne direkt einen Bezug zu den materiellen (anatomischen) Daten herzustellen, ist mindestens problematisch wenn nicht wissenschaftsphilosophisch unhaltbar…
  2. … denn, wie immer die anatomischen Grundlagen beschaffen sein mögen, wenn ich deren ‚Verhaltensdynamik‘ erforschen will, interessieren mich die Details dieser Anatomie nicht, sondern nur ihre Funktion. Und diese lässt sich nicht durch Rekurs auf Bestandteile beschreiben sondern nur durch Beobachtung des Systemverhaltens …
  3. … aus materiellen Strukturen als solchen folgt in keiner Weise irgend etwas ‚Geistiges‘ es sei denn, ich habe vorab zur Untersuchung einen Kriterienkatalog G, den ich als Maßstab anlegen kann, um dann bei der Analyse der Beobachtungsdaten konstatieren zu können, das der Eigenschaftskomplex G vorliegt. Habe ich solch einen Kriterienkatalog G nicht, kann ich noch so viele empirische Daten zu irgendwelchen materiellen Strukturen vorweisen; ‚aus sich heraus‘ lassen diese Daten eine solche Eigenschaftszuschreibung nicht zu! …
  4. … ohne die ‚Anhaltspunkte‘ im ‚beobachtbaren Verhalten‘ wäre es praktisch unmöglich, jene bedingenden materiellen Struktureigenschaften zu identifizieren, da die zugrundeliegenden neuronalen und damit letztlich biochemischen Grundlagen rein mathematisch nahezu unbegrenzt viele Funktionen erlauben. Letztlich deuten diese materiellen Strukturen auf einen quantenmechanischen Möglichkeitsraum hin, deren Konkretisierung von Faktoren abhängt, die sich aus den Strukturen selbst nicht so einfach ableiten lassen. …
  5. Philosophen arbeiten traditionell mit dem subjektiven Erlebnisraum direkt, ohne zugleich die Frage nach den materiellen Bedingungen der so erlebbaren ‚Phänomene‘ zu fragen. In gewisser Weise handelt es sich bei diesen subjektiven (= bewussten) Phänomenen auch um eine Systemfunktion eigener Art mit einer spezifischen Besonderheit, der man nicht gerecht werden würde, würde man sie durch Rekurs auf die bedingenden materiellen Strukturen (Gehirn, Körper, Welt, …) ‚ersetzen‘ wollen. …
  6. … muss man sich klar machen, dass alle sogenannten ‚empirischen Daten‘ ja nicht ‚außerhalb‘ des ‚bewusstseinsbedingten Phänomenraums‘ vorkommen, sondern auch nur ‚beusstseinsbedingte Phänomene‘ sind, allerdings eine spezielle Teilmenge, die man mit unterstellten Vorgängen in der Außenwelt in Verbindung bringt. Insofern bildet der subjektive Phänomenraum die Basis für jegliche Denkfigur, auch für die empirischen Wissenschaften. …
  7. Die Frage, was denn dann die primären Kriterien für das ‚Psychische-Geistige‘ sind, wird durch diese multidisziplinäre Kooperationen nicht einfacher: da die materiellen Strukturen als solche keinerlei Anhaltspunkte für ‚Geistiges‘ liefern, bleibt letztlich als Ausgangspunkt doch nur das ‚Geistige‘, wie biologische Systeme ’sich selbst‘ sehen, weil sie sich so ‚erleben‘. Das ‚Geistige‘ erscheint hier als ‚Dynamik‘ von Systemen, die sich anhand des Auftretens dieser Systeme ‚zeigt‘, ‚manifestiert‘. Aus den einzelnen materiellen Bestandteilen kann man diese Eigenschaften nicht ableiten, nur aus der Gesamtheit in spezifischen Wechselwirkungen. …
  8. … Erst durch die Dynamik des Gesamtsystems werden – oft als ‚emergent‘ klassifizierte – Phänomene sichtbar, die von den einzelnen Bestandteilen des materiellen Systems als solchen nicht ableitbar sind, nur eben durch das Verhalten, die Dynamik des Gesamtsystems. …
  9. … wenn ein homo sapiens ’nichts tut‘, dann ist die Dynamik ‚unsichtbar‘ und die durch solch eine Dynamik sichtbar werdenden Eigenschaften sind nicht greifbar. Weiter: wenn ein homo sapiens eine Dynamik erkennen lässt, dann bedarf es einer spezifischen ‚Erkenntnisweise‘, um die spezifischen Eigenschaften von ‚Geist‘ erkennen zu können. …
  10. … Es ist weder auszuschließen, dass es zwischen dem empirischen Phänomen der ‚Gravitation‘ und dem empirischen Phänomen ‚Geist‘ einen ‚tieferen‘ Zusammenhang gibt (da ‚Geist‘ als empirisches Phänomen ‚Gravitation‘ voraussetzt‘), noch dass es weit komplexere empirische Phänomene geben kann als den ‚individuell in Populationen‘ sich manifestierenden ‚empirischen Geist‘.
  11. … Da jene geistige Eigenschaften, die den homo sapiens von anderen Lebensformen unterscheiden, erst mit diesem auftreten, kann eine ‚Geschichte der Entwicklung jener Formen, die den homo sapiens auszeichnen‘ nur indirekte Hinweise darauf liefern, wie sich jene ’späten‘ komplexen materiellen Strukturen aus ‚einfacheren, früheren‘ Strukturen entwickelt haben. Damit entsteht dann die interessante Frage, wie sich solche Komplexität aus ’scheinbar einfacheren‘ Strukturen entwickeln konnte? In der logischen Beweistheorie gilt allgemein, dass ich nur etwas ‚ableiten’/ ‚beweisen‘ kann, wenn ich das zu Beweisende letztlich schon in meinen ‚Voraussetzungen’/ ‚Annahmen‘ angenommen habe. Das ’spätere komplexere Neue‘ wäre in dem Sinne dann nicht wirklich ’neu‘ sondern nur eine ‚andere Zustandsform‘ eines Ausgangspunktes, der schon alles hat‘. Dies wäre nicht sehr überraschend, da wir in der Big-Bang-Theorie allgemein von ‚Energie (E)‘ ausgehen, die in Folge von Abkühlungsprozessen unendlich viele konkrete Zustandsformen angenommen hat, von denen wir mit E=mc^2 wissen, dass sie alle ineinander überführbar sind, wie speziell sie auch immer sein mögen.
  12. …Die komplexen Abbildungsprozesse zwischen Genotypen und Phänotypen als Teil von Populationen in Umgebungen machen eine Zuordnung von im Verhalten fundierten Eigenschaftszuschreibungen von ‚Geist‘ zu vorliegenden materiellen Strukturen schwer bis unmöglich. … Das Entscheidende am Phänomen des Geistes ist ja, dass er nach vielen Milliarden Jahren Entwicklung in einem aktuell hochkomplexen und dynamischen System sich zeigt, und zwar nicht ‚aus sich heraus‘ sondern nur dann, wenn ein anderes System, das ebenfalls ‚Geist‘ hat, diesen Phänomenen ‚ausgesetzt‚ ist. Ein System, das selbst ‚keinen Geist hat‘, kann die beobachtbaren Phänomene nicht als ‚geistige‘ klassifizieren! Dies schließt nicht aus, dass heutige Algorithmen quasi automatisch irgendwelche ‚Muster‘ im beobachtbaren Verhalten identifizieren können, allerdings sind dies Muster wie unendlich viele andere Muster, deren ‚Bewertung‘ in irgendeine Zustandsdimension völlig beliebig ist.
  13. …Von Interesse ist auch, wie sich der Zustandsraum der materiellen Strukturen (die Gesamtheit des aktuellen empirischen Wissens über das Universum und seiner möglichen Zukünfte) und der Zustandsraum von Systemen mit Geist (die Gesamtheit des geistigen Vorstellungsraumes samt seiner möglichen geistigen Zukünfte) unterscheidet. Die Sache wird dadurch kompliziert, dass ja die Systeme mit empirischem Geist letztlich auch zum genuinen Gegenstandsbereich der sogenannten ‚Natur‘-Wissenschaften gehören. Wenn das Empirisch-Geistige Teil der Natur ist, reichen die bisherigen empirischen naturwissenschaftlichen Theorien nicht mehr. Sie müssten entsprechend geändert werden. Der Beobachter muss wesentlicher Bestandteil der Theorie selbst werden. Für diese Konstellation haben wir bislang aber keinen geeigneten empirischen Theoriebegriff.
  14. Die fundamentale Tatsache, dass es Moleküle gibt, die andere Moleküle als ‚Kode‘ benutzen können, um Transformationsprozesse zwischen einer Sorte von Molekülen (DNA, RNA) in eine andere Sorte von Molekülen (Polypeptide, Proteine) steuern zu können, nimmt Edelman als Faktum hin, thematisiert es selbst aber nicht weiter. Er benennt diese ‚interpretierenden Moleküle‘ auch nicht weiter; sein Begriff ‚cellular device‘ ist eher nichtssagend. Dennoch ist es gerade diese Fähigkeit des ‚Übersetzens’/ ‚Interpretierens‘, die fundamental ist für den ganzen Transformationsprozess von einem Genom in einen Phänotyp bzw. in eine ganze Kette von hierarchisch aufeinander aufbauenden Phänotypen. Setzt man diese Übersetzungsfähigkeit voraus, ist das ganze folgende Transformationsgeschehen – so komplex es im Detail erscheinen mag – irgendwie ‚trivial‘. Wenn ich in mathematischer Sicht irgendwelche Mengen habe (z.B. verschiedene Arten von Moleküle), habe aber keine Beziehungen definiert (Relationen, Funktionen), dann habe ich quasi ‚Nichts‘. Habe ich aber z.B. eine Funktion definiert, die eine ‚Abbildung‘ zwischen unterschiedlichen Mengen beschreibt, dann ist es eine reine Fleißaufgabe, die Abbildung durchzuführen (z.B. die Übersetzung von DNA über RNA in Aminosäuren, dann Polypeptide, dann Proteine). Das die Biochemie und Mikrobiologie samt Genetik so viele Jahre benötigt hat, die Details dieser Prozesse erkennen zu können, ändert nichts daran, dass diese Transformationsprozesse als solche ‚trivial‘ sind, wenn ich die grundlegende Transformationsfunktion definiert habe. Wo aber kommt diese grundlegende Abbildungsfunktion her? Wie kann es sein, dass ein ordinäres chemisches Molekül ein anderes ordinäres chemisches Molekül als ‚Kode‘ interpretiert, und zwar genau dann so, wie es geschieht? Betrachtet man ’normale‘ Moleküle mit ihren chemischen Eigenschaften isoliert, dann gibt es keinerlei Ansatzpunkt, um diese grundlegende Frage zu beantworten. Offensichtlich geht dies nur, wenn man alle Moleküle als eine Gesamtheit betrachtet, diese Gesamtheit zudem nicht im unbestimmten Raum, sondern in Verbindung mit den jeweils möglichen ‚realen Kontextbedingungen‘, und dann unter Berücksichtigung des potentiellen Interaktionsraumes all dieser Moleküle und Kontexte. Aber selbst diese Raum repräsentiert im mathematischen Sinne nur Mengen, die alles und nichts sein können. Dass man in diesem Raum eine Funktion implantieren sollte, die dem Dekodieren des genetischen Kodes entspricht, dafür gibt es im gesamten Raum keinerlei Ansatzpunkt, es sei denn, man setzt solche eine Funktion als ‚Eigenschaft des Raumes‘ voraus, so wie die Physiker die ‚Gravitation‘ als Eigenschaft des Raumes voraussetzen, ohne irgendeinen Ansatzpunkt im Raum selbst zu haben, als die beobachtbare Wirkung der Gravitation. Die Biologen können feststellen, dass es tatsächlich einen Transformationsprozess gibt, der solch eine Abbildungsbeziehung voraussetzt, sie haben aber keine Chance, das Auftreten dieser Abbildungsbeziehung aus den beobachtbaren materiellen Strukturen abzuleiten!!!
  15. In der Beschreibung von Edelmans Position habe ich schon angemerkt, dass seine Wortwahl ‚Topobiologie‘ möglicherweise unglücklich ist, da es letztlich nicht der dreidimensionale Raum als solcher ist, der entscheidend ist (wenngleich indirekt die Drei-Dimensionalität eine Rolle spielt) sondern der ‚Kontext in Form von interaktiven Nachbarschaften‘: welche andere Zellen stehen in Interaktion mit einer Zelle; welche Signale werden empfangen. Indirekt spielt dann auch der ‚vorausgehende Prozess‘ eine Rolle, durch den eben Kontexte erzeugt worden sind, die nur in bestimmten Phasen des Prozesses vorliegen. Man hat also eher einen ‚Phasenraum‘, eine Folge typischer Zustände, die auseinander hervorgehen, so, dass der bisherige Prozess die nächste Prozessphase hochgradig determiniert. Dies ähnelt einer ‚algorithmischen‘ Struktur, in der eine Folge von Anweisungen schrittweise abgearbeitet wird, wobei jeder Folgeschritt auf den Ergebnissen der vorausgehenden Abarbeitungen aufbaut und in Abhängigkeit von verfügbaren ‚Parameterwerten‘ den nächsten Schritt auswählt. Im Unterschied zu einem klassischen Computer, bei dem die Ausführungsumgebung (normalerweise) festliegt, haben wir es hier mit einem algorithmischen Programm zu tun, das die jeweilige Ausführungsumgebung simultan zur Ausführung ‚mit erschafft‘! Wenn Computermetapher, dann eben so: ein Programm (Algorithmus), das seine Ausführungsumgebung (die Hardware) mit jedem Schritt selbst ‚erschafft‘, ‚generiert‘, und damit seine Ausführungsmöglichkeiten schrittweise ausbaut, erweitert. Dies setzt allerdings voraus, dass das genetische Programm dies alles schon ‚vorsieht‘, ‚vorwegnimmt‘. Die interessante Frage ist dann hier, wie ist dies möglich? Wie kann sich ein genetisches Programm ‚aus dem Nichts‘ entwickeln, das all diese ungeheuer komplexen Informationen bezüglich Ausführung und Ausführungsumgebung zugleich ‚aufgesammelt‘, ’strukturiert‘, ‚verpackt‘ hat, wo die Gesamtheit der modernen Wissenschaft bislang nur Fragmente versteht?
  16. Während Neurowissenschaftler (Edelman eingeschlossen) oft mit unsinnigen Computervergleichen versuchen, die Besonderheit des menschlichen Gehirns herauszustellen, kann man ja auch mal umgekehrt denken: wenn die Entwicklung des Gehirns (und des gesamten Organismus) Ähnlichkeiten aufweist mit einem Algorithmus, der seine eigene Ausführungsumgebung während der Ausführung (!!!) mit generiert, ob sich solch ein Prozess auch ‚rein technisch‘ denken ließe in dem Sinne, dass wir Maschinen bauen, die aus einer ‚kleinen Anfangsmenge von Materie‘ heraus ausgestattet mit einem geeigneten ‚Kode‘ und einem geeigneten ‚Interpretierer‘ sich analog selbst sowohl materiell als auch kodemäßig entwickeln? Da die biologischen Systeme zeigen, dass es grundsätzlich geht, kann man solch einen technischen Prozess nicht grundsätzlich ausschließen. Ein solches Gedankenexperiment macht aber sichtbar, worauf es wirklich ankommt: eine solche sich selbst mit-bauende Maschine benötigt auch einen geeigneten Kode und Interpretationsmechanismus, eine grundlegende Funktion. Ohne diese Funktion, geht gar nichts. Die Herkunft dieser Funktion ist aber gerade diejenige grundlegende Frage, die die gesamte empirische Wissenschaft bislang nicht gelöst hat. Es gibt zwar neuere Arbeiten zur Entstehung von ersten Zellen aus Molekülen unter bestimmten realistischen Kontexten, aber auch diese Forschungen beschreiben nur Prozesse, die man ‚vorfindet‘, die sich ‚zeigen‘, nicht aber warum und wieso es überhaupt zu diesen Prozessen kommen kann. Alle beteiligten materiellen Faktoren in diesen Prozessen als solchen geben keinerlei Ansatzpunkte für eine Antwort. Das einzige, was wir bislang wissen, ist, dass es möglich ist, weil wir es ‚beobachten können‘. Die ‚empirischen Phänomene‘ sind immer noch die härteste Währung für Wahrheit.

KAP.7 DIE PROBLEME NEU ÜBERLEGT

  1. Nach den ersten Analysen in Kap.1-6 stellt Edelman eine ‚Zwischenreflexion‘ an. Angesichts der entdeckten Komplexität und Dynamik im Fall des Gehirns und seiner Entwicklung stellt sich die Frage, wie man den Zusammenhang zwischen den vorfindlichen materiellen Strukturen und ihren Funktionen miteinander in Beziehung setzen (‚to relate‘) kann.(vgl. S.65f)
  2. Und um seine mögliche neue Position zu bestimmen wiederholt er summarisch nochmals seine zuvor geäußerte Kritik an der ‚falschen Objektivität‘ der Physik, an der zu eng gefassten Kognitionswissenschaft, und er wiederholt auch wieder die unsinnigen Vergleiche mit einem falschen Begriff von Computer, der weder theoretisch noch praktisch Sinn macht.(vgl. SS.66-69)
  3. Grundsätzlich hält er an der Forderung fest, (i) eine ‚Theorie‘ zu bauen (‚to construct), die (ii) ‚wissenschaftlich‘ ist. ‚Wissenschaftlich sein‘ macht er an der Eigenschaft fest (iii), dass die Theorie ‚überprüfbar‘ sein soll. Allerdings muss die Theorie (iv) ’nicht immer‘ zu (v) ‚Voraussagen auf allen Ebenen führen‘, noch muss (vi) ‚jeder Teil von der Theorie direkt falsifizierbar‘ sein.(vgl. S.66)
  4. Aufgrund seiner massiven Kritik an der unterdrückten Rolle des Beobachters speziell in der Physik (vgl. S.66f) muss man indirekt folgern, dass (a) der Beobachter in einer ‚kritischen Wissenschaft‘ im Zusammenspiel mit der Theorie ‚anders integriert wird als bisher‘. Dies bedeutet, man muss berücksichtigen, (b) dass es ‚mentale Ereignisse‘ gibt (‚Bewusstsein‘, ‚Intentionalität‘) gibt, die (c) nur durch ‚Introspektion‘ oder (d) nur durch indirekte Schlüsse aufgrund des beobachtbaren Verhaltens von anderen‘ zugänglich sind.(vgl. S.67)

DISKUSSION FORTSETZUNG

  1. Das Kapitel 7 ist sehr kurz und bringt weitgehend nur Wiederholungen ausgenommen der Punkt mit der Theorie. Der ist neu. Und es ist überhaupt das erste Mal, dass Edelman in diesem Buch explizit über eine ‚wissenschaftliche Theorie‘ spricht, obgleich er sich selbst ja als Wissenschaftler versteht und  er seine eigenen Überlegungen gleichwohl als wissenschaftlich verstanden wissen will (wenngleich er das aktuelle Buch in seiner Form nicht streng als wissenschaftliche Theorie verfasst hat).
  2. Seine Charakterisierung einer ‚wissenschaftlichen Theorie‘ ist interessant. Sie ist generell sehr fragmentarisch; sie ist ferner in ihrer Ernsthaftigkeit fragwürdig, da er die Forderung der Falsifizierbarkeit mit dem Argument einschränkt, dass ansonsten Darwins Theorie in ihrer Anfangszeit niemals hätte Erfolg haben können; und sie ist geradezu mystisch, da er eine radikal neue Rolle des Beobachters mit all seinen mentalen Eigenschaften innerhalb der Theoriebildung einfordert, ohne aber irgendwelche Hinweise zu liefern, wie das praktiziert werden soll.
  3. Man stellt sich die Frage, welchen ‚Begriff von Theorie‘ Edelman eigentlich benutzt? In der Geschichte der empirischen Wissenschaften gab es viele verschiedene Begrifflichkeiten, die nicht ohne weiteres kompatibel sind, und seit ca. 100 Jahren gibt es eine eigene Meta-Wissenschaft zu den Wissenschaften mit Namen wie ‚Wissenschaftsphilosophie‘, ‚Wissenschaftstheorie‘, ‚Wissenschaftslogik‘, deren Gegenstandsbereich gerade die empirischen Wissenschaften und ihr Theoriebegriff ist. Obgleich das Gebiet der Wissenschaftsphilosophie, wie ich es hier nenne, bislang immer noch keinen geschlossenen begrifflichen Raum darstellt, gibt es doch eine Reihe von grundlegenden Annahmen, die die meisten Vertreter dieses Feldes einer Metawissenschaft zu den Wissenschaften teilen. Aufgrund seiner bisherigen Ausführungen scheint Edelman nichts vom Gebiet der Wissenschaftsphilosophie zu kennen.
  4. Die Überprüfbarkeit einer Theorie ist in der Tat ein wesentliches Merkmal der modernen empirischen Wissenschaften. Ohne diese Überprüfbarkeit gäbe es keine empirische Wissenschaft. Die Frage ist nur, was mit ‚Überprüfbarkeit‘ gemeint ist bzw. gemeint sein kann.
  5. Wenn Edelman fordert dass für eine Theorie gelten soll, dass nicht (vi) ‚jeder Teil von der Theorie direkt falsifizierbar‘ sein muss, dann geht er offensichtlich davon aus, dass eine Theorie T aus ‚Teilen‘ besteht, also etwa T(T1, T2, …, Tn) und dass im ‚Idealfall‘ jeder Teil ‚direkt falsifizierbar‘ sein müsste. Diese Vorstellung ist sehr befremdlich und hat weder mit der Realität existierender physikalischer Theorien irgend etwas zu tun noch entspricht dies den modernen Auffassungen von Theorie. Moderne Theorien T sind mathematische (letztlich algebraische) Strukturen, die als solche überhaupt nicht interpretierbar sind, geschweige den einzelne Teile davon. Ferner liegt die Erklärungsfähigkeit von Theorien nicht in ihren Teilen, sondern in den ‚Beziehungen‘, die mittels dieser Teile formulierbar und behauptbar werden. Und ob man irgendetwas aus solch einer Theorie ‚voraussagen‘ kann hängt minimal davon ab, ob die mathematische Struktur der Theorie die Anwendung eines ‚logischen Folgerungsbegriffs‘ erlaubt, mittels dem sich ‚Aussagen‘ ‚ableiten‘ lassen, die sich dann – möglicherweise – ‚verifizieren‘ lassen. Diese Verifizierbarkeit impliziert sowohl eine ‚Interpretierbarkeit‘ der gefolgerten Aussagen wie auch geeignete ‚Messverfahren‘, um feststellen zu können, ob die ‚in den interpretierten Aussagen involvierten entscheidbaren Eigenschaften‘ per Messung verifiziert werden können oder nicht. Der zentrale Begriff ist hier ‚Verifikation‘. Der Begriff der ‚Falsifikation‘ ist relativ zu Verifikation als komplementärer Begriff definiert. Begrifflich erscheint dies klar: wenn ich nicht verifizieren kann, dann habe ich automatisch falsifiziert. In der Praxis stellt sich aber oft das Problem, entscheiden zu können, ob der ganz Prozess des Verifizierens ‚korrekt genug‘ war: sind die Umgebungsbedingungen angemessen? Hat das Messgerät richtig funktioniert? Haben die Beobachter sich eventuell geirrt? Usw. Als ‚theoretischer Begriff‘ ist Falsifikation elegant, in der Praxis aber nur schwer anzuwenden. Letztlich gilt dies dann auch für den Verifikationsbegriff: selbst wenn der Messvorgang jene Werte liefert, die man aufgrund einer abgeleiteten und interpretierten Aussage erwartet, heißt dies nicht mit absoluter Sicherheit, dass richtig gemessen wurde oder dass die Aussage möglicherweise falsch interpretiert oder falsch abgeleitet worden ist.
  6. All diese Schwierigkeiten verweisen auf den ausführenden Beobachter, der im Idealfall auch der Theoriemacher ist. In der Tat ist es bislang ein menschliches Wesen, das mit seinen konkreten mentalen Eigenschaften (basierend auf einer bestimmten materiellen Struktur Gehirn im Körper in einer Welt) sowohl Phänomene und Messwerte in hypothetische mathematische Strukturen transformiert, und diese dann wiederum über Folgerungen und Interpretationen auf Phänomene und Messwerte anwendet. Dies in der Regel nicht isoliert, sondern als Teil eines sozialen Netzwerkes, das sich über Interaktionen, besonders über Kommunikation, konstituiert und am Leben erhält.
  7. Edelman hat Recht, wenn er auf die bisherige unbefriedigende Praxis der Wissenschaften hinweist, in der die Rolle des Theoriemachers als Teil der Theoriebildung kaum bis gar nicht thematisiert wird, erst recht geht diese Rolle nicht in die eigentliche Theorie mit ein. Edelman selbst hat aber offensichtlich keinerlei Vorstellung, wie eine Verbesserung erreicht werden könnte, hat er ja noch nicht einmal einen rudimentären Theoriebegriff.
  8. Aus dem bisher Gesagten lässt sich zumindest erahnen, dass ein verbessertes Konzept einer Theorie darin bestehen müsste, dass es eine explizite ‚Theorie einer Population von Theoriemachern (TPTM)‘ gibt, die beschreibt, wie solch eine Population überhaupt eine Theorie gemeinsam entwickeln und anwenden kann und innerhalb dieser Theorie einer Population von Theoriemachern würden die bisherigen klassischen Theoriekonzepte dann als mögliche Theoriemodelle eingebettet. Die TPTM wäre dann quasi ein ‚Betriebssystem für Theorien‘. Alle Fragen, die Edelman angeschnitten hat, könnte man dann in einem solchen erweiterten begrifflichen Rahmen bequem diskutieren, bis hinab in winzigste Details, auch unter Einbeziehung der zugrunde liegenden materiellen Strukturen.
  9. Das, was Edelman als Theorie andeutet, ist vollständig unzulänglich und sogar in wesentlichen Punkten falsch.
  10. Anmerkung: Darwin hatte nichts was einem modernen Begriff von Theorie entsprechen würde. Insofern ist auch das Reden von einer ‚Evolutionstheorie‘ im Kontext von Darwin unangemessen. Damit wird aber der epochalen Leistung von Darwin kein Abbruch getan! Eher wirkt sein Werk dadurch noch gewaltiger, denn die Transformation von Gedanken, Phänomenen, Fakten usw. in die Form einer modernen Theorie setzt nicht nur voraus, dass man über die notwendigen Formalisierungsfähigkeiten verfügt (selbst bei den theoretischen Physikern ist dies nicht unbedingt vollständig gegeben) sondern man kann erst dann ’sinnvoll formalisieren‘, wenn man überhaupt irgendetwas ‚Interessantes‘ hat, was man formalisieren kann. Die großen Naturforscher (wie z.B. Darwin) hatten den Genius, die Kreativität, den Mut, die Zähigkeit, das bohrende, systematisierende Denken, was den Stoff für interessante Erkenntnisse liefert. Dazu braucht man keine formale Theorie. Die Transformation in eine formale Theorie ist irgendwo Fleißarbeit, allerdings, wie die Geschichte der Physik zeigt, braucht man auch hier gelegentlich die ‚Genies‘, die das Formale so beherrschen, dass sie bisherige ‚umständliche‘ oder ‚unpassende‘ Strukturen in ‚einfachere‘, ‚elegantere‘, ‚besser passende‘ formale Strukturen umschreiben.

Fortsetzung folgt HIER.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

Wieweit können wir unseren eigenen Gedanken trauen, dass sie wahr sind? Memo zur Philosophiewerkstatt vom 11.Juni 2017

Abstract—Dieser Text schildert die Eingangsgedanken
zur Philosophiewerkstatt vom 11.Juni 2017 (in aktualisierter
Form) und berichtet anhand der Gedankenskizze
vom Gespräch. Zu vielen Aspekten und Gedanken blieben
abschließende Stellungnahmen aufgrund der knappen Zeit
aus. Vielleicht l ässt sich dies in der letzten Sitzung vor der
Sommerpause am 16.Juli 2017 noch ergänzen.

PDF-Version

I. Einleitung

A. Erbe aus der letzten Sitzung

In der letzten Philosophiewerkstatt vom 30.April 2017 wurde eine Linie skizziert vom körperlichen Dasein eines Menschen in einem Raum, zu seinem Innenleben voller Eindrücke und Gedanken, durchsetzt von Gefühlen, von dort zu seinem Körper mit dem Nervensystem und Gehirn, durch die das Innenleben möglich wird, und dann der Hinweis auf das Werkzeug Sprache, wodurch Menschen ihr eigenes Innenleben mit dem Innenleben anderer Menschen unterschiedlich gut verknüpfen können.

Im Gespräch zeigte sich dann, dass das Verhältnis von sprachlichem Ausdruck zu dem mit dem Ausdruck Gemeintem (die intendierte Bedeutung) alles andere als einfach ist, kein ‚Selbstläufer‘, kein Automatismus für wahr Sätze. Es entstand vielmehr der Eindruck, dass die Möglichkeit zur subjektiven Täuschung, zur Verzerrung, zum Irrtum von vornherein gegeben ist. Etwas Angemessenes, Richtiges, Wahres sagen zu können erfordert viel Aufmerksamkeit und viel Erfahrung. Was aber, wenn große Teile der Erfahrung schon falsch sind? Wenn gar eine ganze Kultur ’schief liegt‘?

Im folgenden werden zwei berühmte philosophisch-wissenschaftliche Positionen thesenartig vorgestellt, die zu weiterem Nachdenken anregen können.

B. Nilsson: Alles ist Glauben

Nils John Nilssonist ein US-amerikanischer Informatiker, der mit zu den Gründungsvätern der modernen Informatik zählt, hier speziell im Gebiet der künstlichen Intelligenz (KI). Sehr spät, 2014, hat er ein Buch publiziert mit dem Titel Understanding Beliefs.

Nilsson 2014: Mensch so wie Roboter

Nilsson 2014: Mensch so wie Roboter

In dem Maße wie die Informatik im Bereich der KI-Forschung mit Prozessen zu tun hat, die dem menschlichen Erkennen und Denken ähneln, in dem Maße stellen sich hier auch ähnliche — wenn nicht gar die ‚gleichen‘ — Fragen, wie die, die sich uns Menschen stellen, wenn wir über unser eigenes Denken nachsinnen wollen. In der Philosophie nennt man dieses Gebiete des philosophischen Denkens Erkenntnistheorie (engl.: epistemology). Und in der Tat, Nilsson, nach vielen Jahrzehnten der KI-Forschung, wendet sich in seinem jüngsten Buch dezidiert erkenntnistheoretischen Fragen zu, und in diesem Fall nicht Fragen des Denkens bei Maschinen, sondern, genau umgekehrt, herausgefordert durch seine Beschäftigung mit den Maschinen, den Fragen des Erkennens beim Menschen, bei uns selbst.

Bemerkenswert ist hier allerdings seine Formulierung. Ausgehend von den Robotern (vgl. Bild ‚Mensch so wie Roboter‘), die er kennt, weil er selber Roboter entwickelt, gebaut und getestet hat, überträgt er das Robotermodell — so scheint es — einfach auf die Menschen. Genauso, wie es bei dem Roboter ist (it is the same for us humans (vgl.KP 55)) mit sensorischer Wahrnehmung, daraus resultierendem Wissen und Erklärungen und Folgerungen, genau so sei es bei uns Menschen. Auch der menschliche Körper hat eine Sensorik, ein auf der Wahrnehmung basierendes Wissen und zusätzliches Wissen als Erklärung und Folgerungen.Im Fall des Menschen ist es allerdings nicht ein Ingenieur, der baut, sondern der Prozess der biologischen Evolution, der aus Zellen mit DNA-Molekülen menschliche Körper entstehen lässt. (vgl. KP 55ff)

Struktur des menschlichen Wissens nach Nilsson (2014), Kap.1

Struktur des menschlichen Wissens nach Nilsson (2014), Kap.1

Bei der Beschreibung des menschlichen Wissens (vgl. Bild ‚Struktur menschlichen Wissens) unterscheidet Nilsson am Körper der Menschen grundsätzlich Sensorik, die die Außenweltereignisse wahrnehmen kann, dann das Gehirn, das alle Signale verarbeitet, und indirekt das Bewusstsein, in dem unsere Wahrnehmungen und unser Wissen sich zeigen.[Anmerkung: Nilsson erwähnt das Bewusstsein in diesem Kapitel nicht explizit!] Ferner nimmt er ebenfalls nur implizit das beobachtbare Verhalten an, das die Grundlage für die empirische Psychologie bildet.

In Korrespondenz zu diesen Annahmen unterscheidet Nilsson grundsätzlich drei verschiedene Disziplinen, die sich mit menschlichem Wissen beschäftigen: die Philosophie, die Kognitionswissenschaften in Gestalt der kognitiven Psychologie, und die Neurowissenschaften.

Die Neurowissenschaften sortiert er schnell aus, da sie bislang nach seiner Einschätzung noch kein hinreichendes Wissen darüber erarbeitet haben, wie unser Wissen und unsere Überzeugungen im Gehirn tatsächlich repräsentiert sind. [Anmk: Womit sich die Frage stellt, woher wissen wir denn überhaupt etwas über unser Wissen; das Bewusstsein erwähnt er ja nicht.]

Die Philosophie in Form von Erkenntnistheorie (engl.: epistemology) erwähnt er auch nur kurz. Die Erkenntnistheorie beschäftige sich hauptsächlich mit Wissen in Form von deklarativem Wissen, das mittels erklärenden feststellenden sprachlichen Äußerungen artikuliert wird.

Die Kognitionspsychologie (die auch zu den Kognitionswissenschaften gerechnet wird) wird auch nur beiläufig erwähnt. Diese entwickelt theoretische Modelle über das deklarative (Wissen, dass) und prozedurale (Wissen wie) Wissen.

Details über diese verschiedene Disziplinen sowie ihr mögliches Zusammenwirken werden nicht mitgeteilt.

Unbeschwert von methodischen Anforderungen der genannten drei Disziplinen geht Nilsson dann relativ schnell zu der Behauptung über, dass Überzeugungen und Wissen letztlich das Gleiche seien. All unser tatsachenbezogenes Wissen drückt sich in unseren Überzeugungen aus. Überzeugungen sind hypothetisch und veränderbar; sie bilden eine schier unendliche Liste. Sie enthalten inhaltlich Annahmen über Objekte, Eigenschaften und Beziehungen. Ausgedrückt/ artikuliert werden Überzeugungen durch sprachliche Äußerungen in der Form von feststellenden (deklarativen) Ausdrücken. Viele Sätze zusammen bilden dann Theorien bzw. Modelle, die die Realität der Außenwelt für uns Menschen ersetzen, da wir sie so real erleben, als ob sie die Realität wären. Tatsächlich sind sie im Vergleich zur Realität der Außenwelt aber nur virtuelle Größen, die unser Gehirn aufgrund der Sinnesdaten berechnet und uns als produzierte (= virtuelle) Realität anbietet.

Ob und wieweit virtuelle Modelle der Realität ‚entsprechen‘, das müssen spezielle wissenschaftliche Verfahren klären. Ein Mensch kann nicht nur direkt einen bestimmten Sachverhalt X ‚glauben‘, er kann auch glauben, dass der Sachverhalt X nicht zutrifft.

C. Popper: Wider die Unüberwindbarkeit des begrifflichen Rahmens

Von Karl Popper gibt es viele gewichtige Schriften. Hier soll sein Aufsatz The Myth of the Framework berücksichtigt werden, der als Kapitel 2 des Buches The Myth of the Framework: In Defence of Science and Rationality 1994 erschienen ist.

In diesem Text vertritt Popper einige Kernthesen, die er — aufgrund seines umfangreichen historischen Wissens — mit sehr vielen Beispielen illustriert. So interessant diese Beispiele sind, so können sie aber auch die Kernthesen verdecken. Im Folgenden (siehe dazu auch Bild ‚Gegen den Mythos von der …‘) werden daher die historischen Beispiele weitgehend ausgeblendet. Dem interessierten Leser sei aber empfohlen, den ganzen Text zu lesen.

http://www.cognitiveagent.org/wp-content/uploads/2017/06/PopperMythFramework1-2400.jpg

Popper (1994): Gegen den Mythos von der Unüberwindbrkeit des begrifflichen Rahmens

Popper beginnt seinen Text mit einer These, die er dem sogenannten Relativismus zuschreibt: dass jeder Mensch in seinem Denken jeweils einen bestimmten kulturellen Kontext widerspiegele, und dieser Kontext sich in Form eines bestimmten begrifflichen Rahmens (engl.: framework) bestimmend auf das Denken auswirke. Die Wahrnehmung der Welt wird im Lichte des begrifflichen Rahmens so stark bestimmt, dass ein anderer Mensch mit einem anderen kulturellen Kontext bei gleichen Wahrnehmungen zu unterschiedlichen Interpretationen kommen würde. Diese kulturell und dann begrifflich-rahmenmäßig induzierten Interpretationsunterschiede seien unüberwindlich.

Dieser Auffassung widerspricht Popper vehement.

Dabei macht er gleich zu Beginn eine Unterscheidung, die er leider nicht weiter ausführt und systematisiert: er weist darauf hin, dass man zwischen dem jeweiligen begrifflichen Rahmen und den Voraussetzungen für einen Dialog unterscheiden muss. Das eine ist, was wir wissen (innerhalb unseres begrifflichen Rahmens), das andere sind psychologische und soziale Rahmenbedingungen, die festlegen, ob und wie wir miteinander kommunizieren. Explizit nennt er hier illustrierend die Toleranz, den guten Willen, Freiheit, Rationalität und auch eine demokratische Verfasstheit. Diese (und andere) Faktoren können einen offenen, kritischen Diskurs fördern.

Dass ein offener Diskurs wichtig ist, das liegt daran, dass gerade bei Unterschieden im begrifflichen Rahmen angesichts unterschiedlicher Kulturen diese Unterschiede eine Herausforderung darstellen: wirken diese Unterschiede bedrohlich? Haben sie möglicherweise einschneidende negative Folgen für die Betroffenen? Es besteht dann die Gefahr einer Ablehnung, die sich mit Gewalt verbindet, bis hin zum Krieg. Werden Unterschiede aber offen aufgegriffen, nüchtern analysiert, versucht man aus ihnen zu lernen, kommt man aufgrund von Unterschieden zu neuen, möglicherweise besseren Einsichten, dann können alle Beteiligten aus solchen Unterschieden einen Gewinn ziehen. Und genau für diesen konstruktiv-positiven Umgang mit Unterschieden haben sich im Laufe der Jahrhunderte und sogar Jahrtausenden Haltungen wie Toleranz und Rationalität sehr bewährt.

Es fragt sich, was man näher hin unter einem begrifflichen Rahmen verstehen soll. Diese Frage wird von Popper nicht sehr präzise beantwortet. Allgemein bauen wir unsere begriffliche Rahmen als Teil unserer Kultur auf, um die Welt, das Leben zu erklären. Dies beinhaltet zahlreiche Annahmen (engl.: assumptions) und Prinzipien. In der Wahrnehmung der Welt geht der begriffliche Rahmen insoweit ein, als jede Beobachtung Theorie geladen ist (engl.: theory impregnated). Wahre Aussagen sind solche, die sich mit Bezug auf reale Sachverhalten entscheiden lassen. Sofern ein solcher entscheidbarer Bezug auf Sachverhalte verfügbar ist, sind sprachliche Aussagen unterschiedlicher Sprachen ineinander übersetzbar. Durch eine solche Entscheidbarkeit von Sätzen gibt es Ansatzpunkte für eine Falsifizierbarkeit. Popper geht allerdings nicht näher darauf ein, ob und wie sich die Entscheidbarkeit einzelner Aussagen im größeren Kontext einer Theorie nutzen lässt.

II. Nilsson, Popper und das Gespräch

Im nachfolgenden Gespräch wurden die Thesen von Nilsson und Popper von den Teilnehmern nur sehr indirekt angesprochen.[Anmk: An dem Tag lagen die graphischen Interpretationen noch nicht vor und die verfügbare Zeit war ein bisschen knapp,um die Text voll zu lesen.] Es wird daher erst das Gespräch kurz skizziert und dann werden einige Fragen aufgeführt, die sich angesichts der vorausgehenden Themen stellen können. Möglicherweise wird die nächste Sitzung der Philosophiewerkstatt am So 16.Juli 2017 eine Weiterführung und Vertiefung der aktuellen Überlegungen bringen, zusätzlich angereichert von Thesen von Deutsch (1997) „The Fabric of Reality“.

III. Memo Gespräch

Gedankenbild zum Gespräch der Philosophiewerkstatt vom 11.Juni 2017

Gedankenbild zum Gespräch der Philosophiewerkstatt vom 11.Juni 2017

A. Alltagserfahrung

Das Gespräch nahm seinen (natürlichen) Ausgangspunkt bei Alltagserfahrungen der Teilnehmer. Alle empfinden die Situation so, dass sie immer schneller mit immer mehr Fakten überflutet werden; dies führt dazu, dass sich Wissen durch die schiere Menge selbst relativiert. Das Reden von ‚Wissen‘, das heute überall verfügbar sei, gewinnt dadurch fast illusorische Züge, da der einzelne mit seinem Gehirn in seinem Leben nur einen Bruchteil des verfügbaren Wissens wird verarbeiten können.

Diese Relativität von Wissen prägt unsere politischen Formen (Mehrheiten, keine absoluten Wahrheiten) und auch die Rechtsfindung (Fakten sammeln, abwägen, evaluierten). Die leitenden Rechtsnormen repräsenieren keine absoluten Werte und sind interpretationsbedürftig.

B.Kinder

Die Entwicklung der Kinder war schon oft ein Modellfall für viele Fragen. Auch für die Frage nach der Wahrheit war dies wieder ergiebig: sie überschwemmen ihre Umgebung mit Warum-Fragen und suchen Deutungsangebote. Ein Blick in die Kulturen und Geschichte deutet an, dass die Suche nach Erklärungen möglicherweise ein tiefsitzendes Bedürfnis des Menschen nach Verstehen, nach Sicherheit widerspiegelt. Und insofern von der Deutung/ Erklärung viele praktischen Konsequenzen abhängen können, stellt sich die Frage nach der Wahrheit eines Zutreffens in der Erfahrungswelt meist nicht interessefrei.

C. Wissenschaftliches Wissen

Es ist interessant, dass die Menschen erst nach vielen tausend Jahren in der Lage waren, die Produktion und Pflege von wahrem, nachprüfbaren Wissen zu beherrschen. Wissenschaftliches Wissen gründet auf nachvollziehbaren, wiederholbaren Messprozessen, die als solche jedem zugänglich sind, die unabhängig sind von den inneren Zuständen des einzelnen. Solche wissenschaftliche Messungen generieren für einen bestimmten Zeitpunkt und einen bestimmten Ort einen Messwert. Messwerte als solche bieten aber keine Erklärung. Um einzelne Messwerte für die Zwecke der Erklärung zu benutzen, muss eine allgemeine Beziehung generiert werden, die für alle bekannten Messwerte funktioniert. Diese Beziehung ist kein empirisches Objekt im üblichen Sinne, sondern eine kreative Erfindung des Wissenschaftlers, der damit versucht, die Messwerte zu deuten. In der Regel hilft das verfügbare Vorwissen bei der Formulierung solch einer Hypothese. Gelingt es, mit Hilfe eines allgemeinen Verfahrens andere potentielle Messwerte voraus zu sagen (Prognose), dann wird dies üblicherweise als Bestätigung der Hypothese interpretiert; im anderen Fall spricht man von einer Abschwächung oder gar Widerlegung (Falsifikation).

D. Biologische Evolution

Interessant ist, dass es zwischen diesem experimentellen Vortasten des Wissenschaftlers und dem Prozess der biologischen Evolution direkte Parallelen gibt. Im Prozess der biologischen Evolution besitzt jede Zelle im DNA-Molekül eine Art Vorwissen der bisherigen Erfolge, und ergänzend dazu werden zufällig-kreativ zahllose neue Varianten gebildet. Einige von diesen neuen Varianten zeugen dann, dass sie funktionieren (d.h. meistens: überleben können), andere nicht. Das Überleben ist in diesem Zusammenhang dann die Bestätigung.

E. Menschliches Bewusstsein

Die wissenschaftliche Form des Wissens wirft auch Licht auf eine fundamentale Eigenart des menschlichen Bewusstseins. Im menschlichen Bewusstsein treffen die konkreten sensorischen Ereignisse zusammen mit den abstrahierten, geclusterten, vernetzten Elementen des Gedächtnisses. Dadurch kann jeder Mensch beständig konkrete Objekte als Instanzen von allgemeinen Begriffen erkennen und sieht sie sogleich in allen möglichen Kontexten. Dies ist einerseits sehr hilfreich, birgt aber zugleich auch die Gefahr, dass eine falsche Vorerfahrung aktuelle Wahrnehmungen falsch einordnet.

In allen Kontexten tauchten immer wieder auch die Frage nach den Werten auf. Es blieb offen welche Rolle Gefühle wie angenehm/ unangenehm spielen, unterschiedliche Interessen, Bedürfnisse. Welchen Stellenwert haben sie letztlich?

 

Einen Überblick über alle Einträge zur Philosophiewewrkstatt nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs finden sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.