ÜBER DIE MATERIE DES GEISTES. Relektüre von Edelman 1992. Teil 7

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 5.Sept. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

(Einige Korrekturen: 6.Sept.2018, 08:00h)

Gerald M.Edelman, Bright Air, Brilliant Fire. On the Matter of the Mind, New York: 1992, Basic Books

BISHER

Teil 1

Teil 2

Teil 3

Teil 4

Teil 5

Teil 6

WICHTIGE POSITIONEN

Zur Erinnerung, einige der wichtigen Positionen, auf die bislang hingewiesen wurde:

EDELMAN

Edelman benutzt die Arbeitshypothese, dass das, was wir ‚Geist‘ nennen, sich nur ab bestimmten Zeitpunkten während der allgemeinen Evolution ‚gezeigt‘ (‚emerged‘) hat, und zwar sehr spät.(vgl. S.41) Und dies setzt die Annahme voraus, dass die fundamentale Basis für alles Verhalten und für die ‚Sichtbarwerdung‘ (‚emergence‘) des Geistes die Anatomie und Morphologie der biologischen Strukturen ist sowie deren Funktionen.(vgl. S.41)

ASPEKTE DER DISKUSSION BISHER

Im Kontext seiner Argumentation kritisiert Edelman viele bekannte Positionen im Bereich Philosophie und Psychologie aus der eingeschränkten Perspektive ihres Bezuges zu den materiellen Strukturen heraus, die von ihm – letztlich wie bei Kant, nur mit anderem Akzent, mehr oder weniger – als ‚Ermöglichung des Geistes‘ gesehen werden. Diese Kritik in dieser speziellen Perspektive ist zum Teil berechtigt, aber auch nur zu einem sehr eingeschränkten Teil, da die kritisierten Personen und Positionen von den neuen Erkenntnissen noch gar nichts wissen konnten. Über diese enge Perspektive des expliziten Bezugs zu materiellen Strukturen hinaus repräsentieren die kritisierten Positionen aber auch Perspektiven, die ‚in sich eine methodische Rechtfertigung‘ besitzen, die Edelman schlicht nicht erkennt. Hier verkürzt zur Erinnerung einige seiner ‚methodischen blinden Flecken‘:

  1. Alternativen sind berechtigt:… zugleich die Arbeitshypothese aufzustellen, dass damit Analyse- und Erklärungsansätze von vornherein zu verurteilen sind, die Verhaltensdaten (Psychologie) bzw. auch introspektive Daten (Philosophie) als solche als Basis nehmen ohne direkt einen Bezug zu den materiellen (anatomischen) Daten herzustellen, ist mindestens problematisch wenn nicht wissenschaftsphilosophisch unhaltbar…

  2. Primär die Funktionen:… denn, wie immer die anatomischen Grundlagen beschaffen sein mögen, wenn ich deren ‚Verhaltensdynamik‘ erforschen will, interessieren mich die Details dieser Anatomie nicht, sondern nur ihre Funktion. Und diese lässt sich nicht durch Rekurs auf Bestandteile beschreiben sondern nur durch Beobachtung des Systemverhaltens …

  3. Daten als solche sind ‚blind‘:… aus materiellen Strukturen als solchen folgt in keiner Weise irgend etwas ‚Geistiges‘ es sei denn, ich habe vorab zur Untersuchung einen Kriterienkatalog G, den ich als Maßstab anlegen kann, um dann bei der Analyse der Beobachtungsdaten konstatieren zu können, das der Eigenschaftskomplex G vorliegt. Habe ich solch einen Kriterienkatalog G nicht, kann ich noch so viele empirische Daten zu irgendwelchen materiellen Strukturen vorweisen; ‚aus sich heraus‘ lassen diese Daten eine solche Eigenschaftszuschreibung nicht zu! …

  4. Konkretisierung und Quantenraum:… ohne die ‚Anhaltspunkte‘ im ‚beobachtbaren Verhalten‘ wäre es praktisch unmöglich, jene bedingenden materiellen Struktureigenschaften zu identifizieren, da die zugrundeliegenden neuronalen und damit letztlich biochemischen Grundlagen rein mathematisch nahezu unbegrenzt viele Funktionen erlauben. Letztlich deuten diese materiellen Strukturen auf einen quantenmechanischen Möglichkeitsraum hin, deren Konkretisierung von Faktoren abhängt, die sich aus den Strukturen selbst nicht so einfach ableiten lassen. …

  5. Phänomene zuerst: Philosophen arbeiten traditionell mit dem subjektiven Erlebnisraum direkt, ohne zugleich die Frage nach den materiellen Bedingungen der so erlebbaren ‚Phänomene‘ zu stellen. In gewisser Weise handelt es sich bei diesen subjektiven (= bewussten) Phänomenen auch um eine Systemfunktion eigener Art mit einer spezifischen Besonderheit, der man nicht gerecht werden würde, würde man sie durch Rekurs auf die bedingenden materiellen Strukturen (Gehirn, Körper, Welt, …) ‚ersetzen‘ wollen. …

  6. Empirie ist abgeleitet:… muss man sich klar machen, dass alle sogenannten ‚empirischen Daten‘ ja nicht ‚außerhalb‘ des ‚bewusstseinsbedingten Phänomenraums‘ vorkommen, sondern auch nur ‚bewusstseinsbedingte Phänomene‘ sind, allerdings eine spezielle Teilmenge, die man mit unterstellten Vorgängen in der Außenwelt in Verbindung bringt. Insofern bildet der subjektive Phänomenraum die Basis für jegliche Denkfigur, auch für die empirischen Wissenschaften. …

  7. Bezugspunkte für die Phänomene des Geistigen: Die Frage, was denn dann die primären Kriterien für das ‚Psychische-Geistige‘ sind, wird durch diese multidisziplinäre Kooperationen nicht einfacher: da die materiellen Strukturen als solche keinerlei Anhaltspunkte für ‚Geistiges‘ liefern, bleibt letztlich als Ausgangspunkt doch nur das ‚Geistige‘, wie biologische Systeme ’sich selbst‘ sehen, weil sie sich so ‚erleben‘. Das ‚Geistige‘ erscheint hier als ‚Dynamik‘ von Systemen, die sich anhand des Auftretens dieser Systeme ‚zeigt‘, ‚manifestiert‘. Aus den einzelnen materiellen Bestandteilen kann man diese Eigenschaften nicht ableiten, nur aus der Gesamtheit in spezifischen Wechselwirkungen. …

  8. … wenn ein homo sapiens ’nichts tut‘, dann ist die Dynamik ‚unsichtbar‘ und die durch solch eine Dynamik sichtbar werdenden Eigenschaften sind nicht greifbar. Weiter: wenn ein homo sapiens eine Dynamik erkennen lässt, dann bedarf es einer spezifischen ‚Erkenntnisweise‘, um die spezifischen Eigenschaften von ‚Geist‘ erkennen zu können. …

  9. Das System-Ganze: … Erst durch die Dynamik des Gesamtsystems werden – oft als ‚emergent‘ klassifizierte – Phänomene sichtbar, die von den einzelnen Bestandteilen des materiellen Systems als solchen nicht ableitbar sind, nur eben durch das Verhalten, die Dynamik des Gesamtsystems. …

  10. Begriffliches Mehr: … Es ist weder auszuschließen, dass es zwischen dem empirischen Phänomen der ‚Gravitation‘ und dem empirischen Phänomen ‚Geist‘ einen ‚tieferen‘ Zusammenhang gibt (da ‚Geist‘ als empirisches Phänomen ‚Gravitation‘ voraussetzt‘), noch dass es weit komplexere empirische Phänomene geben kann als den ‚individuell in Populationen‘ sich manifestierenden ‚empirischen Geist‘.

  11. Neues‘ und sein Ursprung:… Da jene geistige Eigenschaften, die den homo sapiens von anderen Lebensformen unterscheiden, erst mit diesem auftreten, kann eine ‚Geschichte der Entwicklung jener Formen, die den homo sapiens auszeichnen‘, nur indirekte Hinweise darauf liefern, wie sich jene ’späten‘ komplexen materiellen Strukturen aus ‚einfacheren, früheren‘ Strukturen entwickelt haben. Damit entsteht dann die interessante Frage, wie sich solche Komplexität aus ’scheinbar einfacheren‘ Strukturen entwickeln konnte? In der logischen Beweistheorie gilt allgemein, dass ich nur etwas ‚ableiten’/ ‚beweisen‘ kann, wenn ich das zu Beweisende letztlich schon in meinen ‚Voraussetzungen’/ ‚Annahmen‘ angenommen habe. Das ’spätere komplexere Neue‘ wäre in dem Sinne dann nicht wirklich ’neu‘, sondern nur eine ‚andere Zustandsform‘ eines Ausgangspunktes, der schon alles hat‘. Dies wäre nicht sehr überraschend, da wir in der Big-Bang-Theorie allgemein von ‚Energie (E)‘ ausgehen, die in Folge von Abkühlungsprozessen unendlich viele konkrete Zustandsformen angenommen hat, von denen wir mit E=mc^2 wissen, dass sie alle ineinander überführbar sind, wie speziell sie auch immer sein mögen.

  12. Rückschlüsse vom Phänotyp auf den Genotyp: …Die komplexen Abbildungsprozesse zwischen Genotypen und Phänotypen als Teil von Populationen in Umgebungen machen eine Zuordnung von im Verhalten fundierten Eigenschaftszuschreibungen von ‚Geist‘ zu vorliegenden materiellen Strukturen schwer bis unmöglich. … Das Entscheidende am Phänomen des Geistes ist ja, dass er nach vielen Milliarden Jahren Entwicklung in einem aktuell hochkomplexen und dynamischen System sich zeigt, und zwar nicht ‚aus sich heraus‘ sondern nur dann, wenn ein anderes System, das ebenfalls ‚Geist‘ hat, diesen Phänomenen ‚ausgesetzt‚ ist. Ein System, das selbst ‚keinen Geist hat‘, kann die beobachtbaren Phänomene nicht als ‚geistige‘ klassifizieren! Dies schließt nicht aus, dass heutige Algorithmen quasi automatisch irgendwelche ‚Muster‘ im beobachtbaren Verhalten identifizieren können, allerdings sind dies Muster wie unendlich viele andere Muster, deren ‚Bewertung‘ in irgendeine Zustandsdimension völlig beliebig ist.

  13. Der ‚Theoriemacher‘ kommt selbst als Gegenstand der Theorie nicht vor: …Von Interesse ist auch, wie sich der Zustandsraum der materiellen Strukturen (die Gesamtheit des aktuellen empirischen Wissens über das Universum und seiner möglichen Zukünfte) und der Zustandsraum von Systemen mit Geist (die Gesamtheit des geistigen Vorstellungsraumes samt seiner möglichen geistigen Zukünfte) unterscheidet. Die Sache wird dadurch kompliziert, dass ja die Systeme mit empirischem Geist letztlich auch zum genuinen Gegenstandsbereich der sogenannten ‚Natur‘-Wissenschaften gehören. Wenn das Empirisch-Geistige Teil der Natur ist, reichen die bisherigen empirischen naturwissenschaftlichen Theorien nicht mehr. Sie müssten entsprechend geändert werden. Der Beobachter muss wesentlicher Bestandteil der Theorie selbst werden. Für diese Konstellation haben wir bislang aber keinen geeigneten empirischen Theoriebegriff.

  14. Die ‚Interpretationsfunktion‘ als Fundament allen biologischen Lebens ungeklärt: Die fundamentale Tatsache, dass es Moleküle gibt, die andere Moleküle als ‚Kode‘ benutzen können, um Transformationsprozesse zwischen einer Sorte von Molekülen (DNA, RNA) in eine andere Sorte von Molekülen (Polypeptide, Proteine) steuern zu können, nimmt Edelman als Faktum hin, thematisiert es selbst aber nicht weiter. Er benennt diese ‚interpretierenden Moleküle‘ auch nicht weiter; sein Begriff ‚cellular device‘ ist eher nichtssagend. Dennoch ist es gerade diese Fähigkeit des ‚Übersetzens’/ ‚Interpretierens‘, die fundamental ist für den ganzen Transformationsprozess von einem Genom in einen Phänotyp bzw. in eine ganze Kette von hierarchisch aufeinander aufbauenden Phänotypen. Setzt man diese Übersetzungsfähigkeit voraus, ist das ganze folgende Transformationsgeschehen – so komplex es im Detail erscheinen mag – irgendwie ‚trivial‘. Wenn ich in mathematischer Sicht irgendwelche Mengen habe (z.B. verschiedene Arten von Moleküle), habe aber keine Beziehungen definiert (Relationen, Funktionen), dann habe ich quasi ‚Nichts‘. Habe ich aber z.B. eine Funktion definiert, die eine ‚Abbildung‘ zwischen unterschiedlichen Mengen beschreibt, dann ist es eine reine Fleißaufgabe, die Abbildung durchzuführen (z.B. die Übersetzung von DNA über RNA in Aminosäuren, dann Polypeptide, dann Proteine). Dass die Biochemie und Mikrobiologie samt Genetik so viele Jahre benötigt hat, die Details dieser Prozesse erkennen zu können, ändert nichts daran, dass diese Transformationsprozesse als solche ‚trivial‘ sind, wenn ich die grundlegende Transformationsfunktion definiert habe. Wo aber kommt diese grundlegende Abbildungsfunktion her? Wie kann es sein, dass ein ordinäres chemisches Molekül ein anderes ordinäres chemisches Molekül als ‚Kode‘ interpretiert, und zwar genau dann so, wie es geschieht? Betrachtet man ’normale‘ Moleküle mit ihren chemischen Eigenschaften isoliert, dann gibt es keinerlei Ansatzpunkt, um diese grundlegende Frage zu beantworten. Offensichtlich geht dies nur, wenn man alle Moleküle als eine Gesamtheit betrachtet, diese Gesamtheit zudem nicht im unbestimmten Molekül-Vorkommens-Raum, sondern in Verbindung mit den jeweils möglichen ‚realen Kontextbedingungen‘, und dann unter Berücksichtigung des potentiellen Interaktionsraumes all dieser Moleküle und Kontexte. Aber selbst dieser Molekül-Vorkommens-Raum repräsentiert im mathematischen Sinne nur Mengen, die alles und nichts sein können. Dass man in diesem Molekül-Vorkommens-Raum eine Funktion implantieren sollte, die dem Dekodieren des genetischen Kodes entspricht, dafür gibt es im gesamten Molekül-Vorkommens-Raum keinerlei Ansatzpunkt, es sei denn, man setzt solch eine Funktion als ‚Eigenschaft des Molekül-Vorkommens-Raumes‘ voraus, so wie die Physiker die ‚Gravitation‘ als Eigenschaft des physikalischen Raumes voraussetzen, ohne irgendeinen Ansatzpunkt im Raum selbst zu haben, als die beobachtbare Wirkung der Gravitation. Die Biologen können feststellen, dass es tatsächlich einen Transformationsprozess gibt, der solch eine Abbildungsbeziehung voraussetzt, sie haben aber keine Chance, das Auftreten dieser Abbildungsbeziehung aus den beobachtbaren materiellen Strukturen abzuleiten!!!

  15. Biologisches Leben als ‚Super-Algorithmus‘, der seine eigenen Realisierungsbedingungen mit organisiert: In der Beschreibung von Edelmans Position habe ich schon angemerkt, dass seine Wortwahl ‚Topobiologie‘ möglicherweise unglücklich ist, da es letztlich nicht der dreidimensionale Raum als solcher ist, der entscheidend ist (wenngleich indirekt die Drei-Dimensionalität eine Rolle spielt) sondern der ‚Kontext in Form von interaktiven Nachbarschaften‘: welche andere Zellen stehen in Interaktion mit einer Zelle; welche Signale werden empfangen. Indirekt spielt dann auch der ‚vorausgehende Prozess‘ eine Rolle, durch den eben Kontexte erzeugt worden sind, die nur in bestimmten Phasen des Prozesses vorliegen. Man hat also eher einen ‚Phasenraum‘, eine Folge typischer Zustände, die auseinander hervorgehen, so, dass der bisherige Prozess die nächste Prozessphase hochgradig determiniert. Dies ähnelt einer ‚algorithmischen‘ Struktur, in der eine Folge von Anweisungen schrittweise abgearbeitet wird, wobei jeder Folgeschritt auf den Ergebnissen der vorausgehenden Abarbeitungen aufbaut und in Abhängigkeit von verfügbaren ‚Parameterwerten‘ den nächsten Schritt auswählt. Im Unterschied zu einem klassischen Computer (der eine endliche Instanz eines an sich unendlichen theoretischen Konzeptes von Computer darstellt!), bei dem die Ausführungsumgebung (normalerweise) festliegt, haben wir es hier mit einem algorithmischen Programm zu tun, das die jeweilige Ausführungsumgebung simultan zur Ausführung ‚mit erschafft‘! Wenn Computermetapher, dann eben so: ein Programm (Algorithmus), das seine Ausführungsumgebung (die Hardware) mit jedem Schritt selbst ‚erschafft‘, ‚generiert‘, und damit seine Ausführungsmöglichkeiten schrittweise ausbaut, erweitert. Dies setzt allerdings voraus, dass das genetische Programm dies alles schon ‚vorsieht‘, ‚vorwegnimmt‘. Die interessante Frage ist dann hier, wie ist dies möglich? Wie kann sich ein genetisches Programm ‚aus dem Nichts‘ entwickeln, das all diese ungeheuer komplexen Informationen bezüglich Ausführung und Ausführungsumgebung zugleich ‚aufgesammelt‘, ’strukturiert‘, ‚verpackt‘ hat, wo die Gesamtheit der modernen Wissenschaft bislang nur Fragmente versteht?

  16. Ein technischer Super-Algorithmus scheint prinzipiell möglich; unklar ist seine ‚inhaltliche Ausgestaltung‘: Während Neurowissenschaftler (Edelman eingeschlossen) oft mit unsinnigen Computervergleichen versuchen, die Besonderheit des menschlichen Gehirns herauszustellen, kann man ja auch mal umgekehrt denken: wenn die Entwicklung des Gehirns (und des gesamten Organismus) Ähnlichkeiten aufweist mit einem Algorithmus, der seine eigene Ausführungsumgebung während der Ausführung (!!!) mit generiert, ob sich solch ein Prozess auch ‚rein technisch‘ denken ließe in dem Sinne, dass wir Maschinen bauen, die aus einer ‚kleinen Anfangsmenge von Materie‘ heraus ausgestattet mit einem geeigneten ‚Kode‘ und einem geeigneten ‚Interpretierer‘ sich analog selbst sowohl materiell als auch kodemäßig entwickeln? Da die biologischen Systeme zeigen, dass es grundsätzlich geht, kann man solch einen technischen Prozess nicht grundsätzlich ausschließen. Ein solches Gedankenexperiment macht aber sichtbar, worauf es wirklich ankommt: eine solche sich selbst mit-bauende Maschine benötigt auch einen geeigneten Kode und Interpretationsmechanismus, eine grundlegende Funktion. Ohne diese Funktion, geht gar nichts. Die Herkunft dieser Funktion ist aber gerade diejenige grundlegende Frage, die die gesamte empirische Wissenschaft bislang nicht gelöst hat. Es gibt zwar neuere Arbeiten zur Entstehung von ersten Zellen aus Molekülen unter bestimmten realistischen Kontexten, aber auch diese Forschungen beschreiben nur Prozesse, die man ‚vorfindet‘, die sich ‚zeigen‘, nicht aber warum und wieso es überhaupt zu diesen Prozessen kommen kann. Alle beteiligten materiellen Faktoren in diesen Prozessen als solchen geben keinerlei Ansatzpunkte für eine Antwort. Das einzige, was wir bislang wissen, ist, dass es möglich ist, weil wir es ‚beobachten können‘. Die ‚empirischen Phänomene‘ sind immer noch die härteste Währung für Wahrheit.

  17. Wissenschaftliche Theorie:… es ist überhaupt das erste Mal, dass Edelman in diesem Buch explizit über eine ‚wissenschaftliche Theorie‘ spricht… Seine Charakterisierung einer ‚wissenschaftlichen Theorie‘ ist … generell sehr fragmentarisch; sie ist ferner in ihrer Ernsthaftigkeit fragwürdig, da er die Forderung der Falsifizierbarkeit mit dem Argument begründt, dass ansonsten Darwins Theorie in ihrer Anfangszeit niemals hätte Erfolg haben können; und sie ist geradezu mystisch, da er eine radikal neue Rolle des Beobachters mit all seinen mentalen Eigenschaften innerhalb der Theoriebildung einfordert, ohne aber irgendwelche Hinweise zu liefern, wie das praktiziert werden soll. … Man stellt sich die Frage, welchen ‚Begriff von Theorie‘ Edelman eigentlich benutzt? In der Geschichte der empirischen Wissenschaften gab es viele verschiedene Begrifflichkeiten, die nicht ohne weiteres kompatibel sind, und seit ca. 100 Jahren gibt es eine eigene Meta-Wissenschaft zu den Wissenschaften mit Namen wie ‚Wissenschaftsphilosophie‘, ‚Wissenschaftstheorie‘, ‚Wissenschaftslogik‘, deren Gegenstandsbereich gerade die empirischen Wissenschaften und ihr Theoriebegriff ist…. Aufgrund seiner bisherigen Ausführungen scheint Edelman nichts vom Gebiet der Wissenschaftsphilosophie zu kennen.

  18. Überprüfbarkeit, Verifizierbarkeit, Theorie: Die Überprüfbarkeit einer Theorie ist in der Tat ein wesentliches Merkmal der modernen empirischen Wissenschaften. Ohne diese Überprüfbarkeit gäbe es keine empirische Wissenschaft. Die Frage ist nur, was mit ‚Überprüfbarkeit‘ gemeint ist bzw. gemeint sein kann. … Wenn Edelman fordert dass für eine Theorie gelten soll, dass nicht (vi) ‚jeder Teil von der Theorie direkt falsifizierbar‘ sein muss, dann geht er offensichtlich davon aus, dass eine Theorie T aus ‚Teilen‘ besteht, also etwa T(T1, T2, …, Tn) und dass im ‚Idealfall‘ jeder Teil ‚direkt falsifizierbar‘ sein müsste. Diese Vorstellung ist sehr befremdlich und hat weder mit der Realität existierender physikalischer Theorien irgend etwas zu tun noch entspricht dies den modernen Auffassungen von Theorie. Moderne Theorien T sind mathematische (letztlich algebraische) Strukturen, die als solche überhaupt nicht interpretierbar sind, geschweige denn einzelne Teile davon. Ferner liegt die Erklärungsfähigkeit von Theorien nicht in ihren Teilen, sondern in den ‚Beziehungen‘, die mittels dieser Teile formulierbar und behauptbar werden. Und ob man irgendetwas aus solch einer Theorie ‚voraussagen‘ kann hängt minimal davon ab, ob die mathematische Struktur der Theorie die Anwendung eines ‚logischen Folgerungsbegriffs‘ erlaubt, mittels dem sich ‚Aussagen‘ ‚ableiten‘ lassen, die sich dann – möglicherweise – ‚verifizieren‘ lassen. Diese Verifizierbarkeit impliziert sowohl eine ‚Interpretierbarkeit‘ der gefolgerten Aussagen wie auch geeignete ‚Messverfahren‘, um feststellen zu können, ob die ‚in den interpretierten Aussagen involvierten entscheidbaren Eigenschaften‘ per Messung verifiziert werden können oder nicht. Der zentrale Begriff ist hier ‚Verifikation‘. Der Begriff der ‚Falsifikation‘ ist relativ zu Verifikation als komplementärer Begriff definiert. Begrifflich erscheint dies klar: wenn ich nicht verifizieren kann, dann habe ich automatisch falsifiziert. In der Praxis stellt sich aber oft das Problem, entscheiden zu können, ob der ganz Prozess des Verifizierens ‚korrekt genug‘ war: sind die Umgebungsbedingungen angemessen? Hat das Messgerät richtig funktioniert? Haben die Beobachter sich eventuell geirrt? Usw. Als ‚theoretischer Begriff‘ ist Falsifikation elegant, in der Praxis aber nur schwer anzuwenden. Letztlich gilt dies dann auch für den Verifikationsbegriff: selbst wenn der Messvorgang jene Werte liefert, die man aufgrund einer abgeleiteten und interpretierten Aussage erwartet, heißt dies nicht mit absoluter Sicherheit, dass richtig gemessen wurde oder dass die Aussage möglicherweise falsch interpretiert oder falsch abgeleitet worden ist.

  19. Rolle des Theoriemachers und Beobachters fundamental: All diese Schwierigkeiten verweisen auf den ausführenden Beobachter, der im Idealfall auch der Theoriemacher ist. In der Tat ist es bislang ein menschliches Wesen, das mit seinen konkreten mentalen Eigenschaften (basierend auf einer bestimmten materiellen Struktur Gehirn im Körper in einer Welt) sowohl Phänomene und Messwerte in hypothetische mathematische Strukturen transformiert, und diese dann wiederum über Folgerungen und Interpretationen auf Phänomene und Messwerte anwendet. Dies in der Regel nicht isoliert, sondern als Teil eines sozialen Netzwerkes, das sich über Interaktionen, besonders über Kommunikation, konstituiert und am Leben erhält. … Edelman hat Recht, wenn er auf die bisherige unbefriedigende Praxis der Wissenschaften hinweist, in der die Rolle des Theoriemachers als Teil der Theoriebildung kaum bis gar nicht thematisiert wird, erst recht geht diese Rolle nicht in die eigentliche Theorie mit ein. Edelman selbst hat aber offensichtlich keinerlei Vorstellung, wie eine Verbesserung erreicht werden könnte, hat er ja noch nicht einmal einen rudimentären Theoriebegriff.

  20. Theorie einer Population von Theoriemachern: Aus dem bisher Gesagten lässt sich zumindest erahnen, dass ein verbessertes Konzept einer Theorie darin bestehen müsste, dass es eine explizite ‚Theorie einer Population von Theoriemachern (TPTM)‘ gibt, die beschreibt, wie solch eine Population überhaupt eine Theorie gemeinsam entwickeln und anwenden kann und innerhalb dieser Theorie einer Population von Theoriemachern würden die bisherigen klassischen Theoriekonzepte dann als mögliche Theoriemodelle eingebettet. Die TPTM wäre dann quasi ein ‚Betriebssystem für Theorien‘. Alle Fragen, die Edelman angeschnitten hat, könnte man dann in einem solchen erweiterten begrifflichen Rahmen bequem diskutieren, bis hinab in winzigste Details, auch unter Einbeziehung der zugrunde liegenden materiellen Strukturen.

  21. Darwin und Theorie: Anmerkung: Darwin hatte nichts was einem modernen Begriff von Theorie entsprechen würde. Insofern ist auch das Reden von einer ‚Evolutionstheorie‘ im Kontext von Darwin unangemessen. Damit wird aber der epochalen Leistung von Darwin kein Abbruch getan! Eher wirkt sein Werk dadurch noch gewaltiger, denn die Transformation von Gedanken, Phänomenen, Fakten usw. in die Form einer modernen Theorie setzt nicht nur voraus, dass man über die notwendigen Formalisierungsfähigkeiten verfügt … sondern man kann erst dann ’sinnvoll formalisieren‘, wenn man überhaupt irgendetwas ‚Interessantes‘ hat, was formalisiert werden soll. Die großen Naturforscher (wie z.B. Darwin) hatten den Genius, die Kreativität, den Mut, die Zähigkeit, das bohrende, systematisierende Denken, was den Stoff für interessante Erkenntnisse liefert. Dazu braucht man keine formale Theorie. Die Transformation in eine formale Theorie ist irgendwo Fleißarbeit, allerdings, wie die Geschichte der Physik zeigt, braucht man auch hier gelegentlich die ‚Genies‘, die das Formale so beherrschen, dass sie bisherige ‚umständliche‘ oder ‚unpassende‘ Strukturen in ‚einfachere‘, ‚elegantere‘, ‚besser passende‘ formale Strukturen umschreiben.

KAP. 8 DIE WISSSENSCHAFTEN DES ERKENNENS (The Sciences of Recognition)

Vorab zum Kapitel 8 (und einigen weiteren nachfolgenden Kapiteln) positioniert Edelman sich wie folgt:

  1. Nach den bisherigen Vorüberlegungen sieht sich Edelman in die Lage versetzt, eine ‚Theorie des Bewusstseins‘ zu postulieren als wesentliche Komponente einer ‚Theorie über das Funktionieren des Gehirns‘.(vgl. S.71)

  2. Edelman begründet dieses Vorgehen in Richtung von ‚expliziten Theorien‘ damit, dass Fakten alleine nichts nützen. Vielmehr müssen Fakten in Zusammenhänge eingebracht werden (’synthesizing ideas‘), die sich dann experimentell testen lassen. Diese Experimente bestätigen (‚amend‘) dann die bisherigen Synthesen oder widerlegen sie (‚knock down‘).(vgl. S.71)

  3. Er präzisiert seine Forderung nach einer Synthese der Fakten dahingehend, dass letztlich eine ‚wissenschaftliche Theorie‘ erstellt werden sollte, die möglichst alle ‚bekannten Fakten‘ über Gehirne und ‚Geist‘ integriert. Für Edelman ist klar, dass solch eine Theorie sehr viele ‚Schichten des Gehirns‘ beschreiben muss. (vgl. S.71)

  4. Diese Schichten des Gehirns bilden die ‚materielle Basis des Geistes‘ und in einer wissenschaftlichen Theorie des Bewusstseins als Teil einer Theorie des Gehirns werden bekannte Begriffe wie ‚Gedächtnis‘, ‚Konzept‘, ‚Bedeutung‘, ‚Bewusstsein als ein Tier‘, ‚Bewusstsein als ein menschliches Wesen‘ eine neue Bedeutung gewinnen.

Es folgt dann das Kap.8 als erstes Kapitel um dieses Programm zu erläutern.

  1. Edelman beginnt mit der These, dass er die ‚Sache des Geistes‘ (‚matter of mind‘) aus einem ‚biologischen Blickwinkel‘ heraus angehen will, also einer Blickrichtung, die sich auf ‚biologische Konzepte‘ stützt. (vgl. S.73)

  2. Eines der grundlegendsten (‚most fundamental‘) biologischen Konzepte ist für ihn der Begriff des ‚Denkens in Populationen‘ (‚population thinking‘), das für ihn historisch mit den Arbeiten von Darwin beginnt. (vgl. S.73)

  3. Das Denken in Populationen betrachtet die unterschiedlichen individuellen ‚Varianten‘ in einer Populationen als die Quelle von ‚Vielfalt‘. Diese Vielfalt ist der Angriffspunkt für eine ‚Auswahl‘ von jenen Arten, die erfolgreich sind. (vgl. S.73)

  4. Innerhalb einer kurzen Zeitspanne mögen diese Varianten kaum auffallen, über viele, sehr viele Generationen können sich die Unterschiede aber zu markant anderen Lebensformen auswirken, die dann als unterschiedliche ‚Arten‘ nebeneinander existieren. (vgl. S.73)

  5. Mit der Einführung des Begriffs ‚Denken in Populationen‘ stellt sich die Frage, wie denn hier eine Beziehung zum Begriff ‚Geist‘ hergestellt werden kann.

  6. Edelman wählt als potentielles Bindeglied den Begriff ‚Erkennen/ Wiedererkennen‘ (‚recognition‘). Er definiert diesen Begriff ‚Erkennen‘ zunächst sehr abstrakt, klassisch mathematisch, als eine ‚Abbildung‘ zwischen zwei ‚physikalischen Bereichen‘ (‚physical domains‘) A und B derart, dass die Elemente aus Bereich A in eine Menge A+ abgebildet werden, die zu den Ereignissen aus dem Bereich B ‚besser passen‘ (‚fit‘) als zuvor, sogar dann, wenn der Bereich B als B+ ’neue‘ Ereignisse umfasst. Er betont zusätzlich, dass diese Abbildung ‚ohne vorausgehende Instruktionen‘ (‚without prior instructions‘) stattfindet! Eine überaus starke These. (vgl. S.74)

  7. Um dieser noch sehr abstrakten Definition etwas mehr Bedeutung zu verleihen führt er ein Beispiel an, nämlich die ‚biologische Evolution‘: der eine Bereich A ist hier gegeben durch die Menge der biologischen Systeme (BIOS), der andere Bereich B durch die Menge der Ereignisse, die die Umgebung manifestieren (EVENTS). Durch die ‚Reproduktion‘ bildet der Bereich A neue Varianten, die zur Menge A+ führen. Der Bereich der Ereignisse B kann sich ändern, muss aber nicht. Wenn sich B so ändert, dass es neue Ereignisse gibt, dann liegt der Bereich B+ vor. Die Eigenschaft ‚fit zu sein‘ wird assoziiert mit dem Anteil der Nachkommen einer bestimmten Lebensform in einer Population. Je mehr Nachkommen eine Lebensform ermöglicht, um so ‚fitter‘ soll sie sein. Edelman legt Wert auf die Feststellung, dass die Herausbildung der ’nachkommensstarken‘ (‚fitten‘) Lebensformen A+ nicht durch eine ‚Instruktion seitens der Umwelt‘ zustande kam (‚does not require prior explicit information (‚instruction‘)), sondern dass die Herausbildung jener Varianten, die nachkommensstark sind, auf endogene Prozesse in den biologischen Systemen selbst zurück zu führen sei. Ebenso sind auch die Änderungen in der Umgebung B+ nach Edelman weitgehend unabhängig von den individuellen Variantenbildungen in der Population. Edelman geht hier noch weiter indem er postuliert, dass aus dieser wechselseitigen Unabhängigkeit folgt, dass es hier keine ‚finale Ursache‘, ‚keine Teleologie‘, ‚keine alles leitende Absicht‘ gibt. (vl. S.74)

  8. Als weiteres — eher spezielleres – Beispiel führt er das ‚Immunsystem‘ an. Das Immunsystem ist für Edelman ein ’somatisches selektives System (ssS)‘ das während der Lebenszeit eines biologischen Systems in einem Körper wirkt, während die Evolution ein ‚evolutionäres selektives System (esS)‘ repräsentiert, das über viele Generationen über viele Körper wirkt, innerhalb deren jeweils ein somatisches selektives System am Wirken ist. (vgl. 74)

  9. Edelman äußert hier die Vermutung, dass auch das ‚Gehirn‘ ein ’selektives somatisches System‘ ist. In diesem Fall wäre die ‚Neurowissenschaft‘ auch eine ‚Wissenschaft des Erkennens‘.(vgl. S.75)

  10. Das Immunsystem besitzt als wirkende Komponenten ‚Moleküle, Zellen‘ und ’spezialisierte Organe‘, wobei es sich bei den Molekülen und Zellen letztlich um alle Moleküle und Zellen des Körpers handelt. Letztlich operiert es ‚auf allen Molekülen‘, da es in der Lage ist zu ‚unterscheiden‘ (‚distinguishing‘) zwischen den ‚genuinen Molekülen/ Zellen‘ des eigenen Körpers (= das ‚Selbst‘) und ‚fremden Molekülen/ Zellen‘ (= ‚Nicht-Selbst‘). Diese Unterscheidungsfähigkeit ist extrem ’sensibel‘, da es selbst geringfügige Änderungen in der räumliche Anordnung von Atomen in einem Molekül erkennen kann. Zudem kann das Immunsystem solche Eigenschaften ‚erinnern‘, es hat ein ‚Gedächtnis‘ (‚memory‘).(vgl. S.75)

  11. Wenn ein körperfremdes Molekül (ein Protein) – auch ‚Antigen‘ genannt – auftritt, dann erzeugen spezialisierte Zellen des Körpers – die Lymphozyten – Moleküle, die sich an bestimmte charakteristische Eigenschaften des fremden Moleküls ‚anheften‘ können (sie binden sich an, ‚bind‘). Diese körpereigenen Identifizierungsmoleküle werden ‚Antikörper‘ (‚antibodies‘) genannt. (vgl. S.75)

  12. Die aktuelle Erklärung für diese beeindruckende Fähigkeit des Immunsystems solche Antikörper zu bilden, selbst bei völlig neuartigen Molekülen, wird als ‚Theorie der klonalen Selektion‘ gehandelt, die nach Edelman zurückgeht auf Sir Frank MacFarlant Burnet. (vgl. S.77)

  13. Die Grundidee dieser Theorie ist wie folgt: (i) Das körpereigene Immunsystem produziert ‚auf Vorrat‘ eine große Menge von Antikörpern mit unterschiedlichen Schnittstellen zum Anbinden. (ii) Treten dann körperfremde Moleküle auf (Viren, Bakterien), dann treffen diese auf eine Population von Lymphozyten mit ganz unterschiedlichen Antikörpern. Die eindringenden Zellen binden sich dann an jene Antikörper, die mit ihren Schnittstellen ‚am beste‘ zu ihnen ‚passen‘. Dies bringt die Lymphozyten, die diese Antikörper an sich tragen, dazu, sich durch Bildung von Klonzellen zu vermehren, so dass im Laufe der Zeit immer mehr Eindringlinge ‚gebunden‘ werden. (iii) Die Veränderung und Vermehrung der Lymphozyten einer bestimmten Art geschieht damit durch – nach Edelman – durch ‚Selektion‘ aufgrund von Ereignissen in der Umgebung. (vgl. S.75)

  14. Edelman unterstreicht auch hier, dass die Ausbildung der vielen Varianten von Antikörpern ’nicht von außen instruiert wurde‘, sondern innerhalb der Lebenszeit eines Körpers in den Lymphozyten, also ’somatisch‘ (’somatically‘). (vgl. S.75) Für ihn ist das Immunsystem daher eine wirkliche Instanz des allgemeinen Konzepts eines ‚Erkennungssystems‘ (‚recognition system‘): unabhängig von dem potentiellen Ereignisraum der fremden Moleküle produziert das Immunsystem ‚aus sich heraus‘ eine Menge von Antikörpern, die dann im Nachhinein (‚ex post facto‘) aufgrund der fremden Ereignisse ‚ausgewählt‘ (’selected‘) werden. Diese Produktionen ‚im voraus‘ und dann ‚Auswahlen im Moment‘ geschehen kontinuierlich, beinhalten ein retardierendes Moment (Gedächtnis) und erlauben eine ‚Anpassung‘ an die auftretenden neuen Moleküle (‚adaptively‘). Diese ‚zellulare Form eines Gedächtnisses‘ beruht auf der Tatsache, dass Mengen von Lymphozyten mit bestimmten Antikörpern meistens erhalten bleiben und aufgrund ihrer Zahl zukünftig auch schneller reagieren können. (vgl. S.78)

  15. Anhand der beiden Instanzen eines ‚Erkennungssystems‘ (‚evolutionäres selektives System‘ in Gestalt der Evolution und ’somatisches selektives System‘ in Gestalt des Immunsystems) macht Edelman darauf aufmerksam dass man zwischen dem ‚Prinzip der Auswahl‘ und den dazu eingesetzten ‚konkreten Mechanismen der Realisierung‘ unterscheiden muss. Das ‚Auswahlprinzip‘ wird sowohl von der ‚Evolution‘ benutzt wie auch vom ‚Immunsystem‘, aber die konkreten Mechanismen, wie dies umgesetzt wird, sind verschieden. (vgl. S.78) Beide Systeme brauchen aber auf jeden Fall eine Form von ‚Gedächtnis‘ jener Varianten, die eine ‚verbesserte Anpassung‘ ermöglichen. (vgl. S.79)

  16. Edelman nennt ‚Evolution‘ und ‚Immunologie‘ ‚Wissenschaften‘ (’sciences‘), ebenso die ‚Neurobiologie‘. (vgl. S.79)

  17. Edelman wiederholt seine Vermutung, dass das Gehirn ein ’somatisches selektives System‘ ist und ergänzt, dass nach seinen Forschungen die ‚Adhäsionsmoleküle der neuronalen Zellen‘ die ‚evolutionären Vorläufer‘ des gesamten Immunsystems waren. (vgl. S.79) Im folgenden Kapitel will er diese seine Hypothese, dass das Gehirn ein ’somatisches selektives System‘ sei, weiter erläutern.

DISKUSSION FORTSETZUNG

  1. Inkompatible Daten: 1.Person – 3.Person: Schon die erste Überlegung von Edelman, die Theorie des Bewusstseins als Teil einer Theorie des Gehirns zu konzipieren, wirft methodische Fragen auf. Diese resultieren daher, dass ja eine Theorie – was er im nächsten Abschnitt ja auch ausdrücklich feststellt – , im Kern darin besteht, ‚Zusammenhänge‘ einzuführen, durch die die einzelnen, isolierten Fakten kausale, erklärende, prognostische Eigenschaften bekommen können. Nun ist nach bisherigem Kenntnisstand klar, dass jene Fakten, durch die sich für einen menschlichen Beobachter und Theoriemacher das Bewusstsein ‚zeigt‘, und jene Fakten, mittels denen eine Neurobiologie arbeitet, nicht nur einfach ‚unterschiedlich‘ sind, sondern im ersten Anlauf prinzipiell ‚ausschließend‘. Die dritte Person Perspektive im Fall neurobiologischer Theoriebildung und die erste Person Perspektive im Fall von Bewusstseinstheorien sind im ersten Schritt nicht kompatibel miteinander. Jede Form von Beziehungsentwicklung über diesen unterschiedlichen Datenengen – nennen wir sie DAT_NN und DAT_BW – wird vollständig unabhängig voneinander stattfinden müssen. Bei dieser Sachlage zu sagen, dass eine Theorie des Bewusstseins als Teil einer Theorie des Gehirns entwickelt werden soll, klingt spannend, lässt aber jegliche Einsicht in ein mögliches Wie vermissen. Der umgekehrte Fall, eine Theorie des Gehirns als Teil einer Theorie des Bewusstseins hingegen wäre methodisch möglich, da alle empirische Daten abgeleitete Bewusstseinsdaten sind (also: DAT_NN C DAT_BW).

  2. Denken als kreativer Akt – Kein Automatismus: Im übrigen sollte man im Hinterkopf behalten, dass das ‚Einführen von Beziehungen‘ über Datenpunkten in keiner Weise von den Daten selbst her ‚ableitbar‘ ist. Es handelt sich bei solchen Einführungen um ‚kreative Denkakte‘, die aus einem vorgegebenen begrifflichen Denkraum einen möglichen Teilraum aktivieren und diesen ‚an den Daten ausprobieren‘. Insofern handelt es sich bei der Theoriebildung um ein ‚Erkenntnissystem‘ im Sinne von Edelman, das ‚gedachte Varianten von Beziehungen‘ bilden kann, und jene Fakten (ein vom Denken unabhängiger Bereich), die zu irgendwelchen Beziehungsvarianten ‚passen‘, die werden ‚ausgewählt‘ als solche Fakten, die sich im Sinne der ausgewählten Beziehungen ‚erklären‘ lassen. Im Sinne von Edelman könnte man hier von einem ‚bewusstseinsbasierten selektiven System (bsS)‘ sprechen. Es ist an die Lebensdauer des Bewusstseins gebunden, es verfügt über ein ‚Gedächtnis‘, es kann dadurch ‚adaptiv‘ sein, es kann aufgrund von zusätzlichen Kommunikationsprozessen Beziehungsvarianten auf andere Bewusstseine übertragen und durch Übertragung auf bewusstseinsexterne Medien sogar über die Lebensdauer eines individuellen Bewusstseins hinaus gespeichert werden.

  3. Damit deutet sich eine interessante Hierarchie von ‚Erkennungssystemen‘ an: (i) ‚evolutionäre selektive Systeme (esS)‘, (ii) ’somatische selektive Systeme (ssS)‘, (iii) ’neuronale selektive Systeme (nsS)‘, sowie (iv) ‚bewusstseinsbasierte selektive Systeme (bsS)‘.

  4. Kategoriefehler? Während die Hypothese von Edelman, dass die ‚materielle Basis des Geistes‘ in den materiellen Schichten des Gehirns zu suchen sei, möglicherweise Sinn macht, ist seine andere Hypothese, dass eine wissenschaftliche Theorie des Bewusstseins als Teil einer Theorie des Gehirns zu entwickeln sei, aus fundamentalen Gründen nicht nachvollziehbar.

  5. Integrierte Theoriebildung: Greift man Punkt (1) der Diskussion auf, dann könne eine Lösung der Paradoxie von Edelman darin bestehen, dass die Verschränkung der Daten aus der 1ten-Person Perspektive DAT_1Person und die Daten aus der 3ten-Person Perspektive als DAT_3Person C DAT_1Person die Basis für eine mögliche ‚integrierte (philosophische) Theorie des Bewusstseins‘ bilden, die empirische Theorien als Teiltheorien enthält, unter anderem eine Theorie des Gehirns. Wollte man ferner das von Edelman in den ersten Kapiteln mehrfach angesprochene ungelöste Problem der ‚mangelnden Integration des Beobachters‘ in die zugehörige Theorie aufgreifen, dann wäre dies in einer ‚integrierten philosophischen Theorie des Bewusstseins (IPTB)‘ im Prinzip möglich. Folgendes Theorienetzwerk deutet sich damit an:

  6. In einem ersten Schritt (i) könnte man eine ‚Theorie des Bewusstseins‘ T1CS auf Basis der DAT_1Person formulieren; im Rahmen dieser Theorie kann man unter anderem (ii) die empirischen Daten DAT_3Person als eine genuine Teilmenge der Daten DAT_1Person ausweisen. Damit erhält man den Ausgangspunkt dafür, diverse Theorien T3X auf Basis der dritten Person Daten DAT_3Person zu formulieren. Hier gibt es verschiedene Optionen. Eine mögliche wäre die folgende:

  7. In einem ersten Schritt (iii) wird eine ‚Theorie der Evolution der Körper‘ T3EV formuliert. Von hier aus gibt es zwei Fortsetzungen:

  8. Die Interaktion verschiedener Körper einer Population kann in einer (iv) ‚Theorie der Akteure‘ T3A formuliert werden (diese sind u.a. potentielle Beobachter). Diese Theorie T3A beschreibt, welche Verhaltensweisen an Akteuren beobachtbar sind und wie diese sich miteinander verschränken können (z.B. bekannt aus Psychologie und Soziologie).

  9. Eine ‚Theorie der Körper‘ T3BD beschreibt (v) die innere Struktur jener Körper, die den Akteuren zugrunde liegt. Dazu kann es Teil-Theorien geben (vi) wie eine ‚Theorie des Gehirns‘ T3BR (mit all seinen Schichten ) oder (vii) eine ‚Theorie des Immunsystems‘ T3IM.

  10. Brückentheorien: Es ist dann eine eigene theoretische Leistung diese verschiedenen Teil-Theorien und Theorien miteinander in Beziehung zu setzen. Dies ist keinesfalls trivial. Während die Theorie der Evolution eine Zeitkomponente umfasst, in der sich Strukturen komplett ändern können, sind Strukturtheorien des Körpers, des Gehirns und des Immunsystems tendenziell an ’statischen‘ Strukturen orientiert. Dies ist aber unrealistisch: Körper, Gehirn und Bewusstsein sind dynamische Systeme, die sowohl durch ‚Wachstum‘ wie auch durch ‚Lernen‘ kontinuierlich ihre Strukturen ändern. Ferner ist die Interaktion der verschiedenen Theorien ein eigenständiges Problem: Gehirn und Immunsystem sind ja nur zwei Komponenten von vielen anderen, die zusammen einen Körper ausmachen. Wenn man die neuen Erkenntnisse zur Komponente ‚Darm‘ ernst nimmt, dann kann diese Komponenten das gesamte Rest-System vollständig dominieren und steuern (auch das Gehirn). Die genauen Details dieser Interaktion sind noch weitgehend unerforscht. Schließlich ist auch die Rückkopplung der diversen empirischen Theorien T3X zur primären Theorie des Bewusstseins T1CS zu lösen. Dies wäre eine ‚Brückentheorie‘ T1CS3BD mit Anbindung sowohl an die Theorie der Evolution T3EV als auch an die diversen Teiltheorien wie T3BR und T3IM. Bislang ist weltweit kein einziger Kandidat für solch eine Brückentheorie T1CS3BD bekannt, zumal es bislang auch keine ernsthafte Theorie des Bewusstseins T1CS gibt (wohl aber sehr viele Texte, die inhaltlich zum Begriff ‚Bewusstsein‘ etwas schreiben).

  11. Beginn Kap.8: Zu Beginn des Kap. 8 wiederholt Edelman seine These, dass er die ‚Sache des Geistes‘ (‚matter of mind‘) aus einem ‚biologischen Blickwinkel‘ heraus angehen will. Wie schon oben angemerkt, stellen sich hier grundlegende methodische Probleme, die hier jetzt nicht wiederholt werden sollen. Er stellt dann die sachlich unausweichliche Frage, wie man denn dann einen Zusammenhang zwischen ‚Geist‘ und ‚Materie‘ – hier Materie fokussiert auf ‚Gehirn‘ – herstellen kann.

  12. Populationsdenken und Erkennungssystem: Ohne weitere Begründung führt er dann den Begriff ‚Populationsdenken‘ ein, den er sodann überführt in den Begriff ‚Erkennungssystem‘ (‚recogntion system‘). Anschließend bringt er mit der ‚Evolution‘, ‚mit dem Immunsystem‘ und dann mit dem ‚Gehirn‘ drei Beispiele von Erkennungssystemen in seinem Sinne.

  13. Begriff ‚Geist‘ methodisch unbestimmt: Dieses ganze begriffliche Manöver von Edelmann leidet von Anbeginn an dem Umstand, dass er bislang weder genau erklärt hat, was er unter dem Begriff ‚Geist‘ versteht noch mit welchen Methoden man diesen ‚Geist‘ erforschen kann. Der Begriff ‚Geist‘ bildet also bislang nur eine ‚abstrakte Wortmarke ohne definierte Bedeutung‘ und ohne jeglichen Theorie- und Methodenbezug. Zugleich wird ‚Geist‘ streckenweise mit dem Begriff ‚Bewusstsein‘ gleichgesetzt, für den die gleichen Unwägbarkeiten gelten wie für den Begriff ‚Geist‘. Unter diesen Umständen die These aufzustellen, dass sich eine Theorie des Bewusstseins als Teil einer Theorie des Gehirns formulieren lässt ist mindestens kühn (siehe die vorausgehende Diskussion). Für die soeben von Edelman aufgeworfene Frage nach einem möglichen Zusammenhang zwischen dem mit ‚Geist‘ Gemeinten und dem mit ‚Materie‘ – sprich: Gehirn – Gemeinten ist damit alles offen, da die Begriffe ‚Geist‘ und ‚Bewusstsein‘ letztlich auch ‚offen‘ sind, da sie nicht definiert sind. Es bleibt dann nur, abzuwarten und zu schauen, ob sich aus den von Edelman eingeführten Begriffen ‚Populationsdenken‘ bzw. ‚Erkennungssystem‘ etwas ableiten lässt, was die Grundsatzfrage nach dem Verhältnis zwischen ‚Geist‘ und ‚Materie‘ etwas erhellt.

  14. Das Populationsdenken basiert auf Mengen von Individuen, die sich ‚verändern‘ können; man kann diese veränderte Individuen als ‚Varianten‘ auffassen‘, die damit eine ‚Vielfalt‘ in einer Population repräsentieren. Wichtig ist hier, sich klar zu machen, dass in der Perspektive eines einzelnen Individuums dieses weder ‚weiß‘, was vorher war noch was kommen wird noch aus sich heraus abschätzen kann, ob das, was es repräsentiert bzw. das, was es tut, in irgendeiner Weise ’sinnvoll‘ ist! Das einzelne Individuum ‚lebt sich aus‘ unter den Bedingungen, die die Umgebung ‚vorgibt‘ Zu sagen, dass ein einzelnes Individuum ‚erfolgreich‘ ist (‚fit‘), setzt voraus, dass man auf das Gesamtsystem schauen kann und man ein Meta-Kriterium hat, das definiert, wann ein Individuum in einer Population ‚erfolgreich‘ ist oder nicht. Unter Evolutionsbiologen hat sich eingebürgert, als ein Erfolgskriterium die ‚Zahl der Nachkommen‘ zu nehmen. Individuen mit den meisten Nachkommen gelten als erfolgreich. Dieser ‚äußerliche‘ Befund, der sich nur mit Blick auf mehrere Generationen definieren lässt und im Vergleich zu allen anderen Individuen, wird dann zusätzlich verknüpft mit der Hypothese, dass die  äußerlich beobachtbare Gestalt, der Phänotyp, letztlich auf eine ‚tiefer liegende Struktur‘ verweis, auf den Genotyp. Der äußerlich beobachtbare Erfolg eines bestimmten Genotyps wird dann auf die angenommene tiefer liegende Struktur des Genotyps übertragen. In dieser komplexen metatheoretischen Betrachtungsweise verantworten also Genotypen die Phänotypen, die dann in einer bestimmten Umgebung über die Zeit die meisten Nachkommen ermöglichen.

  15. In diesem Kontext von ‚Selektion‘, ‚Auswahl‘ zu sprechen ist ziemlich problematisch, da kein eigentlicher Akteur erkennbar ist, der hier ’selektiert‘. Das einzelne Individuum für sich selektiert sicher nicht, da es nichts hat zum Selektieren. Die Population als solche selektiert auch nicht, da die Population keine handelnde Einheit bildet. ‚Population‘ ist ein ‚Meta-Begriff‘, der einen externen Beobachter voraussetzt, der die Gesamtheit der Individuen beobachten und darüber sprechen kann. Eine Population als ‚existierende‘ ist nur eine Ansammlung von Individuen, von denen jedes einzelne ‚vor sich hin agiert‘. Nur bei externer Beobachtung über die Zeit lässt sich erkennen, dass sich Varianten von Phänotypen bilden von denen einige größere Anzahlen bilden als andere oder einige sogar aussterben. Weder das einzelne Individuum noch die Gesamtheit der Individuen ’selektieren‘ hier irgend etwas.

  16. Beobachter mit Theorie: Wenn man dennoch am Begriff ‚Selektion‘ festhalten will, dann nur dann, wenn man tatsächlich einen ‚externen Beobachter‘ voraussetzt, der alle diese variierenden Phänotypen in ihren jeweiligen Umgebungen in der Zeit ‚beobachten‘ kann und der eine ‚Theorie‘ formuliert (also eine systematische Beschreibung von den Beobachtungsdaten), in der die Veränderung der Phänotypen samt ihren ‚Anzahlen‘ in Beziehung gesetzt werden zu den verschiedenen Umgebungen. Wenn bestimmte Phänotypen in einer bestimmten Umgebung E aussterben während andere Phänotypen bei der gleichen Umgebung nicht aussterben, sich vielleicht sogar vermehren, dann könne man in dieser Theorie den Begriff ‚Selektion‘ so definieren, dass die ‚zahlenmäßig erfolgreichen‘ Phänotypen zur Umgebung E ‚besser passen‘ als die anderen. Es sind dann die ‚Umstände der Umgebung‘, die ‚Eigenschaften der Umgebung‘, die darüber entscheiden, welcher Phänotyp ‚bleibt‘ und welcher ’nicht bleibt‘. Die Umgebung wäre dann das ‚harte Kriterium‘, an dem die Leistungsfähigkeit eines Phänotyps (und indirekt damit des ermöglichenden Genotyps), ‚gemessen‘ werden kann. ‚Messen‘ heißt ‚Vergleichen‘: passt ein Phänotyp in eine bestehende Umgebung oder nicht.

  17. Erfolgskriterium nicht absolut: Da die Umgebung ‚Erde‘ nach heutigem Wissensstand sich beständig verändert hat, ist das Erfolgskriterium ‚Passen‘ sehr relativ. Was heute ‚gut passt‘ kann morgen ‚unpassend‘ sein.

  18. Akteure als Teil der Umgebung: Ferner ist in Rechnung zu stellen, dass Phänotypen (i) sowohl mit der Umgebung wechselwirken können und dadurch diese so stark verändern können, dass sie damit ihre eigenen Lebensgrundlagen zerstören (etwas ‚Passendes‘ wird ‚unpassend‘ gemacht), als auch (ii) dass die Vielzahl von Phänotypen untereinander ‚zur Umgebung wird‘ (z.B. in Räuber-Beute Beziehungen). Dann besteht die Umgebung nicht nur aus der Erde wie sie ist (sehr veränderlich), sondern andere Phänotypen einer anderen ‚Art‘ müssen entweder als Feinde abgewehrt werden oder als potentielle Beute gefangen oder es muss mit ‚Artgenossen‘ kooperiert werden. Das erfolgreiche Überleben wird damit zu einer Gleichung mit sehr vielen dynamischen Variablen. Das theoretische Kriterium der ‚Selektion‘ erscheint daher als ein sehr abstraktes Kriterium in der Beschreibung von Erfolg, hat sich aber historisch als Minimalanforderung durchgesetzt.

  19. Fähigkeit zur Variationsbildung im Dunkeln: Interessant ist der Punkt – auf den auch Edelman zentral abhebt – dass die Genotypen überhaupt in der Lage sind, immer komplexere Phänotypen zu bilden, ohne dass erkennbar ist, dass ihnen von der Umgebung aus irgendwelche Vorab-Informationen übermittelt würden. Dies scheitert allein auch schon daran, dass die Erde – und das Sonnensystem, und die Milchstraße, und … — als ‚Umgebung‘ keinen geschlossenen Akteur mit eigener ‚Absicht‘ darstellt. Vielmehr handelt es sich – nach heutigem Kenntnisstand – um ein System, das ‚aus sich heraus‘ Ereignisse erzeugt, die als Ereignisse dieses System manifestieren. Biologische Systeme können diese Ereignismengen nur ‚aufnehmen‘, ’sortieren‘, auf unterschiedliche Weise ‚erinnern‘, und auf der Basis dieser ‚Erfahrungen‘ Strukturen ausbilden, die dieser Ereignismenge möglichst ‚optimal‘ gerecht werden. Und da im Moment der ‚reproduktiven‘ Strukturbildung zwar einige Erfolge aus der Vergangenheit ‚bekannt‘ sind, aber ’nichts aus der Zukunft‘, bleibt den biologischen Systemen nur, im Rahmen ihrer genetischen und phänotypischen Variationsbildung möglichst viele Variationen ‚ins Blaue hinein‘ zu bilden. Nach 3.8 Milliarden Jahren kann man konstatieren, es hat bislang irgendwie funktioniert. Daraus kann man aber leider nicht zweifelsfrei ableiten, dass dies auch in der Zukunft so sein wird.

  20. Selektion als sekundärer Effekt: Also, ‚Selektion‘ ist keine Eigenleistung eines Individuums oder einer Population, sondern Selektion ist der Effekt, der entsteht, wenn Populationen mit Umgebungen wechselwirken müssen und die Umgebung festlegt, unter welchen Bedingungen etwas zu ‚passen‘ hat. Erst ’nach‘ der Reproduktion und ’nach einiger Zeit‘ zeigt sich für ein Individuum, ob ein bestimmter Genotyp einen ‚erfolgreichen‘ Phänotyp hervorgebracht hat. Zu dem Zeitpunkt, wo ein Individuum diese Information bekommen könnte, hat es aber keine Gestaltungsmacht mehr: einmal weil seine Reproduktionsaktivität dann schon vorbei ist und zum anderen, weil es bei Erfolg ‚alt‘ ist oder gar schon ‚gestorben‘.

  21. Begriff ‚Erkennen‘ unglücklich: Dass Edelman diese Populationsdynamik als ‚Erkennungssystem‘ (‚recognition system‘) verstanden wissen will, ist nicht ganz nachvollziehbar, da, wie schon angemerkt, kein eigentlicher Akteur erkennbar ist, der dies alles ’steuert‘. Dass im Fall der Evolution die Gesamtheit der Genotypen zu einem bestimmten Zeitpunkt einen gewissen ‚Informationsbestand‘, einen gewissen ‚Erfahrungsbestand‘ repräsentieren, der sich aus den vorausgehenden Reproduktions- und aufgezwungenen Selektionsereignissen ‚angesammelt‘ hat, lässt sich theoretisch fassen. Dass aber hier ein identifizierbarer Akteur etwas ‚erkennt‘ ist wohl eine starke Überdehnung des Begriffs ‚Erkennen‘. Das gleiche gilt für das Beispiel mit dem Immunsystem. Das ‚Herausfiltern‘ von bestimmten ‚passenden Eigenschaften‘ aus einer zuvor produzierten Menge von Eigenschaften ist rein mathematisch eine Abbildung, die so zuvor nicht existierte. Aber es gibt keinen bestimmten Akteur, der für die Konstruktion dieser Abbildung verantwortlich gemacht werden kann.

  22. Netzwerke lernen ohne eigentlichen Akteur: Dennoch arbeitet Edelman hier einen Sachverhalt heraus, der als solcher interessant ist. Vielleicht sollte man ihn einfach anders benennen. Interessant ist doch, dass wir im Bereich der biologischen Systeme beobachten können, dass eine Menge von unterscheidbaren Individuen, von denen jedes für sich genommen keinerlei ‚Bewusstsein‘ oder ‚Plan‘ hat, als Gesamtheit ‚Ereignismengen‘ so ’speichern‘, dass ‚metatheoretisch‘ eine ‚Abbildung‘ realisiert wird, die es so vorher nicht gab und die Zusammenhänge sichtbar macht, die eine gewisse ‚Optimierung‘ und auch eine gewisse ‚Logik‘ erkennen lassen. Nennen wir diese Herausbildung einer Populationsübergreifenden Abbildung ’strukturelles Lernen‘ was zu einer ’strukturellen Erkenntnis‘ führt, dann habe wir dadurch immer noch keinen eigentlichen ‚Akteur‘, aber wir haben ein interessantes Phänomen, was die Entwicklung von großen Mengen von biologischen Systemen charakterisiert. Das Biologische erscheint als ein Netzwerk von vielen Systemen, Teilsystemen, bei dem die einzelnen Komponenten keinen ‚Plan des Ganzen‘ haben, aber durch ihre individuelle Manifestationen indirekt an einem ‚größeren Ganzen‘ mitwirken.

  23. Homo sapiens: Erst mit dem Aufkommen des Homo sapiens, seiner Denk- und Kommunikationsfähigkeit, seinen Technologien, ist es möglich, diese impliziten Strukturen, die alle einzelnen Systeme bestimmen, dirigieren, filtern, usw. zu ‚erfassen‘, zu ‚ordnen‘, zu ‚verstehen‘ und auf diese Weise mit einem angenäherten ‚Wissen um das Ganze‘ anders handeln zu können als in den zurückliegenden Zeiten.

Fortsetzung folgt HIER.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.