Archiv der Kategorie: Fitnesswert

ÜBER DIE MATERIE DES GEISTES. Relektüre von Edelman 1992. Reflexion auf den Begriff ‚Fitness‘

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 13.Sept. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

LETZTE ÄNDERUNG: 1.Dez.2018, Wiederholung der vorausgehenden Diskussion gestrichen. Kumulierte Zusammenfassungen sind HIER.

Gerald M.Edelman, Bright Air, Brilliant Fire. On the Matter of the Mind, New York: 1992, Basic Books

 

Im Anschluß an Kap.8 von Edelman sei hier hochmals explizit der Aspekt der ‚Fitness‘ herausgegriffen. Da die Mechanismen hinter diesem Begriff in seinem Text etwas unklar bleiben.

ZWISCHENREFLEXION: BEGRIFF ‚FITNESS‘

  1. Außer dem bislang Gesagten (siehe oben Punkte 1-44) ist es vielleicht hilfreich, sich klar zu machen, wie genau das Zusammenspiel zwischen der Fitness biologischer Systeme und den jeweiligen Umgebungen beschaffen ist.
  2. Ein grundlegender Tatbestand ist jener, dass die Umgebung der biologischen Systeme auf der Erde von Anfang an eben die Erde war und ist bzw. das Sonnensystem bzw. unsere Milchstraße bzw. das gesamte bekannte Universum. Diese Vorgabe ist für alle biologische Systeme bislang nicht verhandelbar. Wenn ein biologisches System sich behaupten will, dann in diesem konkreten Ausschnitt des Universums und nirgendwo sonst.
  3. Zugleich wissen wir, dass die Erde seit ihrer Entstehung samt Sonnensystem und dem ganzen Kontext zu allen Zeiten ein hochdynamisches System war und ist, das im Laufe von Milliarden Jahren viele dramatische Änderungen erlebt hat. Sich in dieser Umgebung zu behaupten stellt eine schier unfassbare Leistung dar.
  4. Ob sich im Laufe der Zeit eine bestimmte Lebensform L auf der Erde ‚behaupten‘ oder gar ‚vermehren‘ konnte, hing einzig davon ab, ob diese Lebensform L im Laufe der Generationen in der Lage war, hinreichend viele Nachkommen unter den konkreten Bedingungen der Umgebung zu erzeugen und am Leben zu erhalten. Die Anzahl der Nachkommen einer Generation der Lebensform L kann von daher als Bezugspunkt zur Definition eines ‚Fitness-Wertes‚ bzw. dann der ‚Fitness‘ einer Lebensform genommen werden. Eine häufige Schematisierung dieser Sachverhalte ist die folgende:
  5. POP(t+1) = o(POP(t)), t>0 := Die Population ‚POP‘ zum Zeitpunkt t+1 ist das Ergebnis der Anwendung der Populationsgenerierungsfunktion ‚o‘ auf die Population zum Zeitpunkt ‚t‘, wobei ‚t‘ größer als 0 sein muss. Die Funktion ‚o‘ kann man dann weiter analysieren:
  6. o=e x c := Die Populationsgenerierungsfunktion ‚o‘ ist das Ergebnis der Hintereinanderausführung der beiden Teilfunktionen ‚e‘ (‚earth-function‘) und ‚c‘ (‚change-funtion‘). Diese kann man weiter analysieren:
  7. e : 2^(POP^2) x 2^POP x EARTH —–> POP := Die earth-function e nimmt Paare von Individuen (potentielle Eltern) der Population, zusätzlich kann es beliebig andere Individuen der Population geben (Jäger, Beute, Artgenossen…), und dann die Erde selbst mit ihren Eigenschaften, und transformiert daraus nachfolgende Individuen, Abkömmlinge. Es ist schwer zu sagen, ‚wer‘ hier über Leben und Tod entscheidet: einerseits legen die konkreten Bedingungen der Erde und die Art der Zeitgenossen fest, unter welchen Bedingungen eine Lebensform überleben kann, andererseits hängt ein Überleben auch davon ab, welche ‚Eigenschaften‘ eine Lebensform besitzt; ob diese leistungsfähig genug sind, unter den gegebenen Bedingungen ‚leben‘ zu können. Nimmt man die Population der Lebensformen als ‚Generator‘ neuer Formen (siehe nächsten Abschnitt), dann wirkt die konkrete Erde wie eine Art ‚Filter‘, das nur jene ‚durchlässt‘, die ‚passen‘. ‚Selektion‘ wäre dann ein ‚emergentes‘ Phänomen im radikalen Sinne, da dieses Phänomen nur im Zusammenspiel der beiden Faktoren ‚Erde‘ und ‚Population‘ ’sichtbar‘ wird. Ohne dieses Zusammenspiel gibt es kein Kriterium für ‚Überlebensfähigkeit‘. Ferner wird hier deutlich, dass das Kriterium ‚Fitness‘ bzw. ‚Überlebensfähigkeit‘ kein absolutes Kriterium ist, sondern sich zunächst nur auf den Lebensraum ‚Erde‘ beschränkt. In anderen Bereichen des Universums könnten ganz andere Kriterien gelten und dort müsste die Lebensformen u.U. Einen ganz anderen Zuschnitt haben.
  8. Ferner  wird hier sichtbar, dass der ‚Erfolg‚ einer bestimmten Lebensform als Teil des gesamten Biologischen letztlich sehr ‚partiell‚ ist, weil bei Änderungen der Zustände auf der Erde bislang erfolgreiche Lebensformen (berühmtes Beispiel die Dinosaurier) vollstänig verschwinden können; andere Lebensformen als Teil des Biologischen können dann aber plötzlich neu in den Vordergrund treten. (berühmtes Beispiel die Säugetiere).  Offen ist die Frage, ob es spezielle Lebensformen — wie z.B. den homo sapiens — gibt, die aufgrund ihrer hervorstechenden Komplexität im Kontext des Biologischen eine irgendwie geartete ‚besondere Bedeutung‘ besitzen. Aktuell erwecken die Wissenschaften den Eindruck, als ob es hier keine feste Meinung gibt: die einen sehen im homo sapiens etwas Besonderes, das auf eine spezielle Zukunft verweist, andere sehen im homo sapiens eine von vielen möglichen speziellen Lebensformen, die bald wieder verschwinden wird, weil sie sich der eigenen Lebensgrundlagen beraubt.
  9. c : cross x mut := die ‚change-function‘ c besteht auch aus zwei Teilfunktionen, die hintereinander ausgeführt werden: die erste Teilfunktion ist eine Art Überkreuzung genannt ‚crossover‘ (‚cross‘), die zweite ist eine Art Mutation genannt ‚mutation‘ (‚mut‘).
  10. cross : POP x POP —–> POP := In der Überkreuzfunktion ‚cross‘ werden die Genotypen von zwei verschiedenen Individuen ‚gemischt‘ zu einem neuen Genotyp, aus dem ein entsprechend neuer Phänotyp hervorgehen kann.
  11. mut : POP —–> POP := In der Mutationsfunktion kann eine zufällige Änderung im Genotyp eines Individuums auftreten, die unter Umständen auch zu Änderungen im Phänotyp führt.
  12. Idealerweise kann man die change-function c isoliert von der Umgebung sehen. Realistischerweise kann es aber Wechselwirkungen mit der Umgebung geben, die auf die change-function ‚durchschlagen‘.

  13. Fasst man alle Faktoren dieser – stark vereinfachten – Populationsgenerierungsfunktion ‚o‘ zusammen, dann wird auf jeden Fall deutlich, dass beide Systemedie Erde und das Biologische – einerseits unabhängig voneinander sind, dass sie aber faktisch durch die Gegenwart des Biologischen auf der Erde (und im Sonnensystem, in der Milchstraße, …) in einer kontinuierlichen Wechselwirkung stehen, die sich dahingehend auswirkt, dass das Biologische eine Form annimmt, die zur Erde passt. Grundsätzlich könnte das Biologische aber auch andere Formen annehmen, würde es in einer anderen Umgebung leben.
  14. Um die Populationsgenerierungsfunktion noch zu vervollständigen, braucht man noch eine ‚Bootstrapping Funktion‘ ‚boot-life()‘, mittels der überhaupt das Biologische auf der Erde ‚eingeführt‘ wird:
  15. boot-life : EARTH —–> EARTH x POP (auch geschrieben: POP(t=1) = boot-life(POP(t=0)) ):= wie die allerneuesten Forschungen nahelegen, konnten sich unter bestimmten Bedingungen (z.B. unterseeische Gesteinsformationen, vulkanisches Wasser, …) verschiedene Molekülverbände zu komplexen Molekülverbänden so zusammen schließen, dass irgendwann ‚lebensfähige‘ – sprich: reproduktionsfähige – Zellen entstanden sind, die eine Anfangspopulation gebildet haben. Auf diese Anfangspopulation kann dann die Populationsgenerierungsfunktion ‚o‘ angewendet werden.

Fortsetzung folgt HIER.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

 

ÜBER DIE MATERIE DES GEISTES. Relektüre von Edelman 1992. Kumulierte Zusammenfassung der Diskussion

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 13.Sept. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

Letzte Änderungen: 3.Dez.2018, Hervorhebungen hinzugefügt

Gerald M.Edelman, Bright Air, Brilliant Fire. On the Matter of the Mind, New York: 1992, Basic Books

BISHER

Bislang sind folgende Teile erschienen:

Teil 1

Teil 2

Teil 3

Teil 4

Teil 5

Teil 6

Teil 7

Einschub: Fitness

Teil 8

Teil 9

Teil 10

Teil 11

Welche Theorie von was?

Teil 13: Fokussierung und Unbewusstes – Teil1

 

POSITION VON EDELMAN

Edelman benutzt die Arbeitshypothese, dass das, was wir ‚Geist‘ nennen, sich nur ab bestimmten Zeitpunkten während der allgemeinen Evolution ‚gezeigt‘ (‚emerged‘) hat, und zwar sehr spät.(vgl. S.41) Und dies setzt die Annahme voraus, dass die fundamentale Basis für alles Verhalten und für die ‚Sichtbarwerdung‘ (‚emergence‘) des Geistes die Anatomie und Morphologie der biologischen Strukturen ist sowie deren Funktionen.(vgl. S.41)

POSITION DES AUTORS ALS DISKUSSIONSPUNKTE

Im Kontext seiner Argumentation kritisiert Edelman viele bekannte Positionen im Bereich Philosophie und Psychologie aus der eingeschränkten Perspektive ihres Bezuges zu den materiellen Strukturen heraus, die von ihm – letztlich wie bei Kant, nur mit anderem Akzent, mehr oder weniger – als ‚Ermöglichung des Geistes‘ gesehen werden. Diese Kritik in dieser speziellen Perspektive ist zum Teil berechtigt, aber auch nur zu einem sehr eingeschränkten Teil, da die kritisierten Personen und Positionen von den neuen Erkenntnissen noch gar nichts wissen konnten. Über diese enge Perspektive des expliziten Bezugs zu materiellen Strukturen hinaus repräsentieren die kritisierten Positionen aber auch Perspektiven, die ‚in sich eine methodische Rechtfertigung‘ besitzen, die Edelman schlicht nicht erkennt. Hier verkürzt zur Erinnerung einige seiner ‚methodischen blinden Flecken‘:

  1. Alternativen sind berechtigt:… zugleich die Arbeitshypothese aufzustellen, dass damit Analyse- und Erklärungsansätze von vornherein zu verurteilen sind, die Verhaltensdaten (Psychologie) bzw. auch introspektive Daten (Philosophie) als solche als Basis nehmen ohne direkt einen Bezug zu den materiellen (anatomischen) Daten herzustellen, ist mindestens problematisch wenn nicht wissenschaftsphilosophisch unhaltbar…
  2. Primär die Funktionen:… denn, wie immer die anatomischen Grundlagen beschaffen sein mögen, wenn ich deren ‚Verhaltensdynamik‘ erforschen will, interessieren mich die Details dieser Anatomie nicht, sondern nur ihre Funktion. Und diese lässt sich nicht durch Rekurs auf Bestandteile beschreiben sondern nur durch Beobachtung des Systemverhaltens …
  3. Daten als solche sind ‚blind‘:… aus materiellen Strukturen als solchen folgt in keiner Weise irgend etwas ‚Geistiges‘ es sei denn, ich habe vorab zur Untersuchung einen Kriterienkatalog G, den ich als Maßstab anlegen kann, um dann bei der Analyse der Beobachtungsdaten konstatieren zu können, das der Eigenschaftskomplex G vorliegt. Habe ich solch einen Kriterienkatalog G nicht, kann ich noch so viele empirische Daten zu irgendwelchen materiellen Strukturen vorweisen; ‚aus sich heraus‘ lassen diese Daten eine solche Eigenschaftszuschreibung nicht zu! …
  4. Konkretisierung und Quantenraum:… ohne die ‚Anhaltspunkte‘ im ‚beobachtbaren Verhalten‘ wäre es praktisch unmöglich, jene bedingenden materiellen Struktureigenschaften zu identifizieren, da die zugrundeliegenden neuronalen und damit letztlich biochemischen Grundlagen rein mathematisch nahezu unbegrenzt viele Funktionen erlauben. Letztlich deuten diese materiellen Strukturen auf einen quantenmechanischen Möglichkeitsraum hin, deren Konkretisierung von Faktoren abhängt, die sich aus den Strukturen selbst nicht so einfach ableiten lassen. …
  5. Phänomene zuerst: Philosophen arbeiten traditionell mit dem subjektiven Erlebnisraum direkt, ohne zugleich die Frage nach den materiellen Bedingungen der so erlebbaren ‚Phänomene‘ zu stellen. In gewisser Weise handelt es sich bei diesen subjektiven (= bewussten) Phänomenen auch um eine Systemfunktion eigener Art mit einer spezifischen Besonderheit, der man nicht gerecht werden würde, würde man sie durch Rekurs auf die bedingenden materiellen Strukturen (Gehirn, Körper, Welt, …) ‚ersetzen‘ wollen. …
  6. Empirie ist abgeleitet:… muss man sich klar machen, dass alle sogenannten ‚empirischen Daten‘ ja nicht ‚außerhalb‘ des ‚bewusstseinsbedingten Phänomenraums‘ vorkommen, sondern auch nur ‚bewusstseinsbedingte Phänomene‘ sind, allerdings eine spezielle Teilmenge, die man mit unterstellten Vorgängen in der Außenwelt in Verbindung bringt. Insofern bildet der subjektive Phänomenraum die Basis für jegliche Denkfigur, auch für die empirischen Wissenschaften. …
  7. Bezugspunkte für die Phänomene des Geistigen: Die Frage, was denn dann die primären Kriterien für das ‚Psychische-Geistige‘ sind, wird durch diese multidisziplinäre Kooperationen nicht einfacher: da die materiellen Strukturen als solche keinerlei Anhaltspunkte für ‚Geistiges‘ liefern, bleibt letztlich als Ausgangspunkt doch nur das ‚Geistige‘, wie biologische Systeme ’sich selbst‘ sehen, weil sie sich so ‚erleben‘. Das ‚Geistige‘ erscheint hier als ‚Dynamik‘ von Systemen, die sich anhand des Auftretens dieser Systeme ‚zeigt‘, ‚manifestiert‘. Aus den einzelnen materiellen Bestandteilen kann man diese Eigenschaften nicht ableiten, nur aus der Gesamtheit in spezifischen Wechselwirkungen. …
  8. wenn ein homo sapiens ’nichts tut‘, dann ist die Dynamik ‚unsichtbar‘ und die durch solch eine Dynamik sichtbar werdenden Eigenschaften sind nicht greifbar. Weiter: wenn ein homo sapiens eine Dynamik erkennen lässt, dann bedarf es einer spezifischen ‚Erkenntnisweise‘, um die spezifischen Eigenschaften von ‚Geist‘ erkennen zu können. …
  9. Das System-Ganze: … Erst durch die Dynamik des Gesamtsystems werden – oft als ‚emergent‘ klassifizierte – Phänomene sichtbar, die von den einzelnen Bestandteilen des materiellen Systems als solchen nicht ableitbar sind, nur eben durch das Verhalten, die Dynamik des Gesamtsystems. …
  10. Begriffliches Mehr: … Es ist weder auszuschließen, dass es zwischen dem empirischen Phänomen der ‚Gravitation‘ und dem empirischen Phänomen ‚Geist‘ einen ‚tieferen‘ Zusammenhang gibt (da ‚Geist‘ als empirisches Phänomen ‚Gravitation‘ voraussetzt‘), noch dass es weit komplexere empirische Phänomene geben kann als den ‚individuell in Populationen‘ sich manifestierenden ‚empirischen Geist‘.
  11. Neues‘ und sein Ursprung:… Da jene geistige Eigenschaften, die den homo sapiens von anderen Lebensformen unterscheiden, erst mit diesem auftreten, kann eine ‚Geschichte der Entwicklung jener Formen, die den homo sapiens auszeichnen‘, nur indirekte Hinweise darauf liefern, wie sich jene ’späten‘ komplexen materiellen Strukturen aus ‚einfacheren, früheren‘ Strukturen entwickelt haben. Damit entsteht dann die interessante Frage, wie sich solche Komplexität aus ’scheinbar einfacheren‘ Strukturen entwickeln konnte? In der logischen Beweistheorie gilt allgemein, dass ich nur etwas ‚ableiten’/ ‚beweisen‘ kann, wenn ich das zu Beweisende letztlich schon in meinen ‚Voraussetzungen’/ ‚Annahmen‘ angenommen habe. Das ’spätere komplexere Neue‘ wäre in dem Sinne dann nicht wirklich ’neu‘, sondern nur eine ‚andere Zustandsform‘ eines Ausgangspunktes, der schon alles hat‘. Dies wäre nicht sehr überraschend, da wir in der Big-Bang-Theorie allgemein von ‚Energie (E)‘ ausgehen, die in Folge von Abkühlungsprozessen unendlich viele konkrete Zustandsformen angenommen hat, von denen wir mit E=mc^2 wissen, dass sie alle ineinander überführbar sind, wie speziell sie auch immer sein mögen.
  12. Rückschlüsse vom Phänotyp auf den Genotyp: …Die komplexen Abbildungsprozesse zwischen Genotypen und Phänotypen als Teil von Populationen in Umgebungen machen eine Zuordnung von im Verhalten fundierten Eigenschaftszuschreibungen von ‚Geist‘ zu vorliegenden materiellen Strukturen schwer bis unmöglich. … Das Entscheidende am Phänomen des Geistes ist ja, dass er nach vielen Milliarden Jahren Entwicklung in einem aktuell hochkomplexen und dynamischen System sich zeigt, und zwar nicht ‚aus sich heraus‘ sondern nur dann, wenn ein anderes System, das ebenfalls ‚Geist‘ hat, diesen Phänomenen ‚ausgesetzt‚ ist. Ein System, das selbst ‚keinen Geist hat‘, kann die beobachtbaren Phänomene nicht als ‚geistige‘ klassifizieren! Dies schließt nicht aus, dass heutige Algorithmen quasi automatisch irgendwelche ‚Muster‘ im beobachtbaren Verhalten identifizieren können, allerdings sind dies Muster wie unendlich viele andere Muster, deren ‚Bewertung‘ in irgendeine Zustandsdimension völlig beliebig ist.
  13. Der ‚Theoriemacher‘ kommt selbst als Gegenstand der Theorie nicht vor: …Von Interesse ist auch, wie sich der Zustandsraum der materiellen Strukturen (die Gesamtheit des aktuellen empirischen Wissens über das Universum und seiner möglichen Zukünfte) und der Zustandsraum von Systemen mit Geist (die Gesamtheit des geistigen Vorstellungsraumes samt seiner möglichen geistigen Zukünfte) unterscheidet. Die Sache wird dadurch kompliziert, dass ja die Systeme mit empirischem Geist letztlich auch zum genuinen Gegenstandsbereich der sogenannten ‚Natur‘-Wissenschaften gehören. Wenn das Empirisch-Geistige Teil der Natur ist, reichen die bisherigen empirischen naturwissenschaftlichen Theorien nicht mehr. Sie müssten entsprechend geändert werden. Der Beobachter muss wesentlicher Bestandteil der Theorie selbst werden. Für diese Konstellation haben wir bislang aber keinen geeigneten empirischen Theoriebegriff.
  14. Die ‚Interpretationsfunktion‘ als Fundament allen biologischen Lebens ungeklärt: Die fundamentale Tatsache, dass es Moleküle gibt, die andere Moleküle als ‚Kode‘ benutzen können, um Transformationsprozesse zwischen einer Sorte von Molekülen (DNA, RNA) in eine andere Sorte von Molekülen (Polypeptide, Proteine) steuern zu können, nimmt Edelman als Faktum hin, thematisiert es selbst aber nicht weiter. Er benennt diese ‚interpretierenden Moleküle‘ auch nicht weiter; sein Begriff ‚cellular device‘ ist eher nichtssagend. Dennoch ist es gerade diese Fähigkeit des ‚Übersetzens’/ ‚Interpretierens‘, die fundamental ist für den ganzen Transformationsprozess von einem Genom in einen Phänotyp bzw. in eine ganze Kette von hierarchisch aufeinander aufbauenden Phänotypen. Setzt man diese Übersetzungsfähigkeit voraus, ist das ganze folgende Transformationsgeschehen – so komplex es im Detail erscheinen mag – irgendwie ‚trivial‘. Wenn ich in mathematischer Sicht irgendwelche Mengen habe (z.B. verschiedene Arten von Moleküle), habe aber keine Beziehungen definiert (Relationen, Funktionen), dann habe ich quasi ‚Nichts‘. Habe ich aber z.B. eine Funktion definiert, die eine ‚Abbildung‘ zwischen unterschiedlichen Mengen beschreibt, dann ist es eine reine Fleißaufgabe, die Abbildung durchzuführen (z.B. die Übersetzung von DNA über RNA in Aminosäuren, dann Polypeptide, dann Proteine). Dass die Biochemie und Mikrobiologie samt Genetik so viele Jahre benötigt hat, die Details dieser Prozesse erkennen zu können, ändert nichts daran, dass diese Transformationsprozesse als solche ‚trivial‘ sind, wenn ich die grundlegende Transformationsfunktion definiert habe. Wo aber kommt diese grundlegende Abbildungsfunktion her? Wie kann es sein, dass ein ordinäres chemisches Molekül ein anderes ordinäres chemisches Molekül als ‚Kode‘ interpretiert, und zwar genau dann so, wie es geschieht? Betrachtet man ’normale‘ Moleküle mit ihren chemischen Eigenschaften isoliert, dann gibt es keinerlei Ansatzpunkt, um diese grundlegende Frage zu beantworten. Offensichtlich geht dies nur, wenn man alle Moleküle als eine Gesamtheit betrachtet, diese Gesamtheit zudem nicht im unbestimmten Molekül-Vorkommens-Raum, sondern in Verbindung mit den jeweils möglichen ‚realen Kontextbedingungen‘, und dann unter Berücksichtigung des potentiellen Interaktionsraumes all dieser Moleküle und Kontexte. Aber selbst dieser Molekül-Vorkommens-Raum repräsentiert im mathematischen Sinne nur Mengen, die alles und nichts sein können. Dass man in diesem Molekül-Vorkommens-Raum eine Funktion implantieren sollte, die dem Dekodieren des genetischen Kodes entspricht, dafür gibt es im gesamten Molekül-Vorkommens-Raum keinerlei Ansatzpunkt, es sei denn, man setzt solch eine Funktion als ‚Eigenschaft des Molekül-Vorkommens-Raumes‘ voraus, so wie die Physiker die ‚Gravitation‘ als Eigenschaft des physikalischen Raumes voraussetzen, ohne irgendeinen Ansatzpunkt im Raum selbst zu haben, als die beobachtbare Wirkung der Gravitation. Die Biologen können feststellen, dass es tatsächlich einen Transformationsprozess gibt, der solch eine Abbildungsbeziehung voraussetzt, sie haben aber keine Chance, das Auftreten dieser Abbildungsbeziehung aus den beobachtbaren materiellen Strukturen abzuleiten!!!
  15. Biologisches Leben als ‚Super-Algorithmus‘, der seine eigenen Realisierungsbedingungen mit organisiert: In der Beschreibung von Edelmans Position habe ich schon angemerkt, dass seine Wortwahl ‚Topobiologie‘ möglicherweise unglücklich ist, da es letztlich nicht der dreidimensionale Raum als solcher ist, der entscheidend ist (wenngleich indirekt die Drei-Dimensionalität eine Rolle spielt) sondern der ‚Kontext in Form von interaktiven Nachbarschaften‘: welche andere Zellen stehen in Interaktion mit einer Zelle; welche Signale werden empfangen. Indirekt spielt dann auch der ‚vorausgehende Prozess‘ eine Rolle, durch den eben Kontexte erzeugt worden sind, die nur in bestimmten Phasen des Prozesses vorliegen. Man hat also eher einen ‚Phasenraum‘, eine Folge typischer Zustände, die auseinander hervorgehen, so, dass der bisherige Prozess die nächste Prozessphase hochgradig determiniert. Dies ähnelt einer ‚algorithmischen‘ Struktur, in der eine Folge von Anweisungen schrittweise abgearbeitet wird, wobei jeder Folgeschritt auf den Ergebnissen der vorausgehenden Abarbeitungen aufbaut und in Abhängigkeit von verfügbaren ‚Parameterwerten‘ den nächsten Schritt auswählt. Im Unterschied zu einem klassischen Computer (der eine endliche Instanz eines an sich unendlichen theoretischen Konzeptes von Computer darstellt!), bei dem die Ausführungsumgebung (normalerweise) festliegt, haben wir es hier mit einem algorithmischen Programm zu tun, das die jeweilige Ausführungsumgebung simultan zur Ausführung ‚mit erschafft‘! Wenn Computermetapher, dann eben so: ein Programm (Algorithmus), das seine Ausführungsumgebung (die Hardware) mit jedem Schritt selbst ‚erschafft‘, ‚generiert‘, und damit seine Ausführungsmöglichkeiten schrittweise ausbaut, erweitert. Dies setzt allerdings voraus, dass das genetische Programm dies alles schon ‚vorsieht‘, ‚vorwegnimmt‘. Die interessante Frage ist dann hier, wie ist dies möglich? Wie kann sich ein genetisches Programm ‚aus dem Nichts‘ entwickeln, das all diese ungeheuer komplexen Informationen bezüglich Ausführung und Ausführungsumgebung zugleich ‚aufgesammelt‘, ’strukturiert‘, ‚verpackt‘ hat, wo die Gesamtheit der modernen Wissenschaft bislang nur Fragmente versteht?
  16. Ein technischer Super-Algorithmus scheint prinzipiell möglich; unklar ist seine ‚inhaltliche Ausgestaltung‘: Während Neurowissenschaftler (Edelman eingeschlossen) oft mit unsinnigen Computervergleichen versuchen, die Besonderheit des menschlichen Gehirns herauszustellen, kann man ja auch mal umgekehrt denken: wenn die Entwicklung des Gehirns (und des gesamten Organismus) Ähnlichkeiten aufweist mit einem Algorithmus, der seine eigene Ausführungsumgebung während der Ausführung (!!!) mit generiert, ob sich solch ein Prozess auch ‚rein technisch‘ denken ließe in dem Sinne, dass wir Maschinen bauen, die aus einer ‚kleinen Anfangsmenge von Materie‘ heraus ausgestattet mit einem geeigneten ‚Kode‘ und einem geeigneten ‚Interpretierer‘ sich analog selbst sowohl materiell als auch kodemäßig entwickeln? Da die biologischen Systeme zeigen, dass es grundsätzlich geht, kann man solch einen technischen Prozess nicht grundsätzlich ausschließen. Ein solches Gedankenexperiment macht aber sichtbar, worauf es wirklich ankommt: eine solche sich selbst mit-bauende Maschine benötigt auch einen geeigneten Kode und Interpretationsmechanismus, eine grundlegende Funktion. Ohne diese Funktion, geht gar nichts. Die Herkunft dieser Funktion ist aber gerade diejenige grundlegende Frage, die die gesamte empirische Wissenschaft bislang nicht gelöst hat. Es gibt zwar neuere Arbeiten zur Entstehung von ersten Zellen aus Molekülen unter bestimmten realistischen Kontexten, aber auch diese Forschungen beschreiben nur Prozesse, die man ‚vorfindet‘, die sich ‚zeigen‘, nicht aber warum und wieso es überhaupt zu diesen Prozessen kommen kann. Alle beteiligten materiellen Faktoren in diesen Prozessen als solchen geben keinerlei Ansatzpunkte für eine Antwort. Das einzige, was wir bislang wissen, ist, dass es möglich ist, weil wir es ‚beobachten können‘. Die ‚empirischen Phänomene‘ sind immer noch die härteste Währung für Wahrheit.
  17. Wissenschaftliche Theorie:… es ist überhaupt das erste Mal, dass Edelman in diesem Buch explizit über eine ‚wissenschaftliche Theorie‘ spricht… Seine Charakterisierung einer ‚wissenschaftlichen Theorie‘ ist … generell sehr fragmentarisch; sie ist ferner in ihrer Ernsthaftigkeit fragwürdig, da er die Forderung der Falsifizierbarkeit mit dem Argument begründt, dass ansonsten Darwins Theorie in ihrer Anfangszeit niemals hätte Erfolg haben können; und sie ist geradezu mystisch, da er eine radikal neue Rolle des Beobachters mit all seinen mentalen Eigenschaften innerhalb der Theoriebildung einfordert, ohne aber irgendwelche Hinweise zu liefern, wie das praktiziert werden soll. … Man stellt sich die Frage, welchen ‚Begriff von Theorie‘ Edelman eigentlich benutzt? In der Geschichte der empirischen Wissenschaften gab es viele verschiedene Begrifflichkeiten, die nicht ohne weiteres kompatibel sind, und seit ca. 100 Jahren gibt es eine eigene Metawissenschaft zu den Wissenschaften mit Namen wie ‚Wissenschaftsphilosophie‘, ‚Wissenschaftstheorie‘, ‚Wissenschaftslogik‘, deren Gegenstandsbereich gerade die empirischen Wissenschaften und ihr Theoriebegriff ist…. Aufgrund seiner bisherigen Ausführungen scheint Edelman nichts vom Gebiet der Wissenschaftsphilosophie zu kennen.
  18. Überprüfbarkeit, Verifizierbarkeit, Theorie: Die Überprüfbarkeit einer Theorie ist in der Tat ein wesentliches Merkmal der modernen empirischen Wissenschaften. Ohne diese Überprüfbarkeit gäbe es keine empirische Wissenschaft. Die Frage ist nur, was mit ‚Überprüfbarkeit‘ gemeint ist bzw. gemeint sein kann. … Wenn Edelman fordert dass für eine Theorie gelten soll, dass nicht (vi) ‚jeder Teil von der Theorie direkt falsifizierbar‘ sein muss, dann geht er offensichtlich davon aus, dass eine Theorie T aus ‚Teilen‘ besteht, also etwa T(T1, T2, …, Tn) und dass im ‚Idealfall‘ jeder Teil ‚direkt falsifizierbar‘ sein müsste. Diese Vorstellung ist sehr befremdlich und hat weder mit der Realität existierender physikalischer Theorien irgend etwas zu tun noch entspricht dies den modernen Auffassungen von Theorie. Moderne Theorien T sind mathematische (letztlich algebraische) Strukturen, die als solche überhaupt nicht interpretierbar sind, geschweige denn einzelne Teile davon. Ferner liegt die Erklärungsfähigkeit von Theorien nicht in ihren Teilen, sondern in den ‚Beziehungen‘, die mittels dieser Teile formulierbar und behauptbar werden. Und ob man irgendetwas aus solch einer Theorie ‚voraussagen‘ kann hängt minimal davon ab, ob die mathematische Struktur der Theorie die Anwendung eines ‚logischen Folgerungsbegriffs‘ erlaubt, mittels dem sich ‚Aussagen‘ ‚ableiten‘ lassen, die sich dann – möglicherweise – ‚verifizieren‘ lassen. Diese Verifizierbarkeit impliziert sowohl eine ‚Interpretierbarkeit‘ der gefolgerten Aussagen wie auch geeignete ‚Messverfahren‘, um feststellen zu können, ob die ‚in den interpretierten Aussagen involvierten entscheidbaren Eigenschaften‘ per Messung verifiziert werden können oder nicht. Der zentrale Begriff ist hier ‚Verifikation‘. Der Begriff der ‚Falsifikation‘ ist relativ zu Verifikation als komplementärer Begriff definiert. Begrifflich erscheint dies klar: wenn ich nicht verifizieren kann, dann habe ich automatisch falsifiziert. In der Praxis stellt sich aber oft das Problem, entscheiden zu können, ob der ganz Prozess des Verifizierens ‚korrekt genug‘ war: sind die Umgebungsbedingungen angemessen? Hat das Messgerät richtig funktioniert? Haben die Beobachter sich eventuell geirrt? Usw. Als ‚theoretischer Begriff‘ ist Falsifikation elegant, in der Praxis aber nur schwer anzuwenden. Letztlich gilt dies dann auch für den Verifikationsbegriff: selbst wenn der Messvorgang jene Werte liefert, die man aufgrund einer abgeleiteten und interpretierten Aussage erwartet, heißt dies nicht mit absoluter Sicherheit, dass richtig gemessen wurde oder dass die Aussage möglicherweise falsch interpretiert oder falsch abgeleitet worden ist.
  19. Rolle des Theoriemachers und Beobachters fundamental: All diese Schwierigkeiten verweisen auf den ausführenden Beobachter, der im Idealfall auch der Theoriemacher ist. In der Tat ist es bislang ein menschliches Wesen, das mit seinen konkreten mentalen Eigenschaften (basierend auf einer bestimmten materiellen Struktur Gehirn im Körper in einer Welt) sowohl Phänomene und Messwerte in hypothetische mathematische Strukturen transformiert, und diese dann wiederum über Folgerungen und Interpretationen auf Phänomene und Messwerte anwendet. Dies in der Regel nicht isoliert, sondern als Teil eines sozialen Netzwerkes, das sich über Interaktionen, besonders über Kommunikation, konstituiert und am Leben erhält. … Edelman hat Recht, wenn er auf die bisherige unbefriedigende Praxis der Wissenschaften hinweist, in der die Rolle des Theoriemachers als Teil der Theoriebildung kaum bis gar nicht thematisiert wird, erst recht geht diese Rolle nicht in die eigentliche Theorie mit ein. Edelman selbst hat aber offensichtlich keinerlei Vorstellung, wie eine Verbesserung erreicht werden könnte, hat er ja noch nicht einmal einen rudimentären Theoriebegriff.
  20. Theorie einer Population von Theoriemachern: Aus dem bisher Gesagten lässt sich zumindest erahnen, dass ein verbessertes Konzept einer Theorie darin bestehen müsste, dass es eine explizite ‚Theorie einer Population von Theoriemachern (TPTM)‘ gibt, die beschreibt, wie solch eine Population überhaupt eine Theorie gemeinsam entwickeln und anwenden kann und innerhalb dieser Theorie einer Population von Theoriemachern würden die bisherigen klassischen Theoriekonzepte dann als mögliche Theoriemodelle eingebettet. Die TPTM wäre dann quasi ein ‚Betriebssystem für Theorien‘. Alle Fragen, die Edelman angeschnitten hat, könnte man dann in einem solchen erweiterten begrifflichen Rahmen bequem diskutieren, bis hinab in winzigste Details, auch unter Einbeziehung der zugrunde liegenden materiellen Strukturen.
  21. Darwin und Theorie: Anmerkung: Darwin hatte nichts was einem modernen Begriff von Theorie entsprechen würde. Insofern ist auch das Reden von einer ‚Evolutionstheorie‘ im Kontext von Darwin unangemessen. Damit wird aber der epochalen Leistung von Darwin kein Abbruch getan! Eher wirkt sein Werk dadurch noch gewaltiger, denn die Transformation von Gedanken, Phänomenen, Fakten usw. in die Form einer modernen Theorie setzt nicht nur voraus, dass man über die notwendigen Formalisierungsfähigkeiten verfügt … sondern man kann erst dann ’sinnvoll formalisieren‘, wenn man überhaupt irgendetwas ‚Interessantes‘ hat, was formalisiert werden soll. Die großen Naturforscher (wie z.B. Darwin) hatten den Genius, die Kreativität, den Mut, die Zähigkeit, das bohrende, systematisierende Denken, was den Stoff für interessante Erkenntnisse liefert. Dazu braucht man keine formale Theorie. Die Transformation in eine formale Theorie ist irgendwo Fleißarbeit, allerdings, wie die Geschichte der Physik zeigt, braucht man auch hier gelegentlich die ‚Genies‘, die das Formale so beherrschen, dass sie bisherige ‚umständliche‘ oder ‚unpassende‘ Strukturen in ‚einfachere‘, ‚elegantere‘, ‚besser passende‘ formale Strukturen umschreiben.
  22. Inkompatible Daten: 1.Person – 3.Person: Schon die erste Überlegung von Edelman, die Theorie des Bewusstseins als Teil einer Theorie des Gehirns zu konzipieren, wirft methodische Fragen auf. Diese resultieren daher, dass ja eine Theorie – was er im nächsten Abschnitt ja auch ausdrücklich feststellt – , im Kern darin besteht, ‚Zusammenhänge‘ einzuführen, durch die die einzelnen, isolierten Fakten kausale, erklärende, prognostische Eigenschaften bekommen können. Nun ist nach bisherigem Kenntnisstand klar, dass jene Fakten, durch die sich für einen menschlichen Beobachter und Theoriemacher das Bewusstsein ‚zeigt‘, und jene Fakten, mittels denen eine Neurobiologie arbeitet, nicht nur einfach ‚unterschiedlich‘ sind, sondern im ersten Anlauf prinzipiell ‚ausschließend‘. Die dritte Person Perspektive im Fall neurobiologischer Theoriebildung und die erste Person Perspektive im Fall von Bewusstseinstheorien sind im ersten Schritt nicht kompatibel miteinander. Jede Form von Beziehungsentwicklung über diesen unterschiedlichen Datenengen – nennen wir sie DAT_NN und DAT_BW – wird vollständig unabhängig voneinander stattfinden müssen. Bei dieser Sachlage zu sagen, dass eine Theorie des Bewusstseins als Teil einer Theorie des Gehirns entwickelt werden soll, klingt spannend, lässt aber jegliche Einsicht in ein mögliches Wie vermissen. Der umgekehrte Fall, eine Theorie des Gehirns als Teil einer Theorie des Bewusstseins hingegen wäre methodisch möglich, da alle empirische Daten abgeleitete Bewusstseinsdaten sind (also: DAT_NN C DAT_BW).
  23. Denken als kreativer Akt – Kein Automatismus: Im übrigen sollte man im Hinterkopf behalten, dass das ‚Einführen von Beziehungen‘ über Datenpunkten in keiner Weise von den Daten selbst her ‚ableitbar‘ ist. Es handelt sich bei solchen Einführungen um ‚kreative Denkakte‘, die aus einem vorgegebenen begrifflichen Denkraum einen möglichen Teilraum aktivieren und diesen ‚an den Daten ausprobieren‘. Insofern handelt es sich bei der Theoriebildung um ein ‚Erkenntnissystem‘ im Sinne von Edelman, das ‚gedachte Varianten von Beziehungen‘ bilden kann, und jene Fakten (ein vom Denken unabhängiger Bereich), die zu irgendwelchen Beziehungsvarianten ‚passen‘, die werden ‚ausgewählt‘ als solche Fakten, die sich im Sinne der ausgewählten Beziehungen ‚erklären‘ lassen. Im Sinne von Edelman könnte man hier von einem ‚bewusstseinsbasierten selektiven System (bsS)‘ sprechen. Es ist an die Lebensdauer des Bewusstseins gebunden, es verfügt über ein ‚Gedächtnis‘, es kann dadurch ‚adaptiv‘ sein, es kann aufgrund von zusätzlichen Kommunikationsprozessen Beziehungsvarianten auf andere Bewusstseine übertragen und durch Übertragung auf bewusstseinsexterne Medien sogar über die Lebensdauer eines individuellen Bewusstseins hinaus gespeichert werden.
  24. Damit deutet sich eine interessante Hierarchie von ‚Erkennungssystemen‘ an: (i) ‚evolutionäre selektive Systeme (esS)‘, (ii) ’somatische selektive Systeme (ssS)‘, (iii) ’neuronale selektive Systeme (nsS)‘, sowie (iv) ‚bewusstseinsbasierte selektive Systeme (bsS)‘.
  25. Kategoriefehler? Während die Hypothese von Edelman, dass die ‚materielle Basis des Geistes‘ in den materiellen Schichten des Gehirns zu suchen sei, möglicherweise Sinn macht, ist seine andere Hypothese, dass eine wissenschaftliche Theorie des Bewusstseins als Teil einer Theorie des Gehirns zu entwickeln sei, aus fundamentalen Gründen nicht nachvollziehbar.
  26. Integrierte Theoriebildung: Greift man Punkt (1) der Diskussion auf, dann könne eine Lösung der Paradoxie von Edelman darin bestehen, dass die Verschränkung der Daten aus der 1ten-Person Perspektive DAT_1Person und die Daten aus der 3ten-Person Perspektive als DAT_3Person C DAT_1Person die Basis für eine mögliche ‚integrierte (philosophische) Theorie des Bewusstseins‘ bilden, die empirische Theorien als Teiltheorien enthält, unter anderem eine Theorie des Gehirns. Wollte man ferner das von Edelman in den ersten Kapiteln mehrfach angesprochene ungelöste Problem der ‚mangelnden Integration des Beobachters‘ in die zugehörige Theorie aufgreifen, dann wäre dies in einer ‚integrierten philosophischen Theorie des Bewusstseins (IPTB)‘ im Prinzip möglich. Folgendes Theorienetzwerk deutet sich damit an:
  27. In einem ersten Schritt (i) könnte man eine ‚Theorie des Bewusstseins‘ T1CS auf Basis der DAT_1Person formulieren; im Rahmen dieser Theorie kann man unter anderem (ii) die empirischen Daten DAT_3Person als eine genuine Teilmenge der Daten DAT_1Person ausweisen. Damit erhält man den Ausgangspunkt dafür, diverse Theorien T3X auf Basis der dritten Person Daten DAT_3Person zu formulieren. Hier gibt es verschiedene Optionen. Eine mögliche wäre die folgende:
  28. In einem ersten Schritt (iii) wird eine ‚Theorie der Evolution der Körper‘ T3EV formuliert. Von hier aus gibt es zwei Fortsetzungen:
  29. Die Interaktion verschiedener Körper einer Population kann in einer (iv) ‚Theorie der Akteure‘ T3A formuliert werden (diese sind u.a. potentielle Beobachter). Diese Theorie T3A beschreibt, welche Verhaltensweisen an Akteuren beobachtbar sind und wie diese sich miteinander verschränken können (z.B. bekannt aus Psychologie und Soziologie).
  30. Eine ‚Theorie der Körper‘ T3BD beschreibt (v) die innere Struktur jener Körper, die den Akteuren zugrunde liegt. Dazu kann es Teil-Theorien geben (vi) wie eine ‚Theorie des Gehirns‘ T3BR (mit all seinen Schichten ) oder (vii) eine ‚Theorie des Immunsystems‘ T3IM.
  31. Brückentheorien: Es ist dann eine eigene theoretische Leistung diese verschiedenen Teil-Theorien und Theorien miteinander in Beziehung zu setzen. Dies ist keinesfalls trivial. Während die Theorie der Evolution eine Zeitkomponente umfasst, in der sich Strukturen komplett ändern können, sind Strukturtheorien des Körpers, des Gehirns und des Immunsystems tendenziell an ’statischen‘ Strukturen orientiert. Dies ist aber unrealistisch: Körper, Gehirn und Bewusstsein sind dynamische Systeme, die sowohl durch ‚Wachstum‘ wie auch durch ‚Lernen‘ kontinuierlich ihre Strukturen ändern. Ferner ist die Interaktion der verschiedenen Theorien ein eigenständiges Problem: Gehirn und Immunsystem sind ja nur zwei Komponenten von vielen anderen, die zusammen einen Körper ausmachen. Wenn man die neuen Erkenntnisse zur Komponente ‚Darm‘ ernst nimmt, dann kann diese Komponenten das gesamte Rest-System vollständig dominieren und steuern (auch das Gehirn). Die genauen Details dieser Interaktion sind noch weitgehend unerforscht. Schließlich ist auch die Rückkopplung der diversen empirischen Theorien T3X zur primären Theorie des Bewusstseins T1CS zu lösen. Dies wäre eine ‚Brückentheorie‘ T1CS3BD mit Anbindung sowohl an die Theorie der Evolution T3EV als auch an die diversen Teiltheorien wie T3BR und T3IM. Bislang ist weltweit kein einziger Kandidat für solch eine Brückentheorie T1CS3BD bekannt, zumal es bislang auch keine ernsthafte Theorie des Bewusstseins T1CS gibt (wohl aber sehr viele Texte, die inhaltlich zum Begriff ‚Bewusstsein‘ etwas schreiben).
  32. Beginn Kap.8: Zu Beginn des Kap. 8 wiederholt Edelman seine These, dass er die ‚Sache des Geistes‘ (‚matter of mind‘) aus einem ‚biologischen Blickwinkel‘ heraus angehen will. Wie schon oben angemerkt, stellen sich hier grundlegende methodische Probleme, die hier jetzt nicht wiederholt werden sollen. Er stellt dann die sachlich unausweichliche Frage, wie man denn dann einen Zusammenhang zwischen ‚Geist‘ und ‚Materie‘ – hier Materie fokussiert auf ‚Gehirn‘ – herstellen kann.
  33. Populationsdenken und Erkennungssystem: Ohne weitere Begründung führt er dann den Begriff ‚Populationsdenken‘ ein, den er sodann überführt in den Begriff ‚Erkennungssystem‘ (‚recogntion system‘). Anschließend bringt er mit der ‚Evolution‘, ‚mit dem Immunsystem‘ und dann mit dem ‚Gehirn‘ drei Beispiele von Erkennungssystemen in seinem Sinne.
  34. Begriff ‚Geist‘ methodisch unbestimmt: Dieses ganze begriffliche Manöver von Edelmann leidet von Anbeginn an dem Umstand, dass er bislang weder genau erklärt hat, was er unter dem Begriff ‚Geist‘ versteht noch mit welchen Methoden man diesen ‚Geist‘ erforschen kann. Der Begriff ‚Geist‘ bildet also bislang nur eine ‚abstrakte Wortmarke ohne definierte Bedeutung‘ und ohne jeglichen Theorie- und Methodenbezug. Zugleich wird ‚Geist‘ streckenweise mit dem Begriff ‚Bewusstsein‘ gleichgesetzt, für den die gleichen Unwägbarkeiten gelten wie für den Begriff ‚Geist‘. Unter diesen Umständen die These aufzustellen, dass sich eine Theorie des Bewusstseins als Teil einer Theorie des Gehirns formulieren lässt ist mindestens kühn (siehe die vorausgehende Diskussion). Für die soeben von Edelman aufgeworfene Frage nach einem möglichen Zusammenhang zwischen dem mit ‚Geist‘ Gemeinten und dem mit ‚Materie‘ – sprich: Gehirn – Gemeinten ist damit alles offen, da die Begriffe ‚Geist‘ und ‚Bewusstsein‘ letztlich auch ‚offen‘ sind, da sie nicht definiert sind. Es bleibt dann nur, abzuwarten und zu schauen, ob sich aus den von Edelman eingeführten Begriffen ‚Populationsdenken‘ bzw. ‚Erkennungssystem‘ etwas ableiten lässt, was die Grundsatzfrage nach dem Verhältnis zwischen ‚Geist‘ und ‚Materie‘ etwas erhellt.
  35. Das Populationsdenken basiert auf Mengen von Individuen, die sich ‚verändern‘ können; man kann diese veränderte Individuen als ‚Varianten‘ auffassen‘, die damit eine ‚Vielfalt‘ in einer Population repräsentieren. Wichtig ist hier, sich klar zu machen, dass in der Perspektive eines einzelnen Individuums dieses weder ‚weiß‘, was vorher war noch was kommen wird noch aus sich heraus abschätzen kann, ob das, was es repräsentiert bzw. das, was es tut, in irgendeiner Weise ’sinnvoll‘ ist! Das einzelne Individuum ‚lebt sich aus‘ unter den Bedingungen, die die Umgebung ‚vorgibt‘ Zu sagen, dass ein einzelnes Individuum ‚erfolgreich‘ ist (‚fit‘), setzt voraus, dass man auf das Gesamtsystem schauen kann und man ein Meta-Kriterium hat, das definiert, wann ein Individuum in einer Population ‚erfolgreich‘ ist oder nicht. Unter Evolutionsbiologen hat sich eingebürgert, als ein Erfolgskriterium die ‚Zahl der Nachkommen‘ zu nehmen. Individuen mit den meisten Nachkommen gelten als erfolgreich. Dieser ‚äußerliche‘ Befund, der sich nur mit Blick auf mehrere Generationen definieren lässt und im Vergleich zu allen anderen Individuen, wird dann zusätzlich verknüpft mit der Hypothese, dass die äußerlich beobachtbare Gestalt, der Phänotyp, letztlich auf eine ‚tiefer liegende Struktur‘ verweis, auf den Genotyp. Der äußerlich beobachtbare Erfolg eines bestimmten Phänotyps wird dann auf die angenommene tiefer liegende Struktur des Genotyps übertragen. In dieser komplexen metatheoretischen Betrachtungsweise verantworten also Genotypen die Phänotypen, die dann in einer bestimmten Umgebung über die Zeit die meisten Nachkommen ermöglichen.
  36. In diesem Kontext von ‚Selektion‘, ‚Auswahl‘ zu sprechen ist ziemlich problematisch, da kein eigentlicher Akteur erkennbar ist, der hier ’selektiert‘. Das einzelne Individuum für sich selektiert sicher nicht, da es nichts hat zum Selektieren. Die Population als solche selektiert auch nicht, da die Population keine handelnde Einheit bildet. ‚Population‘ ist ein ‚Meta-Begriff‘, der einen externen Beobachter voraussetzt, der die Gesamtheit der Individuen beobachten und darüber sprechen kann. Eine Population als ‚existierende‘ ist nur eine Ansammlung von Individuen, von denen jedes einzelne ‚vor sich hin agiert‘. Nur bei externer Beobachtung über die Zeit lässt sich erkennen, dass sich Varianten von Phänotypen bilden von denen einige größere Anzahlen bilden als andere oder einige sogar aussterben. Weder das einzelne Individuum noch die Gesamtheit der Individuen ’selektieren‘ hier irgend etwas. Wohl findet zwischen Individuen ein ‚Genmix‘ (oft als ‚crossover‘ bezeichnet) statt, der neue Genotypen ermöglicht, z.T. Ergänzt durch zufällige Änderungen (Mutationen) des Genotyps, mit nachfolgend neuen Phänotypen.
  37. Beobachter mit Theorie: Wenn man dennoch am Begriff ‚Selektion‘ festhalten will, dann nur dann, wenn man tatsächlich einen ‚externen Beobachter‘ voraussetzt, der alle diese variierenden Phänotypen in ihren jeweiligen Umgebungen in der Zeit ‚beobachten‘ kann und der eine ‚Theorie‘ formuliert (also eine systematische Beschreibung von den Beobachtungsdaten), in der die Veränderung der Phänotypen samt ihren ‚Anzahlen‘ in Beziehung gesetzt werden zu den verschiedenen Umgebungen. Wenn bestimmte Phänotypen in einer bestimmten Umgebung E aussterben während andere Phänotypen bei der gleichen Umgebung nicht aussterben, sich vielleicht sogar vermehren, dann könne man in dieser Theorie den Begriff ‚Selektion‘ so definieren, dass die ‚zahlenmäßig erfolgreichen‘ Phänotypen zur Umgebung E ‚besser passen‘ als die anderen. Es sind dann die ‚Umstände der Umgebung‘, die ‚Eigenschaften der Umgebung‘, die darüber entscheiden, welcher Phänotyp ‚bleibt‘ und welcher ’nicht bleibt‘. Die Umgebung wäre dann das ‚harte Kriterium‘, an dem die Leistungsfähigkeit eines Phänotyps (und indirekt damit des ermöglichenden Genotyps), ‚gemessen‘ werden kann. ‚Messen‘ heißt ‚Vergleichen‘: passt ein Phänotyp in eine bestehende Umgebung oder nicht.
  38. Erfolgskriterium nicht absolut: Da die Umgebung ‚Erde‘ nach heutigem Wissensstand sich beständig verändert hat, ist das Erfolgskriterium ‚Passen‘ sehr relativ. Was heute ‚gut passt‘ kann morgen ‚unpassend‘ sein.
  39. Akteure als Teil der Umgebung: Ferner ist in Rechnung zu stellen, dass Phänotypen (i) sowohl mit der Umgebung wechselwirken können und dadurch diese so stark verändern können, dass sie damit ihre eigenen Lebensgrundlagen zerstören (etwas ‚Passendes‘ wird ‚unpassend‘ gemacht), als auch (ii) dass die Vielzahl von Phänotypen untereinander ‚zur Umgebung wird‘ (z.B. in Räuber-Beute Beziehungen). Dann besteht die Umgebung nicht nur aus der Erde wie sie ist (sehr veränderlich), sondern andere Phänotypen einer anderen ‚Art‘ müssen entweder als Feinde abgewehrt werden oder als potentielle Beute gefangen oder es muss mit ‚Artgenossen‘ kooperiert werden. Das erfolgreiche Überleben wird damit zu einer Gleichung mit sehr vielen dynamischen Variablen. Das theoretische Kriterium der ‚Selektion‘ erscheint daher als ein sehr abstraktes Kriterium in der Beschreibung von Erfolg, hat sich aber historisch als Minimalanforderung durchgesetzt.
  40. Fähigkeit zur Variationsbildung im Dunkeln: Interessant ist der Punkt – auf den auch Edelman zentral abhebt – dass die Genotypen überhaupt in der Lage sind, immer komplexere Phänotypen zu bilden, ohne dass erkennbar ist, dass ihnen von der Umgebung aus irgendwelche Vorab-Informationen übermittelt würden. Dies scheitert allein auch schon daran, dass die Erde – und das Sonnensystem, und die Milchstraße, und … — als ‚Umgebung‘ keinen geschlossenen Akteur mit eigener ‚Absicht‘ darstellt. Vielmehr handelt es sich – nach heutigem Kenntnisstand – um ein System, das ‚aus sich heraus‘ Ereignisse erzeugt, die als Ereignisse dieses System manifestieren. Biologische Systeme können diese Ereignismengen nur ‚aufnehmen‘, ’sortieren‘, auf unterschiedliche Weise ‚erinnern‘, und auf der Basis dieser ‚Erfahrungen‘ Strukturen ausbilden, die dieser Ereignismenge möglichst ‚optimal‘ gerecht werden. Und da im Moment der ‚reproduktiven‘ Strukturbildung zwar einige Erfolge aus der Vergangenheit ‚bekannt‘ sind, aber ’nichts aus der Zukunft‘, bleibt den biologischen Systemen nichts anderes übrig, als , im Rahmen ihrer genetischen und phänotypischen Variationsbildung möglichst viele Variationen ‚ins Blaue hinein‘ zu bilden. Nach 3.8 Milliarden Jahren kann man konstatieren, es hat bislang irgendwie funktioniert. Daraus kann man aber leider nicht zweifelsfrei ableiten, dass dies auch in der Zukunft so sein wird.
  41. Selektion als sekundärer Effekt: Also, ‚Selektion‘ ist keine Eigenleistung eines Individuums oder einer Population, sondern Selektion ist der Effekt, der entsteht, wenn Populationen mit Umgebungen wechselwirken müssen und die Umgebung festlegt, unter welchen Bedingungen etwas zu ‚passen‘ hat. Erst ’nach‘ der Reproduktion und ’nach einiger Zeit‘ zeigt sich für ein Individuum, ob ein bestimmter Genotyp einen ‚erfolgreichen‘ Phänotyp hervorgebracht hat. Zu dem Zeitpunkt, wo ein Individuum diese Information bekommt, hat es aber keine Gestaltungsmacht mehr: einmal weil seine Reproduktionsaktivität dann schon vorbei ist und zum anderen, weil es bei Erfolg ‚alt‘ ist oder gar schon ‚gestorben‘.
  42. Begriff ‚Erkennen‘ unglücklich: Dass Edelman diese Populationsdynamik als ‚Erkennungssystem‘ (‚recognition system‘) verstanden wissen will, ist nicht ganz nachvollziehbar, da, wie schon angemerkt, kein eigentlicher Akteur erkennbar ist, der dies alles ’steuert‘. Dass im Fall der Evolution die Gesamtheit der Genotypen zu einem bestimmten Zeitpunkt einen gewissen ‚Informationsbestand‘, einen gewissen ‚Erfahrungsbestand‘ repräsentieren, der sich aus den vorausgehenden Reproduktions- und aufgezwungenen Selektionsereignissen ‚angesammelt‘ hat, lässt sich theoretisch fassen. Dass aber hier ein identifizierbarer Akteur etwas ‚erkennt‘ ist wohl eine starke Überdehnung des Begriffs ‚Erkennen‘. Das gleiche gilt für das Beispiel mit dem Immunsystem. Das ‚Herausfiltern‘ von bestimmten ‚passenden Eigenschaften‘ aus einer zuvor produzierten Menge von Eigenschaften ist rein mathematisch eine Abbildung, die so zuvor nicht existierte. Aber es gibt keinen bestimmten Akteur, der für die Konstruktion dieser Abbildung verantwortlich gemacht werden kann.
  43. Netzwerke lernen ohne eigentlichen Akteur: Dennoch arbeitet Edelman hier einen Sachverhalt heraus, der als solcher interessant ist. Vielleicht sollte man ihn einfach anders benennen. Interessant ist doch, dass wir im Bereich der biologischen Systeme beobachten können, dass eine Menge von unterscheidbaren Individuen, von denen jedes für sich genommen keinerlei ‚Bewusstsein‘ oder ‚Plan‘ hat, als Gesamtheit ‚Ereignismengen‘ so ’speichern‘, dass ‚metatheoretisch‘ eine ‚Abbildung‘ realisiert wird, die es so vorher nicht gab und die Zusammenhänge sichtbar macht, die eine gewisse ‚Optimierung‘ und auch eine gewisse ‚Logik‘ erkennen lassen. Nennen wir diese Herausbildung einer Populationsübergreifenden Abbildung ’strukturelles Lernen‘ was zu einer ’strukturellen Erkenntnis‘ führt, dann habe wir dadurch zwar noch keinen eigentlichen ‚Akteur‘, aber wir haben ein interessantes Phänomen, was die Entwicklung von großen Mengen von biologischen Systemen charakterisiert. Das
    ‚Biologische‘ erscheint als ein Netzwerk von vielen Systemen, Teilsystemen, bei dem die einzelnen Komponenten keinen ‚Plan des Ganzen‘ haben, aber durch ihre individuelle Manifestationen indirekt an einem ‚größeren Ganzen‘ mitwirken.
  44. Homo sapiens: Erst mit dem Aufkommen des Homo sapiens, seiner Denk- und Kommunikationsfähigkeit, seinen Technologien, ist es möglich, diese impliziten Strukturen, die alle einzelnen Systeme bestimmen, dirigieren, filtern, usw. auf neue Weise zu ‚erfassen‘, zu ‚ordnen‘, zu ‚verstehen‘ und auf diese Weise mit einem angenäherten ‚Wissen um das Ganze‘ anders handeln zu können als ohne dieses Wissen.

ZWISCHENREFLEXION FITNESS VORGEGEBEN

  1. Außer dem bislang Gesagten (siehe oben Punkte 1-44) ist es vielleicht hilfreich, sich klar zu machen, wie genau das Zusammenspiel zwischen der Fitness biologischer Systeme und den jeweiligen Umgebungen beschaffen ist.
  2. Ein grundlegender Tatbestand ist jener, dass die Umgebung der biologischen Systeme auf der Erde von Anfang an eben die Erde war und ist bzw. das Sonnensystem bzw. unsere Milchstraße bzw. das gesamte bekannte Universum. Diese Vorgabe ist für alle biologische Systeme bislang nicht verhandelbar. Wenn ein biologisches System sich behaupten will, dann in diesem konkreten Ausschnitt des Universums und nirgendwo sonst.
  3. Zugleich wissen wir, dass die Erde seit ihrer Entstehung samt Sonnensystem und dem ganzen Kontext zu allen Zeiten ein hochdynamisches System war und ist, das im Laufe von Milliarden Jahren viele dramatische Änderungen erlebt hat. Sich in dieser Umgebung zu behaupten stellt eine schier unfassbare Leistung dar.
  4. Ob sich im Laufe der Zeit eine bestimmte Lebensform L auf der Erde ‚behaupten‚ oder gar ‚vermehren‚ konnte, hing einzig davon ab, ob diese Lebensform L im Laufe der Generationen in der Lage war, hinreichend viele Nachkommen unter den konkreten Bedingungen der Umgebung zu erzeugen und am Leben zu erhalten. Die Anzahl der Nachkommen einer Generation der Lebensform L kann von daher als Bezugspunkt zur Definition eines ‚Fitness-Wertes‚ bzw. dann der ‚Fitness‚ einer Lebensform genommen werden. Eine häufige Schematisierung dieser Sachverhalte ist die folgende:
  5. POP(t+1) = o(POP(t)), t>0 := Die Population ‚POP‘ zum Zeitpunkt t ist das Ergebnis der Anwendung der Populationsgenerierungsfunktion ‚o‘ auf die Population zum Zeitpunkt ‚t‘, wobei ‚t‘ größer als 0 sein muss. Die Funktion ‚o‘ kann man dann weiter analysieren:
  6. o=e x c := Die Populationsgenerierungsfunktion ‚o‘ ist das Ergebnis der Hintereinanderausführung der beiden Teilfunktionen ‚e‘ (‚earth-function‘) und ‚c‘ (‚change-funtion‘). Diese kann man weiter analysieren:
  7. e : 2^(POP^2) x 2^POP x EARTH —–> POP := Die earth-function e nimmt Paare von Individuen (potentielle Eltern) der Population, zusätzlich kann es beliebig andere Individuen der Population geben (Jäger, Beute, Artgenossen…), und dann die Erde selbst mit ihren Eigenschaften, und transformiert daraus nachfolgende Individuen, Abkömmlinge. Es ist schwer zu sagen, ‚wer‘ hier über Leben und Tod entscheidet: einerseits legen die konkreten Bedingungen der Erde und die Art der Zeitgenossen fest, unter welchen Bedingungen eine Lebensform überleben kann, andererseits hängt ein Überleben auch davon ab, welche ‚Eigenschaften‘ eine Lebensform besitzt; ob diese leistungsfähig genug sind, unter den gegebenen Bedingungen ‚leben‘ zu können. Nimmt man die Population der Lebensformen als ‚Generator‘ neuer Formen (siehe nächsten Abschnitt), dann wirkt die konkrete Erde wie eine Art ‚Filter‘, das nur jene ‚durchlässt‘, die ‚passen‘. ‚Selektion‘ wäre dann ein ‚emergentes‘ Phänomen im radikalen Sinne, da dieses Phänomen nur im Zusammenspiel der beiden Faktoren ‚Erde‘ und ‚Population‘ ’sichtbar‘ wird. Ohne dieses Zusammenspiel gibt es kein Kriterium für ‚Überlebensfähigkeit‘. Ferner wird hier deutlich, dass das Kriterium ‚Fitness‘ bzw. ‚Überlebensfähigkeit‘ kein absolutes Kriterium ist, sondern sich zunächst nur auf den Lebensraum ‚Erde‘ beschränkt. In anderen Bereichen des Universums könnten ganz andere Kriterien gelten und dort müsste die Lebensformen u.U. Einen ganz anderen Zuschnitt haben.
  8. Ferner  wird hier sichtbar, dass der ‚Erfolg‚ einer bestimmten Lebensform als Teil des gesamten Biologischen letztlich sehr ‚partiell‚ ist, weil bei Änderungen der Zustände auf der Erde bislang erfolgreiche Lebensformen (berühmtes Beispiel die Dinosaurier) vollstänig verschwinden können; andere Lebensformen als Teil des Biologischen können dann aber plötzlich neu in den Vordergrund treten. (berühmtes Beispiel die Säugetiere).  Offen ist die Frage, ob es spezielle Lebensformen — wie z.B. den homo sapiens — gibt, die aufgrund ihrer hervorstechenden Komplexität im Kontext des Biologischen eine irgendwie geartete ‚besondere Bedeutung‘ besitzen. Aktuell erwecken die Wissenschaften den Eindruck, als ob es hier keine feste Meinung gibt: die einen sehen im homo sapiens etwas Besonderes, das auf eine spezielle Zukunft verweist, andere sehen im homo sapiens eine von vielen möglichen speziellen Lebensformen, die bald wieder verschwinden wird, weil sie sich der eigenen Lebensgrundlagen beraubt.
  9. c : cross x mut := die ‚change-function‘ c besteht auch aus zwei Teilfunktionen, die hintereinander ausgeführt werden: die erste Teilfunktion ist eine Art Überkreuzung genannt ‚crossover‘ (‚cross‘), die zweite ist eine Art Mutation genannt ‚mutation‘ (‚mut‘).
  10. cross : POP x POP —–> POP := In der Überkreuzfunktion ‚cross‘ werden die Genotypen von zwei verschiedenen Individuen ‚gemischt‘ zu einem neuen Genotyp, aus dem ein entsprechend neuer Phänotyp hervorgehen kann.
  11. mut : POP —–> POP := In der Mutationsfunktion kann eine zufällige Änderung im Genotyp eines Individuums auftreten, die unter Umständen auch zu Änderungen im Phänotyp führt.
  12. Idealerweise kann man die change-function c isoliert von der Umgebung sehen. Realistischerweise kann es aber Wechselwirkungen mit der Umgebung geben, die auf die change-function ‚durchschlagen‘.

  13. Fasst man alle Faktoren dieser – stark vereinfachten – Populationsgenerierungsfunktion ‚o‘ zusammen, dann wird auf jeden Fall deutlich, dass beide Systemedie Erde und das Biologische – einerseits unabhängig voneinander sind, dass sie aber faktisch durch die Gegenwart des Biologischen auf der Erde (und im Sonnensystem, in der Milchstraße, …) in einer kontinuierlichen Wechselwirkung stehen, die sich dahingehend auswirkt, dass das Biologische eine Form annimmt, die zur Erde passt. Grundsätzlich könnte das Biologische aber auch andere Formen annehmen, würde es in einer anderen Umgebung leben.
  14. Um die Populationsgenerierungsfunktion noch zu vervollständigen, braucht man noch eine ‚Bootstrapping Funktion‘ ‚boot-life()‘, mittels der überhaupt das Biologische auf der Erde ‚eingeführt‘ wird:
  15. boot-life : EARTH —–> EARTH x POP (auch geschrieben: POP(t=1) = boot-life(POP(t=0)) ):= wie die allerneuesten Forschungen nahelegen, konnten sich unter bestimmten Bedingungen (z.B. unterseeische Gesteinsformationen, vulkanisches Wasser, …) verschiedene Molekülverbände zu komplexen Molekülverbänden so zusammen schließen, dass irgendwann ‚lebensfähige‘ – sprich: reproduktionsfähige – Zellen entstanden sind, die eine Anfangspopulation gebildet haben. Auf diese Anfangspopulation kann dann die Populationsgenerierungsfunktion ‚o‘ angewendet werden.

DISKUSSION FORTSETZUNG: HIER KAP.9

  1. Die Verwendung des Ausdrucks ‚Erkennung/ Erkennen‘ (‚recogniton‘) in Nr. 2 erscheint mir sehr gewagt, da die übliche Verwendungsweise des Ausdrucks ‚Erkennung‘ ein menschliches Subjekt voraussetzt, das im Rahmen seines Bewusstseins und dem zugehörigen – weitgehend unbewussten – ‚Kognitiven System‘ die wahrgenommenen – äußerliche (Sinnesorgane) wie innerliche (Körpersensoren) – Ereignisse ‚interpretiert‘ auf der Basis der ‚bisherigen Erfahrungen‘ und im Rahmen der spezifischen Prozeduren des ‚kognitiven Systems‘. Das von Edelman unterstellte ’selektive System‘ bezieht sich primär auf Strukturen, die sich ‚evolutiv‘ ausbilden oder aber ’somatisch‘ auf die Arbeitsweise des Gehirns, wie es sich im ‚laufenden Betrieb‘ organisiert. Das somatische System ist aber Teil des weitgehend ‚unbewussten kognitiven Systems‘, das in der alltäglichen Verwendung des Begriffs ‚Erkennung‘ ohne jegliche Bezugnahme auf die Details der Maschinerie einfach voraussetzt wird. Im Alltag liegt hier die Aufspaltung der Wirklichkeit in den bewussten Teil und den unbewussten vor, dessen wir uns – normalerweise – im alltäglichen ‚Vollzug‘ nicht bewusst sind (daher ja ‚unbewusst‘). Wenn Edelman also hier einen Ausdruck wie ‚Erkennung‘ aus dem ‚bewussten Verwendungszusammenhang‘ einfach so, ohne Kommentar, für einen ‚unbewussten Verwendungszusammenhang‘ benutzt, dann kann dies nachfolgend zu nachhaltigen Verwirrungen führen.

  2. Der Punkt (3) von Edelman ist absolut fundamental. An ihm hängt alles andere.

  3. Der Punkt (4) spiegelt ein anderes fundamentales Verhältnis wieder, das Edelman immer und immer wieder thematisiert: das Verhältnis von Psychologie (die Wissenschaft vom Verhalten) und Physiologie (die Wissenschaft vom Körper, speziell vom Gehirn). Alle Eigenschaftszuschreibungen, die die Psychologie vornimmt (wie z.B. mit dem Ausdruck ‚Intelligenz‘, ‚Intelligenzquotient‘, ‚Reflex‘, usw.), basieren auf empirischen Beobachtungen von realem Verhalten von realen Menschen, die dann im Rahmen expliziter (formaler = mathematischer) Modelle/ Theorien in Beziehungen eingebracht werden. Die Psychologie schaut nicht (!) in das ‚Innere‘ des Systems. Das tut die Physiologie. Die Physiologie untersucht die Struktur und die Dynamik des Körpers; dazu gehört auch das Gehirn. Und auch die Physiologie sammelt empirische Daten von den Körperprozessen (z.B. wie ein Neuron zusammengesetzt ist, wie es physikalisch, chemisch, mikrobiologisch usw. funktioniert) und versucht diese empirische Daten in explizite Modelle/ Theorien einzubauen. Im Idealfall haben wir dann eine psychologische Theorie T_psych über beobachtbares Verhalten mit theoretisch unterstellten möglichen Faktoren ‚hinter‘ dem Verhalten, und parallel eine physiologische Theorie T_phys über körperinterne Prozesse, die die verschiedenen Einzelbeobachtungen in einen ‚Zusammenhang‘ bringen. Was wir aber NICHT haben, das ist eine Erklärung des Zusammenhangs ZWISCHEN beiden Theorien! Die Gegenstandsbereiche ‚beobachtbares Verhalten‘ und ‚beobachtbare Körperprozesse‘ sind zunächst voneinander völlig abgeschottet. Spontan vermutet man natürlich, dass es zwischen Gehirnprozessen, hormonellen Prozessen, Atmung usw. und dem beobachtbaren Verhalten einen Zusammenhang gibt, aber diesen Zusammenhang EXPLIZIT zu machen, das ist eine eigenständige Leistung mit einer ‚Brückentheorie‘ T_physpsych(T_phys, T_psych), in der dieser Zusammenhang ausdrücklich gemacht wird. Es gibt dazu sogar Ausdrücke wie ‚Psychosomatik‘, ‚Neuropsychologie‘, aber die dazu gehörigen Texte kommen bislang nicht als explizite ‚Brückentheorie‘ daher. Und wenn Edelman hier ausdrücklich die Ausdrücke ‚Wahrnehmung, ‚Gedächtnis‘, ‚Bewusstseins‘, ‚Sprache‘ nennt, dann handelt es sich ausnahmslos um hochkomplexe Sachverhalte, zu denen es bislang keine hinreichende psychologische Theorien gibt, wenngleich beeindruckende Forschungen und Forschungsansätze. Festzustellen, dass eine physiologische Theorie des Gehirns Erklärungsansätze liefern müsse, wie diese psychologischen Phänomene zu ‚erklären‘ seien ist folgerichtig, aber aktuell schwierig, da die Psychologie diese Phänomene noch keineswegs zweifelsfrei abklären konnte. Am weitesten fortgeschritten sind  möglicherweise die psychologischen Forschungen zur ‚Wahrnehmung‘, zum ‚Gedächtnis‘, und irgendwie zu ‚Sprache‘, kaum zu ‚Bewusstsein‘ und dem Verhältnis zum ‚Unbewussten‘.

  4. Die beiden in (5) aufgeführten metatheoretischen (= wissenschaftsphilosophischen) Postulate sind so, wie sie Edelman formuliert, mindestens missverständlich und darum Quelle möglicher gravierender Fehler. Die Verortung von wissenschaftlichen Aussagen in der ‚physikalischen‘ Welt und von speziell psychologischen Aussagen in den ‚physiologischen Prozessen des Körpers‘ sind als solche sicher kompatibel mit dem bisherigen Verständnis von empirischer Wissenschaft generell. Allerdings, wie gerade im vorausgehenden Punkt (C) dargelegt, gibt es empirische Datenbereiche (hier: Verhaltensdaten, Körperprozesse), die direkt zunächst nichts miteinander zu tun haben. Die auf diesen unterschiedlichen Datenbereichen beruhenden Modell-/ Theoriebildungen sind von daher zunächst UNABHÄNGIG voneinander und haben ihre wissenschaftliche Daseinsberechtigung. Zu wünschen und zu fordern, dass zwei zunächst methodisch unabhängige Modelle/ Theorien T_psych und T_phys miteinander in Beziehung gesetzt werden, das liegt ‚in der Natur des wissenschaftlichen Verstehenwollens‘, aber dies wäre eine zusätzliche Theoriedimension, die die beiden anderen Teiltheorien VORAUSSETZT. Dieser methodisch-logische Zusammenhang wird in der Formulierung von Edelmann nicht sichtbar und kann dazu führen, dass man eine wichtige Voraussetzung der gewünschten Erklärungsleistung übersieht, übergeht, und damit das Ziel schon im Ansatz verfehlt.

  5. Dass – wie in (6) behauptet – die ‚Theorie der neuronalen Gruppen Selektion (TNGS)‘ jene Erklärung liefere, die die psychologischen Theorien ‚erklärt‘ ist von daher methodisch auf jeden Fall falsch. Allerdings kann man die Position von Edelman dahingehend verstehen, dass die TNGS ein physiologisches Modell liefere (was die große Schwäche besitzt, dass weder der übrige Körper, von dem das Gehirn nur ein verschwindend kleiner Teil ist, noch die jeweilige Umgebung einbezogen sind), das im Rahmen einer T_physpsych-Brückentheorie entscheidende Beiträge für solche einen Zusammenhang liefern könnte. Letzteres scheint mir in der Tat nicht ganz ausgeschlossen.

  6. In den Punkten (7) – (12) beschreibt Edelman drei Phasen der Strukturbildung, wie es zu jenen physiologischen Strukturen kommen kann, die dann – unterstellt – dem beobachtbaren Verhalten ‚zugrunde‘ liegen. Allerdings, für das aktuell beobachtbare Verhalten spielen die verschiedenen Entstehungsphasen keine Rolle, sondern nur der ‚Endzustand‘ der Struktur, die dann das aktuelle Verhalten – unterstellt – ‚ermöglicht. Der Endzustand ist das Gehirn mit seinen neuronalen Verschaltungen, seinen Versorgungsstrukturen und seiner anhaltenden ‚Plastizität‘, die auf Ereignismengen reagiert. Aus den Punkten (7) – (12) geht nicht hervor, wo und wie diese Strukturen das ‚Bewusstsein erklären‘ können.

  7. Wenn Edelman in (13) meint, dass seine neuronalen Karten mit den reziproken Verbindungen eine Grundlage für das psychologische Konzept des Gedächtnisses liefern können, dann ist dies sicher eine interessante Arbeitshypothese für eine mögliche Brückentheorie, aber die müsste man erst einmal formulieren, was wiederum eine psychologische Theorie des Gedächtnisses voraussetzt; eine solche gibt es bislang aber nicht.

  8. Der Punkt (14) adressiert mögliche Details seiner Modellvorstellung von neuronalen Karten mit reziproken Verbindungen.

  9. Der Punkt (15) greift das Thema von Punkt (13) nochmals auf. Die ‚Kategorisierung von Wahrnehmungsereignissen‘ ist letztlich nicht von dem Thema ‚Gedächtnis isolierbar. Er zitiert im Postskript auch viele namhafte PsychologenInnen, die dazu geforscht haben. Die Kerneinsicht dieser empirischen Forschungen geht dahin, dass sich solche Strukturen, die wir ‚Kategorien‘ nennen, ‚dynamisch‘ herausbilden, getriggert von konkreten Wahrnehmungsereignissen, die bei jedem individuell verschieden sind. Natürlich liegt hier die Vermutung nahe, dass entsprechend dynamische Strukturen im Körper, im Gehirn, vorhanden sein müssen, die dies ermöglichen. Dass hier Psychologie und Physiologie Hand-in-Hand arbeiten können, liegt auch auf der Hand. Aber dies stellt erhebliche methodische Herausforderungen, die Edelman kaum bis gar nicht adressiert.

  10. In Punkt (16 – 18) beschreibt Edelman auf informelle Weise, wie er sich das Zusammenspiel von psychologischen Eigenschaften (die eine explizite psychologische Theorie T_psych voraussetzen) und seinem neuronalen Modell (für das er eine physiologische Theorie T_phys beansprucht) vorstellt. Auf dieser informellen Ebene wirkt seine Argumentation zunächst mal ‚plausibel‘.

  11. Ab Punkt (19) berührt Edelman jetzt einen weiteren Fundamentalpunkt, der bis heute generell ungeklärt erscheint. Es geht um die Frage der ‚Werte‘, die ein Verhalten in einem gegeben Möglichkeitsraum in eine bestimmte ‚Richtung‘ anregen/ drängen …. (es gibt dafür eigentlich kein richtiges Wort!), so dass das System einem neuen Zustandsraum erreicht, der für es ‚günstiger‘ ist als ein anderer, auf jeden Fall ‚das Leben ermöglicht‘. Die Evolutionstheorie hat über das Phänomen der hinreichenden ‚Nachkommen‘ ein ‚operationales Kriterium‘ gefunden, mit dem sich der Ausdruck ‚Fitness‘ mit Bedeutung aufladen lässt. Über das ‚Überleben‘ bzw. ‚Nicht-Überleben‘ wirkt sich dies indirekt auf den Genotyp aus: die ‚günstigen‘ Genotypen überleben und die ’nicht günstigen‘ sterben aus. Ein ‚überlebender‘ Genotyp – einen, den man ‚fit‘ nennt – triggert dann den embryonalen Prozess und den darin gründenden ‚Entwicklungsprozess‘, der in einer ’nicht-deterministischen‘ Weise Körper- und damit Gehirnstrukturen entstehen lässt, die auf individueller Ebene immer verschieden sind. Jene Gehirnstrukturen, die für lebenserhaltende Systeme wichtig sind (letztlich die gesamte Körperarchitektur und das Zusammenspiel aller Komponenten untereinander) werden aber – trotz des nicht-deterministischen Charakters – offensichtlich dennoch herausgebildet. In all diesem lässt sich kein ‚geheimnisvoller Faktor‘ erkennen und er erscheint auch nicht notwendig. Das System ‚als Ganzes‘ repräsentiert ein ‚Erfolgsmodell‘. Hier jetzt – wie Edelman es versucht – im konkreten Details nach ‚Orten von Präferenzen‘ zu suchen erscheint unplausibel und seine Argumentation ist auch nicht schlüssig. Wenn Edelman ‚interne Kriterien für werthaftes Verhalten‘ postuliert, die genetisch bedingt sein sollen, dann postuliert er hier Eigenschaften, die sich nicht aus der Biochemie der Prozesse herauslesen lassen. Was er hier postuliert ist so eine Art   ‚genetischer Homunculus‘. Damit widerspricht er letztlich seinen eigenen wissenschaftlichen Überzeugungen. Letztlich ist es nur ein ‚Genotyp als ganzer‘, der ein ‚bislang erfolgreichen Phänotyp‘ repräsentiert. Scheiter er irgendwann – was auf lange Sicht der Normalfall ist, da die Erde sich ändert –, dann verschwindet der Genotyp einfach; jener, der ‚überlebt‘, verkörpert als ‚Ganzer‘ ein Erfolgsmodell, nicht ein einzelner, isolierter Aspekt. Mit dieser empirisch-wissenschaftlichen Sicht verschwinden die ‚Werte‘ zwar ‚aus dem System‘, aber das übergeordnete ’system-transzendente‘ Verhältnis zwischen System und Umwelt bleibt weiter erhalten und es ist dieses Verhältnis, das alleine darüber entscheidet, ob etwas ‚Leben-Ermöglichendes‘ ist oder nicht. Damit erweitert sich die Fragestellung nach der ‚Verortung möglicher Präferenzen‘ deutlich, wenn man das empirisch neue Phänomen des Bewusstseins einbezieht (das nur in Kombination mit einem Unbewussten auftritt!). Während die Umwelt-System-Beziehung primär über das Überleben entscheidet, ermöglicht das Bewusstsein in Kombination mit dem Unbewussten (z.B. dem Gedächtnis) eine ‚Extraktion‘ von Eigenschaften, Beziehungen, Dynamiken und mit kombinatorischen Varianten von dieser Umwelt-System-Beziehung, so dass eine kommunizierende Gruppe von Homo sapiens Exemplaren von nun an mögliche Zukünfte schon in der Gegenwart bis zu einem gewissen Graf ‚voraus anschauen‘ und auf ‚Lebensfähigkeit‘ ‚testen‘ kann. Insofern stellt das Bewusstsein und die Kommunikation eine radikale Erweiterung der Überlebensfähigkeit dar, nicht nur für den Homo sapiens selbst, sondern auch für die Gesamtheit des biologischen Lebens auf der Erde! Mit dem Ereignis Homo sapiens tritt das biologische Leben auf der Erde (und damit im ganzen Universum!?) in eine radikal neue Phase. Edelmans Versuch, ‚Werte‘ in einzelnen genetischen Strukturen und dann in einzelnen Strukturen des Gehirns zu finden wirken von daher unlogisch und abwegig. Edelmans Beispiele in den Punkten (20) – (23) können nicht klarmachen, wie diese interne Präferenzsystem funktionieren soll (ich werde diesen Punkt an konkreten Systemen nochmals selbst durchspielen).

  12. Zusammenfassend würde ich für mich den Text von Edelman so interpretieren, dass (i) seine Skizze der neuronalen Maschinerie mit den reziproken Verbindungen und den unterschiedlichen Verschaltungen ganzer Karten ein interessanter Ansatzpunkt ist, für ein neuronales Modell, das in einer psychologisch-physiologischen Brückentheorie getestet werden könnte und sollte, sein Versuch aber (ii), die Wertefrage in biochemische Prozesse verorten zu wollen, ist in mehrfachem Sinne unplausibel, methodisch unklar und führt vom Problem eher weg.

DISKUSSION FORTSETZUNG: KAP.10

  1. Aus wissenschaftsphilosophischer Sicht ist das Kapitel 10 sehr aufschlussreich. Der in den vorausgehenden Kapiteln immer wieder angedeutete Brückenschlag zwischen Physiologie (mit Gehirnforschung) und Psychologie (verhaltensorientiert) wird in diesem Kapitel ein wenig ‚anfassbarer‘. Allerdings nicht in dem Sinne, dass der Brückenschlag nun explizit erklärt wird, aber so, dass einerseits die Begrifflichkeit auf psychologischer Seite und andererseits die Begrifflichkeit auf physiologischer Seite etwas ausdifferenziert wird. Die Beschreibung der Beziehung zwischen beiden Begrifflichkeiten verbleibt im Bereich informeller Andeutungen bzw. in Form von Postulaten, dass die zuvor geschilderte physiologische Maschinerie in der Lage sei, die angedeuteten psychologischen Strukturen in ihrer Dynamik zu ‚erklären‘.

  2. Am Ende des Kapitels 10, mehr nur in Form einer kurzen Andeutung, in einer Art Fußnote, bringt Edelman noch die Begriffe ‚Intentionalität‘ und ‚Bewusstsein‘ ins Spiel, allerdings ohne jedwede Motivation, ohne jedwede Erklärung. Diese Begriffe entstammen einen ganz anderen Sprachspiel als dem zuvor besprochenen physiologischen oder psychologischem Sprachspiel; sie gehören zum philosophischen Sprachspiel, und die Behauptung Edelmans, dass man auch diese Wortmarken aus dem philosophischen Sprachspiel in ein Erklärungsmuster einbeziehen könnte, das seine Grundlage in dem physiologischen Modell Begriffe_NN habe, ist an dieser Stelle ein reines Postulat ohne jeglichen Begründungsansatz.

  3. Wissenschaftsphilosophisch kann man hier festhalten, dass man drei Sprachspiele unterscheiden muss:

    1. Ein psychologisches Sprachspiel, das von Verhaltensdaten DAT_B ausgeht, und relativ zu diesen Begriffsnetzwerke Begriffe_B einführt (Modelle, Theorien), um die Verhaltensdaten zu erklären.

    2. Ein physiologisches Sprachspiel, das von physiologischen Daten DAT_NN ausgeht, und relativ zu diesen Begriffsnetzwerke Begriffe_NN einführt (Modelle, Theorien), um die Prozesse der physiologischen Strukturen (Gehirn) zu erklären.

    3. Ein phänomenologisches Sprachspiel (Teilbereich der Philosophie), das von phänomenologischen Daten DAT_PH ausgeht, und relativ zu diesen Begriffsnetzwerke Begriffe_PH einführt (Modelle, Theorien), um die Prozesse der phänomenologischen Strukturen (Bewusstsein) zu erklären.

  4. Diese Sprachspiele kann man isoliert, jedes für sich betreiben. Man kann aber auch versuchen, zwischen den verschiedenen Sprachspielen ‚Brücken‘ zu bauen in Form von ‚Interpretationsfunktionen‘, also:

    1. Zwischen Psychologie und Physiologie: Interpretationsfunktion Interpretation_B_NN : Begriffe_B <—> Begriffe_NN

    2. Zwischen Psychologie und Phänomenologie: Interpretationsfunktion Interpretation_B_PH : Begriffe_B <—> Begriffe_PH

    3. Zwischen Phänomenologie und Physiologie: Interpretationsfunktion Interpretation_PH_NN : Begriffe_PH <—> Begriffe_NN

  5. Man muss festhalten, dass es bis heute (2018) solche Interpretationsfunktionen als explizite Theorien noch nicht gibt; genauso wenig gibt es die einzelnen Theorien Begriffe_X (X=B, PH, NN) als explizite Theorien, obgleich es unfassbare viele Daten und partielle (meist informelle) Beschreibungen gibt.

Fortsetzung folgt

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

Zwischenergebnis Juni 2011: Nochmals zur Fitnessfunktion

  1. Die Überlegungen vom 20.2.2011 ‚Jenseits des Wärmetods‘ stehen weiter im Raum. Auf mehreren Ebenen ist seitdem viel passiert. Ein ‚track‘ ist die andauernde Analyse, wie Wissen in künstlichen Systemen entstehen kann, das ’nützlich‘ ist. Ich untersuche dazu weiterhin beispielhaft und modellhaft sogenannte genetische Algorithmen (GA) und Lernende Classifier Systeme (LCS).

  2. Genetische Algorithmen ‚leben davon‘, dass es eine sogenannte ‚Fitness Funktion‘ gibt, die die Aktionen eines genetischen Systems in einer Welt ‚kommentiert‘. Ohne diese Kommentare ist ein genetisches System ‚blind‘. Solange ein genetisches System ‚lebt‘ kann es interessante Informationen über die umgebende Welt ansammeln (was tatsächlich noch von vielen wichtigen Details abhängt).

  3. Fitness Funktionen stellen aber letztlich selbst eine bestimmte Form von Wissen dar, in dem bestimmten Eigenschaften der umgebenden Welt Wertungen zugeordnet werden, anhand denen sich ein genetisches System ‚orientieren‘ kann.

  4. Im Falle ‚technischer‘ genetischer Systeme sind es die Ingenieure, die ihr Wissen in Fitnessfunktionen ‚verpacken‘ und damit genetische Systeme ermöglichen.

  5. Im Fall ’natürlicher‘ Systeme gibt es keine Ingenieure. Man muss sich fragen, wie hier eine Fitnessfunktion zustande kommt.

  6. Die primäre Fitnessfunktion ist bei natürlichen Systemen das ‚Überleben‘ einer Population (= das genetische System), deren Mitglieder genügend ‚Nachkommen‘ erzeugen, die wiederum bestehen. Dies bedeutet, im Faktum des Überlebens einer Population (die einzelnen Mitglieder sterben, aber die Population überlebt!) manifestiert sich, dass die jeweiligen Mitglieder alle diejenigen ‚Aufgaben‘, die die Welt stellt, ‚hinreichend lösen‘ konnten.

  7. Was so einfach klingt ‚eine Population überlebt‘ stellt bei näherer Betrachtung eine gedankliche Provokation ersten Ranges dar. Wenn man voraussetzt, dass es natürliche Systeme gibt, die ‚leben können‘, erscheint die Aussage ‚trivial‘. Das Problem beginnt aber vorher: wie konnte es dazu kommen, dass sich komplexe natürliche Systeme bilden konnten, ohne dass es ein Team von Ingenieuren gab, die den Molekülen gesagt haben, wie sie sich ‚anordnen‘ sollten (ganz abgesehen von der Frage, wie es zur Bildung jener Moleküle aus Atomen kommen konnte, die heute als grundlegend für die Bildung von natürlichen Systemen angesehen werden. Bislang gibt es dazu noch keine vollständige Antwort!).

  8. Wie wir heute wissen, ist schon eine einzige Zelle von extremer Komplexität. Die Komplexität der aktiven Moleküle ist mathematisch nahezu nicht ausdrückbar. Sowohl zu ihrer Bildung wie auch zu ihrem ‚Erhalt‘ benötigt es beständig Energie. Zur ‚Vererbung‘ all dieser Komplexität werden Molekülstrukturen benutzt, die nicht nur ‚Inhalte‘ kodieren, sondern auch ‚Prozesse‘, wie diese ‚Inhalte unter ‚Verwendung‘ von Molekülen ‚erzeugt werden sollen/ können. Es ist mir nicht bekannt, dass die Wissenschaft heute auch nur ansatzweise eine Vorstellung davon hat, wie es zur Ausbildung dieses komplexen Informationsweitergabelmodells kommen konnte.

  9. Bekanntlich bestehen die meisten Pflanzen und Tiere heute nicht aus einer solchen komplexen Zelle, sondern aus vielen hundert Millionen, vielen hundert Milliarden Zellen, die miteinander ‚kooperieren‘ und ‚kommunizieren‘, ohne dass irgendein Ingenieur dafür auch nur den kleinsten Finger bewegt hat bzw. bewegt.

  10. Ferner besteht das Leben auf der Erde nicht aus nur einem solchen hyperkomplexen Organismus sondern aus vielen Milliarden von ganz unterschiedlichem Zuschnitt, deren Zusammenwirken die Biosphäre ausmacht.

  11. Lernende Classifier Systeme sind einfache Modelle, wie man u.a. die Reaktion eines einzelnen Systems auf die Welt modellieren kann. WENN das System etwas Bestimmtes ‚wahrnimmt‘, DANN soll es in einer bestimmten Weise reagieren. Unter Zuhilfenahme einer Fitnessfunktion kann man auch dieses Wissen ‚dynamisch‘ gestalten und es sich ‚verändern‘ lassen entlang dem ‚Gradienten‘ zum ‚Besseren‘. Auch hier gilt –wie oben –, dass die Fitnessfunktion selbst eine Form von ‚Wissen‘ darstellt, das letztlich die Richtung der möglichen Entwicklung festlegt. Auch hier kann man wieder die Frage stellen, wo dieses Wissen herkommt.

  12. Im Fall von natürlichen Systemen wissen wir, dass diese ab einem bestimmten Punkt der Komplexität ‚intern‘ Bewertungsmechanismen ausgebildet haben, die es ihnen erlauben, bis zu einem gewissen Grad auch schon in der Zeit ‚vor dem Tod‘ erlebbare Situationen zu ’sortieren‘ in solche, die ’nützlich‘ sind und solche, die es ’nicht‘ sind.

  13. Es stellt sich die Frage, wie es möglich ist, dass natürliche Systeme ihre eigenen Strukturen in einer so markanten Weise ‚umbauen‘ können, dass die schon von Anfang an komplexe Strukturen ihre Strukturen ‚weiter ausdehnen’/ ‚erweitern‘, und zwar nicht ‚chaotisch‘, sondern so ‚geordnet‘, dass diese erweiterten Strukturen im Rahmen der gesamten Überlebensaufgabe eine ’sinnvolle Teilaufgabe‘ übernehmen können.

  14. An dieser Stelle auf die bekannten genetischen Mechanismen zu verweisen, würde genau an der eigentlichen Problemstellung vorbei gehen. Abgesehen davon, dass die Entstehung der genetischen Mechanismen selbst mehr oder weniger unklar ist geht es ja um die ‚mittels der genetischen Mechanismen‘ transportierten Informationen über potentielle Prozesse von Wachstum und Selbstorganisation.

  15. Wer jemals selbst versucht hat, künstliche formale Systeme so zu programmieren, dass diese sich in einem analogen Sinne ‚weiter entwickeln‘, und zwar ’sinnvoll‘, dem ist klar, dass die reale Vorgabe der natürlichen Systeme ‚ein Komplexitätsspiel spielt‘, für das uns bislang brauchbare Vorstellungen fehlen.

  16. (Anmerkung: die aktuell bekanntgewordene Forschungsprojekte, in denen man für viel Geld Milliarden von künstlichen Neuronen zusammenschmelzen will und dann — wie von Zauberhand — auf die Entstehung sinnvoller Strukturen hofft, erscheinen mir grotesk und lächerlich. Dass es für diese Projekte keine wirklichen Begründungen gibt, ist verständlich, machen die Projekte dadurch aber nur noch grotesker. Voodoo besitzt mehr Rationalität als diese sogenannte Forschungen.).

DIE UNIVERSELLE SEMIOTISCHE MASCHINE

In der letzten Woche hatte ich Gelegenheit, das Buch ‚Information Theory and Evolution‘ von John Avery zu lesen. Eigentlich interessierte mich die Frage, ob und wie man das Verhältnis zwischen der offensichtlichen  ‚Konzentration von Energie‘ im Falle biologischer Systeme mit dem zweiten Hauptsatz der Thermodynamik  plausibel machen kann (eine gute intuitive Formulierung des zweiten Hauptsatzes von Claudius findet sich bei  Enrico Fermi (1937, repr. 1956, S.30): ‚A transformation whose only final result is to transfer heat from a body at a given temperature to a body at a higher temperature is impossible.‘). Die eigentliche Frage konnte ich für mich noch nicht befriedigend beantworten  (siehe meine kurze Buchbesprechung hier: Buchbesprechung Avery), aber das Buch war –und ist– äußerst informativ und anregend. So ergaben sich interessante Hinweise auf eine Reihe von Themen, die im Blog schon öfters angesprochen wurden (siehe auch das beigefügte Diagramm).

(1) Eine intensiv diskutierte Frage seit Jahrhunderten ist die Frage nach der Bedeutung und der Rolle des Selbstbewusstseins.

(2) Von den verschiedenen Analysestandpunkten (introspektiv (1st person), verhaltensbasiert (3rd person), physiologisch (3rd person)) aus ergeben sich unterschiedliche Zugänge.

(3) Avery zieht in seinem Buch eine lange Linie quer durch die gesamte Evolution, die zeigt, daß und und wie sich auf allen Ebenen Informationsprozesse identifizieren lassen, die strukturverändernd wirken, vom Molekül bis hin zur menschlichen Kultur.

(4) Allerdings verwendet Avery für diese verschiedenen Ausprägungen von Kommunikation kein einheitliches theoretisches Modell. Dies verwundert ein wenig, da er im Anhang B auf 2.25 Seiten die Semiotik mit Schwerpunkt Biosemiotik kurz erwähnt. Die Semiotik könnte zumindest eine Variante eines Modells anbieten, das von der ersten Zelle bis hin zu komplexen kulturellen Kommunikationsprozessen in der Lage ist, die entscheidenden Mechanismen zu beschreiben.

(5) Benutzt man das semiotische Zeichenmodell (siehe z.B. Peirce, Morris oder Saussure), dann hat man immer die drei Elemente (i) Zeichenmaterial, (ii) Bezeichnetes sowie (iii) Bedeutungsstiftende Beziehung durch einen Zeichenbenutzer. Der Zeichenbenutzer ist ein ‚System‘, das bei vorhandener Bedeutungsbeziehung beim Auftreten eines Zeichenmaterials das Bezeichnete ‚generiert‘; die ‚Herstellung‘ einer Bedeutungsbeziehung geschieht entweder ’strukturell‘ durch ‚Wachstum‘ oder aber ‚adaptiv‘ durch Lernen. Sofern Bedeutungsbeziehungen vorliegen sind diese mehr oder weniger ‚determiniert‘.

(6)Während der ‚Entwicklungsweg‘ von der Organisationsebene der Atome (die selbst komplex sind) bis hin zu den ersten Zellen im Detail noch immer vielfältigen Forschungen unterliegt ist aber so viel klar, dass die heute auf der Erde bekannten Lebensformen dort beginnen, wo die Fähigkeit zur Selbstreproduktion beginnt. Diese Struktur der Selbstreproduktion kann man als (Primäres) Semiotisches System (PSS) bezeichnen: Als Zeichenmaterial dient die mRNA; dieses wird durch einen ‚geeigneten‘ Molekülkomplex (Zeichenbenutzer) anhand vorgegebener Rahmenbedingungen (Bedeutungsbeziehung) ‚übersetzt‘ in andere ‚geeignete‘ Molekülstrukturen (Bezeichnetes Objekt), die dann zur Bildung jener Strukturen führen, die wiederum reproduktionsfähig sind.

(7) Man könnte diese Art von Zeichenbenutzer ‚primäre‘ semiotische Systeme nennen, doch ist dies ein bischen willkürlich. Denn wenn sich bei einem Vererbungsprozess zwei Molekülketten zu einem neuen Molekül verbinden, könnte man auch sagen, dass der umgebende ‚Molekülraum‘ der Zeichenbenutzer ist, der bei Vorliegen gewisser Randbedingungen (Zeichenmaterial) eine vorgegebene Bedeutungsbeziehung in Form eines definierten chemischen Prozesses aktiviert, der die Randbedingungen in das durch diese Bedeutungsbeziehung definierte Bezeichnete (das neue vereinte Molekül) überführt/ übersetzt/ transformiert. Wandert man auf dem Gradienten des Organisationsniveaus immer weiter ’nach unten‘, dann kann man den Übergang von Atomen zu Molekülen ebenfalls als semiotischen Prozess modellieren. Dann wird der umgebende Raum aller Atome zum Zeichenbenutzer, dessen Bedeutungsbeziehung ansatzweise durch die sogenannten ‚Naturgesetze‘ beschrieben wird. Und noch weiter ’nach unten‘ lässt sich dann auch der Übergang von den subatomaren Teilchen zu den Atomen als semiotischer Prozess modellieren: die subatomaren Teilchen bilden jenes Zeichenmaterial, das der umgebende Raum aller verfügbaren Teilchen als Zeichenbenutzer nach vorgegebenen Zuordnungen zu unterschiedlichen Atomen (das jeweils durch die Zeichenbeziehung Bezeichnete)  ‚formt’/ ‚generiert’…

(8) Diese universelle Anwendbarkeit des semiotischen Modells ist schon ein wenig verblüffend. Es fragt sich aber, ob uns dies irgendwie weiterhilft?

(9) Folgt man dem Gradienten des Organisationsniveaus ‚von unten nach oben‘, dann lässt sich feststellen, dass der Zeichenbenutzer sich von einem ‚Raum von wirkenden Regeln auf der Basis seiner Bestandteile‘ immer mehr hin entwickelt zu konkret fassbaren Strukturen, die sich als ‚materielle Input-Output-Systeme‘ abgrenzen lassen von ihrer ‚Umgebung‘; dies beinhaltet die Konkretisierung der ‚Oberfläche‘ des Systems mit einer zusätzlichen Spezialisierung hin zu rein ’stützenden‘, ’sensitiven‘ und ‚aktiven‘ Komponenten. Bei dieser zunehmenden ‚Konkretisierung‘ einer Organisationsstruktur bleiben  alle anderen semiotischen Ebenen erhalten. Im Falle von Pflanzen und dann insbesondere bei den Tieren kann man dann beobachten, wie die ’strukturellen‘ Zeichenbenutzer zusätzliche Teilstrukturen ausbilden (Nervensystem, explizite Signalsysteme), die die Bindung an eine biologische Struktur überschreiten und die Möglichkeit schaffen, zeichenbasierte Kommunikation auszubilden, bei denen sowohl das Zeichenmaterial wie auch das Bezeichnete bis zum gewissen Grade ‚frei wählbar‘ ist und deren Bedeutungsbeziehungen weitgehend ‚frei definierbar‘ sind. Vielleicht bietet sich hier an, die Unterscheidung einzuführen zwischen einer ’strukturbedingten‘ Semiotik und einer ’strukturfreien‘ Semiotik. Die  ‚Freiheit‘ innerhalb der ’strukturfreien‘ Semiotik ist natürlich nicht im absoluten Sinne zu nehmen, da die körperlichen Randbedingungen klare Grenzen setzen. Mit der Genetik und dem Aufkommen der Informationstechnologie werden diese körperbedingten Randbedingunen aber ’schwimmend‘. Umgekehrt ist die ‚Bedingung‘ in der ’strukturbedingten‘ Semiotik nicht völlig starr, sondern –wie man am Beispiel der genetischen Vererbung sehen kann– umfasst kombinatorische Räume, deren Nutzung unterschiedliche Ergebnisse zulässt.

(10) Ein anderer Gradient neben dem Organisationsniveau ist sicher die ‚Koordinierung‘. Vom subatomaren zum Atomaren, vom Atom zu Molekül, vom Molekül zu Molekülstrukturen hin zu reproduzierenden Strukturen, zu Zellen, zu Vielzellern, usw. besteht die Notwendigkeit, die ‚Bestandteile‘ der jeweils größeren Einheit so zu ‚koordinieren‘, dass die ‚übergeordnete‘ Einheit funktional werden kann (in diesem Zusammenhang gehört vielleicht auch das Reden von der ‚Emergenz‘).  Koordinierung kann aber nur funktionieren, wenn die interagierenden Bestandteile in irgendeiner Weise ‚Austauschprozesse‘ organisieren können, deren unterscheidbaren Bestandteile als Zeichenmaterial funktionieren können, das mithilfe vorhandener Bedeutungsbeziehungen in entsprechende ‚intendierte‘ Veränderungen (das jeweils Bezeichnete) überführt werden können. M.a.W. ‚Koordinierung‘ impliziert ’semiotische‘ Prozesse, die eine hinreichende ‚Kommunikation‘ ermöglichen. Beliebte Beispiele solcher Kommunikation, die Koordinierung ermöglicht, stammen aus dem Bereich der Ameisen und Bienen oder aus dem Jagdverhalten von in Rudeln jagenden Raubtieren. Tatsächlich liegt solch eine Koordinierung ermöglichende Kommunikation aber als ermöglichender Faktor auf allen Organisationsebenen vor. Am komplexesten vielleicht ausgeprägt im Bereich der menschlichen Kultur, die sich seit ca. 12.000 Jahren immer rasanter entwickelt.

(11) Ein weiterer wichtiger Gradient kann die ‚Vorausberechenbarkeit (Planbarkeit)‘ des ‚eigenen‘ Zustands bzw. des Zustands ‚aller beteiligten Systeme‘ sein: um z.B. die verfügbaren begrenzten Ressourcen ‚besser nutzen‘ zu können, wäre es hilfreich, wenn man die möglichen ‚Folgezustände‘ sowohl des eigenen Körpers (Müdigkeit, Hunger, Durst,….) wie auch der jeweiligen Umgebungen weitmöglichst voraus berechnen könnte. Dies setzt voraus, dass sich sowohl Körper- wie auch Umgebungszustände ‚modellhaft‘ innerhalb des agierenden Systems ‚generieren‘ lassen, so dass man mittels dieser ‚Modelle‘ dann deren mögliches ‚Verhalten in der Zukunft‘ ‚ablesen‘ könnte. Je besser diese Modelle wären, um so größer der ‚Vorteil‘ in der Nutzung der knappen Ressourcen.

(12) Vor dem Hintergrund der Vorausberechenbarkeit stellen Nervensysteme, die sowohl die Zustände des eigenen Körpers wie auch wichtige Aspekte der jeweiligen Umgebung ‚modellieren‘ können, eine extreme Verbesserung dar. Dazu gehört auch die Art und Weise der Modelle selbst: welche Aspekte der Umgebung werden wie repräsentiert und wie sind diese Modelle geeignet, das ‚eigene‘ Verhalten bzgl. des eigenen Körpers und der jeweiligen Umwelt so zu ‚leiten‘, dass ‚passende‘ Aktionen erfolgen können, die dem System ‚tatsächlich nützen‘. Vor diesem Hintergrund ist das Phänomen des ‚Selbstbewusstseins‘ möglicherweise interpretierbar als jene Modellierungsleistung des Nervensystems, die dem System ein –notgedrungen stark vereinfachendes–  ‚Modell seiner selbst‘ zur Verfügung stellt. Dies ist eng verknüpft mit einem ‚Modell der Aussenwelt‘ (von dem wir heute auch wissen, dass es nur Teilaspekte der messbaren Umgebung abbildet und diese z.T. stark idealisierend oder gar verzerrt). Nichtsdestotrotz bildet dieses Phänomen der systemimmanenten ‚Modellierung‘ des Systems mit seiner Umgebung einen ungeheuerlichen Schritt dar. Damit können z.B. menschliche Systeme ihre Planungen durch Kommunikation in einer Weise koordinieren, die in wenigen tausend Jahren zu einer absoluten biologischen Explosion auf der Erde geführt hat, die durch die Verfügbarkeit von Computern viele körperbedingte Beschränkungen in der Modellierung weit hinter sich lassen kann. Mit der zusätzlich verfügbar werdenden Gentechnik können parallel auch die heute vorgegebenen körperlichen Begrenzungen in der Zukunft eventuell ‚weiter ausgedehnt‘ werden.

(13) Das ‚Staunen‘ der klassischen Philosophie über das Phänomen des Selbstbewusstseins und die Projizierung der hier vorfindlichen Objekte und Strukturen hinein in ‚metaphysische‘ Modelle von Mensch, Welt und Geist müssen angesichts der sich hier neu eröffnenden Perspektiven einer weitgehenden Revision unterzogen werden. Dies läuft  nach meiner Einschätzung nicht hinaus auf eine ‚Verabschiedung‘ des ‚Geistes‘ sondern auf ein weit umfassenderes und radikaleres Verständnis als je zuvor. Jenseits der unseligen Trennung von ‚klassischen Geist‘ und ‚klassischer Materie‘ gibt es nur noch ‚Geist.Materie‘ , oder wie immer man dieses vielschillernde Etwas nennen will, aus dem sich alles ‚herausentwickelt‘, was wir heute kennen, einschliesslich unserer menschlichen ‚Geistigkeit‘.

(14) Es gibt –wie immer– sehr viele Autoren, die man hier an den einzelnen Stellen zitieren könnte und müßte. Aber, wie schon mehrfach gesagt, es geht hier um meinen persönlichen Versuch, viele Einzelteile und Versatzstücke für mich selbst zu ‚ordnen‘ um mein eigenes Denken zu ‚orientieren‘, ohne dass ich irgendwie den Anspruch auf Originalität erhebe. In der Regel ist jeder Gedanke irgendwann immer schon mal von einem anderen gedacht worden. In den offiziellen Publikationen versuche ich mich denn auch an die üblichen Zitierregeln zu halten. Dies hier ist eine private ‚Spielwiese‘ für Gedanken…..

The Semiotic Dimension