DER SPÄTE FREUD UND DAS KONZEPT DER PSYCHOANALYSE. Anmerkung 2

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 18.Sept. 2018

Korrekuren: 18.Sept.2018, 13:20h
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

KONTEXT

Nachdem ich im vorausgehenden Beitrag den letzten Text von Freud (auf Deutsch) mit dem Englischen Titel (bei Deutschem Text) ‚Some Elementary Lessons in Psycho-Analysis‘ (GW XVII, 1938-40) in der Rekonstruktion von Jürgen Hardt (1996) diskutiert hatte, hier einige weitere Überlegungen, dieses Mal mit direkter Bezugnahme auf den Text von Freud.

DISKUSSION

Modellvorschlag zu Freuds letztem Text zur Psychoanalyse

BILD: Modellvorschlag zu Freuds letztem Text zur Psychoanalyse

 

MODELL PSYCHOANALYSE

  1. Nach den bisherigen Überlegungen zu Freuds Position bietet es sich an, versuchsweise ein – noch sehr allgemeines – MODELL zu formulieren, das die wichtigen Begriffe von Freud in Beziehung setzt
  2. Im Kern geht es um den Begriff des SEELISCHEN, den Freud in die Komponenten BEWUSSTSEIN (BW) und UNBEWUSSTES (-BW) aufspaltet. In gewisser Weise kann man das Unbewusste als ‚Komplement‘ zum Bewusstsein sehen, da das Bewusstsein der einzige Referenzpunkt für das System homo sapiens darstellt, relativ zu dem alles andere unbewusst ist. Präziser wäre wohl der Ausdruck ’nicht bewusst‘ oder NICHT-BEWUSSTSEIN.
  3. Sowohl das Bewusstsein wie das Nicht-Bewusstsein gehören zum System homo sapiens, der sich in seinem KÖRPER manifestiert.
  4. Generell kann man davon ausgehen, dass das System homo sapiens INPUT-EREIGNISSE realisieren kann, die durch verschiedene STIMULI Ereignisse von außerhalb des Körpers ausgelöst werden können.
  5. Ebenso ist es so, dass bestimmte interne Körperereignisse – hier MOTORISCHE Ereignisse oder OUTPUT Ereignisse genannt – über die Körperoberfläche sich als VERÄNDERUNGEN der Körperoberfläche manifestieren können, die meistens als AKTIONEN klassifiziert werden oder gar als SPEZIFIZIERTE ANTWORTEN, RESPONSES.
  6. Interessant ist die Annahme von Freud, dass sich nur Teile des Nicht-Bewusstseins an das Bewusstsein mitteilen können (im Bild durch einen Pfeil angedeutet). Der Rest des Nicht-Bewusstseins teilt sich nicht dem Bewusstsein mit.
  7. Jetzt wird es spannend: Man könnte jetzt im Modell die weiteren Annahmen machen, dass es zwischen jenem Teil des Nicht-Bewusstseins, das sich dem Bewusstsein mitteilen kann – nennen wir es -BW+ – und jenem Teilen des Nicht-Bewusstseins, das sich nicht mitteilt – nennen wir diesen Teil -BW- –, dennoch eine Wechselwirkung gibt. Dies würde es erklären, warum Anteile des Nicht-Bewusstseins sich indirekt auf das Gesamtsystem auswirken können, ohne zunächst im Bewusstsein aufzutreten, dann aber – z.B. im Verlaufe der Therapie – plötzlich im Bewusstsein ‚greifbar‘ werden.
  8. Dieser Sachverhalt kann durch die weitere Annahme differenziert werden, dass möglicher Input von außen sich simultan beiden Komponenten des Nicht-Bewusstseins (-BW+, -BW-) mitteilen kann, wie auch umgekehrt beide Komponenten ein äußerliches Verhalten verursachen können (z.B. das Fehlverhalten, die Hypnoseexperimente, Arten des Redens und Verhaltens (Stimmfärbung, Form der Bewegung, …)), das als SIGNAL des NICHT-BEWUSSTSEINS fungieren kann. Dies würde z.B. erklären, warum Menschen in der Gegenwart anderer Menschen in ganz unterschiedliche ‚Stimmungen‘ geraten können, obgleich die ausgetauschten Worte keinerlei Hinweise für diese Gestimmtheit liefern. Vom Nicht-Bewusstsein verursachte Signale können im Nicht-Bewusstsein des Anderen innere Prozesse, Zustände verursachen, die sich dann in Form bestimmter Gefühle, Stimmungen, Emotionen äußern. Dies sind – zumindest berichten dies die Psychotherapeuten – sehr oft, fast immer ? – , dann der entscheidende Hinweis auf ‚verdeckt wirkende‘ Faktoren. Ohne das Nicht-Bewusstsein bleiben die objektiven ‚Signale‘ ‚unerkannt‘, sind dann eben keine ‚Signale‘ mit Referenz.
  9. So einfach dieses Modell ist, so weitreichend sind seine möglichen Konsequenzen.
  10. Da dieses Modell eine Arbeitshypothese ist, mit der man empirische Phänomene ‚deuten können soll‘, kann man es überprüfen und bekräftigen oder abschwächen bzw. dann ablehnen.

HIERARCHIE DER GEGENSTANDSBEREICHE

Das Schaubild deutet auch an, dass wir es mit einer impliziten Hierarchie von Gegenstandsbereichen zu tun haben. Der Homo sapiens ist Teil eines umfassenden Phänomens von biologischem Leben, das mit seiner Geschichte (der Evolution) ein Teilprozess auf dem Planet Erde ist, der sich als Teil des Sonnensystems herausgebildet hatte, das wiederum innerhalb der Galaxie Milchstraße entstanden ist, die sich wiederum im Prozess des bekannten Universums herausgebildet hat. Bedenkt man, dass die Anzahl der Galaxien irgendwo im Bereich von 200 Milliarden (2×1011) bis 2 Billionen (2×1012) liegt und eine einzelne Galaxie wiederum zwischen einige hundert Millionen (108) oder gar 100 Billionen (1014) Sterne haben kann (mit noch viel mehr Exoplaneten!), dann ist der Ausschnitt an körperlicher Wirklichkeit, die unser Sonnensystem mit der Erde bietet, atemberaubend ‚klein‘, man möchte sagen ‚winzig‘, so winzig, dass uns dafür die geeigneten Worte fehlen, da unser Alltag für solche Relationen keine direkten Beispiele bietet. Nur unser Denken und die Mathematik kann uns helfen, zumindest ansatzweise eine Vorstellung dazu auszubilden.

Allerdings, diese körperliche Kleinheit kann über etwas anderes hinweg täuschen, das möglicherweise ein noch größeres Wunder sein kann.

Wie die Wissenschaft erst seit wenigen Jahren weiß, besteht ein menschlicher Körper aus ca. 36 Billionen (10^12) Körperzellen, ca. 110 Billionen Bakterien im Darm und ca. 200 Milliarden Bakterien auf der Haut, d.h. ein menschlicher Körper besitzt an Zellen die Komplexität von ca. 700 Galaxien mit jeweils 200 Milliarden Sternen! Noch dramatischer wird der Kontrast, wenn man das Volumen eines menschlichen Körpers zu dem Volumen von 700 Galaxien in Beziehung setzt. Man kommt auf ein Verhältnis von ca. 1 : 10^64 !!! Anders gewendet, das Phänomen des Biologischen stellt eine unfassbare Verdichtung von Komplexität dar, deren Bedeutung und Konsequenz für das Verständnis von ‚Natur‘ bislang kaum so richtig (wenn überhaupt) gewürdigt wird.

Diese mit Worten gar nicht beschreibbare Verdichtung von Komplexität im Phänomen des Biologischen hat auch damit zu tun, dass wir es im Übergang von den ‚vor-biologischen‘ Strukturen zu den biologischen Strukturen mit einem grundlegenden Paradigmenwechsel zu tun haben. Während wir im Bereich physikalischer Strukturen Materieverdichtungen nur durch das bislang wenig verstandene Phänomen der ‚Gravitation‘ feststellen können (die nach sehr einfachen Regeln ablaufen), präsentiert das ‚Biologische‘ neuartige Prozesse und Strukturen, mit einer konstant zunehmenden ‚Verdichtung‘, die nach völlig neuartigen Regeln ablaufen. Mit Gravitation lässt sich hier nichts mehr erklären. Diese neue Qualität materieller Strukturen und Prozesse auf die einfacheren Gesetze der bekannten Physik zu ‚reduzieren‘, wie es oft gefordert wurde, ist nicht nur grober Unfug, sondern vernichtet gerade die Besonderheit des Biologischen. Der Übergang von Physik zur Astrobiologie und dann zur Biologie ist daher ein qualitativer: im Biologischen finden wir völlig neue Phänomene, die sich an der beobachtbaren Funktionalität manifestieren. ‚Emergenz‘ würde hier bedeuten, dass wir es hier mit qualitativ neuen Phänomenen zu tun haben, die sich nicht auf die Gesetze ihrer Bestandteile reduzieren lassen.

Aufgrund der schier unfassbaren Vielfalt und Komplexität des Biologischen, das in seiner körperlichen Winzigkeit eine universale Komplexität realisiert, die die bekannten astronomischen Größen letztlich sprengt, ist es sicher nicht verwunderlich, dass sich zum Phänomen des Biologischen viele verschiedene Wissenschaften ausgebildet haben, die versuchen, Teilaspekte irgendwie zu verstehen. Da der ‚Kuchen der Komplexität‘ so unfassbar groß ist, findet jeder etwas interessantes. Allerdings sollte man sich bewusst sein, dass diese vielen Disziplinen in ihrer heutigen Zersplitterung etwas auseinanderreißen und zerstückeln, das letztlich zusammen gehört.

So ist auch die Psychologie mit ihrer Spezialdisziplin Psychoanalyse letztlich kein Sonderbereich, wenngleich die hier anfallenden Phänomene tierischer und menschlicher Systeme anscheinend nochmals eine Steigerung an neuen funktionalen Phänomenen bieten.

HIERARCHIE DER WISSENSCHAFTEN

Es wäre die Aufgabe einer modernen Philosophie und Wissenschaftsphilosophie die Einheit der Phänomene und Wissenschaften wieder herzustellen. Sicher ist dies nichts, was eine einzelne Person schaffen kann noch kann dies in wenigen Jahren stattfinden. Vermutlich muss die ganze Wissenschaft neu organisiert werden, sodass letztlich alle kontinuierlich an dem Gesamtbild mitwirken.

Das, was für die Physik vielleicht die dunkle Materie und die dunkle Energie ist, die bislang ein wirkliches Gesamtbild entscheidend verhindert, dies ist für die Wissenschaft überhaupt das Problem, dass die Wissenschaftler und Philosophen, die sich um eine rationale Erklärung der Welt bemühen, letztlich selbst auch Bestandteil eben jener Wirklichkeit sind, die sie erklären wollen. Solange die empirischen Wissenschaften diesen fundamentalen Faktor aus ihrer Theoriebildung ausklammern, solange werden sie sich nur an der Oberfläche von Phänomenen bewegen und die wirklich interessanten Phänomene, die über Biologie, Psychologie und Philosophie ins Blickfeld geraten, werden bis auf weiteres außen vor bleiben.

QUELLEN

Hardt, Jürgen (1996), Bemerkungen zur letzten psychoanalytischen Arbeit Freuds: ‚Some Elementary Lessons in Psycho-Analysis‘, 65-85, in: Jahrbuch der Psychoanalyse, Bd.35, Frommann-holzboog

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

ÜBER DIE MATERIE DES GEISTES. Relektüre von Edelman 1992. Reflexion auf den Begriff ‚Fitness‘

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 13.Sept. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

Gerald M.Edelman, Bright Air, Brilliant Fire. On the Matter of the Mind, New York: 1992, Basic Books

BISHER

Bislang sind folgende Teile erschienen:

Teil 1

Teil 2

Teil 3

Teil 4

Teil 5

Teil 6

Teil 7

Ab dem Teil 8 werden auf dieser Seite jetzt alle Diskussionsbeiträge kumuliert gesammelt, damit die einzelnen Beiträge nicht zu umfangreich werden.

Im Anschluß an Kap.8 von Edelman sei hier hochmals explizit der Aspekt der ‚Fitness‘ herasgegriffen. Da die Mechanismen hinter diesem Begriff in seinem Text etwas unklar bleiben.

ZWISCHENREFLEXION: BEGRIFF ‚FITNESS‘

  1. Außer dem bislang Gesagten (siehe oben Punkte 1-44) ist es vielleicht hilfreich, sich klar zu machen, wie genau das Zusammenspiel zwischen der Fitness biologischer Systeme und den jeweiligen Umgebungen beschaffen ist.
  2. Ein grundlegender Tatbestand ist jener, dass die Umgebung der biologischen Systeme auf der Erde von Anfang an eben die Erde war und ist bzw. das Sonnensystem bzw. unsere Milchstraße bzw. das gesamte bekannte Universum. Diese Vorgabe ist für alle biologische Systeme bislang nicht verhandelbar. Wenn ein biologisches System sich behaupten will, dann in diesem konkreten Ausschnitt des Universums und nirgendwo sonst.
  3. Zugleich wissen wir, dass die Erde seit ihrer Entstehung samt Sonnensystem und dem ganzen Kontext zu allen Zeiten ein hochdynamisches System war und ist, das im Laufe von Milliarden Jahren viele dramatische Änderungen erlebt hat. Sich in dieser Umgebung zu behaupten stellt eine schier unfassbare Leistung dar.
  4. Ob sich im Laufe der Zeit eine bestimmte Lebensform L auf der Erde ‚behaupten‚ oder gar ‚vermehren‚ konnte, hing einzig davon ab, ob diese Lebensform L im Laufe der Generationen in der Lage war, hinreichend viele Nachkommen unter den konkreten Bedingungen der Umgebung zu erzeugen und am Leben zu erhalten. Die Anzahl der Nachkommen einer Generation der Lebensform L kann von daher als Bezugspunkt zur Definition eines ‚Fitness-Wertes‚ bzw. dann der ‚Fitness‚ einer Lebensform genommen werden. Eine häufige Schematisierung dieser Sachverhalte ist die folgende:
  5. POP(t+1) = o(POP(t)), t>0 := Die Population ‚POP‘ zum Zeitpunkt t+1 ist das Ergebnis der Anwendung der Populationsgenerierungsfunktion ‚o‘ auf die Population zum Zeitpunkt ‚t‘, wobei ‚t‘ größer als 0 sein muss. Die Funktion ‚o‘ kann man dann weiter analysieren:
  6. o=e x c := Die Populationsgenerierungsfunktion ‚o‘ ist das Ergebnis der Hintereinanderausführung der beiden Teilfunktionen ‚e‘ (‚earth-function‘) und ‚c‘ (‚change-funtion‘). Diese kann man weiter analysieren:
  7. e : 2^(POP^2) x 2^POP x EARTH —–> POP := Die earth-function e nimmt Paare von Individuen (potentielle Eltern) der Population, zusätzlich kann es beliebig andere Individuen der Population geben (Jäger, Beute, Artgenossen…), und dann die Erde selbst mit ihren Eigenschaften, und transformiert daraus nachfolgende Individuen, Abkömmlinge. Es ist schwer zu sagen, ‚wer‘ hier über Leben und Tod entscheidet: einerseits legen die konkreten Bedingungen der Erde und die Art der Zeitgenossen fest, unter welchen Bedingungen eine Lebensform überleben kann, andererseits hängt ein Überleben auch davon ab, welche ‚Eigenschaften‘ eine Lebensform besitzt; ob diese leistungsfähig genug sind, unter den gegebenen Bedingungen ‚leben‘ zu können. Nimmt man die Population der Lebensformen als ‚Generator‘ neuer Formen (siehe nächsten Abschnitt), dann wirkt die konkrete Erde wie eine Art ‚Filter‘, das nur jene ‚durchlässt‘, die ‚passen‘. ‚Selektion‘ wäre dann ein ‚emergentes‘ Phänomen im radikalen Sinne, da dieses Phänomen nur im Zusammenspiel der beiden Faktoren ‚Erde‘ und ‚Population‘ ’sichtbar‘ wird. Ohne dieses Zusammenspiel gibt es kein Kriterium für ‚Überlebensfähigkeit‘. Ferner wird hier deutlich, dass das Kriterium ‚Fitness‘ bzw. ‚Überlebensfähigkeit‘ kein absolutes Kriterium ist, sondern sich zunächst nur auf den Lebensraum ‚Erde‘ beschränkt. In anderen Bereichen des Universums könnten ganz andere Kriterien gelten und dort müsste die Lebensformen u.U. Einen ganz anderen Zuschnitt haben.
  8. Ferner  wird hier sichtbar, dass der ‚Erfolg‚ einer bestimmten Lebensform als Teil des gesamten Biologischen letztlich sehr ‚partiell‚ ist, weil bei Änderungen der Zustände auf der Erde bislang erfolgreiche Lebensformen (berühmtes Beispiel die Dinosaurier) vollstänig verschwinden können; andere Lebensformen als Teil des Biologischen können dann aber plötzlich neu in den Vordergrund treten. (berühmtes Beispiel die Säugetiere).  Offen ist die Frage, ob es spezielle Lebensformen — wie z.B. den homo sapiens — gibt, die aufgrund ihrer hervorstechenden Komplexität im Kontext des Biologischen eine irgendwie geartete ‚besondere Bedeutung‘ besitzen. Aktuell erwecken die Wissenschaften den Eindruck, als ob es hier keine feste Meinung gibt: die einen sehen im homo sapiens etwas Besonderes, das auf eine spezielle Zukunft verweist, andere sehen im homo sapiens eine von vielen möglichen speziellen Lebensformen, die bald wieder verschwinden wird, weil sie sich der eigenen Lebensgrundlagen beraubt.
  9. c : cross x mut := die ‚change-function‘ c besteht auch aus zwei Teilfunktionen, die hintereinander ausgeführt werden: die erste Teilfunktion ist eine Art Überkreuzung genannt ‚crossover‘ (‚cross‘), die zweite ist eine Art Mutation genannt ‚mutation‘ (‚mut‘).
  10. cross : POP x POP —–> POP := In der Überkreuzfunktion ‚cross‘ werden die Genotypen von zwei verschiedenen Individuen ‚gemischt‘ zu einem neuen Genotyp, aus dem ein entsprechend neuer Phänotyp hervorgehen kann.
  11. mut : POP —–> POP := In der Mutationsfunktion kann eine zufällige Änderung im Genotyp eines Individuums auftreten, die unter Umständen auch zu Änderungen im Phänotyp führt.
  12. Idealerweise kann man die change-function c isoliert von der Umgebung sehen. Realistischerweise kann es aber Wechselwirkungen mit der Umgebung geben, die auf die change-function ‚durchschlagen‘.

  13. Fasst man alle Faktoren dieser – stark vereinfachten – Populationsgenerierungsfunktion ‚o‘ zusammen, dann wird auf jeden Fall deutlich, dass beide Systemedie Erde und das Biologische – einerseits unabhängig voneinander sind, dass sie aber faktisch durch die Gegenwart des Biologischen auf der Erde (und im Sonnensystem, in der Milchstraße, …) in einer kontinuierlichen Wechselwirkung stehen, die sich dahingehend auswirkt, dass das Biologische eine Form annimmt, die zur Erde passt. Grundsätzlich könnte das Biologische aber auch andere Formen annehmen, würde es in einer anderen Umgebung leben.
  14. Um die Populationsgenerierungsfunktion noch zu vervollständigen, braucht man noch eine ‚Bootstrapping Funktion‘ ‚boot-life()‘, mittels der überhaupt das Biologische auf der Erde ‚eingeführt‘ wird:
  15. boot-life : EARTH —–> EARTH x POP (auch geschrieben: POP(t=1) = boot-life(POP(t=0)) ):= wie die allerneuesten Forschungen nahelegen, konnten sich unter bestimmten Bedingungen (z.B. unterseeische Gesteinsformationen, vulkanisches Wasser, …) verschiedene Molekülverbände zu komplexen Molekülverbänden so zusammen schließen, dass irgendwann ‚lebensfähige‘ – sprich: reproduktionsfähige – Zellen entstanden sind, die eine Anfangspopulation gebildet haben. Auf diese Anfangspopulation kann dann die Populationsgenerierungsfunktion ‚o‘ angewendet werden.

Fortsetzung folgt

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

 

ÜBER DIE MATERIE DES GEISTES. Relektüre von Edelman 1992. Kumulierte Zusammenfassung der Diskussion

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 13.Sept. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

Gerald M.Edelman, Bright Air, Brilliant Fire. On the Matter of the Mind, New York: 1992, Basic Books

BISHER

Bislang sind folgende Teile erschienen:

Teil 1

Teil 2

Teil 3

Teil 4

Teil 5

Teil 6

Teil 7

Ab dem Teil 8 werden auf dieser Seite jetzt alle Diskussionsbeiträge kumuliert gesammelt, damit die einzelnen Beiträge nicht zu umfangreich werden.

POSITION VON EDELMAN

Edelman benutzt die Arbeitshypothese, dass das, was wir ‚Geist‘ nennen, sich nur ab bestimmten Zeitpunkten während der allgemeinen Evolution ‚gezeigt‘ (‚emerged‘) hat, und zwar sehr spät.(vgl. S.41) Und dies setzt die Annahme voraus, dass die fundamentale Basis für alles Verhalten und für die ‚Sichtbarwerdung‘ (‚emergence‘) des Geistes die Anatomie und Morphologie der biologischen Strukturen ist sowie deren Funktionen.(vgl. S.41)

POSITION DES AUTORS ALS DISKUSSIONSPUNKTE

Im Kontext seiner Argumentation kritisiert Edelman viele bekannte Positionen im Bereich Philosophie und Psychologie aus der eingeschränkten Perspektive ihres Bezuges zu den materiellen Strukturen heraus, die von ihm – letztlich wie bei Kant, nur mit anderem Akzent, mehr oder weniger – als ‚Ermöglichung des Geistes‘ gesehen werden. Diese Kritik in dieser speziellen Perspektive ist zum Teil berechtigt, aber auch nur zu einem sehr eingeschränkten Teil, da die kritisierten Personen und Positionen von den neuen Erkenntnissen noch gar nichts wissen konnten. Über diese enge Perspektive des expliziten Bezugs zu materiellen Strukturen hinaus repräsentieren die kritisierten Positionen aber auch Perspektiven, die ‚in sich eine methodische Rechtfertigung‘ besitzen, die Edelman schlicht nicht erkennt. Hier verkürzt zur Erinnerung einige seiner ‚methodischen blinden Flecken‘:

  1. Alternativen sind berechtigt:… zugleich die Arbeitshypothese aufzustellen, dass damit Analyse- und Erklärungsansätze von vornherein zu verurteilen sind, die Verhaltensdaten (Psychologie) bzw. auch introspektive Daten (Philosophie) als solche als Basis nehmen ohne direkt einen Bezug zu den materiellen (anatomischen) Daten herzustellen, ist mindestens problematisch wenn nicht wissenschaftsphilosophisch unhaltbar…
  2. Primär die Funktionen:… denn, wie immer die anatomischen Grundlagen beschaffen sein mögen, wenn ich deren ‚Verhaltensdynamik‘ erforschen will, interessieren mich die Details dieser Anatomie nicht, sondern nur ihre Funktion. Und diese lässt sich nicht durch Rekurs auf Bestandteile beschreiben sondern nur durch Beobachtung des Systemverhaltens …
  3. Daten als solche sind ‚blind‘:… aus materiellen Strukturen als solchen folgt in keiner Weise irgend etwas ‚Geistiges‘ es sei denn, ich habe vorab zur Untersuchung einen Kriterienkatalog G, den ich als Maßstab anlegen kann, um dann bei der Analyse der Beobachtungsdaten konstatieren zu können, das der Eigenschaftskomplex G vorliegt. Habe ich solch einen Kriterienkatalog G nicht, kann ich noch so viele empirische Daten zu irgendwelchen materiellen Strukturen vorweisen; ‚aus sich heraus‘ lassen diese Daten eine solche Eigenschaftszuschreibung nicht zu! …
  4. Konkretisierung und Quantenraum:… ohne die ‚Anhaltspunkte‘ im ‚beobachtbaren Verhalten‘ wäre es praktisch unmöglich, jene bedingenden materiellen Struktureigenschaften zu identifizieren, da die zugrundeliegenden neuronalen und damit letztlich biochemischen Grundlagen rein mathematisch nahezu unbegrenzt viele Funktionen erlauben. Letztlich deuten diese materiellen Strukturen auf einen quantenmechanischen Möglichkeitsraum hin, deren Konkretisierung von Faktoren abhängt, die sich aus den Strukturen selbst nicht so einfach ableiten lassen. …
  5. Phänomene zuerst: Philosophen arbeiten traditionell mit dem subjektiven Erlebnisraum direkt, ohne zugleich die Frage nach den materiellen Bedingungen der so erlebbaren ‚Phänomene‘ zu stellen. In gewisser Weise handelt es sich bei diesen subjektiven (= bewussten) Phänomenen auch um eine Systemfunktion eigener Art mit einer spezifischen Besonderheit, der man nicht gerecht werden würde, würde man sie durch Rekurs auf die bedingenden materiellen Strukturen (Gehirn, Körper, Welt, …) ‚ersetzen‘ wollen. …
  6. Empirie ist abgeleitet:… muss man sich klar machen, dass alle sogenannten ‚empirischen Daten‘ ja nicht ‚außerhalb‘ des ‚bewusstseinsbedingten Phänomenraums‘ vorkommen, sondern auch nur ‚bewusstseinsbedingte Phänomene‘ sind, allerdings eine spezielle Teilmenge, die man mit unterstellten Vorgängen in der Außenwelt in Verbindung bringt. Insofern bildet der subjektive Phänomenraum die Basis für jegliche Denkfigur, auch für die empirischen Wissenschaften. …
  7. Bezugspunkte für die Phänomene des Geistigen: Die Frage, was denn dann die primären Kriterien für das ‚Psychische-Geistige‘ sind, wird durch diese multidisziplinäre Kooperationen nicht einfacher: da die materiellen Strukturen als solche keinerlei Anhaltspunkte für ‚Geistiges‘ liefern, bleibt letztlich als Ausgangspunkt doch nur das ‚Geistige‘, wie biologische Systeme ’sich selbst‘ sehen, weil sie sich so ‚erleben‘. Das ‚Geistige‘ erscheint hier als ‚Dynamik‘ von Systemen, die sich anhand des Auftretens dieser Systeme ‚zeigt‘, ‚manifestiert‘. Aus den einzelnen materiellen Bestandteilen kann man diese Eigenschaften nicht ableiten, nur aus der Gesamtheit in spezifischen Wechselwirkungen. …
  8. wenn ein homo sapiens ’nichts tut‘, dann ist die Dynamik ‚unsichtbar‘ und die durch solch eine Dynamik sichtbar werdenden Eigenschaften sind nicht greifbar. Weiter: wenn ein homo sapiens eine Dynamik erkennen lässt, dann bedarf es einer spezifischen ‚Erkenntnisweise‘, um die spezifischen Eigenschaften von ‚Geist‘ erkennen zu können. …
  9. Das System-Ganze: … Erst durch die Dynamik des Gesamtsystems werden – oft als ‚emergent‘ klassifizierte – Phänomene sichtbar, die von den einzelnen Bestandteilen des materiellen Systems als solchen nicht ableitbar sind, nur eben durch das Verhalten, die Dynamik des Gesamtsystems. …
  10. Begriffliches Mehr: … Es ist weder auszuschließen, dass es zwischen dem empirischen Phänomen der ‚Gravitation‘ und dem empirischen Phänomen ‚Geist‘ einen ‚tieferen‘ Zusammenhang gibt (da ‚Geist‘ als empirisches Phänomen ‚Gravitation‘ voraussetzt‘), noch dass es weit komplexere empirische Phänomene geben kann als den ‚individuell in Populationen‘ sich manifestierenden ‚empirischen Geist‘.
  11. Neues‘ und sein Ursprung:… Da jene geistige Eigenschaften, die den homo sapiens von anderen Lebensformen unterscheiden, erst mit diesem auftreten, kann eine ‚Geschichte der Entwicklung jener Formen, die den homo sapiens auszeichnen‘, nur indirekte Hinweise darauf liefern, wie sich jene ’späten‘ komplexen materiellen Strukturen aus ‚einfacheren, früheren‘ Strukturen entwickelt haben. Damit entsteht dann die interessante Frage, wie sich solche Komplexität aus ’scheinbar einfacheren‘ Strukturen entwickeln konnte? In der logischen Beweistheorie gilt allgemein, dass ich nur etwas ‚ableiten’/ ‚beweisen‘ kann, wenn ich das zu Beweisende letztlich schon in meinen ‚Voraussetzungen’/ ‚Annahmen‘ angenommen habe. Das ’spätere komplexere Neue‘ wäre in dem Sinne dann nicht wirklich ’neu‘, sondern nur eine ‚andere Zustandsform‘ eines Ausgangspunktes, der schon alles hat‘. Dies wäre nicht sehr überraschend, da wir in der Big-Bang-Theorie allgemein von ‚Energie (E)‘ ausgehen, die in Folge von Abkühlungsprozessen unendlich viele konkrete Zustandsformen angenommen hat, von denen wir mit E=mc^2 wissen, dass sie alle ineinander überführbar sind, wie speziell sie auch immer sein mögen.
  12. Rückschlüsse vom Phänotyp auf den Genotyp: …Die komplexen Abbildungsprozesse zwischen Genotypen und Phänotypen als Teil von Populationen in Umgebungen machen eine Zuordnung von im Verhalten fundierten Eigenschaftszuschreibungen von ‚Geist‘ zu vorliegenden materiellen Strukturen schwer bis unmöglich. … Das Entscheidende am Phänomen des Geistes ist ja, dass er nach vielen Milliarden Jahren Entwicklung in einem aktuell hochkomplexen und dynamischen System sich zeigt, und zwar nicht ‚aus sich heraus‘ sondern nur dann, wenn ein anderes System, das ebenfalls ‚Geist‘ hat, diesen Phänomenen ‚ausgesetzt‚ ist. Ein System, das selbst ‚keinen Geist hat‘, kann die beobachtbaren Phänomene nicht als ‚geistige‘ klassifizieren! Dies schließt nicht aus, dass heutige Algorithmen quasi automatisch irgendwelche ‚Muster‘ im beobachtbaren Verhalten identifizieren können, allerdings sind dies Muster wie unendlich viele andere Muster, deren ‚Bewertung‘ in irgendeine Zustandsdimension völlig beliebig ist.
  13. Der ‚Theoriemacher‘ kommt selbst als Gegenstand der Theorie nicht vor: …Von Interesse ist auch, wie sich der Zustandsraum der materiellen Strukturen (die Gesamtheit des aktuellen empirischen Wissens über das Universum und seiner möglichen Zukünfte) und der Zustandsraum von Systemen mit Geist (die Gesamtheit des geistigen Vorstellungsraumes samt seiner möglichen geistigen Zukünfte) unterscheidet. Die Sache wird dadurch kompliziert, dass ja die Systeme mit empirischem Geist letztlich auch zum genuinen Gegenstandsbereich der sogenannten ‚Natur‘-Wissenschaften gehören. Wenn das Empirisch-Geistige Teil der Natur ist, reichen die bisherigen empirischen naturwissenschaftlichen Theorien nicht mehr. Sie müssten entsprechend geändert werden. Der Beobachter muss wesentlicher Bestandteil der Theorie selbst werden. Für diese Konstellation haben wir bislang aber keinen geeigneten empirischen Theoriebegriff.
  14. Die ‚Interpretationsfunktion‘ als Fundament allen biologischen Lebens ungeklärt: Die fundamentale Tatsache, dass es Moleküle gibt, die andere Moleküle als ‚Kode‘ benutzen können, um Transformationsprozesse zwischen einer Sorte von Molekülen (DNA, RNA) in eine andere Sorte von Molekülen (Polypeptide, Proteine) steuern zu können, nimmt Edelman als Faktum hin, thematisiert es selbst aber nicht weiter. Er benennt diese ‚interpretierenden Moleküle‘ auch nicht weiter; sein Begriff ‚cellular device‘ ist eher nichtssagend. Dennoch ist es gerade diese Fähigkeit des ‚Übersetzens’/ ‚Interpretierens‘, die fundamental ist für den ganzen Transformationsprozess von einem Genom in einen Phänotyp bzw. in eine ganze Kette von hierarchisch aufeinander aufbauenden Phänotypen. Setzt man diese Übersetzungsfähigkeit voraus, ist das ganze folgende Transformationsgeschehen – so komplex es im Detail erscheinen mag – irgendwie ‚trivial‘. Wenn ich in mathematischer Sicht irgendwelche Mengen habe (z.B. verschiedene Arten von Moleküle), habe aber keine Beziehungen definiert (Relationen, Funktionen), dann habe ich quasi ‚Nichts‘. Habe ich aber z.B. eine Funktion definiert, die eine ‚Abbildung‘ zwischen unterschiedlichen Mengen beschreibt, dann ist es eine reine Fleißaufgabe, die Abbildung durchzuführen (z.B. die Übersetzung von DNA über RNA in Aminosäuren, dann Polypeptide, dann Proteine). Dass die Biochemie und Mikrobiologie samt Genetik so viele Jahre benötigt hat, die Details dieser Prozesse erkennen zu können, ändert nichts daran, dass diese Transformationsprozesse als solche ‚trivial‘ sind, wenn ich die grundlegende Transformationsfunktion definiert habe. Wo aber kommt diese grundlegende Abbildungsfunktion her? Wie kann es sein, dass ein ordinäres chemisches Molekül ein anderes ordinäres chemisches Molekül als ‚Kode‘ interpretiert, und zwar genau dann so, wie es geschieht? Betrachtet man ’normale‘ Moleküle mit ihren chemischen Eigenschaften isoliert, dann gibt es keinerlei Ansatzpunkt, um diese grundlegende Frage zu beantworten. Offensichtlich geht dies nur, wenn man alle Moleküle als eine Gesamtheit betrachtet, diese Gesamtheit zudem nicht im unbestimmten Molekül-Vorkommens-Raum, sondern in Verbindung mit den jeweils möglichen ‚realen Kontextbedingungen‘, und dann unter Berücksichtigung des potentiellen Interaktionsraumes all dieser Moleküle und Kontexte. Aber selbst dieser Molekül-Vorkommens-Raum repräsentiert im mathematischen Sinne nur Mengen, die alles und nichts sein können. Dass man in diesem Molekül-Vorkommens-Raum eine Funktion implantieren sollte, die dem Dekodieren des genetischen Kodes entspricht, dafür gibt es im gesamten Molekül-Vorkommens-Raum keinerlei Ansatzpunkt, es sei denn, man setzt solch eine Funktion als ‚Eigenschaft des Molekül-Vorkommens-Raumes‘ voraus, so wie die Physiker die ‚Gravitation‘ als Eigenschaft des physikalischen Raumes voraussetzen, ohne irgendeinen Ansatzpunkt im Raum selbst zu haben, als die beobachtbare Wirkung der Gravitation. Die Biologen können feststellen, dass es tatsächlich einen Transformationsprozess gibt, der solch eine Abbildungsbeziehung voraussetzt, sie haben aber keine Chance, das Auftreten dieser Abbildungsbeziehung aus den beobachtbaren materiellen Strukturen abzuleiten!!!
  15. Biologisches Leben als ‚Super-Algorithmus‘, der seine eigenen Realisierungsbedingungen mit organisiert: In der Beschreibung von Edelmans Position habe ich schon angemerkt, dass seine Wortwahl ‚Topobiologie‘ möglicherweise unglücklich ist, da es letztlich nicht der dreidimensionale Raum als solcher ist, der entscheidend ist (wenngleich indirekt die Drei-Dimensionalität eine Rolle spielt) sondern der ‚Kontext in Form von interaktiven Nachbarschaften‘: welche andere Zellen stehen in Interaktion mit einer Zelle; welche Signale werden empfangen. Indirekt spielt dann auch der ‚vorausgehende Prozess‘ eine Rolle, durch den eben Kontexte erzeugt worden sind, die nur in bestimmten Phasen des Prozesses vorliegen. Man hat also eher einen ‚Phasenraum‘, eine Folge typischer Zustände, die auseinander hervorgehen, so, dass der bisherige Prozess die nächste Prozessphase hochgradig determiniert. Dies ähnelt einer ‚algorithmischen‘ Struktur, in der eine Folge von Anweisungen schrittweise abgearbeitet wird, wobei jeder Folgeschritt auf den Ergebnissen der vorausgehenden Abarbeitungen aufbaut und in Abhängigkeit von verfügbaren ‚Parameterwerten‘ den nächsten Schritt auswählt. Im Unterschied zu einem klassischen Computer (der eine endliche Instanz eines an sich unendlichen theoretischen Konzeptes von Computer darstellt!), bei dem die Ausführungsumgebung (normalerweise) festliegt, haben wir es hier mit einem algorithmischen Programm zu tun, das die jeweilige Ausführungsumgebung simultan zur Ausführung ‚mit erschafft‘! Wenn Computermetapher, dann eben so: ein Programm (Algorithmus), das seine Ausführungsumgebung (die Hardware) mit jedem Schritt selbst ‚erschafft‘, ‚generiert‘, und damit seine Ausführungsmöglichkeiten schrittweise ausbaut, erweitert. Dies setzt allerdings voraus, dass das genetische Programm dies alles schon ‚vorsieht‘, ‚vorwegnimmt‘. Die interessante Frage ist dann hier, wie ist dies möglich? Wie kann sich ein genetisches Programm ‚aus dem Nichts‘ entwickeln, das all diese ungeheuer komplexen Informationen bezüglich Ausführung und Ausführungsumgebung zugleich ‚aufgesammelt‘, ’strukturiert‘, ‚verpackt‘ hat, wo die Gesamtheit der modernen Wissenschaft bislang nur Fragmente versteht?
  16. Ein technischer Super-Algorithmus scheint prinzipiell möglich; unklar ist seine ‚inhaltliche Ausgestaltung‘: Während Neurowissenschaftler (Edelman eingeschlossen) oft mit unsinnigen Computervergleichen versuchen, die Besonderheit des menschlichen Gehirns herauszustellen, kann man ja auch mal umgekehrt denken: wenn die Entwicklung des Gehirns (und des gesamten Organismus) Ähnlichkeiten aufweist mit einem Algorithmus, der seine eigene Ausführungsumgebung während der Ausführung (!!!) mit generiert, ob sich solch ein Prozess auch ‚rein technisch‘ denken ließe in dem Sinne, dass wir Maschinen bauen, die aus einer ‚kleinen Anfangsmenge von Materie‘ heraus ausgestattet mit einem geeigneten ‚Kode‘ und einem geeigneten ‚Interpretierer‘ sich analog selbst sowohl materiell als auch kodemäßig entwickeln? Da die biologischen Systeme zeigen, dass es grundsätzlich geht, kann man solch einen technischen Prozess nicht grundsätzlich ausschließen. Ein solches Gedankenexperiment macht aber sichtbar, worauf es wirklich ankommt: eine solche sich selbst mit-bauende Maschine benötigt auch einen geeigneten Kode und Interpretationsmechanismus, eine grundlegende Funktion. Ohne diese Funktion, geht gar nichts. Die Herkunft dieser Funktion ist aber gerade diejenige grundlegende Frage, die die gesamte empirische Wissenschaft bislang nicht gelöst hat. Es gibt zwar neuere Arbeiten zur Entstehung von ersten Zellen aus Molekülen unter bestimmten realistischen Kontexten, aber auch diese Forschungen beschreiben nur Prozesse, die man ‚vorfindet‘, die sich ‚zeigen‘, nicht aber warum und wieso es überhaupt zu diesen Prozessen kommen kann. Alle beteiligten materiellen Faktoren in diesen Prozessen als solchen geben keinerlei Ansatzpunkte für eine Antwort. Das einzige, was wir bislang wissen, ist, dass es möglich ist, weil wir es ‚beobachten können‘. Die ‚empirischen Phänomene‘ sind immer noch die härteste Währung für Wahrheit.
  17. Wissenschaftliche Theorie:… es ist überhaupt das erste Mal, dass Edelman in diesem Buch explizit über eine ‚wissenschaftliche Theorie‘ spricht… Seine Charakterisierung einer ‚wissenschaftlichen Theorie‘ ist … generell sehr fragmentarisch; sie ist ferner in ihrer Ernsthaftigkeit fragwürdig, da er die Forderung der Falsifizierbarkeit mit dem Argument begründt, dass ansonsten Darwins Theorie in ihrer Anfangszeit niemals hätte Erfolg haben können; und sie ist geradezu mystisch, da er eine radikal neue Rolle des Beobachters mit all seinen mentalen Eigenschaften innerhalb der Theoriebildung einfordert, ohne aber irgendwelche Hinweise zu liefern, wie das praktiziert werden soll. … Man stellt sich die Frage, welchen ‚Begriff von Theorie‘ Edelman eigentlich benutzt? In der Geschichte der empirischen Wissenschaften gab es viele verschiedene Begrifflichkeiten, die nicht ohne weiteres kompatibel sind, und seit ca. 100 Jahren gibt es eine eigene Metawissenschaft zu den Wissenschaften mit Namen wie ‚Wissenschaftsphilosophie‘, ‚Wissenschaftstheorie‘, ‚Wissenschaftslogik‘, deren Gegenstandsbereich gerade die empirischen Wissenschaften und ihr Theoriebegriff ist…. Aufgrund seiner bisherigen Ausführungen scheint Edelman nichts vom Gebiet der Wissenschaftsphilosophie zu kennen.
  18. Überprüfbarkeit, Verifizierbarkeit, Theorie: Die Überprüfbarkeit einer Theorie ist in der Tat ein wesentliches Merkmal der modernen empirischen Wissenschaften. Ohne diese Überprüfbarkeit gäbe es keine empirische Wissenschaft. Die Frage ist nur, was mit ‚Überprüfbarkeit‘ gemeint ist bzw. gemeint sein kann. … Wenn Edelman fordert dass für eine Theorie gelten soll, dass nicht (vi) ‚jeder Teil von der Theorie direkt falsifizierbar‘ sein muss, dann geht er offensichtlich davon aus, dass eine Theorie T aus ‚Teilen‘ besteht, also etwa T(T1, T2, …, Tn) und dass im ‚Idealfall‘ jeder Teil ‚direkt falsifizierbar‘ sein müsste. Diese Vorstellung ist sehr befremdlich und hat weder mit der Realität existierender physikalischer Theorien irgend etwas zu tun noch entspricht dies den modernen Auffassungen von Theorie. Moderne Theorien T sind mathematische (letztlich algebraische) Strukturen, die als solche überhaupt nicht interpretierbar sind, geschweige denn einzelne Teile davon. Ferner liegt die Erklärungsfähigkeit von Theorien nicht in ihren Teilen, sondern in den ‚Beziehungen‘, die mittels dieser Teile formulierbar und behauptbar werden. Und ob man irgendetwas aus solch einer Theorie ‚voraussagen‘ kann hängt minimal davon ab, ob die mathematische Struktur der Theorie die Anwendung eines ‚logischen Folgerungsbegriffs‘ erlaubt, mittels dem sich ‚Aussagen‘ ‚ableiten‘ lassen, die sich dann – möglicherweise – ‚verifizieren‘ lassen. Diese Verifizierbarkeit impliziert sowohl eine ‚Interpretierbarkeit‘ der gefolgerten Aussagen wie auch geeignete ‚Messverfahren‘, um feststellen zu können, ob die ‚in den interpretierten Aussagen involvierten entscheidbaren Eigenschaften‘ per Messung verifiziert werden können oder nicht. Der zentrale Begriff ist hier ‚Verifikation‘. Der Begriff der ‚Falsifikation‘ ist relativ zu Verifikation als komplementärer Begriff definiert. Begrifflich erscheint dies klar: wenn ich nicht verifizieren kann, dann habe ich automatisch falsifiziert. In der Praxis stellt sich aber oft das Problem, entscheiden zu können, ob der ganz Prozess des Verifizierens ‚korrekt genug‘ war: sind die Umgebungsbedingungen angemessen? Hat das Messgerät richtig funktioniert? Haben die Beobachter sich eventuell geirrt? Usw. Als ‚theoretischer Begriff‘ ist Falsifikation elegant, in der Praxis aber nur schwer anzuwenden. Letztlich gilt dies dann auch für den Verifikationsbegriff: selbst wenn der Messvorgang jene Werte liefert, die man aufgrund einer abgeleiteten und interpretierten Aussage erwartet, heißt dies nicht mit absoluter Sicherheit, dass richtig gemessen wurde oder dass die Aussage möglicherweise falsch interpretiert oder falsch abgeleitet worden ist.
  19. Rolle des Theoriemachers und Beobachters fundamental: All diese Schwierigkeiten verweisen auf den ausführenden Beobachter, der im Idealfall auch der Theoriemacher ist. In der Tat ist es bislang ein menschliches Wesen, das mit seinen konkreten mentalen Eigenschaften (basierend auf einer bestimmten materiellen Struktur Gehirn im Körper in einer Welt) sowohl Phänomene und Messwerte in hypothetische mathematische Strukturen transformiert, und diese dann wiederum über Folgerungen und Interpretationen auf Phänomene und Messwerte anwendet. Dies in der Regel nicht isoliert, sondern als Teil eines sozialen Netzwerkes, das sich über Interaktionen, besonders über Kommunikation, konstituiert und am Leben erhält. … Edelman hat Recht, wenn er auf die bisherige unbefriedigende Praxis der Wissenschaften hinweist, in der die Rolle des Theoriemachers als Teil der Theoriebildung kaum bis gar nicht thematisiert wird, erst recht geht diese Rolle nicht in die eigentliche Theorie mit ein. Edelman selbst hat aber offensichtlich keinerlei Vorstellung, wie eine Verbesserung erreicht werden könnte, hat er ja noch nicht einmal einen rudimentären Theoriebegriff.
  20. Theorie einer Population von Theoriemachern: Aus dem bisher Gesagten lässt sich zumindest erahnen, dass ein verbessertes Konzept einer Theorie darin bestehen müsste, dass es eine explizite ‚Theorie einer Population von Theoriemachern (TPTM)‘ gibt, die beschreibt, wie solch eine Population überhaupt eine Theorie gemeinsam entwickeln und anwenden kann und innerhalb dieser Theorie einer Population von Theoriemachern würden die bisherigen klassischen Theoriekonzepte dann als mögliche Theoriemodelle eingebettet. Die TPTM wäre dann quasi ein ‚Betriebssystem für Theorien‘. Alle Fragen, die Edelman angeschnitten hat, könnte man dann in einem solchen erweiterten begrifflichen Rahmen bequem diskutieren, bis hinab in winzigste Details, auch unter Einbeziehung der zugrunde liegenden materiellen Strukturen.
  21. Darwin und Theorie: Anmerkung: Darwin hatte nichts was einem modernen Begriff von Theorie entsprechen würde. Insofern ist auch das Reden von einer ‚Evolutionstheorie‘ im Kontext von Darwin unangemessen. Damit wird aber der epochalen Leistung von Darwin kein Abbruch getan! Eher wirkt sein Werk dadurch noch gewaltiger, denn die Transformation von Gedanken, Phänomenen, Fakten usw. in die Form einer modernen Theorie setzt nicht nur voraus, dass man über die notwendigen Formalisierungsfähigkeiten verfügt … sondern man kann erst dann ’sinnvoll formalisieren‘, wenn man überhaupt irgendetwas ‚Interessantes‘ hat, was formalisiert werden soll. Die großen Naturforscher (wie z.B. Darwin) hatten den Genius, die Kreativität, den Mut, die Zähigkeit, das bohrende, systematisierende Denken, was den Stoff für interessante Erkenntnisse liefert. Dazu braucht man keine formale Theorie. Die Transformation in eine formale Theorie ist irgendwo Fleißarbeit, allerdings, wie die Geschichte der Physik zeigt, braucht man auch hier gelegentlich die ‚Genies‘, die das Formale so beherrschen, dass sie bisherige ‚umständliche‘ oder ‚unpassende‘ Strukturen in ‚einfachere‘, ‚elegantere‘, ‚besser passende‘ formale Strukturen umschreiben.
  22. Inkompatible Daten: 1.Person – 3.Person: Schon die erste Überlegung von Edelman, die Theorie des Bewusstseins als Teil einer Theorie des Gehirns zu konzipieren, wirft methodische Fragen auf. Diese resultieren daher, dass ja eine Theorie – was er im nächsten Abschnitt ja auch ausdrücklich feststellt – , im Kern darin besteht, ‚Zusammenhänge‘ einzuführen, durch die die einzelnen, isolierten Fakten kausale, erklärende, prognostische Eigenschaften bekommen können. Nun ist nach bisherigem Kenntnisstand klar, dass jene Fakten, durch die sich für einen menschlichen Beobachter und Theoriemacher das Bewusstsein ‚zeigt‘, und jene Fakten, mittels denen eine Neurobiologie arbeitet, nicht nur einfach ‚unterschiedlich‘ sind, sondern im ersten Anlauf prinzipiell ‚ausschließend‘. Die dritte Person Perspektive im Fall neurobiologischer Theoriebildung und die erste Person Perspektive im Fall von Bewusstseinstheorien sind im ersten Schritt nicht kompatibel miteinander. Jede Form von Beziehungsentwicklung über diesen unterschiedlichen Datenengen – nennen wir sie DAT_NN und DAT_BW – wird vollständig unabhängig voneinander stattfinden müssen. Bei dieser Sachlage zu sagen, dass eine Theorie des Bewusstseins als Teil einer Theorie des Gehirns entwickelt werden soll, klingt spannend, lässt aber jegliche Einsicht in ein mögliches Wie vermissen. Der umgekehrte Fall, eine Theorie des Gehirns als Teil einer Theorie des Bewusstseins hingegen wäre methodisch möglich, da alle empirische Daten abgeleitete Bewusstseinsdaten sind (also: DAT_NN C DAT_BW).
  23. Denken als kreativer Akt – Kein Automatismus: Im übrigen sollte man im Hinterkopf behalten, dass das ‚Einführen von Beziehungen‘ über Datenpunkten in keiner Weise von den Daten selbst her ‚ableitbar‘ ist. Es handelt sich bei solchen Einführungen um ‚kreative Denkakte‘, die aus einem vorgegebenen begrifflichen Denkraum einen möglichen Teilraum aktivieren und diesen ‚an den Daten ausprobieren‘. Insofern handelt es sich bei der Theoriebildung um ein ‚Erkenntnissystem‘ im Sinne von Edelman, das ‚gedachte Varianten von Beziehungen‘ bilden kann, und jene Fakten (ein vom Denken unabhängiger Bereich), die zu irgendwelchen Beziehungsvarianten ‚passen‘, die werden ‚ausgewählt‘ als solche Fakten, die sich im Sinne der ausgewählten Beziehungen ‚erklären‘ lassen. Im Sinne von Edelman könnte man hier von einem ‚bewusstseinsbasierten selektiven System (bsS)‘ sprechen. Es ist an die Lebensdauer des Bewusstseins gebunden, es verfügt über ein ‚Gedächtnis‘, es kann dadurch ‚adaptiv‘ sein, es kann aufgrund von zusätzlichen Kommunikationsprozessen Beziehungsvarianten auf andere Bewusstseine übertragen und durch Übertragung auf bewusstseinsexterne Medien sogar über die Lebensdauer eines individuellen Bewusstseins hinaus gespeichert werden.
  24. Damit deutet sich eine interessante Hierarchie von ‚Erkennungssystemen‘ an: (i) ‚evolutionäre selektive Systeme (esS)‘, (ii) ’somatische selektive Systeme (ssS)‘, (iii) ’neuronale selektive Systeme (nsS)‘, sowie (iv) ‚bewusstseinsbasierte selektive Systeme (bsS)‘.
  25. Kategoriefehler? Während die Hypothese von Edelman, dass die ‚materielle Basis des Geistes‘ in den materiellen Schichten des Gehirns zu suchen sei, möglicherweise Sinn macht, ist seine andere Hypothese, dass eine wissenschaftliche Theorie des Bewusstseins als Teil einer Theorie des Gehirns zu entwickeln sei, aus fundamentalen Gründen nicht nachvollziehbar.
  26. Integrierte Theoriebildung: Greift man Punkt (1) der Diskussion auf, dann könne eine Lösung der Paradoxie von Edelman darin bestehen, dass die Verschränkung der Daten aus der 1ten-Person Perspektive DAT_1Person und die Daten aus der 3ten-Person Perspektive als DAT_3Person C DAT_1Person die Basis für eine mögliche ‚integrierte (philosophische) Theorie des Bewusstseins‘ bilden, die empirische Theorien als Teiltheorien enthält, unter anderem eine Theorie des Gehirns. Wollte man ferner das von Edelman in den ersten Kapiteln mehrfach angesprochene ungelöste Problem der ‚mangelnden Integration des Beobachters‘ in die zugehörige Theorie aufgreifen, dann wäre dies in einer ‚integrierten philosophischen Theorie des Bewusstseins (IPTB)‘ im Prinzip möglich. Folgendes Theorienetzwerk deutet sich damit an:
  27. In einem ersten Schritt (i) könnte man eine ‚Theorie des Bewusstseins‘ T1CS auf Basis der DAT_1Person formulieren; im Rahmen dieser Theorie kann man unter anderem (ii) die empirischen Daten DAT_3Person als eine genuine Teilmenge der Daten DAT_1Person ausweisen. Damit erhält man den Ausgangspunkt dafür, diverse Theorien T3X auf Basis der dritten Person Daten DAT_3Person zu formulieren. Hier gibt es verschiedene Optionen. Eine mögliche wäre die folgende:
  28. In einem ersten Schritt (iii) wird eine ‚Theorie der Evolution der Körper‘ T3EV formuliert. Von hier aus gibt es zwei Fortsetzungen:
  29. Die Interaktion verschiedener Körper einer Population kann in einer (iv) ‚Theorie der Akteure‘ T3A formuliert werden (diese sind u.a. potentielle Beobachter). Diese Theorie T3A beschreibt, welche Verhaltensweisen an Akteuren beobachtbar sind und wie diese sich miteinander verschränken können (z.B. bekannt aus Psychologie und Soziologie).
  30. Eine ‚Theorie der Körper‘ T3BD beschreibt (v) die innere Struktur jener Körper, die den Akteuren zugrunde liegt. Dazu kann es Teil-Theorien geben (vi) wie eine ‚Theorie des Gehirns‘ T3BR (mit all seinen Schichten ) oder (vii) eine ‚Theorie des Immunsystems‘ T3IM.
  31. Brückentheorien: Es ist dann eine eigene theoretische Leistung diese verschiedenen Teil-Theorien und Theorien miteinander in Beziehung zu setzen. Dies ist keinesfalls trivial. Während die Theorie der Evolution eine Zeitkomponente umfasst, in der sich Strukturen komplett ändern können, sind Strukturtheorien des Körpers, des Gehirns und des Immunsystems tendenziell an ’statischen‘ Strukturen orientiert. Dies ist aber unrealistisch: Körper, Gehirn und Bewusstsein sind dynamische Systeme, die sowohl durch ‚Wachstum‘ wie auch durch ‚Lernen‘ kontinuierlich ihre Strukturen ändern. Ferner ist die Interaktion der verschiedenen Theorien ein eigenständiges Problem: Gehirn und Immunsystem sind ja nur zwei Komponenten von vielen anderen, die zusammen einen Körper ausmachen. Wenn man die neuen Erkenntnisse zur Komponente ‚Darm‘ ernst nimmt, dann kann diese Komponenten das gesamte Rest-System vollständig dominieren und steuern (auch das Gehirn). Die genauen Details dieser Interaktion sind noch weitgehend unerforscht. Schließlich ist auch die Rückkopplung der diversen empirischen Theorien T3X zur primären Theorie des Bewusstseins T1CS zu lösen. Dies wäre eine ‚Brückentheorie‘ T1CS3BD mit Anbindung sowohl an die Theorie der Evolution T3EV als auch an die diversen Teiltheorien wie T3BR und T3IM. Bislang ist weltweit kein einziger Kandidat für solch eine Brückentheorie T1CS3BD bekannt, zumal es bislang auch keine ernsthafte Theorie des Bewusstseins T1CS gibt (wohl aber sehr viele Texte, die inhaltlich zum Begriff ‚Bewusstsein‘ etwas schreiben).
  32. Beginn Kap.8: Zu Beginn des Kap. 8 wiederholt Edelman seine These, dass er die ‚Sache des Geistes‘ (‚matter of mind‘) aus einem ‚biologischen Blickwinkel‘ heraus angehen will. Wie schon oben angemerkt, stellen sich hier grundlegende methodische Probleme, die hier jetzt nicht wiederholt werden sollen. Er stellt dann die sachlich unausweichliche Frage, wie man denn dann einen Zusammenhang zwischen ‚Geist‘ und ‚Materie‘ – hier Materie fokussiert auf ‚Gehirn‘ – herstellen kann.
  33. Populationsdenken und Erkennungssystem: Ohne weitere Begründung führt er dann den Begriff ‚Populationsdenken‘ ein, den er sodann überführt in den Begriff ‚Erkennungssystem‘ (‚recogntion system‘). Anschließend bringt er mit der ‚Evolution‘, ‚mit dem Immunsystem‘ und dann mit dem ‚Gehirn‘ drei Beispiele von Erkennungssystemen in seinem Sinne.
  34. Begriff ‚Geist‘ methodisch unbestimmt: Dieses ganze begriffliche Manöver von Edelmann leidet von Anbeginn an dem Umstand, dass er bislang weder genau erklärt hat, was er unter dem Begriff ‚Geist‘ versteht noch mit welchen Methoden man diesen ‚Geist‘ erforschen kann. Der Begriff ‚Geist‘ bildet also bislang nur eine ‚abstrakte Wortmarke ohne definierte Bedeutung‘ und ohne jeglichen Theorie- und Methodenbezug. Zugleich wird ‚Geist‘ streckenweise mit dem Begriff ‚Bewusstsein‘ gleichgesetzt, für den die gleichen Unwägbarkeiten gelten wie für den Begriff ‚Geist‘. Unter diesen Umständen die These aufzustellen, dass sich eine Theorie des Bewusstseins als Teil einer Theorie des Gehirns formulieren lässt ist mindestens kühn (siehe die vorausgehende Diskussion). Für die soeben von Edelman aufgeworfene Frage nach einem möglichen Zusammenhang zwischen dem mit ‚Geist‘ Gemeinten und dem mit ‚Materie‘ – sprich: Gehirn – Gemeinten ist damit alles offen, da die Begriffe ‚Geist‘ und ‚Bewusstsein‘ letztlich auch ‚offen‘ sind, da sie nicht definiert sind. Es bleibt dann nur, abzuwarten und zu schauen, ob sich aus den von Edelman eingeführten Begriffen ‚Populationsdenken‘ bzw. ‚Erkennungssystem‘ etwas ableiten lässt, was die Grundsatzfrage nach dem Verhältnis zwischen ‚Geist‘ und ‚Materie‘ etwas erhellt.
  35. Das Populationsdenken basiert auf Mengen von Individuen, die sich ‚verändern‘ können; man kann diese veränderte Individuen als ‚Varianten‘ auffassen‘, die damit eine ‚Vielfalt‘ in einer Population repräsentieren. Wichtig ist hier, sich klar zu machen, dass in der Perspektive eines einzelnen Individuums dieses weder ‚weiß‘, was vorher war noch was kommen wird noch aus sich heraus abschätzen kann, ob das, was es repräsentiert bzw. das, was es tut, in irgendeiner Weise ’sinnvoll‘ ist! Das einzelne Individuum ‚lebt sich aus‘ unter den Bedingungen, die die Umgebung ‚vorgibt‘ Zu sagen, dass ein einzelnes Individuum ‚erfolgreich‘ ist (‚fit‘), setzt voraus, dass man auf das Gesamtsystem schauen kann und man ein Meta-Kriterium hat, das definiert, wann ein Individuum in einer Population ‚erfolgreich‘ ist oder nicht. Unter Evolutionsbiologen hat sich eingebürgert, als ein Erfolgskriterium die ‚Zahl der Nachkommen‘ zu nehmen. Individuen mit den meisten Nachkommen gelten als erfolgreich. Dieser ‚äußerliche‘ Befund, der sich nur mit Blick auf mehrere Generationen definieren lässt und im Vergleich zu allen anderen Individuen, wird dann zusätzlich verknüpft mit der Hypothese, dass die äußerlich beobachtbare Gestalt, der Phänotyp, letztlich auf eine ‚tiefer liegende Struktur‘ verweis, auf den Genotyp. Der äußerlich beobachtbare Erfolg eines bestimmten Phänotyps wird dann auf die angenommene tiefer liegende Struktur des Genotyps übertragen. In dieser komplexen metatheoretischen Betrachtungsweise verantworten also Genotypen die Phänotypen, die dann in einer bestimmten Umgebung über die Zeit die meisten Nachkommen ermöglichen.
  36. In diesem Kontext von ‚Selektion‘, ‚Auswahl‘ zu sprechen ist ziemlich problematisch, da kein eigentlicher Akteur erkennbar ist, der hier ’selektiert‘. Das einzelne Individuum für sich selektiert sicher nicht, da es nichts hat zum Selektieren. Die Population als solche selektiert auch nicht, da die Population keine handelnde Einheit bildet. ‚Population‘ ist ein ‚Meta-Begriff‘, der einen externen Beobachter voraussetzt, der die Gesamtheit der Individuen beobachten und darüber sprechen kann. Eine Population als ‚existierende‘ ist nur eine Ansammlung von Individuen, von denen jedes einzelne ‚vor sich hin agiert‘. Nur bei externer Beobachtung über die Zeit lässt sich erkennen, dass sich Varianten von Phänotypen bilden von denen einige größere Anzahlen bilden als andere oder einige sogar aussterben. Weder das einzelne Individuum noch die Gesamtheit der Individuen ’selektieren‘ hier irgend etwas. Wohl findet zwischen Individuen ein ‚Genmix‘ (oft als ‚crossover‘ bezeichnet) statt, der neue Genotypen ermöglicht, z.T. Ergänzt durch zufällige Änderungen (Mutationen) des Genotyps, mit nachfolgend neuen Phänotypen.
  37. Beobachter mit Theorie: Wenn man dennoch am Begriff ‚Selektion‘ festhalten will, dann nur dann, wenn man tatsächlich einen ‚externen Beobachter‘ voraussetzt, der alle diese variierenden Phänotypen in ihren jeweiligen Umgebungen in der Zeit ‚beobachten‘ kann und der eine ‚Theorie‘ formuliert (also eine systematische Beschreibung von den Beobachtungsdaten), in der die Veränderung der Phänotypen samt ihren ‚Anzahlen‘ in Beziehung gesetzt werden zu den verschiedenen Umgebungen. Wenn bestimmte Phänotypen in einer bestimmten Umgebung E aussterben während andere Phänotypen bei der gleichen Umgebung nicht aussterben, sich vielleicht sogar vermehren, dann könne man in dieser Theorie den Begriff ‚Selektion‘ so definieren, dass die ‚zahlenmäßig erfolgreichen‘ Phänotypen zur Umgebung E ‚besser passen‘ als die anderen. Es sind dann die ‚Umstände der Umgebung‘, die ‚Eigenschaften der Umgebung‘, die darüber entscheiden, welcher Phänotyp ‚bleibt‘ und welcher ’nicht bleibt‘. Die Umgebung wäre dann das ‚harte Kriterium‘, an dem die Leistungsfähigkeit eines Phänotyps (und indirekt damit des ermöglichenden Genotyps), ‚gemessen‘ werden kann. ‚Messen‘ heißt ‚Vergleichen‘: passt ein Phänotyp in eine bestehende Umgebung oder nicht.
  38. Erfolgskriterium nicht absolut: Da die Umgebung ‚Erde‘ nach heutigem Wissensstand sich beständig verändert hat, ist das Erfolgskriterium ‚Passen‘ sehr relativ. Was heute ‚gut passt‘ kann morgen ‚unpassend‘ sein.
  39. Akteure als Teil der Umgebung: Ferner ist in Rechnung zu stellen, dass Phänotypen (i) sowohl mit der Umgebung wechselwirken können und dadurch diese so stark verändern können, dass sie damit ihre eigenen Lebensgrundlagen zerstören (etwas ‚Passendes‘ wird ‚unpassend‘ gemacht), als auch (ii) dass die Vielzahl von Phänotypen untereinander ‚zur Umgebung wird‘ (z.B. in Räuber-Beute Beziehungen). Dann besteht die Umgebung nicht nur aus der Erde wie sie ist (sehr veränderlich), sondern andere Phänotypen einer anderen ‚Art‘ müssen entweder als Feinde abgewehrt werden oder als potentielle Beute gefangen oder es muss mit ‚Artgenossen‘ kooperiert werden. Das erfolgreiche Überleben wird damit zu einer Gleichung mit sehr vielen dynamischen Variablen. Das theoretische Kriterium der ‚Selektion‘ erscheint daher als ein sehr abstraktes Kriterium in der Beschreibung von Erfolg, hat sich aber historisch als Minimalanforderung durchgesetzt.
  40. Fähigkeit zur Variationsbildung im Dunkeln: Interessant ist der Punkt – auf den auch Edelman zentral abhebt – dass die Genotypen überhaupt in der Lage sind, immer komplexere Phänotypen zu bilden, ohne dass erkennbar ist, dass ihnen von der Umgebung aus irgendwelche Vorab-Informationen übermittelt würden. Dies scheitert allein auch schon daran, dass die Erde – und das Sonnensystem, und die Milchstraße, und … — als ‚Umgebung‘ keinen geschlossenen Akteur mit eigener ‚Absicht‘ darstellt. Vielmehr handelt es sich – nach heutigem Kenntnisstand – um ein System, das ‚aus sich heraus‘ Ereignisse erzeugt, die als Ereignisse dieses System manifestieren. Biologische Systeme können diese Ereignismengen nur ‚aufnehmen‘, ’sortieren‘, auf unterschiedliche Weise ‚erinnern‘, und auf der Basis dieser ‚Erfahrungen‘ Strukturen ausbilden, die dieser Ereignismenge möglichst ‚optimal‘ gerecht werden. Und da im Moment der ‚reproduktiven‘ Strukturbildung zwar einige Erfolge aus der Vergangenheit ‚bekannt‘ sind, aber ’nichts aus der Zukunft‘, bleibt den biologischen Systemen nichts anderes übrig, als , im Rahmen ihrer genetischen und phänotypischen Variationsbildung möglichst viele Variationen ‚ins Blaue hinein‘ zu bilden. Nach 3.8 Milliarden Jahren kann man konstatieren, es hat bislang irgendwie funktioniert. Daraus kann man aber leider nicht zweifelsfrei ableiten, dass dies auch in der Zukunft so sein wird.
  41. Selektion als sekundärer Effekt: Also, ‚Selektion‘ ist keine Eigenleistung eines Individuums oder einer Population, sondern Selektion ist der Effekt, der entsteht, wenn Populationen mit Umgebungen wechselwirken müssen und die Umgebung festlegt, unter welchen Bedingungen etwas zu ‚passen‘ hat. Erst ’nach‘ der Reproduktion und ’nach einiger Zeit‘ zeigt sich für ein Individuum, ob ein bestimmter Genotyp einen ‚erfolgreichen‘ Phänotyp hervorgebracht hat. Zu dem Zeitpunkt, wo ein Individuum diese Information bekommt, hat es aber keine Gestaltungsmacht mehr: einmal weil seine Reproduktionsaktivität dann schon vorbei ist und zum anderen, weil es bei Erfolg ‚alt‘ ist oder gar schon ‚gestorben‘.
  42. Begriff ‚Erkennen‘ unglücklich: Dass Edelman diese Populationsdynamik als ‚Erkennungssystem‘ (‚recognition system‘) verstanden wissen will, ist nicht ganz nachvollziehbar, da, wie schon angemerkt, kein eigentlicher Akteur erkennbar ist, der dies alles ’steuert‘. Dass im Fall der Evolution die Gesamtheit der Genotypen zu einem bestimmten Zeitpunkt einen gewissen ‚Informationsbestand‘, einen gewissen ‚Erfahrungsbestand‘ repräsentieren, der sich aus den vorausgehenden Reproduktions- und aufgezwungenen Selektionsereignissen ‚angesammelt‘ hat, lässt sich theoretisch fassen. Dass aber hier ein identifizierbarer Akteur etwas ‚erkennt‘ ist wohl eine starke Überdehnung des Begriffs ‚Erkennen‘. Das gleiche gilt für das Beispiel mit dem Immunsystem. Das ‚Herausfiltern‘ von bestimmten ‚passenden Eigenschaften‘ aus einer zuvor produzierten Menge von Eigenschaften ist rein mathematisch eine Abbildung, die so zuvor nicht existierte. Aber es gibt keinen bestimmten Akteur, der für die Konstruktion dieser Abbildung verantwortlich gemacht werden kann.
  43. Netzwerke lernen ohne eigentlichen Akteur: Dennoch arbeitet Edelman hier einen Sachverhalt heraus, der als solcher interessant ist. Vielleicht sollte man ihn einfach anders benennen. Interessant ist doch, dass wir im Bereich der biologischen Systeme beobachten können, dass eine Menge von unterscheidbaren Individuen, von denen jedes für sich genommen keinerlei ‚Bewusstsein‘ oder ‚Plan‘ hat, als Gesamtheit ‚Ereignismengen‘ so ’speichern‘, dass ‚metatheoretisch‘ eine ‚Abbildung‘ realisiert wird, die es so vorher nicht gab und die Zusammenhänge sichtbar macht, die eine gewisse ‚Optimierung‘ und auch eine gewisse ‚Logik‘ erkennen lassen. Nennen wir diese Herausbildung einer Populationsübergreifenden Abbildung ’strukturelles Lernen‘ was zu einer ’strukturellen Erkenntnis‘ führt, dann habe wir dadurch zwar noch keinen eigentlichen ‚Akteur‘, aber wir haben ein interessantes Phänomen, was die Entwicklung von großen Mengen von biologischen Systemen charakterisiert. Das
    ‚Biologische‘ erscheint als ein Netzwerk von vielen Systemen, Teilsystemen, bei dem die einzelnen Komponenten keinen ‚Plan des Ganzen‘ haben, aber durch ihre individuelle Manifestationen indirekt an einem ‚größeren Ganzen‘ mitwirken.
  44. Homo sapiens: Erst mit dem Aufkommen des Homo sapiens, seiner Denk- und Kommunikationsfähigkeit, seinen Technologien, ist es möglich, diese impliziten Strukturen, die alle einzelnen Systeme bestimmen, dirigieren, filtern, usw. auf neue Weise zu ‚erfassen‘, zu ‚ordnen‘, zu ‚verstehen‘ und auf diese Weise mit einem angenäherten ‚Wissen um das Ganze‘ anders handeln zu können als ohne dieses Wissen.

ZWISCHENREFLEXION FITNESS VORGEGEBEN

  1. Außer dem bislang Gesagten (siehe oben Punkte 1-44) ist es vielleicht hilfreich, sich klar zu machen, wie genau das Zusammenspiel zwischen der Fitness biologischer Systeme und den jeweiligen Umgebungen beschaffen ist.
  2. Ein grundlegender Tatbestand ist jener, dass die Umgebung der biologischen Systeme auf der Erde von Anfang an eben die Erde war und ist bzw. das Sonnensystem bzw. unsere Milchstraße bzw. das gesamte bekannte Universum. Diese Vorgabe ist für alle biologische Systeme bislang nicht verhandelbar. Wenn ein biologisches System sich behaupten will, dann in diesem konkreten Ausschnitt des Universums und nirgendwo sonst.
  3. Zugleich wissen wir, dass die Erde seit ihrer Entstehung samt Sonnensystem und dem ganzen Kontext zu allen Zeiten ein hochdynamisches System war und ist, das im Laufe von Milliarden Jahren viele dramatische Änderungen erlebt hat. Sich in dieser Umgebung zu behaupten stellt eine schier unfassbare Leistung dar.
  4. Ob sich im Laufe der Zeit eine bestimmte Lebensform L auf der Erde ‚behaupten‚ oder gar ‚vermehren‚ konnte, hing einzig davon ab, ob diese Lebensform L im Laufe der Generationen in der Lage war, hinreichend viele Nachkommen unter den konkreten Bedingungen der Umgebung zu erzeugen und am Leben zu erhalten. Die Anzahl der Nachkommen einer Generation der Lebensform L kann von daher als Bezugspunkt zur Definition eines ‚Fitness-Wertes‚ bzw. dann der ‚Fitness‚ einer Lebensform genommen werden. Eine häufige Schematisierung dieser Sachverhalte ist die folgende:
  5. POP(t+1) = o(POP(t)), t>0 := Die Population ‚POP‘ zum Zeitpunkt t ist das Ergebnis der Anwendung der Populationsgenerierungsfunktion ‚o‘ auf die Population zum Zeitpunkt ‚t‘, wobei ‚t‘ größer als 0 sein muss. Die Funktion ‚o‘ kann man dann weiter analysieren:
  6. o=e x c := Die Populationsgenerierungsfunktion ‚o‘ ist das Ergebnis der Hintereinanderausführung der beiden Teilfunktionen ‚e‘ (‚earth-function‘) und ‚c‘ (‚change-funtion‘). Diese kann man weiter analysieren:
  7. e : 2^(POP^2) x 2^POP x EARTH —–> POP := Die earth-function e nimmt Paare von Individuen (potentielle Eltern) der Population, zusätzlich kann es beliebig andere Individuen der Population geben (Jäger, Beute, Artgenossen…), und dann die Erde selbst mit ihren Eigenschaften, und transformiert daraus nachfolgende Individuen, Abkömmlinge. Es ist schwer zu sagen, ‚wer‘ hier über Leben und Tod entscheidet: einerseits legen die konkreten Bedingungen der Erde und die Art der Zeitgenossen fest, unter welchen Bedingungen eine Lebensform überleben kann, andererseits hängt ein Überleben auch davon ab, welche ‚Eigenschaften‘ eine Lebensform besitzt; ob diese leistungsfähig genug sind, unter den gegebenen Bedingungen ‚leben‘ zu können. Nimmt man die Population der Lebensformen als ‚Generator‘ neuer Formen (siehe nächsten Abschnitt), dann wirkt die konkrete Erde wie eine Art ‚Filter‘, das nur jene ‚durchlässt‘, die ‚passen‘. ‚Selektion‘ wäre dann ein ‚emergentes‘ Phänomen im radikalen Sinne, da dieses Phänomen nur im Zusammenspiel der beiden Faktoren ‚Erde‘ und ‚Population‘ ’sichtbar‘ wird. Ohne dieses Zusammenspiel gibt es kein Kriterium für ‚Überlebensfähigkeit‘. Ferner wird hier deutlich, dass das Kriterium ‚Fitness‘ bzw. ‚Überlebensfähigkeit‘ kein absolutes Kriterium ist, sondern sich zunächst nur auf den Lebensraum ‚Erde‘ beschränkt. In anderen Bereichen des Universums könnten ganz andere Kriterien gelten und dort müsste die Lebensformen u.U. Einen ganz anderen Zuschnitt haben.
  8. Ferner  wird hier sichtbar, dass der ‚Erfolg‚ einer bestimmten Lebensform als Teil des gesamten Biologischen letztlich sehr ‚partiell‚ ist, weil bei Änderungen der Zustände auf der Erde bislang erfolgreiche Lebensformen (berühmtes Beispiel die Dinosaurier) vollstänig verschwinden können; andere Lebensformen als Teil des Biologischen können dann aber plötzlich neu in den Vordergrund treten. (berühmtes Beispiel die Säugetiere).  Offen ist die Frage, ob es spezielle Lebensformen — wie z.B. den homo sapiens — gibt, die aufgrund ihrer hervorstechenden Komplexität im Kontext des Biologischen eine irgendwie geartete ‚besondere Bedeutung‘ besitzen. Aktuell erwecken die Wissenschaften den Eindruck, als ob es hier keine feste Meinung gibt: die einen sehen im homo sapiens etwas Besonderes, das auf eine spezielle Zukunft verweist, andere sehen im homo sapiens eine von vielen möglichen speziellen Lebensformen, die bald wieder verschwinden wird, weil sie sich der eigenen Lebensgrundlagen beraubt.
  9. c : cross x mut := die ‚change-function‘ c besteht auch aus zwei Teilfunktionen, die hintereinander ausgeführt werden: die erste Teilfunktion ist eine Art Überkreuzung genannt ‚crossover‘ (‚cross‘), die zweite ist eine Art Mutation genannt ‚mutation‘ (‚mut‘).
  10. cross : POP x POP —–> POP := In der Überkreuzfunktion ‚cross‘ werden die Genotypen von zwei verschiedenen Individuen ‚gemischt‘ zu einem neuen Genotyp, aus dem ein entsprechend neuer Phänotyp hervorgehen kann.
  11. mut : POP —–> POP := In der Mutationsfunktion kann eine zufällige Änderung im Genotyp eines Individuums auftreten, die unter Umständen auch zu Änderungen im Phänotyp führt.
  12. Idealerweise kann man die change-function c isoliert von der Umgebung sehen. Realistischerweise kann es aber Wechselwirkungen mit der Umgebung geben, die auf die change-function ‚durchschlagen‘.

  13. Fasst man alle Faktoren dieser – stark vereinfachten – Populationsgenerierungsfunktion ‚o‘ zusammen, dann wird auf jeden Fall deutlich, dass beide Systemedie Erde und das Biologische – einerseits unabhängig voneinander sind, dass sie aber faktisch durch die Gegenwart des Biologischen auf der Erde (und im Sonnensystem, in der Milchstraße, …) in einer kontinuierlichen Wechselwirkung stehen, die sich dahingehend auswirkt, dass das Biologische eine Form annimmt, die zur Erde passt. Grundsätzlich könnte das Biologische aber auch andere Formen annehmen, würde es in einer anderen Umgebung leben.
  14. Um die Populationsgenerierungsfunktion noch zu vervollständigen, braucht man noch eine ‚Bootstrapping Funktion‘ ‚boot-life()‘, mittels der überhaupt das Biologische auf der Erde ‚eingeführt‘ wird:
  15. boot-life : EARTH —–> EARTH x POP (auch geschrieben: POP(t=1) = boot-life(POP(t=0)) ):= wie die allerneuesten Forschungen nahelegen, konnten sich unter bestimmten Bedingungen (z.B. unterseeische Gesteinsformationen, vulkanisches Wasser, …) verschiedene Molekülverbände zu komplexen Molekülverbänden so zusammen schließen, dass irgendwann ‚lebensfähige‘ – sprich: reproduktionsfähige – Zellen entstanden sind, die eine Anfangspopulation gebildet haben. Auf diese Anfangspopulation kann dann die Populationsgenerierungsfunktion ‚o‘ angewendet werden.

Fortsetzung folgt

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

DAS WAS MENSCHSEIN AUSMACHT. Eine Notiz

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 8.Sept. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

  1. Während der Auseinandersetzung mit dem Buch von Edelman gab es unterschiedliche Wechselwirkungen mit anderen gedanklichen Prozessen. Ein Thema hier ist eine mögliche grundlegende Typologie von ‚Intelligenz‘.

  2. Vorab müsste man das Verhältnis des Begriffs ‚Intelligenz‘ zu Begriffen wie ‚Lernen‘, ‚Bewusstsein‘, ‚Geist‘ und ‚Gehirn‘ klären. Hier nur soviel, dass alle diese Begriffe ein ‚Gehirn‘ – oder eine vergleichbare materielle Struktur – zum Funktionieren voraussetzen. Allerdings kann das bloße Vorhandensein solcher materieller Strukturen nicht garantieren, dass es dann auch so etwas wie ‚Geist‘, ‚Bewusstsein‘, ‚Lernen‘ und ‚Intelligenz‘ gibt.

  3. Der Begriff ‚Geist‘ wird im Englischen als ‚mind‘ gerne und oft benutzt, um Besonderheiten im Verhalten des Homo sapiens zu ‚markieren‘. Allerdings ist dieser Begriff sehr diffus und bislang in keiner Theorie hinreichend erklärt.

  4. Meistens werden die Begriffe ‚Bewusstsein‘ und ‚Geist‘ sehr ähnlich benutzt, ohne dass deren Beziehung zueinander – wegen einer fehlenden Theorie – letztlich klar ist. Da unser ‚Zugang‘ zum Phänomen ‚Geist‘ irgendwie über das beobachtbare Verhalten und das ‚Bewusstsein‘ läuft, ist der Begriff ‚Geist‘ eher ein theoretischer Begriff innerhalb einer Theorie, die man auf der Basis von Bewusstseinsdaten formulieren würde. Mit dem Begriff ‚Bewusstsein‘ wäre dies ähnlich: würden wir alle erreichbaren Daten aus der 1.Person und 3.Person Perspektive sammeln, könnten wir eine Theorie bauen, die den theoretischen Term ‚Bewusstsein‘ enthält und damit indirekt ‚erklärt‘. Paradox würde es, weil der Begriff ‚Bewusstsein‘ dann nicht nur eine theoretische Beschreibung ‚von etwas‘ wäre, also einen ‚Gegenstand‘ der Beschreibung bilden würde, sondern zugleich auch den ‚Autor‘ der ‚Beschreibung‘ repräsentieren würde, allerdings nur indirekt. Der so theoretisch beschriebene ‚Gegenstand Bewusstsein‘ würde wesentliche Eigenschaften nicht enthalten. Für diesen Fall eines ‚Gegenstandes‘ der zugleich ‚Autor‘ ist gibt es bislang keinen akzeptierten Theoriebegriff.

  5. Der ‚wissenschaftliche Intelligenzbegriff‘ orientiert sich am beobachtbaren Verhalten und definierten Referenzpunkten. Dieses Verfahren wurde seit gut 100 Jahren auf den Homo sapiens angewendet und dann auf viele andere biologische Systeme verschieden vom Homo sapiens. Man könnte grob von ‚Menschlicher Intelligenz‘ sprechen und von ‚Tierischer Intelligenz‘ mit vielen Überschneidungen.

  6. Daneben gibt es heute eine ‚Maschinelle Intelligenz‘, die bislang aber in keiner allgemein akzeptierten Form beschrieben und untersucht wird. Die Beziehung zur ‚menschlichen‘ und ‚tierischen‘ Intelligenz wurde bislang nicht systematisch untersucht.

  7. Im Alltag, in den Medien, in der Kunst gib es eine ‚fiktive Intelligenz‘, der man nahezu alles zutraut, ohne dass klar ist, ob dies wirklich möglich ist. Die ‚fiktive Intelligenz‘ ist gleichsam eine Art ‚Sammelpunkt‘ aller Projektionen von dem, was Menschen sich unter ‚Intelligenz‘ vorstellen können.

  8. Durch die Koexistenz von Menschen und neuer Informations-Technologie kann es zu einer neuen ‚hybriden Intelligenz‘ kommen, in der menschliche und maschinelle Intelligenz auf neue Weise symbiotisch zusammen wirken. Dazu gibt es bislang kaum Forschungen; stattdessen versucht man, die maschinelle Intelligenz möglichst unabhängig vom Menschen und oft in Konkurrenz und im Gegensatz zu ihm zu entwickeln. Zugleich verbleibt die Forschung zur menschlichen Intelligenz auf niedrigem Niveau; viele – die meisten? – wichtigen Eigenschaften sind weiterhin unerforscht. Beides zusammen blockiert die Entwicklung von wirklich starken, neuen Intelligenzformen.

  9. Durch die ungelöste Paradoxie von zugleich ‚Gegenstand‘ und ‚Autor‘ bleiben viele wichtige, vielleicht die wichtigsten, Eigenschaften menschlicher Intelligenz im Verborgenen. Es gibt hier einen Erkenntnismäßigen ‚blinden Fleck‘ der nur sehr schwer aufzulösen ist.

  10. Wenn man sieht, wie in vielen Ländern dieser Erde, auch in jenen, in denen man glaubte, viele ‚primitive‘ Sichten zur Welt, zum Leben, zum Menschen überwunden zu haben, große Teile der Bevölkerung und der politischen Leitinstitutionen wieder in solche ‚primitiveren‘ Sichten und Verhaltensweisen zurückfallen und darin zunehmend Anhänger finden, dann kann man dies als Indikator dafür nehmen, dass differenziertere, komplexere Sichten des Lebens und die dazu gehörigen Verhaltenskomplexe keine Automatismen darstellen. Nur weil jemand, eine Gruppe, eine Population zu einer bestimmten Zeit einmal eine ‚Einsicht‘ hatte, ein aus dieser Einsicht resultierendes ‚praktisches Lebenskonzept umgesetzt hat‘, folgt nicht automatisch, dass diese Einsicht in den Individuen der Population ‚am Leben bleibt‘. Die Struktur und Dynamik eines einzelnen Homo-sapiens-Exemplars ist von solch einer Komplexität, dass nur maximale Anstrengungen dieses Potential an Freiheit zu einer ‚konstruktiven Lebensweise‘ motivieren können. Dabei ist das Wort ‚motivieren‘ wichtig. Im Homo sapiens kulminiert die ‚Freiheit‘, die sich in der Materie und Struktur des gesamten Universums samt den biologischen Strukturen grundlegend findet, zu einem vorläufigen ‚Optimum‘, das sich jeder vollständigen ‚Verrechnung‘ in fixierte Strukturen widersetzt. Man kann einen Homo sapiens einsperren, töten, mit Drogen willenlos machen, durch Entzug von materiellen Möglichkeiten seiner Realisierungsbasis berauben, durch falsche Informationen und Bildungen fehlleiten, man kann aber seine grundlegende Freiheit, etwas ‚Anderes‘, etwas ‚Neues‘ zu tun, dadurch nicht grundlegend aufheben. In der Freiheit jedes einzelnen Homo sapiens lebt potentiell die mögliche Zukunft des gesamten Universums weiter. Ein unfassbarer Reichtum. Die größte Lüge und das größte Verbrehen an der Menschlichkeit und am Leben überhaupt ist daher genau diese grundlegende Eigenschaft des Homo sapiens zu verleugnen und zu verhindern.

  11. Natürlich hat der Homo sapiens noch weitere grundlegende Eigenschaften über die zu sprechen gut tun würde.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

ÜBER DIE MATERIE DES GEISTES. Relektüre von Edelman 1992. Teil 7

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 5.Sept. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

(Einige Korrekturen: 6.Sept.2018, 08:00h)

Gerald M.Edelman, Bright Air, Brilliant Fire. On the Matter of the Mind, New York: 1992, Basic Books

BISHER

Teil 1

Teil 2

Teil 3

Teil 4

Teil 5

Teil 6

WICHTIGE POSITIONEN

Zur Erinnerung, einige der wichtigen Positionen, auf die bislang hingewiesen wurde:

EDELMAN

Edelman benutzt die Arbeitshypothese, dass das, was wir ‚Geist‘ nennen, sich nur ab bestimmten Zeitpunkten während der allgemeinen Evolution ‚gezeigt‘ (‚emerged‘) hat, und zwar sehr spät.(vgl. S.41) Und dies setzt die Annahme voraus, dass die fundamentale Basis für alles Verhalten und für die ‚Sichtbarwerdung‘ (‚emergence‘) des Geistes die Anatomie und Morphologie der biologischen Strukturen ist sowie deren Funktionen.(vgl. S.41)

ASPEKTE DER DISKUSSION BISHER

Im Kontext seiner Argumentation kritisiert Edelman viele bekannte Positionen im Bereich Philosophie und Psychologie aus der eingeschränkten Perspektive ihres Bezuges zu den materiellen Strukturen heraus, die von ihm – letztlich wie bei Kant, nur mit anderem Akzent, mehr oder weniger – als ‚Ermöglichung des Geistes‘ gesehen werden. Diese Kritik in dieser speziellen Perspektive ist zum Teil berechtigt, aber auch nur zu einem sehr eingeschränkten Teil, da die kritisierten Personen und Positionen von den neuen Erkenntnissen noch gar nichts wissen konnten. Über diese enge Perspektive des expliziten Bezugs zu materiellen Strukturen hinaus repräsentieren die kritisierten Positionen aber auch Perspektiven, die ‚in sich eine methodische Rechtfertigung‘ besitzen, die Edelman schlicht nicht erkennt. Hier verkürzt zur Erinnerung einige seiner ‚methodischen blinden Flecken‘:

  1. Alternativen sind berechtigt:… zugleich die Arbeitshypothese aufzustellen, dass damit Analyse- und Erklärungsansätze von vornherein zu verurteilen sind, die Verhaltensdaten (Psychologie) bzw. auch introspektive Daten (Philosophie) als solche als Basis nehmen ohne direkt einen Bezug zu den materiellen (anatomischen) Daten herzustellen, ist mindestens problematisch wenn nicht wissenschaftsphilosophisch unhaltbar…

  2. Primär die Funktionen:… denn, wie immer die anatomischen Grundlagen beschaffen sein mögen, wenn ich deren ‚Verhaltensdynamik‘ erforschen will, interessieren mich die Details dieser Anatomie nicht, sondern nur ihre Funktion. Und diese lässt sich nicht durch Rekurs auf Bestandteile beschreiben sondern nur durch Beobachtung des Systemverhaltens …

  3. Daten als solche sind ‚blind‘:… aus materiellen Strukturen als solchen folgt in keiner Weise irgend etwas ‚Geistiges‘ es sei denn, ich habe vorab zur Untersuchung einen Kriterienkatalog G, den ich als Maßstab anlegen kann, um dann bei der Analyse der Beobachtungsdaten konstatieren zu können, das der Eigenschaftskomplex G vorliegt. Habe ich solch einen Kriterienkatalog G nicht, kann ich noch so viele empirische Daten zu irgendwelchen materiellen Strukturen vorweisen; ‚aus sich heraus‘ lassen diese Daten eine solche Eigenschaftszuschreibung nicht zu! …

  4. Konkretisierung und Quantenraum:… ohne die ‚Anhaltspunkte‘ im ‚beobachtbaren Verhalten‘ wäre es praktisch unmöglich, jene bedingenden materiellen Struktureigenschaften zu identifizieren, da die zugrundeliegenden neuronalen und damit letztlich biochemischen Grundlagen rein mathematisch nahezu unbegrenzt viele Funktionen erlauben. Letztlich deuten diese materiellen Strukturen auf einen quantenmechanischen Möglichkeitsraum hin, deren Konkretisierung von Faktoren abhängt, die sich aus den Strukturen selbst nicht so einfach ableiten lassen. …

  5. Phänomene zuerst: Philosophen arbeiten traditionell mit dem subjektiven Erlebnisraum direkt, ohne zugleich die Frage nach den materiellen Bedingungen der so erlebbaren ‚Phänomene‘ zu stellen. In gewisser Weise handelt es sich bei diesen subjektiven (= bewussten) Phänomenen auch um eine Systemfunktion eigener Art mit einer spezifischen Besonderheit, der man nicht gerecht werden würde, würde man sie durch Rekurs auf die bedingenden materiellen Strukturen (Gehirn, Körper, Welt, …) ‚ersetzen‘ wollen. …

  6. Empirie ist abgeleitet:… muss man sich klar machen, dass alle sogenannten ‚empirischen Daten‘ ja nicht ‚außerhalb‘ des ‚bewusstseinsbedingten Phänomenraums‘ vorkommen, sondern auch nur ‚bewusstseinsbedingte Phänomene‘ sind, allerdings eine spezielle Teilmenge, die man mit unterstellten Vorgängen in der Außenwelt in Verbindung bringt. Insofern bildet der subjektive Phänomenraum die Basis für jegliche Denkfigur, auch für die empirischen Wissenschaften. …

  7. Bezugspunkte für die Phänomene des Geistigen: Die Frage, was denn dann die primären Kriterien für das ‚Psychische-Geistige‘ sind, wird durch diese multidisziplinäre Kooperationen nicht einfacher: da die materiellen Strukturen als solche keinerlei Anhaltspunkte für ‚Geistiges‘ liefern, bleibt letztlich als Ausgangspunkt doch nur das ‚Geistige‘, wie biologische Systeme ’sich selbst‘ sehen, weil sie sich so ‚erleben‘. Das ‚Geistige‘ erscheint hier als ‚Dynamik‘ von Systemen, die sich anhand des Auftretens dieser Systeme ‚zeigt‘, ‚manifestiert‘. Aus den einzelnen materiellen Bestandteilen kann man diese Eigenschaften nicht ableiten, nur aus der Gesamtheit in spezifischen Wechselwirkungen. …

  8. … wenn ein homo sapiens ’nichts tut‘, dann ist die Dynamik ‚unsichtbar‘ und die durch solch eine Dynamik sichtbar werdenden Eigenschaften sind nicht greifbar. Weiter: wenn ein homo sapiens eine Dynamik erkennen lässt, dann bedarf es einer spezifischen ‚Erkenntnisweise‘, um die spezifischen Eigenschaften von ‚Geist‘ erkennen zu können. …

  9. Das System-Ganze: … Erst durch die Dynamik des Gesamtsystems werden – oft als ‚emergent‘ klassifizierte – Phänomene sichtbar, die von den einzelnen Bestandteilen des materiellen Systems als solchen nicht ableitbar sind, nur eben durch das Verhalten, die Dynamik des Gesamtsystems. …

  10. Begriffliches Mehr: … Es ist weder auszuschließen, dass es zwischen dem empirischen Phänomen der ‚Gravitation‘ und dem empirischen Phänomen ‚Geist‘ einen ‚tieferen‘ Zusammenhang gibt (da ‚Geist‘ als empirisches Phänomen ‚Gravitation‘ voraussetzt‘), noch dass es weit komplexere empirische Phänomene geben kann als den ‚individuell in Populationen‘ sich manifestierenden ‚empirischen Geist‘.

  11. Neues‘ und sein Ursprung:… Da jene geistige Eigenschaften, die den homo sapiens von anderen Lebensformen unterscheiden, erst mit diesem auftreten, kann eine ‚Geschichte der Entwicklung jener Formen, die den homo sapiens auszeichnen‘, nur indirekte Hinweise darauf liefern, wie sich jene ’späten‘ komplexen materiellen Strukturen aus ‚einfacheren, früheren‘ Strukturen entwickelt haben. Damit entsteht dann die interessante Frage, wie sich solche Komplexität aus ’scheinbar einfacheren‘ Strukturen entwickeln konnte? In der logischen Beweistheorie gilt allgemein, dass ich nur etwas ‚ableiten’/ ‚beweisen‘ kann, wenn ich das zu Beweisende letztlich schon in meinen ‚Voraussetzungen’/ ‚Annahmen‘ angenommen habe. Das ’spätere komplexere Neue‘ wäre in dem Sinne dann nicht wirklich ’neu‘, sondern nur eine ‚andere Zustandsform‘ eines Ausgangspunktes, der schon alles hat‘. Dies wäre nicht sehr überraschend, da wir in der Big-Bang-Theorie allgemein von ‚Energie (E)‘ ausgehen, die in Folge von Abkühlungsprozessen unendlich viele konkrete Zustandsformen angenommen hat, von denen wir mit E=mc^2 wissen, dass sie alle ineinander überführbar sind, wie speziell sie auch immer sein mögen.

  12. Rückschlüsse vom Phänotyp auf den Genotyp: …Die komplexen Abbildungsprozesse zwischen Genotypen und Phänotypen als Teil von Populationen in Umgebungen machen eine Zuordnung von im Verhalten fundierten Eigenschaftszuschreibungen von ‚Geist‘ zu vorliegenden materiellen Strukturen schwer bis unmöglich. … Das Entscheidende am Phänomen des Geistes ist ja, dass er nach vielen Milliarden Jahren Entwicklung in einem aktuell hochkomplexen und dynamischen System sich zeigt, und zwar nicht ‚aus sich heraus‘ sondern nur dann, wenn ein anderes System, das ebenfalls ‚Geist‘ hat, diesen Phänomenen ‚ausgesetzt‚ ist. Ein System, das selbst ‚keinen Geist hat‘, kann die beobachtbaren Phänomene nicht als ‚geistige‘ klassifizieren! Dies schließt nicht aus, dass heutige Algorithmen quasi automatisch irgendwelche ‚Muster‘ im beobachtbaren Verhalten identifizieren können, allerdings sind dies Muster wie unendlich viele andere Muster, deren ‚Bewertung‘ in irgendeine Zustandsdimension völlig beliebig ist.

  13. Der ‚Theoriemacher‘ kommt selbst als Gegenstand der Theorie nicht vor: …Von Interesse ist auch, wie sich der Zustandsraum der materiellen Strukturen (die Gesamtheit des aktuellen empirischen Wissens über das Universum und seiner möglichen Zukünfte) und der Zustandsraum von Systemen mit Geist (die Gesamtheit des geistigen Vorstellungsraumes samt seiner möglichen geistigen Zukünfte) unterscheidet. Die Sache wird dadurch kompliziert, dass ja die Systeme mit empirischem Geist letztlich auch zum genuinen Gegenstandsbereich der sogenannten ‚Natur‘-Wissenschaften gehören. Wenn das Empirisch-Geistige Teil der Natur ist, reichen die bisherigen empirischen naturwissenschaftlichen Theorien nicht mehr. Sie müssten entsprechend geändert werden. Der Beobachter muss wesentlicher Bestandteil der Theorie selbst werden. Für diese Konstellation haben wir bislang aber keinen geeigneten empirischen Theoriebegriff.

  14. Die ‚Interpretationsfunktion‘ als Fundament allen biologischen Lebens ungeklärt: Die fundamentale Tatsache, dass es Moleküle gibt, die andere Moleküle als ‚Kode‘ benutzen können, um Transformationsprozesse zwischen einer Sorte von Molekülen (DNA, RNA) in eine andere Sorte von Molekülen (Polypeptide, Proteine) steuern zu können, nimmt Edelman als Faktum hin, thematisiert es selbst aber nicht weiter. Er benennt diese ‚interpretierenden Moleküle‘ auch nicht weiter; sein Begriff ‚cellular device‘ ist eher nichtssagend. Dennoch ist es gerade diese Fähigkeit des ‚Übersetzens’/ ‚Interpretierens‘, die fundamental ist für den ganzen Transformationsprozess von einem Genom in einen Phänotyp bzw. in eine ganze Kette von hierarchisch aufeinander aufbauenden Phänotypen. Setzt man diese Übersetzungsfähigkeit voraus, ist das ganze folgende Transformationsgeschehen – so komplex es im Detail erscheinen mag – irgendwie ‚trivial‘. Wenn ich in mathematischer Sicht irgendwelche Mengen habe (z.B. verschiedene Arten von Moleküle), habe aber keine Beziehungen definiert (Relationen, Funktionen), dann habe ich quasi ‚Nichts‘. Habe ich aber z.B. eine Funktion definiert, die eine ‚Abbildung‘ zwischen unterschiedlichen Mengen beschreibt, dann ist es eine reine Fleißaufgabe, die Abbildung durchzuführen (z.B. die Übersetzung von DNA über RNA in Aminosäuren, dann Polypeptide, dann Proteine). Dass die Biochemie und Mikrobiologie samt Genetik so viele Jahre benötigt hat, die Details dieser Prozesse erkennen zu können, ändert nichts daran, dass diese Transformationsprozesse als solche ‚trivial‘ sind, wenn ich die grundlegende Transformationsfunktion definiert habe. Wo aber kommt diese grundlegende Abbildungsfunktion her? Wie kann es sein, dass ein ordinäres chemisches Molekül ein anderes ordinäres chemisches Molekül als ‚Kode‘ interpretiert, und zwar genau dann so, wie es geschieht? Betrachtet man ’normale‘ Moleküle mit ihren chemischen Eigenschaften isoliert, dann gibt es keinerlei Ansatzpunkt, um diese grundlegende Frage zu beantworten. Offensichtlich geht dies nur, wenn man alle Moleküle als eine Gesamtheit betrachtet, diese Gesamtheit zudem nicht im unbestimmten Molekül-Vorkommens-Raum, sondern in Verbindung mit den jeweils möglichen ‚realen Kontextbedingungen‘, und dann unter Berücksichtigung des potentiellen Interaktionsraumes all dieser Moleküle und Kontexte. Aber selbst dieser Molekül-Vorkommens-Raum repräsentiert im mathematischen Sinne nur Mengen, die alles und nichts sein können. Dass man in diesem Molekül-Vorkommens-Raum eine Funktion implantieren sollte, die dem Dekodieren des genetischen Kodes entspricht, dafür gibt es im gesamten Molekül-Vorkommens-Raum keinerlei Ansatzpunkt, es sei denn, man setzt solch eine Funktion als ‚Eigenschaft des Molekül-Vorkommens-Raumes‘ voraus, so wie die Physiker die ‚Gravitation‘ als Eigenschaft des physikalischen Raumes voraussetzen, ohne irgendeinen Ansatzpunkt im Raum selbst zu haben, als die beobachtbare Wirkung der Gravitation. Die Biologen können feststellen, dass es tatsächlich einen Transformationsprozess gibt, der solch eine Abbildungsbeziehung voraussetzt, sie haben aber keine Chance, das Auftreten dieser Abbildungsbeziehung aus den beobachtbaren materiellen Strukturen abzuleiten!!!

  15. Biologisches Leben als ‚Super-Algorithmus‘, der seine eigenen Realisierungsbedingungen mit organisiert: In der Beschreibung von Edelmans Position habe ich schon angemerkt, dass seine Wortwahl ‚Topobiologie‘ möglicherweise unglücklich ist, da es letztlich nicht der dreidimensionale Raum als solcher ist, der entscheidend ist (wenngleich indirekt die Drei-Dimensionalität eine Rolle spielt) sondern der ‚Kontext in Form von interaktiven Nachbarschaften‘: welche andere Zellen stehen in Interaktion mit einer Zelle; welche Signale werden empfangen. Indirekt spielt dann auch der ‚vorausgehende Prozess‘ eine Rolle, durch den eben Kontexte erzeugt worden sind, die nur in bestimmten Phasen des Prozesses vorliegen. Man hat also eher einen ‚Phasenraum‘, eine Folge typischer Zustände, die auseinander hervorgehen, so, dass der bisherige Prozess die nächste Prozessphase hochgradig determiniert. Dies ähnelt einer ‚algorithmischen‘ Struktur, in der eine Folge von Anweisungen schrittweise abgearbeitet wird, wobei jeder Folgeschritt auf den Ergebnissen der vorausgehenden Abarbeitungen aufbaut und in Abhängigkeit von verfügbaren ‚Parameterwerten‘ den nächsten Schritt auswählt. Im Unterschied zu einem klassischen Computer (der eine endliche Instanz eines an sich unendlichen theoretischen Konzeptes von Computer darstellt!), bei dem die Ausführungsumgebung (normalerweise) festliegt, haben wir es hier mit einem algorithmischen Programm zu tun, das die jeweilige Ausführungsumgebung simultan zur Ausführung ‚mit erschafft‘! Wenn Computermetapher, dann eben so: ein Programm (Algorithmus), das seine Ausführungsumgebung (die Hardware) mit jedem Schritt selbst ‚erschafft‘, ‚generiert‘, und damit seine Ausführungsmöglichkeiten schrittweise ausbaut, erweitert. Dies setzt allerdings voraus, dass das genetische Programm dies alles schon ‚vorsieht‘, ‚vorwegnimmt‘. Die interessante Frage ist dann hier, wie ist dies möglich? Wie kann sich ein genetisches Programm ‚aus dem Nichts‘ entwickeln, das all diese ungeheuer komplexen Informationen bezüglich Ausführung und Ausführungsumgebung zugleich ‚aufgesammelt‘, ’strukturiert‘, ‚verpackt‘ hat, wo die Gesamtheit der modernen Wissenschaft bislang nur Fragmente versteht?

  16. Ein technischer Super-Algorithmus scheint prinzipiell möglich; unklar ist seine ‚inhaltliche Ausgestaltung‘: Während Neurowissenschaftler (Edelman eingeschlossen) oft mit unsinnigen Computervergleichen versuchen, die Besonderheit des menschlichen Gehirns herauszustellen, kann man ja auch mal umgekehrt denken: wenn die Entwicklung des Gehirns (und des gesamten Organismus) Ähnlichkeiten aufweist mit einem Algorithmus, der seine eigene Ausführungsumgebung während der Ausführung (!!!) mit generiert, ob sich solch ein Prozess auch ‚rein technisch‘ denken ließe in dem Sinne, dass wir Maschinen bauen, die aus einer ‚kleinen Anfangsmenge von Materie‘ heraus ausgestattet mit einem geeigneten ‚Kode‘ und einem geeigneten ‚Interpretierer‘ sich analog selbst sowohl materiell als auch kodemäßig entwickeln? Da die biologischen Systeme zeigen, dass es grundsätzlich geht, kann man solch einen technischen Prozess nicht grundsätzlich ausschließen. Ein solches Gedankenexperiment macht aber sichtbar, worauf es wirklich ankommt: eine solche sich selbst mit-bauende Maschine benötigt auch einen geeigneten Kode und Interpretationsmechanismus, eine grundlegende Funktion. Ohne diese Funktion, geht gar nichts. Die Herkunft dieser Funktion ist aber gerade diejenige grundlegende Frage, die die gesamte empirische Wissenschaft bislang nicht gelöst hat. Es gibt zwar neuere Arbeiten zur Entstehung von ersten Zellen aus Molekülen unter bestimmten realistischen Kontexten, aber auch diese Forschungen beschreiben nur Prozesse, die man ‚vorfindet‘, die sich ‚zeigen‘, nicht aber warum und wieso es überhaupt zu diesen Prozessen kommen kann. Alle beteiligten materiellen Faktoren in diesen Prozessen als solchen geben keinerlei Ansatzpunkte für eine Antwort. Das einzige, was wir bislang wissen, ist, dass es möglich ist, weil wir es ‚beobachten können‘. Die ‚empirischen Phänomene‘ sind immer noch die härteste Währung für Wahrheit.

  17. Wissenschaftliche Theorie:… es ist überhaupt das erste Mal, dass Edelman in diesem Buch explizit über eine ‚wissenschaftliche Theorie‘ spricht… Seine Charakterisierung einer ‚wissenschaftlichen Theorie‘ ist … generell sehr fragmentarisch; sie ist ferner in ihrer Ernsthaftigkeit fragwürdig, da er die Forderung der Falsifizierbarkeit mit dem Argument begründt, dass ansonsten Darwins Theorie in ihrer Anfangszeit niemals hätte Erfolg haben können; und sie ist geradezu mystisch, da er eine radikal neue Rolle des Beobachters mit all seinen mentalen Eigenschaften innerhalb der Theoriebildung einfordert, ohne aber irgendwelche Hinweise zu liefern, wie das praktiziert werden soll. … Man stellt sich die Frage, welchen ‚Begriff von Theorie‘ Edelman eigentlich benutzt? In der Geschichte der empirischen Wissenschaften gab es viele verschiedene Begrifflichkeiten, die nicht ohne weiteres kompatibel sind, und seit ca. 100 Jahren gibt es eine eigene Meta-Wissenschaft zu den Wissenschaften mit Namen wie ‚Wissenschaftsphilosophie‘, ‚Wissenschaftstheorie‘, ‚Wissenschaftslogik‘, deren Gegenstandsbereich gerade die empirischen Wissenschaften und ihr Theoriebegriff ist…. Aufgrund seiner bisherigen Ausführungen scheint Edelman nichts vom Gebiet der Wissenschaftsphilosophie zu kennen.

  18. Überprüfbarkeit, Verifizierbarkeit, Theorie: Die Überprüfbarkeit einer Theorie ist in der Tat ein wesentliches Merkmal der modernen empirischen Wissenschaften. Ohne diese Überprüfbarkeit gäbe es keine empirische Wissenschaft. Die Frage ist nur, was mit ‚Überprüfbarkeit‘ gemeint ist bzw. gemeint sein kann. … Wenn Edelman fordert dass für eine Theorie gelten soll, dass nicht (vi) ‚jeder Teil von der Theorie direkt falsifizierbar‘ sein muss, dann geht er offensichtlich davon aus, dass eine Theorie T aus ‚Teilen‘ besteht, also etwa T(T1, T2, …, Tn) und dass im ‚Idealfall‘ jeder Teil ‚direkt falsifizierbar‘ sein müsste. Diese Vorstellung ist sehr befremdlich und hat weder mit der Realität existierender physikalischer Theorien irgend etwas zu tun noch entspricht dies den modernen Auffassungen von Theorie. Moderne Theorien T sind mathematische (letztlich algebraische) Strukturen, die als solche überhaupt nicht interpretierbar sind, geschweige denn einzelne Teile davon. Ferner liegt die Erklärungsfähigkeit von Theorien nicht in ihren Teilen, sondern in den ‚Beziehungen‘, die mittels dieser Teile formulierbar und behauptbar werden. Und ob man irgendetwas aus solch einer Theorie ‚voraussagen‘ kann hängt minimal davon ab, ob die mathematische Struktur der Theorie die Anwendung eines ‚logischen Folgerungsbegriffs‘ erlaubt, mittels dem sich ‚Aussagen‘ ‚ableiten‘ lassen, die sich dann – möglicherweise – ‚verifizieren‘ lassen. Diese Verifizierbarkeit impliziert sowohl eine ‚Interpretierbarkeit‘ der gefolgerten Aussagen wie auch geeignete ‚Messverfahren‘, um feststellen zu können, ob die ‚in den interpretierten Aussagen involvierten entscheidbaren Eigenschaften‘ per Messung verifiziert werden können oder nicht. Der zentrale Begriff ist hier ‚Verifikation‘. Der Begriff der ‚Falsifikation‘ ist relativ zu Verifikation als komplementärer Begriff definiert. Begrifflich erscheint dies klar: wenn ich nicht verifizieren kann, dann habe ich automatisch falsifiziert. In der Praxis stellt sich aber oft das Problem, entscheiden zu können, ob der ganz Prozess des Verifizierens ‚korrekt genug‘ war: sind die Umgebungsbedingungen angemessen? Hat das Messgerät richtig funktioniert? Haben die Beobachter sich eventuell geirrt? Usw. Als ‚theoretischer Begriff‘ ist Falsifikation elegant, in der Praxis aber nur schwer anzuwenden. Letztlich gilt dies dann auch für den Verifikationsbegriff: selbst wenn der Messvorgang jene Werte liefert, die man aufgrund einer abgeleiteten und interpretierten Aussage erwartet, heißt dies nicht mit absoluter Sicherheit, dass richtig gemessen wurde oder dass die Aussage möglicherweise falsch interpretiert oder falsch abgeleitet worden ist.

  19. Rolle des Theoriemachers und Beobachters fundamental: All diese Schwierigkeiten verweisen auf den ausführenden Beobachter, der im Idealfall auch der Theoriemacher ist. In der Tat ist es bislang ein menschliches Wesen, das mit seinen konkreten mentalen Eigenschaften (basierend auf einer bestimmten materiellen Struktur Gehirn im Körper in einer Welt) sowohl Phänomene und Messwerte in hypothetische mathematische Strukturen transformiert, und diese dann wiederum über Folgerungen und Interpretationen auf Phänomene und Messwerte anwendet. Dies in der Regel nicht isoliert, sondern als Teil eines sozialen Netzwerkes, das sich über Interaktionen, besonders über Kommunikation, konstituiert und am Leben erhält. … Edelman hat Recht, wenn er auf die bisherige unbefriedigende Praxis der Wissenschaften hinweist, in der die Rolle des Theoriemachers als Teil der Theoriebildung kaum bis gar nicht thematisiert wird, erst recht geht diese Rolle nicht in die eigentliche Theorie mit ein. Edelman selbst hat aber offensichtlich keinerlei Vorstellung, wie eine Verbesserung erreicht werden könnte, hat er ja noch nicht einmal einen rudimentären Theoriebegriff.

  20. Theorie einer Population von Theoriemachern: Aus dem bisher Gesagten lässt sich zumindest erahnen, dass ein verbessertes Konzept einer Theorie darin bestehen müsste, dass es eine explizite ‚Theorie einer Population von Theoriemachern (TPTM)‘ gibt, die beschreibt, wie solch eine Population überhaupt eine Theorie gemeinsam entwickeln und anwenden kann und innerhalb dieser Theorie einer Population von Theoriemachern würden die bisherigen klassischen Theoriekonzepte dann als mögliche Theoriemodelle eingebettet. Die TPTM wäre dann quasi ein ‚Betriebssystem für Theorien‘. Alle Fragen, die Edelman angeschnitten hat, könnte man dann in einem solchen erweiterten begrifflichen Rahmen bequem diskutieren, bis hinab in winzigste Details, auch unter Einbeziehung der zugrunde liegenden materiellen Strukturen.

  21. Darwin und Theorie: Anmerkung: Darwin hatte nichts was einem modernen Begriff von Theorie entsprechen würde. Insofern ist auch das Reden von einer ‚Evolutionstheorie‘ im Kontext von Darwin unangemessen. Damit wird aber der epochalen Leistung von Darwin kein Abbruch getan! Eher wirkt sein Werk dadurch noch gewaltiger, denn die Transformation von Gedanken, Phänomenen, Fakten usw. in die Form einer modernen Theorie setzt nicht nur voraus, dass man über die notwendigen Formalisierungsfähigkeiten verfügt … sondern man kann erst dann ’sinnvoll formalisieren‘, wenn man überhaupt irgendetwas ‚Interessantes‘ hat, was formalisiert werden soll. Die großen Naturforscher (wie z.B. Darwin) hatten den Genius, die Kreativität, den Mut, die Zähigkeit, das bohrende, systematisierende Denken, was den Stoff für interessante Erkenntnisse liefert. Dazu braucht man keine formale Theorie. Die Transformation in eine formale Theorie ist irgendwo Fleißarbeit, allerdings, wie die Geschichte der Physik zeigt, braucht man auch hier gelegentlich die ‚Genies‘, die das Formale so beherrschen, dass sie bisherige ‚umständliche‘ oder ‚unpassende‘ Strukturen in ‚einfachere‘, ‚elegantere‘, ‚besser passende‘ formale Strukturen umschreiben.

KAP. 8 DIE WISSSENSCHAFTEN DES ERKENNENS (The Sciences of Recognition)

Vorab zum Kapitel 8 (und einigen weiteren nachfolgenden Kapiteln) positioniert Edelman sich wie folgt:

  1. Nach den bisherigen Vorüberlegungen sieht sich Edelman in die Lage versetzt, eine ‚Theorie des Bewusstseins‘ zu postulieren als wesentliche Komponente einer ‚Theorie über das Funktionieren des Gehirns‘.(vgl. S.71)

  2. Edelman begründet dieses Vorgehen in Richtung von ‚expliziten Theorien‘ damit, dass Fakten alleine nichts nützen. Vielmehr müssen Fakten in Zusammenhänge eingebracht werden (’synthesizing ideas‘), die sich dann experimentell testen lassen. Diese Experimente bestätigen (‚amend‘) dann die bisherigen Synthesen oder widerlegen sie (‚knock down‘).(vgl. S.71)

  3. Er präzisiert seine Forderung nach einer Synthese der Fakten dahingehend, dass letztlich eine ‚wissenschaftliche Theorie‘ erstellt werden sollte, die möglichst alle ‚bekannten Fakten‘ über Gehirne und ‚Geist‘ integriert. Für Edelman ist klar, dass solch eine Theorie sehr viele ‚Schichten des Gehirns‘ beschreiben muss. (vgl. S.71)

  4. Diese Schichten des Gehirns bilden die ‚materielle Basis des Geistes‘ und in einer wissenschaftlichen Theorie des Bewusstseins als Teil einer Theorie des Gehirns werden bekannte Begriffe wie ‚Gedächtnis‘, ‚Konzept‘, ‚Bedeutung‘, ‚Bewusstsein als ein Tier‘, ‚Bewusstsein als ein menschliches Wesen‘ eine neue Bedeutung gewinnen.

Es folgt dann das Kap.8 als erstes Kapitel um dieses Programm zu erläutern.

  1. Edelman beginnt mit der These, dass er die ‚Sache des Geistes‘ (‚matter of mind‘) aus einem ‚biologischen Blickwinkel‘ heraus angehen will, also einer Blickrichtung, die sich auf ‚biologische Konzepte‘ stützt. (vgl. S.73)

  2. Eines der grundlegendsten (‚most fundamental‘) biologischen Konzepte ist für ihn der Begriff des ‚Denkens in Populationen‘ (‚population thinking‘), das für ihn historisch mit den Arbeiten von Darwin beginnt. (vgl. S.73)

  3. Das Denken in Populationen betrachtet die unterschiedlichen individuellen ‚Varianten‘ in einer Populationen als die Quelle von ‚Vielfalt‘. Diese Vielfalt ist der Angriffspunkt für eine ‚Auswahl‘ von jenen Arten, die erfolgreich sind. (vgl. S.73)

  4. Innerhalb einer kurzen Zeitspanne mögen diese Varianten kaum auffallen, über viele, sehr viele Generationen können sich die Unterschiede aber zu markant anderen Lebensformen auswirken, die dann als unterschiedliche ‚Arten‘ nebeneinander existieren. (vgl. S.73)

  5. Mit der Einführung des Begriffs ‚Denken in Populationen‘ stellt sich die Frage, wie denn hier eine Beziehung zum Begriff ‚Geist‘ hergestellt werden kann.

  6. Edelman wählt als potentielles Bindeglied den Begriff ‚Erkennen/ Wiedererkennen‘ (‚recognition‘). Er definiert diesen Begriff ‚Erkennen‘ zunächst sehr abstrakt, klassisch mathematisch, als eine ‚Abbildung‘ zwischen zwei ‚physikalischen Bereichen‘ (‚physical domains‘) A und B derart, dass die Elemente aus Bereich A in eine Menge A+ abgebildet werden, die zu den Ereignissen aus dem Bereich B ‚besser passen‘ (‚fit‘) als zuvor, sogar dann, wenn der Bereich B als B+ ’neue‘ Ereignisse umfasst. Er betont zusätzlich, dass diese Abbildung ‚ohne vorausgehende Instruktionen‘ (‚without prior instructions‘) stattfindet! Eine überaus starke These. (vgl. S.74)

  7. Um dieser noch sehr abstrakten Definition etwas mehr Bedeutung zu verleihen führt er ein Beispiel an, nämlich die ‚biologische Evolution‘: der eine Bereich A ist hier gegeben durch die Menge der biologischen Systeme (BIOS), der andere Bereich B durch die Menge der Ereignisse, die die Umgebung manifestieren (EVENTS). Durch die ‚Reproduktion‘ bildet der Bereich A neue Varianten, die zur Menge A+ führen. Der Bereich der Ereignisse B kann sich ändern, muss aber nicht. Wenn sich B so ändert, dass es neue Ereignisse gibt, dann liegt der Bereich B+ vor. Die Eigenschaft ‚fit zu sein‘ wird assoziiert mit dem Anteil der Nachkommen einer bestimmten Lebensform in einer Population. Je mehr Nachkommen eine Lebensform ermöglicht, um so ‚fitter‘ soll sie sein. Edelman legt Wert auf die Feststellung, dass die Herausbildung der ’nachkommensstarken‘ (‚fitten‘) Lebensformen A+ nicht durch eine ‚Instruktion seitens der Umwelt‘ zustande kam (‚does not require prior explicit information (‚instruction‘)), sondern dass die Herausbildung jener Varianten, die nachkommensstark sind, auf endogene Prozesse in den biologischen Systemen selbst zurück zu führen sei. Ebenso sind auch die Änderungen in der Umgebung B+ nach Edelman weitgehend unabhängig von den individuellen Variantenbildungen in der Population. Edelman geht hier noch weiter indem er postuliert, dass aus dieser wechselseitigen Unabhängigkeit folgt, dass es hier keine ‚finale Ursache‘, ‚keine Teleologie‘, ‚keine alles leitende Absicht‘ gibt. (vl. S.74)

  8. Als weiteres — eher spezielleres – Beispiel führt er das ‚Immunsystem‘ an. Das Immunsystem ist für Edelman ein ’somatisches selektives System (ssS)‘ das während der Lebenszeit eines biologischen Systems in einem Körper wirkt, während die Evolution ein ‚evolutionäres selektives System (esS)‘ repräsentiert, das über viele Generationen über viele Körper wirkt, innerhalb deren jeweils ein somatisches selektives System am Wirken ist. (vgl. 74)

  9. Edelman äußert hier die Vermutung, dass auch das ‚Gehirn‘ ein ’selektives somatisches System‘ ist. In diesem Fall wäre die ‚Neurowissenschaft‘ auch eine ‚Wissenschaft des Erkennens‘.(vgl. S.75)

  10. Das Immunsystem besitzt als wirkende Komponenten ‚Moleküle, Zellen‘ und ’spezialisierte Organe‘, wobei es sich bei den Molekülen und Zellen letztlich um alle Moleküle und Zellen des Körpers handelt. Letztlich operiert es ‚auf allen Molekülen‘, da es in der Lage ist zu ‚unterscheiden‘ (‚distinguishing‘) zwischen den ‚genuinen Molekülen/ Zellen‘ des eigenen Körpers (= das ‚Selbst‘) und ‚fremden Molekülen/ Zellen‘ (= ‚Nicht-Selbst‘). Diese Unterscheidungsfähigkeit ist extrem ’sensibel‘, da es selbst geringfügige Änderungen in der räumliche Anordnung von Atomen in einem Molekül erkennen kann. Zudem kann das Immunsystem solche Eigenschaften ‚erinnern‘, es hat ein ‚Gedächtnis‘ (‚memory‘).(vgl. S.75)

  11. Wenn ein körperfremdes Molekül (ein Protein) – auch ‚Antigen‘ genannt – auftritt, dann erzeugen spezialisierte Zellen des Körpers – die Lymphozyten – Moleküle, die sich an bestimmte charakteristische Eigenschaften des fremden Moleküls ‚anheften‘ können (sie binden sich an, ‚bind‘). Diese körpereigenen Identifizierungsmoleküle werden ‚Antikörper‘ (‚antibodies‘) genannt. (vgl. S.75)

  12. Die aktuelle Erklärung für diese beeindruckende Fähigkeit des Immunsystems solche Antikörper zu bilden, selbst bei völlig neuartigen Molekülen, wird als ‚Theorie der klonalen Selektion‘ gehandelt, die nach Edelman zurückgeht auf Sir Frank MacFarlant Burnet. (vgl. S.77)

  13. Die Grundidee dieser Theorie ist wie folgt: (i) Das körpereigene Immunsystem produziert ‚auf Vorrat‘ eine große Menge von Antikörpern mit unterschiedlichen Schnittstellen zum Anbinden. (ii) Treten dann körperfremde Moleküle auf (Viren, Bakterien), dann treffen diese auf eine Population von Lymphozyten mit ganz unterschiedlichen Antikörpern. Die eindringenden Zellen binden sich dann an jene Antikörper, die mit ihren Schnittstellen ‚am beste‘ zu ihnen ‚passen‘. Dies bringt die Lymphozyten, die diese Antikörper an sich tragen, dazu, sich durch Bildung von Klonzellen zu vermehren, so dass im Laufe der Zeit immer mehr Eindringlinge ‚gebunden‘ werden. (iii) Die Veränderung und Vermehrung der Lymphozyten einer bestimmten Art geschieht damit durch – nach Edelman – durch ‚Selektion‘ aufgrund von Ereignissen in der Umgebung. (vgl. S.75)

  14. Edelman unterstreicht auch hier, dass die Ausbildung der vielen Varianten von Antikörpern ’nicht von außen instruiert wurde‘, sondern innerhalb der Lebenszeit eines Körpers in den Lymphozyten, also ’somatisch‘ (’somatically‘). (vgl. S.75) Für ihn ist das Immunsystem daher eine wirkliche Instanz des allgemeinen Konzepts eines ‚Erkennungssystems‘ (‚recognition system‘): unabhängig von dem potentiellen Ereignisraum der fremden Moleküle produziert das Immunsystem ‚aus sich heraus‘ eine Menge von Antikörpern, die dann im Nachhinein (‚ex post facto‘) aufgrund der fremden Ereignisse ‚ausgewählt‘ (’selected‘) werden. Diese Produktionen ‚im voraus‘ und dann ‚Auswahlen im Moment‘ geschehen kontinuierlich, beinhalten ein retardierendes Moment (Gedächtnis) und erlauben eine ‚Anpassung‘ an die auftretenden neuen Moleküle (‚adaptively‘). Diese ‚zellulare Form eines Gedächtnisses‘ beruht auf der Tatsache, dass Mengen von Lymphozyten mit bestimmten Antikörpern meistens erhalten bleiben und aufgrund ihrer Zahl zukünftig auch schneller reagieren können. (vgl. S.78)

  15. Anhand der beiden Instanzen eines ‚Erkennungssystems‘ (‚evolutionäres selektives System‘ in Gestalt der Evolution und ’somatisches selektives System‘ in Gestalt des Immunsystems) macht Edelman darauf aufmerksam dass man zwischen dem ‚Prinzip der Auswahl‘ und den dazu eingesetzten ‚konkreten Mechanismen der Realisierung‘ unterscheiden muss. Das ‚Auswahlprinzip‘ wird sowohl von der ‚Evolution‘ benutzt wie auch vom ‚Immunsystem‘, aber die konkreten Mechanismen, wie dies umgesetzt wird, sind verschieden. (vgl. S.78) Beide Systeme brauchen aber auf jeden Fall eine Form von ‚Gedächtnis‘ jener Varianten, die eine ‚verbesserte Anpassung‘ ermöglichen. (vgl. S.79)

  16. Edelman nennt ‚Evolution‘ und ‚Immunologie‘ ‚Wissenschaften‘ (’sciences‘), ebenso die ‚Neurobiologie‘. (vgl. S.79)

  17. Edelman wiederholt seine Vermutung, dass das Gehirn ein ’somatisches selektives System‘ ist und ergänzt, dass nach seinen Forschungen die ‚Adhäsionsmoleküle der neuronalen Zellen‘ die ‚evolutionären Vorläufer‘ des gesamten Immunsystems waren. (vgl. S.79) Im folgenden Kapitel will er diese seine Hypothese, dass das Gehirn ein ’somatisches selektives System‘ sei, weiter erläutern.

DISKUSSION FORTSETZUNG

  1. Inkompatible Daten: 1.Person – 3.Person: Schon die erste Überlegung von Edelman, die Theorie des Bewusstseins als Teil einer Theorie des Gehirns zu konzipieren, wirft methodische Fragen auf. Diese resultieren daher, dass ja eine Theorie – was er im nächsten Abschnitt ja auch ausdrücklich feststellt – , im Kern darin besteht, ‚Zusammenhänge‘ einzuführen, durch die die einzelnen, isolierten Fakten kausale, erklärende, prognostische Eigenschaften bekommen können. Nun ist nach bisherigem Kenntnisstand klar, dass jene Fakten, durch die sich für einen menschlichen Beobachter und Theoriemacher das Bewusstsein ‚zeigt‘, und jene Fakten, mittels denen eine Neurobiologie arbeitet, nicht nur einfach ‚unterschiedlich‘ sind, sondern im ersten Anlauf prinzipiell ‚ausschließend‘. Die dritte Person Perspektive im Fall neurobiologischer Theoriebildung und die erste Person Perspektive im Fall von Bewusstseinstheorien sind im ersten Schritt nicht kompatibel miteinander. Jede Form von Beziehungsentwicklung über diesen unterschiedlichen Datenengen – nennen wir sie DAT_NN und DAT_BW – wird vollständig unabhängig voneinander stattfinden müssen. Bei dieser Sachlage zu sagen, dass eine Theorie des Bewusstseins als Teil einer Theorie des Gehirns entwickelt werden soll, klingt spannend, lässt aber jegliche Einsicht in ein mögliches Wie vermissen. Der umgekehrte Fall, eine Theorie des Gehirns als Teil einer Theorie des Bewusstseins hingegen wäre methodisch möglich, da alle empirische Daten abgeleitete Bewusstseinsdaten sind (also: DAT_NN C DAT_BW).

  2. Denken als kreativer Akt – Kein Automatismus: Im übrigen sollte man im Hinterkopf behalten, dass das ‚Einführen von Beziehungen‘ über Datenpunkten in keiner Weise von den Daten selbst her ‚ableitbar‘ ist. Es handelt sich bei solchen Einführungen um ‚kreative Denkakte‘, die aus einem vorgegebenen begrifflichen Denkraum einen möglichen Teilraum aktivieren und diesen ‚an den Daten ausprobieren‘. Insofern handelt es sich bei der Theoriebildung um ein ‚Erkenntnissystem‘ im Sinne von Edelman, das ‚gedachte Varianten von Beziehungen‘ bilden kann, und jene Fakten (ein vom Denken unabhängiger Bereich), die zu irgendwelchen Beziehungsvarianten ‚passen‘, die werden ‚ausgewählt‘ als solche Fakten, die sich im Sinne der ausgewählten Beziehungen ‚erklären‘ lassen. Im Sinne von Edelman könnte man hier von einem ‚bewusstseinsbasierten selektiven System (bsS)‘ sprechen. Es ist an die Lebensdauer des Bewusstseins gebunden, es verfügt über ein ‚Gedächtnis‘, es kann dadurch ‚adaptiv‘ sein, es kann aufgrund von zusätzlichen Kommunikationsprozessen Beziehungsvarianten auf andere Bewusstseine übertragen und durch Übertragung auf bewusstseinsexterne Medien sogar über die Lebensdauer eines individuellen Bewusstseins hinaus gespeichert werden.

  3. Damit deutet sich eine interessante Hierarchie von ‚Erkennungssystemen‘ an: (i) ‚evolutionäre selektive Systeme (esS)‘, (ii) ’somatische selektive Systeme (ssS)‘, (iii) ’neuronale selektive Systeme (nsS)‘, sowie (iv) ‚bewusstseinsbasierte selektive Systeme (bsS)‘.

  4. Kategoriefehler? Während die Hypothese von Edelman, dass die ‚materielle Basis des Geistes‘ in den materiellen Schichten des Gehirns zu suchen sei, möglicherweise Sinn macht, ist seine andere Hypothese, dass eine wissenschaftliche Theorie des Bewusstseins als Teil einer Theorie des Gehirns zu entwickeln sei, aus fundamentalen Gründen nicht nachvollziehbar.

  5. Integrierte Theoriebildung: Greift man Punkt (1) der Diskussion auf, dann könne eine Lösung der Paradoxie von Edelman darin bestehen, dass die Verschränkung der Daten aus der 1ten-Person Perspektive DAT_1Person und die Daten aus der 3ten-Person Perspektive als DAT_3Person C DAT_1Person die Basis für eine mögliche ‚integrierte (philosophische) Theorie des Bewusstseins‘ bilden, die empirische Theorien als Teiltheorien enthält, unter anderem eine Theorie des Gehirns. Wollte man ferner das von Edelman in den ersten Kapiteln mehrfach angesprochene ungelöste Problem der ‚mangelnden Integration des Beobachters‘ in die zugehörige Theorie aufgreifen, dann wäre dies in einer ‚integrierten philosophischen Theorie des Bewusstseins (IPTB)‘ im Prinzip möglich. Folgendes Theorienetzwerk deutet sich damit an:

  6. In einem ersten Schritt (i) könnte man eine ‚Theorie des Bewusstseins‘ T1CS auf Basis der DAT_1Person formulieren; im Rahmen dieser Theorie kann man unter anderem (ii) die empirischen Daten DAT_3Person als eine genuine Teilmenge der Daten DAT_1Person ausweisen. Damit erhält man den Ausgangspunkt dafür, diverse Theorien T3X auf Basis der dritten Person Daten DAT_3Person zu formulieren. Hier gibt es verschiedene Optionen. Eine mögliche wäre die folgende:

  7. In einem ersten Schritt (iii) wird eine ‚Theorie der Evolution der Körper‘ T3EV formuliert. Von hier aus gibt es zwei Fortsetzungen:

  8. Die Interaktion verschiedener Körper einer Population kann in einer (iv) ‚Theorie der Akteure‘ T3A formuliert werden (diese sind u.a. potentielle Beobachter). Diese Theorie T3A beschreibt, welche Verhaltensweisen an Akteuren beobachtbar sind und wie diese sich miteinander verschränken können (z.B. bekannt aus Psychologie und Soziologie).

  9. Eine ‚Theorie der Körper‘ T3BD beschreibt (v) die innere Struktur jener Körper, die den Akteuren zugrunde liegt. Dazu kann es Teil-Theorien geben (vi) wie eine ‚Theorie des Gehirns‘ T3BR (mit all seinen Schichten ) oder (vii) eine ‚Theorie des Immunsystems‘ T3IM.

  10. Brückentheorien: Es ist dann eine eigene theoretische Leistung diese verschiedenen Teil-Theorien und Theorien miteinander in Beziehung zu setzen. Dies ist keinesfalls trivial. Während die Theorie der Evolution eine Zeitkomponente umfasst, in der sich Strukturen komplett ändern können, sind Strukturtheorien des Körpers, des Gehirns und des Immunsystems tendenziell an ’statischen‘ Strukturen orientiert. Dies ist aber unrealistisch: Körper, Gehirn und Bewusstsein sind dynamische Systeme, die sowohl durch ‚Wachstum‘ wie auch durch ‚Lernen‘ kontinuierlich ihre Strukturen ändern. Ferner ist die Interaktion der verschiedenen Theorien ein eigenständiges Problem: Gehirn und Immunsystem sind ja nur zwei Komponenten von vielen anderen, die zusammen einen Körper ausmachen. Wenn man die neuen Erkenntnisse zur Komponente ‚Darm‘ ernst nimmt, dann kann diese Komponenten das gesamte Rest-System vollständig dominieren und steuern (auch das Gehirn). Die genauen Details dieser Interaktion sind noch weitgehend unerforscht. Schließlich ist auch die Rückkopplung der diversen empirischen Theorien T3X zur primären Theorie des Bewusstseins T1CS zu lösen. Dies wäre eine ‚Brückentheorie‘ T1CS3BD mit Anbindung sowohl an die Theorie der Evolution T3EV als auch an die diversen Teiltheorien wie T3BR und T3IM. Bislang ist weltweit kein einziger Kandidat für solch eine Brückentheorie T1CS3BD bekannt, zumal es bislang auch keine ernsthafte Theorie des Bewusstseins T1CS gibt (wohl aber sehr viele Texte, die inhaltlich zum Begriff ‚Bewusstsein‘ etwas schreiben).

  11. Beginn Kap.8: Zu Beginn des Kap. 8 wiederholt Edelman seine These, dass er die ‚Sache des Geistes‘ (‚matter of mind‘) aus einem ‚biologischen Blickwinkel‘ heraus angehen will. Wie schon oben angemerkt, stellen sich hier grundlegende methodische Probleme, die hier jetzt nicht wiederholt werden sollen. Er stellt dann die sachlich unausweichliche Frage, wie man denn dann einen Zusammenhang zwischen ‚Geist‘ und ‚Materie‘ – hier Materie fokussiert auf ‚Gehirn‘ – herstellen kann.

  12. Populationsdenken und Erkennungssystem: Ohne weitere Begründung führt er dann den Begriff ‚Populationsdenken‘ ein, den er sodann überführt in den Begriff ‚Erkennungssystem‘ (‚recogntion system‘). Anschließend bringt er mit der ‚Evolution‘, ‚mit dem Immunsystem‘ und dann mit dem ‚Gehirn‘ drei Beispiele von Erkennungssystemen in seinem Sinne.

  13. Begriff ‚Geist‘ methodisch unbestimmt: Dieses ganze begriffliche Manöver von Edelmann leidet von Anbeginn an dem Umstand, dass er bislang weder genau erklärt hat, was er unter dem Begriff ‚Geist‘ versteht noch mit welchen Methoden man diesen ‚Geist‘ erforschen kann. Der Begriff ‚Geist‘ bildet also bislang nur eine ‚abstrakte Wortmarke ohne definierte Bedeutung‘ und ohne jeglichen Theorie- und Methodenbezug. Zugleich wird ‚Geist‘ streckenweise mit dem Begriff ‚Bewusstsein‘ gleichgesetzt, für den die gleichen Unwägbarkeiten gelten wie für den Begriff ‚Geist‘. Unter diesen Umständen die These aufzustellen, dass sich eine Theorie des Bewusstseins als Teil einer Theorie des Gehirns formulieren lässt ist mindestens kühn (siehe die vorausgehende Diskussion). Für die soeben von Edelman aufgeworfene Frage nach einem möglichen Zusammenhang zwischen dem mit ‚Geist‘ Gemeinten und dem mit ‚Materie‘ – sprich: Gehirn – Gemeinten ist damit alles offen, da die Begriffe ‚Geist‘ und ‚Bewusstsein‘ letztlich auch ‚offen‘ sind, da sie nicht definiert sind. Es bleibt dann nur, abzuwarten und zu schauen, ob sich aus den von Edelman eingeführten Begriffen ‚Populationsdenken‘ bzw. ‚Erkennungssystem‘ etwas ableiten lässt, was die Grundsatzfrage nach dem Verhältnis zwischen ‚Geist‘ und ‚Materie‘ etwas erhellt.

  14. Das Populationsdenken basiert auf Mengen von Individuen, die sich ‚verändern‘ können; man kann diese veränderte Individuen als ‚Varianten‘ auffassen‘, die damit eine ‚Vielfalt‘ in einer Population repräsentieren. Wichtig ist hier, sich klar zu machen, dass in der Perspektive eines einzelnen Individuums dieses weder ‚weiß‘, was vorher war noch was kommen wird noch aus sich heraus abschätzen kann, ob das, was es repräsentiert bzw. das, was es tut, in irgendeiner Weise ’sinnvoll‘ ist! Das einzelne Individuum ‚lebt sich aus‘ unter den Bedingungen, die die Umgebung ‚vorgibt‘ Zu sagen, dass ein einzelnes Individuum ‚erfolgreich‘ ist (‚fit‘), setzt voraus, dass man auf das Gesamtsystem schauen kann und man ein Meta-Kriterium hat, das definiert, wann ein Individuum in einer Population ‚erfolgreich‘ ist oder nicht. Unter Evolutionsbiologen hat sich eingebürgert, als ein Erfolgskriterium die ‚Zahl der Nachkommen‘ zu nehmen. Individuen mit den meisten Nachkommen gelten als erfolgreich. Dieser ‚äußerliche‘ Befund, der sich nur mit Blick auf mehrere Generationen definieren lässt und im Vergleich zu allen anderen Individuen, wird dann zusätzlich verknüpft mit der Hypothese, dass die  äußerlich beobachtbare Gestalt, der Phänotyp, letztlich auf eine ‚tiefer liegende Struktur‘ verweis, auf den Genotyp. Der äußerlich beobachtbare Erfolg eines bestimmten Genotyps wird dann auf die angenommene tiefer liegende Struktur des Genotyps übertragen. In dieser komplexen metatheoretischen Betrachtungsweise verantworten also Genotypen die Phänotypen, die dann in einer bestimmten Umgebung über die Zeit die meisten Nachkommen ermöglichen.

  15. In diesem Kontext von ‚Selektion‘, ‚Auswahl‘ zu sprechen ist ziemlich problematisch, da kein eigentlicher Akteur erkennbar ist, der hier ’selektiert‘. Das einzelne Individuum für sich selektiert sicher nicht, da es nichts hat zum Selektieren. Die Population als solche selektiert auch nicht, da die Population keine handelnde Einheit bildet. ‚Population‘ ist ein ‚Meta-Begriff‘, der einen externen Beobachter voraussetzt, der die Gesamtheit der Individuen beobachten und darüber sprechen kann. Eine Population als ‚existierende‘ ist nur eine Ansammlung von Individuen, von denen jedes einzelne ‚vor sich hin agiert‘. Nur bei externer Beobachtung über die Zeit lässt sich erkennen, dass sich Varianten von Phänotypen bilden von denen einige größere Anzahlen bilden als andere oder einige sogar aussterben. Weder das einzelne Individuum noch die Gesamtheit der Individuen ’selektieren‘ hier irgend etwas.

  16. Beobachter mit Theorie: Wenn man dennoch am Begriff ‚Selektion‘ festhalten will, dann nur dann, wenn man tatsächlich einen ‚externen Beobachter‘ voraussetzt, der alle diese variierenden Phänotypen in ihren jeweiligen Umgebungen in der Zeit ‚beobachten‘ kann und der eine ‚Theorie‘ formuliert (also eine systematische Beschreibung von den Beobachtungsdaten), in der die Veränderung der Phänotypen samt ihren ‚Anzahlen‘ in Beziehung gesetzt werden zu den verschiedenen Umgebungen. Wenn bestimmte Phänotypen in einer bestimmten Umgebung E aussterben während andere Phänotypen bei der gleichen Umgebung nicht aussterben, sich vielleicht sogar vermehren, dann könne man in dieser Theorie den Begriff ‚Selektion‘ so definieren, dass die ‚zahlenmäßig erfolgreichen‘ Phänotypen zur Umgebung E ‚besser passen‘ als die anderen. Es sind dann die ‚Umstände der Umgebung‘, die ‚Eigenschaften der Umgebung‘, die darüber entscheiden, welcher Phänotyp ‚bleibt‘ und welcher ’nicht bleibt‘. Die Umgebung wäre dann das ‚harte Kriterium‘, an dem die Leistungsfähigkeit eines Phänotyps (und indirekt damit des ermöglichenden Genotyps), ‚gemessen‘ werden kann. ‚Messen‘ heißt ‚Vergleichen‘: passt ein Phänotyp in eine bestehende Umgebung oder nicht.

  17. Erfolgskriterium nicht absolut: Da die Umgebung ‚Erde‘ nach heutigem Wissensstand sich beständig verändert hat, ist das Erfolgskriterium ‚Passen‘ sehr relativ. Was heute ‚gut passt‘ kann morgen ‚unpassend‘ sein.

  18. Akteure als Teil der Umgebung: Ferner ist in Rechnung zu stellen, dass Phänotypen (i) sowohl mit der Umgebung wechselwirken können und dadurch diese so stark verändern können, dass sie damit ihre eigenen Lebensgrundlagen zerstören (etwas ‚Passendes‘ wird ‚unpassend‘ gemacht), als auch (ii) dass die Vielzahl von Phänotypen untereinander ‚zur Umgebung wird‘ (z.B. in Räuber-Beute Beziehungen). Dann besteht die Umgebung nicht nur aus der Erde wie sie ist (sehr veränderlich), sondern andere Phänotypen einer anderen ‚Art‘ müssen entweder als Feinde abgewehrt werden oder als potentielle Beute gefangen oder es muss mit ‚Artgenossen‘ kooperiert werden. Das erfolgreiche Überleben wird damit zu einer Gleichung mit sehr vielen dynamischen Variablen. Das theoretische Kriterium der ‚Selektion‘ erscheint daher als ein sehr abstraktes Kriterium in der Beschreibung von Erfolg, hat sich aber historisch als Minimalanforderung durchgesetzt.

  19. Fähigkeit zur Variationsbildung im Dunkeln: Interessant ist der Punkt – auf den auch Edelman zentral abhebt – dass die Genotypen überhaupt in der Lage sind, immer komplexere Phänotypen zu bilden, ohne dass erkennbar ist, dass ihnen von der Umgebung aus irgendwelche Vorab-Informationen übermittelt würden. Dies scheitert allein auch schon daran, dass die Erde – und das Sonnensystem, und die Milchstraße, und … — als ‚Umgebung‘ keinen geschlossenen Akteur mit eigener ‚Absicht‘ darstellt. Vielmehr handelt es sich – nach heutigem Kenntnisstand – um ein System, das ‚aus sich heraus‘ Ereignisse erzeugt, die als Ereignisse dieses System manifestieren. Biologische Systeme können diese Ereignismengen nur ‚aufnehmen‘, ’sortieren‘, auf unterschiedliche Weise ‚erinnern‘, und auf der Basis dieser ‚Erfahrungen‘ Strukturen ausbilden, die dieser Ereignismenge möglichst ‚optimal‘ gerecht werden. Und da im Moment der ‚reproduktiven‘ Strukturbildung zwar einige Erfolge aus der Vergangenheit ‚bekannt‘ sind, aber ’nichts aus der Zukunft‘, bleibt den biologischen Systemen nur, im Rahmen ihrer genetischen und phänotypischen Variationsbildung möglichst viele Variationen ‚ins Blaue hinein‘ zu bilden. Nach 3.8 Milliarden Jahren kann man konstatieren, es hat bislang irgendwie funktioniert. Daraus kann man aber leider nicht zweifelsfrei ableiten, dass dies auch in der Zukunft so sein wird.

  20. Selektion als sekundärer Effekt: Also, ‚Selektion‘ ist keine Eigenleistung eines Individuums oder einer Population, sondern Selektion ist der Effekt, der entsteht, wenn Populationen mit Umgebungen wechselwirken müssen und die Umgebung festlegt, unter welchen Bedingungen etwas zu ‚passen‘ hat. Erst ’nach‘ der Reproduktion und ’nach einiger Zeit‘ zeigt sich für ein Individuum, ob ein bestimmter Genotyp einen ‚erfolgreichen‘ Phänotyp hervorgebracht hat. Zu dem Zeitpunkt, wo ein Individuum diese Information bekommen könnte, hat es aber keine Gestaltungsmacht mehr: einmal weil seine Reproduktionsaktivität dann schon vorbei ist und zum anderen, weil es bei Erfolg ‚alt‘ ist oder gar schon ‚gestorben‘.

  21. Begriff ‚Erkennen‘ unglücklich: Dass Edelman diese Populationsdynamik als ‚Erkennungssystem‘ (‚recognition system‘) verstanden wissen will, ist nicht ganz nachvollziehbar, da, wie schon angemerkt, kein eigentlicher Akteur erkennbar ist, der dies alles ’steuert‘. Dass im Fall der Evolution die Gesamtheit der Genotypen zu einem bestimmten Zeitpunkt einen gewissen ‚Informationsbestand‘, einen gewissen ‚Erfahrungsbestand‘ repräsentieren, der sich aus den vorausgehenden Reproduktions- und aufgezwungenen Selektionsereignissen ‚angesammelt‘ hat, lässt sich theoretisch fassen. Dass aber hier ein identifizierbarer Akteur etwas ‚erkennt‘ ist wohl eine starke Überdehnung des Begriffs ‚Erkennen‘. Das gleiche gilt für das Beispiel mit dem Immunsystem. Das ‚Herausfiltern‘ von bestimmten ‚passenden Eigenschaften‘ aus einer zuvor produzierten Menge von Eigenschaften ist rein mathematisch eine Abbildung, die so zuvor nicht existierte. Aber es gibt keinen bestimmten Akteur, der für die Konstruktion dieser Abbildung verantwortlich gemacht werden kann.

  22. Netzwerke lernen ohne eigentlichen Akteur: Dennoch arbeitet Edelman hier einen Sachverhalt heraus, der als solcher interessant ist. Vielleicht sollte man ihn einfach anders benennen. Interessant ist doch, dass wir im Bereich der biologischen Systeme beobachten können, dass eine Menge von unterscheidbaren Individuen, von denen jedes für sich genommen keinerlei ‚Bewusstsein‘ oder ‚Plan‘ hat, als Gesamtheit ‚Ereignismengen‘ so ’speichern‘, dass ‚metatheoretisch‘ eine ‚Abbildung‘ realisiert wird, die es so vorher nicht gab und die Zusammenhänge sichtbar macht, die eine gewisse ‚Optimierung‘ und auch eine gewisse ‚Logik‘ erkennen lassen. Nennen wir diese Herausbildung einer Populationsübergreifenden Abbildung ’strukturelles Lernen‘ was zu einer ’strukturellen Erkenntnis‘ führt, dann habe wir dadurch immer noch keinen eigentlichen ‚Akteur‘, aber wir haben ein interessantes Phänomen, was die Entwicklung von großen Mengen von biologischen Systemen charakterisiert. Das Biologische erscheint als ein Netzwerk von vielen Systemen, Teilsystemen, bei dem die einzelnen Komponenten keinen ‚Plan des Ganzen‘ haben, aber durch ihre individuelle Manifestationen indirekt an einem ‚größeren Ganzen‘ mitwirken.

  23. Homo sapiens: Erst mit dem Aufkommen des Homo sapiens, seiner Denk- und Kommunikationsfähigkeit, seinen Technologien, ist es möglich, diese impliziten Strukturen, die alle einzelnen Systeme bestimmen, dirigieren, filtern, usw. zu ‚erfassen‘, zu ‚ordnen‘, zu ‚verstehen‘ und auf diese Weise mit einem angenäherten ‚Wissen um das Ganze‘ anders handeln zu können als in den zurückliegenden Zeiten.

Fortsetzung folgt HIER.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

ÜBER DIE MATERIE DES GEISTES. Relektüre von Edelman 1992. Teil 6

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 29.August 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

Gerald M.Edelman, Bright Air, Brilliant Fire. On the Matter of the Mind, New York: 1992, Basic Books

BISHER

Teil 1

Teil 2

Teil 3

Teil 4

Teil 5

WICHTIGE POSITIONEN

Zur Erinnerung, einige der wichtigen Positionen, auf die bislang hingewiesen wurde:

EDELMAN

Edelman benutzt die Arbeitshypothese, dass das, was wir ‚Geist‘ nennen, sich nur ab bestimmten Zeitpunkten während der allgemeinen Evolution ‚gezeigt‘ (‚emerged‘) hat, und zwar sehr spät.(vgl. S.41) Und dies setzt die Annahme voraus, dass die fundamentale Basis für alles Verhalten und für die ‚Sichtbarwerdung‘ (‚emergence‘) des Geistes die Anatomie und Morphologie der biologischen Strukturen ist sowie deren Funktionen.(vgl. S.41)

ASPEKTE DER DISKUSSION BISHER

Im Kontext seiner Argumentation kritisiert Edelman viele bekannte Positionen im Bereich Philosophie und Psychologie aus der eingeschränkten Perspektive ihres Bezuges zu den materiellen Strukturen heraus, die von ihm – letztlich wie bei Kant, nur mit anderem Akzent, mehr oder weniger – als ‚Ermöglichung des Geistes‘ gesehen werden. Diese Kritik in dieser speziellen Perspektive ist zum Teil berechtigt, aber auch nur zu einem sehr eingeschränkten Teil, da die kritisierten Personen und Positionen von den neuen Erkenntnissen noch gar nichts wissen konnten. Über diese enge Perspektive des expliziten Bezugs zu materiellen Strukturen hinaus repräsentieren die kritisierten Positionen aber auch Perspektiven, die ‚in sich eine methodische Rechtfertigung‘ besitzen, die Edelman schlicht nicht erkennt. Hier verkürzt zur Erinnerung einige seiner ‚methodischen blinden Flecken‘:

  1. … zugleich die Arbeitshypothese aufzustellen, dass damit Analyse- und Erklärungsansätze von vornherein zu verurteilen sind, die Verhaltensdaten (Psychologie) bzw. auch introspektive Daten (Philosophie) als solche als Basis nehmen ohne direkt einen Bezug zu den materiellen (anatomischen) Daten herzustellen, ist mindestens problematisch wenn nicht wissenschaftsphilosophisch unhaltbar…
  2. … denn, wie immer die anatomischen Grundlagen beschaffen sein mögen, wenn ich deren ‚Verhaltensdynamik‘ erforschen will, interessieren mich die Details dieser Anatomie nicht, sondern nur ihre Funktion. Und diese lässt sich nicht durch Rekurs auf Bestandteile beschreiben sondern nur durch Beobachtung des Systemverhaltens …
  3. … aus materiellen Strukturen als solchen folgt in keiner Weise irgend etwas ‚Geistiges‘ es sei denn, ich habe vorab zur Untersuchung einen Kriterienkatalog G, den ich als Maßstab anlegen kann, um dann bei der Analyse der Beobachtungsdaten konstatieren zu können, das der Eigenschaftskomplex G vorliegt. Habe ich solch einen Kriterienkatalog G nicht, kann ich noch so viele empirische Daten zu irgendwelchen materiellen Strukturen vorweisen; ‚aus sich heraus‘ lassen diese Daten eine solche Eigenschaftszuschreibung nicht zu! …
  4. … ohne die ‚Anhaltspunkte‘ im ‚beobachtbaren Verhalten‘ wäre es praktisch unmöglich, jene bedingenden materiellen Struktureigenschaften zu identifizieren, da die zugrundeliegenden neuronalen und damit letztlich biochemischen Grundlagen rein mathematisch nahezu unbegrenzt viele Funktionen erlauben. Letztlich deuten diese materiellen Strukturen auf einen quantenmechanischen Möglichkeitsraum hin, deren Konkretisierung von Faktoren abhängt, die sich aus den Strukturen selbst nicht so einfach ableiten lassen. …
  5. Philosophen arbeiten traditionell mit dem subjektiven Erlebnisraum direkt, ohne zugleich die Frage nach den materiellen Bedingungen der so erlebbaren ‚Phänomene‘ zu fragen. In gewisser Weise handelt es sich bei diesen subjektiven (= bewussten) Phänomenen auch um eine Systemfunktion eigener Art mit einer spezifischen Besonderheit, der man nicht gerecht werden würde, würde man sie durch Rekurs auf die bedingenden materiellen Strukturen (Gehirn, Körper, Welt, …) ‚ersetzen‘ wollen. …
  6. … muss man sich klar machen, dass alle sogenannten ‚empirischen Daten‘ ja nicht ‚außerhalb‘ des ‚bewusstseinsbedingten Phänomenraums‘ vorkommen, sondern auch nur ‚beusstseinsbedingte Phänomene‘ sind, allerdings eine spezielle Teilmenge, die man mit unterstellten Vorgängen in der Außenwelt in Verbindung bringt. Insofern bildet der subjektive Phänomenraum die Basis für jegliche Denkfigur, auch für die empirischen Wissenschaften. …
  7. Die Frage, was denn dann die primären Kriterien für das ‚Psychische-Geistige‘ sind, wird durch diese multidisziplinäre Kooperationen nicht einfacher: da die materiellen Strukturen als solche keinerlei Anhaltspunkte für ‚Geistiges‘ liefern, bleibt letztlich als Ausgangspunkt doch nur das ‚Geistige‘, wie biologische Systeme ’sich selbst‘ sehen, weil sie sich so ‚erleben‘. Das ‚Geistige‘ erscheint hier als ‚Dynamik‘ von Systemen, die sich anhand des Auftretens dieser Systeme ‚zeigt‘, ‚manifestiert‘. Aus den einzelnen materiellen Bestandteilen kann man diese Eigenschaften nicht ableiten, nur aus der Gesamtheit in spezifischen Wechselwirkungen. …
  8. … Erst durch die Dynamik des Gesamtsystems werden – oft als ‚emergent‘ klassifizierte – Phänomene sichtbar, die von den einzelnen Bestandteilen des materiellen Systems als solchen nicht ableitbar sind, nur eben durch das Verhalten, die Dynamik des Gesamtsystems. …
  9. … wenn ein homo sapiens ’nichts tut‘, dann ist die Dynamik ‚unsichtbar‘ und die durch solch eine Dynamik sichtbar werdenden Eigenschaften sind nicht greifbar. Weiter: wenn ein homo sapiens eine Dynamik erkennen lässt, dann bedarf es einer spezifischen ‚Erkenntnisweise‘, um die spezifischen Eigenschaften von ‚Geist‘ erkennen zu können. …
  10. … Es ist weder auszuschließen, dass es zwischen dem empirischen Phänomen der ‚Gravitation‘ und dem empirischen Phänomen ‚Geist‘ einen ‚tieferen‘ Zusammenhang gibt (da ‚Geist‘ als empirisches Phänomen ‚Gravitation‘ voraussetzt‘), noch dass es weit komplexere empirische Phänomene geben kann als den ‚individuell in Populationen‘ sich manifestierenden ‚empirischen Geist‘.
  11. … Da jene geistige Eigenschaften, die den homo sapiens von anderen Lebensformen unterscheiden, erst mit diesem auftreten, kann eine ‚Geschichte der Entwicklung jener Formen, die den homo sapiens auszeichnen‘ nur indirekte Hinweise darauf liefern, wie sich jene ’späten‘ komplexen materiellen Strukturen aus ‚einfacheren, früheren‘ Strukturen entwickelt haben. Damit entsteht dann die interessante Frage, wie sich solche Komplexität aus ’scheinbar einfacheren‘ Strukturen entwickeln konnte? In der logischen Beweistheorie gilt allgemein, dass ich nur etwas ‚ableiten’/ ‚beweisen‘ kann, wenn ich das zu Beweisende letztlich schon in meinen ‚Voraussetzungen’/ ‚Annahmen‘ angenommen habe. Das ’spätere komplexere Neue‘ wäre in dem Sinne dann nicht wirklich ’neu‘ sondern nur eine ‚andere Zustandsform‘ eines Ausgangspunktes, der schon alles hat‘. Dies wäre nicht sehr überraschend, da wir in der Big-Bang-Theorie allgemein von ‚Energie (E)‘ ausgehen, die in Folge von Abkühlungsprozessen unendlich viele konkrete Zustandsformen angenommen hat, von denen wir mit E=mc^2 wissen, dass sie alle ineinander überführbar sind, wie speziell sie auch immer sein mögen.
  12. …Die komplexen Abbildungsprozesse zwischen Genotypen und Phänotypen als Teil von Populationen in Umgebungen machen eine Zuordnung von im Verhalten fundierten Eigenschaftszuschreibungen von ‚Geist‘ zu vorliegenden materiellen Strukturen schwer bis unmöglich. … Das Entscheidende am Phänomen des Geistes ist ja, dass er nach vielen Milliarden Jahren Entwicklung in einem aktuell hochkomplexen und dynamischen System sich zeigt, und zwar nicht ‚aus sich heraus‘ sondern nur dann, wenn ein anderes System, das ebenfalls ‚Geist‘ hat, diesen Phänomenen ‚ausgesetzt‚ ist. Ein System, das selbst ‚keinen Geist hat‘, kann die beobachtbaren Phänomene nicht als ‚geistige‘ klassifizieren! Dies schließt nicht aus, dass heutige Algorithmen quasi automatisch irgendwelche ‚Muster‘ im beobachtbaren Verhalten identifizieren können, allerdings sind dies Muster wie unendlich viele andere Muster, deren ‚Bewertung‘ in irgendeine Zustandsdimension völlig beliebig ist.
  13. …Von Interesse ist auch, wie sich der Zustandsraum der materiellen Strukturen (die Gesamtheit des aktuellen empirischen Wissens über das Universum und seiner möglichen Zukünfte) und der Zustandsraum von Systemen mit Geist (die Gesamtheit des geistigen Vorstellungsraumes samt seiner möglichen geistigen Zukünfte) unterscheidet. Die Sache wird dadurch kompliziert, dass ja die Systeme mit empirischem Geist letztlich auch zum genuinen Gegenstandsbereich der sogenannten ‚Natur‘-Wissenschaften gehören. Wenn das Empirisch-Geistige Teil der Natur ist, reichen die bisherigen empirischen naturwissenschaftlichen Theorien nicht mehr. Sie müssten entsprechend geändert werden. Der Beobachter muss wesentlicher Bestandteil der Theorie selbst werden. Für diese Konstellation haben wir bislang aber keinen geeigneten empirischen Theoriebegriff.
  14. Die fundamentale Tatsache, dass es Moleküle gibt, die andere Moleküle als ‚Kode‘ benutzen können, um Transformationsprozesse zwischen einer Sorte von Molekülen (DNA, RNA) in eine andere Sorte von Molekülen (Polypeptide, Proteine) steuern zu können, nimmt Edelman als Faktum hin, thematisiert es selbst aber nicht weiter. Er benennt diese ‚interpretierenden Moleküle‘ auch nicht weiter; sein Begriff ‚cellular device‘ ist eher nichtssagend. Dennoch ist es gerade diese Fähigkeit des ‚Übersetzens’/ ‚Interpretierens‘, die fundamental ist für den ganzen Transformationsprozess von einem Genom in einen Phänotyp bzw. in eine ganze Kette von hierarchisch aufeinander aufbauenden Phänotypen. Setzt man diese Übersetzungsfähigkeit voraus, ist das ganze folgende Transformationsgeschehen – so komplex es im Detail erscheinen mag – irgendwie ‚trivial‘. Wenn ich in mathematischer Sicht irgendwelche Mengen habe (z.B. verschiedene Arten von Moleküle), habe aber keine Beziehungen definiert (Relationen, Funktionen), dann habe ich quasi ‚Nichts‘. Habe ich aber z.B. eine Funktion definiert, die eine ‚Abbildung‘ zwischen unterschiedlichen Mengen beschreibt, dann ist es eine reine Fleißaufgabe, die Abbildung durchzuführen (z.B. die Übersetzung von DNA über RNA in Aminosäuren, dann Polypeptide, dann Proteine). Das die Biochemie und Mikrobiologie samt Genetik so viele Jahre benötigt hat, die Details dieser Prozesse erkennen zu können, ändert nichts daran, dass diese Transformationsprozesse als solche ‚trivial‘ sind, wenn ich die grundlegende Transformationsfunktion definiert habe. Wo aber kommt diese grundlegende Abbildungsfunktion her? Wie kann es sein, dass ein ordinäres chemisches Molekül ein anderes ordinäres chemisches Molekül als ‚Kode‘ interpretiert, und zwar genau dann so, wie es geschieht? Betrachtet man ’normale‘ Moleküle mit ihren chemischen Eigenschaften isoliert, dann gibt es keinerlei Ansatzpunkt, um diese grundlegende Frage zu beantworten. Offensichtlich geht dies nur, wenn man alle Moleküle als eine Gesamtheit betrachtet, diese Gesamtheit zudem nicht im unbestimmten Raum, sondern in Verbindung mit den jeweils möglichen ‚realen Kontextbedingungen‘, und dann unter Berücksichtigung des potentiellen Interaktionsraumes all dieser Moleküle und Kontexte. Aber selbst diese Raum repräsentiert im mathematischen Sinne nur Mengen, die alles und nichts sein können. Dass man in diesem Raum eine Funktion implantieren sollte, die dem Dekodieren des genetischen Kodes entspricht, dafür gibt es im gesamten Raum keinerlei Ansatzpunkt, es sei denn, man setzt solche eine Funktion als ‚Eigenschaft des Raumes‘ voraus, so wie die Physiker die ‚Gravitation‘ als Eigenschaft des Raumes voraussetzen, ohne irgendeinen Ansatzpunkt im Raum selbst zu haben, als die beobachtbare Wirkung der Gravitation. Die Biologen können feststellen, dass es tatsächlich einen Transformationsprozess gibt, der solch eine Abbildungsbeziehung voraussetzt, sie haben aber keine Chance, das Auftreten dieser Abbildungsbeziehung aus den beobachtbaren materiellen Strukturen abzuleiten!!!
  15. In der Beschreibung von Edelmans Position habe ich schon angemerkt, dass seine Wortwahl ‚Topobiologie‘ möglicherweise unglücklich ist, da es letztlich nicht der dreidimensionale Raum als solcher ist, der entscheidend ist (wenngleich indirekt die Drei-Dimensionalität eine Rolle spielt) sondern der ‚Kontext in Form von interaktiven Nachbarschaften‘: welche andere Zellen stehen in Interaktion mit einer Zelle; welche Signale werden empfangen. Indirekt spielt dann auch der ‚vorausgehende Prozess‘ eine Rolle, durch den eben Kontexte erzeugt worden sind, die nur in bestimmten Phasen des Prozesses vorliegen. Man hat also eher einen ‚Phasenraum‘, eine Folge typischer Zustände, die auseinander hervorgehen, so, dass der bisherige Prozess die nächste Prozessphase hochgradig determiniert. Dies ähnelt einer ‚algorithmischen‘ Struktur, in der eine Folge von Anweisungen schrittweise abgearbeitet wird, wobei jeder Folgeschritt auf den Ergebnissen der vorausgehenden Abarbeitungen aufbaut und in Abhängigkeit von verfügbaren ‚Parameterwerten‘ den nächsten Schritt auswählt. Im Unterschied zu einem klassischen Computer, bei dem die Ausführungsumgebung (normalerweise) festliegt, haben wir es hier mit einem algorithmischen Programm zu tun, das die jeweilige Ausführungsumgebung simultan zur Ausführung ‚mit erschafft‘! Wenn Computermetapher, dann eben so: ein Programm (Algorithmus), das seine Ausführungsumgebung (die Hardware) mit jedem Schritt selbst ‚erschafft‘, ‚generiert‘, und damit seine Ausführungsmöglichkeiten schrittweise ausbaut, erweitert. Dies setzt allerdings voraus, dass das genetische Programm dies alles schon ‚vorsieht‘, ‚vorwegnimmt‘. Die interessante Frage ist dann hier, wie ist dies möglich? Wie kann sich ein genetisches Programm ‚aus dem Nichts‘ entwickeln, das all diese ungeheuer komplexen Informationen bezüglich Ausführung und Ausführungsumgebung zugleich ‚aufgesammelt‘, ’strukturiert‘, ‚verpackt‘ hat, wo die Gesamtheit der modernen Wissenschaft bislang nur Fragmente versteht?
  16. Während Neurowissenschaftler (Edelman eingeschlossen) oft mit unsinnigen Computervergleichen versuchen, die Besonderheit des menschlichen Gehirns herauszustellen, kann man ja auch mal umgekehrt denken: wenn die Entwicklung des Gehirns (und des gesamten Organismus) Ähnlichkeiten aufweist mit einem Algorithmus, der seine eigene Ausführungsumgebung während der Ausführung (!!!) mit generiert, ob sich solch ein Prozess auch ‚rein technisch‘ denken ließe in dem Sinne, dass wir Maschinen bauen, die aus einer ‚kleinen Anfangsmenge von Materie‘ heraus ausgestattet mit einem geeigneten ‚Kode‘ und einem geeigneten ‚Interpretierer‘ sich analog selbst sowohl materiell als auch kodemäßig entwickeln? Da die biologischen Systeme zeigen, dass es grundsätzlich geht, kann man solch einen technischen Prozess nicht grundsätzlich ausschließen. Ein solches Gedankenexperiment macht aber sichtbar, worauf es wirklich ankommt: eine solche sich selbst mit-bauende Maschine benötigt auch einen geeigneten Kode und Interpretationsmechanismus, eine grundlegende Funktion. Ohne diese Funktion, geht gar nichts. Die Herkunft dieser Funktion ist aber gerade diejenige grundlegende Frage, die die gesamte empirische Wissenschaft bislang nicht gelöst hat. Es gibt zwar neuere Arbeiten zur Entstehung von ersten Zellen aus Molekülen unter bestimmten realistischen Kontexten, aber auch diese Forschungen beschreiben nur Prozesse, die man ‚vorfindet‘, die sich ‚zeigen‘, nicht aber warum und wieso es überhaupt zu diesen Prozessen kommen kann. Alle beteiligten materiellen Faktoren in diesen Prozessen als solchen geben keinerlei Ansatzpunkte für eine Antwort. Das einzige, was wir bislang wissen, ist, dass es möglich ist, weil wir es ‚beobachten können‘. Die ‚empirischen Phänomene‘ sind immer noch die härteste Währung für Wahrheit.

KAP.7 DIE PROBLEME NEU ÜBERLEGT

  1. Nach den ersten Analysen in Kap.1-6 stellt Edelman eine ‚Zwischenreflexion‘ an. Angesichts der entdeckten Komplexität und Dynamik im Fall des Gehirns und seiner Entwicklung stellt sich die Frage, wie man den Zusammenhang zwischen den vorfindlichen materiellen Strukturen und ihren Funktionen miteinander in Beziehung setzen (‚to relate‘) kann.(vgl. S.65f)
  2. Und um seine mögliche neue Position zu bestimmen wiederholt er summarisch nochmals seine zuvor geäußerte Kritik an der ‚falschen Objektivität‘ der Physik, an der zu eng gefassten Kognitionswissenschaft, und er wiederholt auch wieder die unsinnigen Vergleiche mit einem falschen Begriff von Computer, der weder theoretisch noch praktisch Sinn macht.(vgl. SS.66-69)
  3. Grundsätzlich hält er an der Forderung fest, (i) eine ‚Theorie‘ zu bauen (‚to construct), die (ii) ‚wissenschaftlich‘ ist. ‚Wissenschaftlich sein‘ macht er an der Eigenschaft fest (iii), dass die Theorie ‚überprüfbar‘ sein soll. Allerdings muss die Theorie (iv) ’nicht immer‘ zu (v) ‚Voraussagen auf allen Ebenen führen‘, noch muss (vi) ‚jeder Teil von der Theorie direkt falsifizierbar‘ sein.(vgl. S.66)
  4. Aufgrund seiner massiven Kritik an der unterdrückten Rolle des Beobachters speziell in der Physik (vgl. S.66f) muss man indirekt folgern, dass (a) der Beobachter in einer ‚kritischen Wissenschaft‘ im Zusammenspiel mit der Theorie ‚anders integriert wird als bisher‘. Dies bedeutet, man muss berücksichtigen, (b) dass es ‚mentale Ereignisse‘ gibt (‚Bewusstsein‘, ‚Intentionalität‘) gibt, die (c) nur durch ‚Introspektion‘ oder (d) nur durch indirekte Schlüsse aufgrund des beobachtbaren Verhaltens von anderen‘ zugänglich sind.(vgl. S.67)

DISKUSSION FORTSETZUNG

  1. Das Kapitel 7 ist sehr kurz und bringt weitgehend nur Wiederholungen ausgenommen der Punkt mit der Theorie. Der ist neu. Und es ist überhaupt das erste Mal, dass Edelman in diesem Buch explizit über eine ‚wissenschaftliche Theorie‘ spricht, obgleich er sich selbst ja als Wissenschaftler versteht und  er seine eigenen Überlegungen gleichwohl als wissenschaftlich verstanden wissen will (wenngleich er das aktuelle Buch in seiner Form nicht streng als wissenschaftliche Theorie verfasst hat).
  2. Seine Charakterisierung einer ‚wissenschaftlichen Theorie‘ ist interessant. Sie ist generell sehr fragmentarisch; sie ist ferner in ihrer Ernsthaftigkeit fragwürdig, da er die Forderung der Falsifizierbarkeit mit dem Argument einschränkt, dass ansonsten Darwins Theorie in ihrer Anfangszeit niemals hätte Erfolg haben können; und sie ist geradezu mystisch, da er eine radikal neue Rolle des Beobachters mit all seinen mentalen Eigenschaften innerhalb der Theoriebildung einfordert, ohne aber irgendwelche Hinweise zu liefern, wie das praktiziert werden soll.
  3. Man stellt sich die Frage, welchen ‚Begriff von Theorie‘ Edelman eigentlich benutzt? In der Geschichte der empirischen Wissenschaften gab es viele verschiedene Begrifflichkeiten, die nicht ohne weiteres kompatibel sind, und seit ca. 100 Jahren gibt es eine eigene Meta-Wissenschaft zu den Wissenschaften mit Namen wie ‚Wissenschaftsphilosophie‘, ‚Wissenschaftstheorie‘, ‚Wissenschaftslogik‘, deren Gegenstandsbereich gerade die empirischen Wissenschaften und ihr Theoriebegriff ist. Obgleich das Gebiet der Wissenschaftsphilosophie, wie ich es hier nenne, bislang immer noch keinen geschlossenen begrifflichen Raum darstellt, gibt es doch eine Reihe von grundlegenden Annahmen, die die meisten Vertreter dieses Feldes einer Metawissenschaft zu den Wissenschaften teilen. Aufgrund seiner bisherigen Ausführungen scheint Edelman nichts vom Gebiet der Wissenschaftsphilosophie zu kennen.
  4. Die Überprüfbarkeit einer Theorie ist in der Tat ein wesentliches Merkmal der modernen empirischen Wissenschaften. Ohne diese Überprüfbarkeit gäbe es keine empirische Wissenschaft. Die Frage ist nur, was mit ‚Überprüfbarkeit‘ gemeint ist bzw. gemeint sein kann.
  5. Wenn Edelman fordert dass für eine Theorie gelten soll, dass nicht (vi) ‚jeder Teil von der Theorie direkt falsifizierbar‘ sein muss, dann geht er offensichtlich davon aus, dass eine Theorie T aus ‚Teilen‘ besteht, also etwa T(T1, T2, …, Tn) und dass im ‚Idealfall‘ jeder Teil ‚direkt falsifizierbar‘ sein müsste. Diese Vorstellung ist sehr befremdlich und hat weder mit der Realität existierender physikalischer Theorien irgend etwas zu tun noch entspricht dies den modernen Auffassungen von Theorie. Moderne Theorien T sind mathematische (letztlich algebraische) Strukturen, die als solche überhaupt nicht interpretierbar sind, geschweige den einzelne Teile davon. Ferner liegt die Erklärungsfähigkeit von Theorien nicht in ihren Teilen, sondern in den ‚Beziehungen‘, die mittels dieser Teile formulierbar und behauptbar werden. Und ob man irgendetwas aus solch einer Theorie ‚voraussagen‘ kann hängt minimal davon ab, ob die mathematische Struktur der Theorie die Anwendung eines ‚logischen Folgerungsbegriffs‘ erlaubt, mittels dem sich ‚Aussagen‘ ‚ableiten‘ lassen, die sich dann – möglicherweise – ‚verifizieren‘ lassen. Diese Verifizierbarkeit impliziert sowohl eine ‚Interpretierbarkeit‘ der gefolgerten Aussagen wie auch geeignete ‚Messverfahren‘, um feststellen zu können, ob die ‚in den interpretierten Aussagen involvierten entscheidbaren Eigenschaften‘ per Messung verifiziert werden können oder nicht. Der zentrale Begriff ist hier ‚Verifikation‘. Der Begriff der ‚Falsifikation‘ ist relativ zu Verifikation als komplementärer Begriff definiert. Begrifflich erscheint dies klar: wenn ich nicht verifizieren kann, dann habe ich automatisch falsifiziert. In der Praxis stellt sich aber oft das Problem, entscheiden zu können, ob der ganz Prozess des Verifizierens ‚korrekt genug‘ war: sind die Umgebungsbedingungen angemessen? Hat das Messgerät richtig funktioniert? Haben die Beobachter sich eventuell geirrt? Usw. Als ‚theoretischer Begriff‘ ist Falsifikation elegant, in der Praxis aber nur schwer anzuwenden. Letztlich gilt dies dann auch für den Verifikationsbegriff: selbst wenn der Messvorgang jene Werte liefert, die man aufgrund einer abgeleiteten und interpretierten Aussage erwartet, heißt dies nicht mit absoluter Sicherheit, dass richtig gemessen wurde oder dass die Aussage möglicherweise falsch interpretiert oder falsch abgeleitet worden ist.
  6. All diese Schwierigkeiten verweisen auf den ausführenden Beobachter, der im Idealfall auch der Theoriemacher ist. In der Tat ist es bislang ein menschliches Wesen, das mit seinen konkreten mentalen Eigenschaften (basierend auf einer bestimmten materiellen Struktur Gehirn im Körper in einer Welt) sowohl Phänomene und Messwerte in hypothetische mathematische Strukturen transformiert, und diese dann wiederum über Folgerungen und Interpretationen auf Phänomene und Messwerte anwendet. Dies in der Regel nicht isoliert, sondern als Teil eines sozialen Netzwerkes, das sich über Interaktionen, besonders über Kommunikation, konstituiert und am Leben erhält.
  7. Edelman hat Recht, wenn er auf die bisherige unbefriedigende Praxis der Wissenschaften hinweist, in der die Rolle des Theoriemachers als Teil der Theoriebildung kaum bis gar nicht thematisiert wird, erst recht geht diese Rolle nicht in die eigentliche Theorie mit ein. Edelman selbst hat aber offensichtlich keinerlei Vorstellung, wie eine Verbesserung erreicht werden könnte, hat er ja noch nicht einmal einen rudimentären Theoriebegriff.
  8. Aus dem bisher Gesagten lässt sich zumindest erahnen, dass ein verbessertes Konzept einer Theorie darin bestehen müsste, dass es eine explizite ‚Theorie einer Population von Theoriemachern (TPTM)‘ gibt, die beschreibt, wie solch eine Population überhaupt eine Theorie gemeinsam entwickeln und anwenden kann und innerhalb dieser Theorie einer Population von Theoriemachern würden die bisherigen klassischen Theoriekonzepte dann als mögliche Theoriemodelle eingebettet. Die TPTM wäre dann quasi ein ‚Betriebssystem für Theorien‘. Alle Fragen, die Edelman angeschnitten hat, könnte man dann in einem solchen erweiterten begrifflichen Rahmen bequem diskutieren, bis hinab in winzigste Details, auch unter Einbeziehung der zugrunde liegenden materiellen Strukturen.
  9. Das, was Edelman als Theorie andeutet, ist vollständig unzulänglich und sogar in wesentlichen Punkten falsch.
  10. Anmerkung: Darwin hatte nichts was einem modernen Begriff von Theorie entsprechen würde. Insofern ist auch das Reden von einer ‚Evolutionstheorie‘ im Kontext von Darwin unangemessen. Damit wird aber der epochalen Leistung von Darwin kein Abbruch getan! Eher wirkt sein Werk dadurch noch gewaltiger, denn die Transformation von Gedanken, Phänomenen, Fakten usw. in die Form einer modernen Theorie setzt nicht nur voraus, dass man über die notwendigen Formalisierungsfähigkeiten verfügt (selbst bei den theoretischen Physikern ist dies nicht unbedingt vollständig gegeben) sondern man kann erst dann ’sinnvoll formalisieren‘, wenn man überhaupt irgendetwas ‚Interessantes‘ hat, was man formalisieren kann. Die großen Naturforscher (wie z.B. Darwin) hatten den Genius, die Kreativität, den Mut, die Zähigkeit, das bohrende, systematisierende Denken, was den Stoff für interessante Erkenntnisse liefert. Dazu braucht man keine formale Theorie. Die Transformation in eine formale Theorie ist irgendwo Fleißarbeit, allerdings, wie die Geschichte der Physik zeigt, braucht man auch hier gelegentlich die ‚Genies‘, die das Formale so beherrschen, dass sie bisherige ‚umständliche‘ oder ‚unpassende‘ Strukturen in ‚einfachere‘, ‚elegantere‘, ‚besser passende‘ formale Strukturen umschreiben.

Fortsetzung folgt HIER.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

ÜBER DIE MATERIE DES GEISTES. Relektüre von Edelman 1992. Teil 5

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 28.August 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

Gerald M.Edelman, Bright Air, Brilliant Fire. On the Matter of the Mind, New York: 1992, Basic Books

BISHER

Teil 1

Teil 2

Teil 3

Teil 4

WICHTIGE POSITIONEN

Zur Erinnerung, einige der wichtigen Positionen, auf die bislang hingewiesen wurde:

EDELMAN

Edelman benutzt die Arbeitshypothese, dass das, was wir ‚Geist‘ nennen, sich nur ab bestimmten Zeitpunkten während der allgemeinen Evolution ‚gezeigt‘ (‚emerged‘) hat, und zwar sehr spät.(vgl. S.41) Und dies setzt die Annahme voraus, dass die fundamentale Basis für alles Verhalten und für die ‚Sichtbarwerdung‘ (‚emergence‘) des Geistes die Anatomie und Morphologie der biologischen Strukturen ist sowie deren Funktionen.(vgl. S.41)

ASPEKTE DER DISKUSSION BISHER

Im Kontext seiner Argumentation kritisiert Edelman viele bekannte Positionen im Bereich Philosophie und Psychologie aus der eingeschränkten Perspektive ihres Bezuges zu den materiellen Strukturen heraus, die von ihm – letztlich wie bei Kant, nur mit anderem Akzent, mehr oder weniger – als ‚Ermöglichung des Geistes‘ gesehen werden. Diese Kritik in dieser speziellen Perspektive ist zum Teil berechtigt, aber auch nur zu einem sehr eingeschränkten Teil, da die kritisierten Personen und Positionen von den neuen Erkenntnissen noch gar nichts wissen konnten. Über diese enge Perspektive des expliziten Bezugs zu materiellen Strukturen hinaus repräsentieren die kritisierten Positionen aber auch Perspektiven, die ‚in sich eine methodische Rechtfertigung‘ besitzen, die Edelman schlicht nicht erkennt. Hier verkürzt zur Erinnerung einige seiner ‚methodischen blinden Flecken‘:

  1. … zugleich die Arbeitshypothese aufzustellen, dass damit Analyse- und Erklärungsansätze von vornherein zu verurteilen sind, die Verhaltensdaten (Psychologie) bzw. auch introspektive Daten (Philosophie) als solche als Basis nehmen ohne direkt einen Bezug zu den materiellen (anatomischen) Daten herzustellen, ist mindestens problematisch wenn nicht wissenschaftsphilosophisch unhaltbar…
  2. … denn, wie immer die anatomischen Grundlagen beschaffen sein mögen, wenn ich deren ‚Verhaltensdynamik‘ erforschen will, interessieren mich die Details dieser Anatomie nicht, sondern nur ihre Funktion. Und diese lässt sich nicht durch Rekurs auf Bestandteile beschreiben sondern nur durch Beobachtung des Systemverhaltens …
  3. … aus materiellen Strukturen als solchen folgt in keiner Weise irgend etwas ‚Geistiges‘ es sei denn, ich habe vorab zur Untersuchung einen Kriterienkatalog G, den ich als Maßstab anlegen kann, um dann bei der Analyse der Beobachtungsdaten konstatieren zu können, das der Eigenschaftskomplex G vorliegt. Habe ich solch einen Kriterienkatalog G nicht, kann ich noch so viele empirische Daten zu irgendwelchen materiellen Strukturen vorweisen; ‚aus sich heraus‘ lassen diese Daten eine solche Eigenschaftszuschreibung nicht zu! …
  4. … ohne die ‚Anhaltspunkte‘ im ‚beobachtbaren Verhalten‘ wäre es praktisch unmöglich, jene bedingenden materiellen Struktureigenschaften zu identifizieren, da die zugrundeliegenden neuronalen und damit letztlich biochemischen Grundlagen rein mathematisch nahezu unbegrenzt viele Funktionen erlauben. Letztlich deuten diese materiellen Strukturen auf einen quantenmechanischen Möglichkeitsraum hin, deren Konkretisierung von Faktoren abhängt, die sich aus den Strukturen selbst nicht so einfach ableiten lassen. …
  5. Philosophen arbeiten traditionell mit dem subjektiven Erlebnisraum direkt, ohne zugleich die Frage nach den materiellen Bedingungen der so erlebbaren ‚Phänomene‘ zu fragen. In gewisser Weise handelt es sich bei diesen subjektiven (= bewussten) Phänomenen auch um eine Systemfunktion eigener Art mit einer spezifischen Besonderheit, der man nicht gerecht werden würde, würde man sie durch Rekurs auf die bedingenden materiellen Strukturen (Gehirn, Körper, Welt, …) ‚ersetzen‘ wollen. …
  6. … muss man sich klar machen, dass alle sogenannten ‚empirischen Daten‘ ja nicht ‚außerhalb‘ des ‚bewusstseinsbedingten Phänomenraums‘ vorkommen, sondern auch nur ‚beusstseinsbedingte Phänomene‘ sind, allerdings eine spezielle Teilmenge, die man mit unterstellten Vorgängen in der Außenwelt in Verbindung bringt. Insofern bildet der subjektive Phänomenraum die Basis für jegliche Denkfigur, auch für die empirischen Wissenschaften. …
  7. Die Frage, was denn dann die primären Kriterien für das ‚Psychische-Geistige‘ sind, wird durch diese multidisziplinäre Kooperationen nicht einfacher: da die materiellen Strukturen als solche keinerlei Anhaltspunkte für ‚Geistiges‘ liefern, bleibt letztlich als Ausgangspunkt doch nur das ‚Geistige‘, wie biologische Systeme ’sich selbst‘ sehen, weil sie sich so ‚erleben‘. Das ‚Geistige‘ erscheint hier als ‚Dynamik‘ von Systemen, die sich anhand des Auftretens dieser Systeme ‚zeigt‘, ‚manifestiert‘. Aus den einzelnen materiellen Bestandteilen kann man diese Eigenschaften nicht ableiten, nur aus der Gesamtheit in spezifischen Wechselwirkungen. …
  8. … Erst durch die Dynamik des Gesamtsystems werden – oft als ‚emergent‘ klassifizierte – Phänomene sichtbar, die von den einzelnen Bestandteilen des materiellen Systems als solchen nicht ableitbar sind, nur eben durch das Verhalten, die Dynamik des Gesamtsystems. …
  9. … wenn ein homo sapiens ’nichts tut‘, dann ist die Dynamik ‚unsichtbar‘ und die durch solch eine Dynamik sichtbar werdenden Eigenschaften sind nicht greifbar. Weiter: wenn ein homo sapiens eine Dynamik erkennen lässt, dann bedarf es einer spezifischen ‚Erkenntnisweise‘, um die spezifischen Eigenschaften von ‚Geist‘ erkennen zu können. …
  10. … Es ist weder auszuschließen, dass es zwischen dem empirischen Phänomen der ‚Gravitation‘ und dem empirischen Phänomen ‚Geist‘ einen ‚tieferen‘ Zusammenhang gibt (da ‚Geist‘ als empirisches Phänomen ‚Gravitation‘ voraussetzt‘), noch dass es weit komplexere empirische Phänomene geben kann als den ‚individuell in Populationen‘ sich manifestierenden ‚empirischen Geist‘.
  11. … Da jene geistige Eigenschaften, die den homo sapiens von anderen Lebensformen unterscheiden, erst mit diesem auftreten, kann eine ‚Geschichte der Entwicklung jener Formen, die den homo sapiens auszeichnen‘ nur indirekte Hinweise darauf liefern, wie sich jene ’späten‘ komplexen materiellen Strukturen aus ‚einfacheren, früheren‘ Strukturen entwickelt haben. Damit entsteht dann die interessante Frage, wie sich solche Komplexität aus ’scheinbar einfacheren‘ Strukturen entwickeln konnte? In der logischen Beweistheorie gilt allgemein, dass ich nur etwas ‚ableiten’/ ‚beweisen‘ kann, wenn ich das zu Beweisende letztlich schon in meinen ‚Voraussetzungen’/ ‚Annahmen‘ angenommen habe. Das ’spätere komplexere Neue‘ wäre in dem Sinne dann nicht wirklich ’neu‘ sondern nur eine ‚andere Zustandsform‘ eines Ausgangspunktes, der schon alles hat‘. Dies wäre nicht sehr überraschend, da wir in der Big-Bang-Theorie allgemein von ‚Energie (E)‘ ausgehen, die in Folge von Abkühlungsprozessen unendlich viele konkrete Zustandsformen angenommen hat, von denen wir mit E=mc^2 wissen, dass sie alle ineinander überführbar sind, wie speziell sie auch immer sein mögen.
  12. …Die komplexen Abbildungsprozesse zwischen Genotypen und Phänotypen als Teil von Populationen in Umgebungen machen eine Zuordnung von im Verhalten fundierten Eigenschaftszuschreibungen von ‚Geist‘ zu vorliegenden materiellen Strukturen schwer bis unmöglich. … Das Entscheidende am Phänomen des Geistes ist ja, dass er nach vielen Milliarden Jahren Entwicklung in einem aktuell hochkomplexen und dynamischen System sich zeigt, und zwar nicht ‚aus sich heraus‘ sondern nur dann, wenn ein anderes System, das ebenfalls ‚Geist‘ hat, diesen Phänomenen ‚ausgesetzt‚ ist. Ein System, das selbst ‚keinen Geist hat‘, kann die beobachtbaren Phänomene nicht als ‚geistige‘ klassifizieren! Dies schließt nicht aus, dass heutige Algorithmen quasi automatisch irgendwelche ‚Muster‘ im beobachtbaren Verhalten identifizieren können, allerdings sind dies Muster wie unendlich viele andere Muster, deren ‚Bewertung‘ in irgendeine Zustandsdimension völlig beliebig ist.
  13. …Von Interesse ist auch, wie sich der Zustandsraum der materiellen Strukturen (die Gesamtheit des aktuellen empirischen Wissens über das Universum und seiner möglichen Zukünfte) und der Zustandsraum von Systemen mit Geist (die Gesamtheit des geistigen Vorstellungsraumes samt seiner möglichen geistigen Zukünfte) unterscheidet. Die Sache wird dadurch kompliziert, dass ja die Systeme mit empirischem Geist letztlich auch zum genuinen Gegenstandsbereich der sogenannten ‚Natur‘-Wissenschaften gehören. Wenn das Empirisch-Geistige Teil der Natur ist, reichen die bisherigen empirischen naturwissenschaftlichen Theorien nicht mehr. Sie müssten entsprechend geändert werden. Der Beobachter muss wesentlicher Bestandteil der Theorie selbst werden. Für diese Konstellation haben wir bislang aber keinen geeigneten empirischen Theoriebegriff.

KAP.6 TOPOBIOLOGIE: WAS MAN VOM EMBRYO LERNEN KANN

  1. Der Ausgangspunkt ist weiterhin die Frage, welche materiellen Prozesse zu jenen materiellen Strukturen geführt haben, die für uns den homo sapiens repräsentieren. Diese materiellen Strukturen des homo sapiens zeigen eine Fülle von Verhaltenseigenschaften (Dynamiken), die wir als Hinweise auf ‚Geist‘ klassifizieren. Bisher wurden diese vorausgehenden formierenden Prozesse schon begrenzt auf die beiden Pole ‚Genotyp‘ und ‚Phänotyp‘ mit der Arbeitshypothese, dass die Eigenschaften des Genotyps weitgehend (wie weitgehend eigentlich? Kann man das quantifizieren?) die Eigenschaften des Phänotyps festlegen. Edelman selbst konkretisiert diese beiden Pole noch weitergehender mit der Frage, wie ein ‚ein-dimensionaler genetischer Kode‘ letztlich ein ‚drei-dimensionales Lebewesen‘ definieren kann.(vgl. S.63)
  2. Die Redeweise vom ‚genetischen Kode‘ setzt voraus, dass es eine Instanz gibt, die die Eigenschaften des Moleküls, das als ‚genetischer Kode‘ angesehen wird, als ‚Kode‘ ‚interpretieren‘ kann, d.h. diese Kode-erkennende-und-interpretierende Instanz (letztlich wieder ein Molekül) ist in der Lage, zwischen den materiellen Eigenschaften des Gen-Repräsentierenden Moleküls (normalerweise als DNA-Molekül vorliegend) und einer möglichen Proteinstruktur eine ‚Abbildung‘ vorzunehmen, die aus dem Bereich des ‚abstrakten Kodes‘ hinaustritt in den Bereich realer, 3-dimensionaler materieller Strukturen und Prozesse.
  3. Edelman beschreibt die konkreten Details des Gen-repräsentierenden-Moleküls M_gen (als DNA-Molekül; spezielle Abschnitte eines DNA-Moleküls repräsentieren ‚Gene‘), beschreibt die einzelnen Kode-Elemente (genannt ‚Kodons‘, ‚codons‘), die den späteren Transformationsprozess in materielle Strukturen steuern. Dieser Transformationsprozess geschieht aber nicht direkt, sondern über einen Zwischenschritt, in dem das Gen-repräsentierenden-Molekül M_gen in ein spiegel-identisches Gen-repräsentierendes-Molekül M_gen* (als RNA-Moleküle) übersetzt wird, das den Zellkern einer Zelle verlässt und dort dann von einer Kode-erkennende-und-interpretierende Instanz (‚cellular device‘) schrittweise in Aminosäuren übersetzt wird, die aneinander gekettet lange Moleküle (Polypeptide) bilden, die sich weiter als drei-dimensionale Strukturen ausformen, die schließlich Proteine repräsentieren. Aufgrund ihrer drei-dimensionalen Struktur kommen den Proteinen ‚Formen‘ (’shapes‘) zu, mit denen sich charakteristische ‚Eigenschaften‘, ‚Funktionen‘ verbinden. Schon diese Proteinformen kann man als Zwischenstufen zu einem Phänotyp ansehen. Unter anderem können sich Proteine zu komplexen ‚Zellen‘ zusammen finden (einem weiteren, komplexen Phänotyp), die ihren eigenen Zellkern haben mit einem spezifischen Genotyp. Verschiedene Proteine können ganz verschiedene Zellen bilden! (vgl. SS.52-57)
  4. Schon dieser Transformationsprozess von einem Gen-repräsentierenden-Molekül M_gen zu einer Zelle deutet in den einzelnen Phasen vielfältige Möglichkeiten der Variation, der Veränderung an. Doch, eine einzelne Zelle macht noch kein Lebewesen. Eine Lebensform wie der homo sapiens besteht – wie wir heute wissen – aus vielen Billionen (10^12) einzelnen Zellen, allein das Gehirn aus ca. 90 Milliarden neuronalen Zellen (ohne Glia-Zellen). Wie muss man sich diesen Weg von einer (!) befruchteten Zelle zu vielen Billionen Zellen in Form eines Lebewesens vorstellen?
  5. Dieser Transformationsprozess von einer befruchteten Eizelle ‚Zygote‘ genannt (‚zygote‘) zum ausgewachsenen Lebewesen wird von der Teilwissenschaft der ‚Embryologie‘ (‚embryology‘) behandelt. Die befruchtete Zelle (eine Vereinigung einer ‚Samenzelle‘ (’sperm cell‘) und einer ‚Eizelle‘ (‚egg cell‘) unterläuft eine lange Serie von Teilungen. Zellen können aber noch mehr als sich nur teilen: sie können ‚migrieren‘ (‚migrate‘), ‚absterben‘, ‚anhaften aneinander‘, und sich ‚differenzieren‘ (‚differentiate‘), d.h. abhängig von bestimmten chemischen Signalen in ihrer Umgebung werden unterschiedliche Gene aktiviert, um ganz spezifische Proteine zu erzeugen. Dadurch können Zellen (das Phänotyp) ganz unterschiedliche Dynamiken, unterschiedliche Verhaltensweisen zeigen. Differentiation von Zellen ist somit kontextabhängig, d.h. setzt die Nähe zu bestimmten anderen Molekülen (die als Signale fungieren) voraus, wobei die Signale Sender voraussetzen, die in Form von Zellen auftreten.(vgl. S.57f)
  6. Aufgrund dieser grundlegenden Fähigkeit der Differentiation (also eines signalabhängigen Verhaltens (Edelman spricht hier von ‚Ortsabhängigkeit‘; mit dem griechischen Wort ‚topos‘ für Ort spricht er dann auch von ‚Topobiologie‘; diese Wortwahl ist aber gefährlich, da sie primär Raumstrukturen nahelegt, obgleich der Prozess selbst nur Signale kennt (natürlich in einem Raum)) können Zellen, selbst wenn sie sich im Verlaufe des Transformationsprozesses zu unterschiedlichen ‚Schichten‘ (‚layer‘) anordnen, über Entfernungen hinweg ‚Signale senden‘, die kontextbedingt ausgelöst werden. Die schrittweise ‚Gestaltwerdung‘ von immer komplexeren Strukturen wird damit ‚aus sich selbst‘ gesteuert. Je nach aktueller Anordnung bestehen spezifische Kontexte, die spezifische neue Signale auslösen, die die ’nächsten Schritte‘ einleiten. Dabei spielen offensichtlich zwei Faktoren ineinander: (i) das in den Genen hinterlegte ‚Programm‘ konstituiert ein allgemeines ‚Schema‘, ein ‚Template‘, das einen grundlegenden Bauplan, eine grundlegende Architektur skizziert, und (ii) die jeweils konkreten individuellen Zellen, die assoziiert mit unterschiedlichen Kontexten durch den Raum wandern, bilden ein konkretes ‚Bedingungsgefüge‘, eine aktuelle ‚Selektionsmatrix‘, die darüber entscheidet, wann und wie Teile des generellen Bauplans konkretisiert werden. Der Möglichkeitsraum des genetischen Programms wird über die Konkretheit der selektierenden Zellen eingeschränkt, auf konkrete Punkte ‚herunter spezifiziert‘. Dieser Vorgang bietet zahlreiche Variationsmöglichkeiten. Mittlerweile hat man entdeckt, dass der Signalprozess stark hierarchisch sein kann insofern es ‚homöotische‘ (‚homeotic‘) Gene gibt, die die Proteinproduktion bestimmter Gene kontrollieren. (vgl. SS.58-63)
  7. Edelman benutzt den Begriff ‚Epigenetik‘ in den geschilderten Kontexten als jene Faktoren, Ereignisse, Prozesse, die zusätzlich zu den Genen selbst für die Umsetzung der Transformation von Genen in Proteinen, in Zellen, in Zellverbände verantwortlich sind.(vgl. S.62)
  8. Nach diesem embryologischen Einblick in die Entwicklungsdynamik eines Organismus kann Edelman skizzieren, wie die charakteristischen Strukturen des Gehirns eines homo sapiens sich gebildet haben können und warum diese Strukturen artspezifisch sind, d.h. diese Strukturen sind typisch für den homo sapiens; alle Exemplare der Lebensform ‚homo sapiens‘ haben die gleiche Struktur. Zugleich gilt aber auch, dass selbst eineiige Zwillinge sich im Detail dieser Strukturen unterscheiden können und tatsächlich unterscheiden. Das Zusammenspiel von allgemeinem genetischen Programm und den ‚konkreten individuellen Zellen‘ in ihren jeweils ’spezifischen Kontexten‘ bietet solch ungeheure Variationsmöglichkeiten, dass das gleiche artspezifische genetische Programm sich im Detail immer unterscheiden wird. Diese in der Art des Transformationsprozesses angelegte Variabilität ist aber eben nur die eine Seite. Die andere Seite ist die arttypische Struktur, die einen Organismus, ein Gehirn spezifiziert, wodurch eine ‚Architektur‘ definiert wird, die unterschiedlichste Funktionen an unterschiedliche ‚Komponenten‘ bindet, die zudem typische ‚Interaktionsmuster‘ zeigen. Exemplare des homo sapiens haben daher alle eine typische Weise des ‚Wahrnehmens‘, des ‚Erinnerns‘, des ‚Denkens‘, des ‚Fühlens‘, usw.(vgl. S.63f)

DISKUSSION FORTSETZUNG

  1. Die fundamentale Tatsache, dass es Moleküle gibt, die andere Moleküle als ‚Kode‘ benutzen können, um Transformationsprozesse zwischen einer Sorte von Molekülen (DNA, RNA) in eine andere Sorte von Molekülen (Polypeptide, Proteine) steuern zu können, nimmt Edelman als Faktum hin, thematisiert es selbst aber nicht weiter. Er benennt diese ‚interpretierenden Moleküle‘ auch nicht weiter; sein Begriff ‚cellular device‘ ist eher nichtssagend. Dennoch ist es gerade diese Fähigkeit des ‚Übersetzens’/ ‚Interpretierens‘, die fundamental ist für den ganzen Transformationsprozess von einem Genom in einen Phänotyp bzw. in eine ganze Kette von hierarchisch aufeinander aufbauenden Phänotypen. Setzt man diese Übersetzungsfähigkeit voraus, ist das ganze folgende Transformationsgeschehen – so komplex es im Detail erscheinen mag – irgendwie ‚trivial‘. Wenn ich in mathematischer Sicht irgendwelche Mengen habe (z.B. verschiedene Arten von Moleküle), habe aber keine Beziehungen definiert (Relationen, Funktionen), dann habe ich quasi ‚Nichts‘. Habe ich aber z.B. eine Funktion definiert, die eine ‚Abbildung‘ zwischen unterschiedlichen Mengen beschreibt, dann ist es eine reine Fleißaufgabe, die Abbildung durchzuführen (z.B. die Übersetzung von DNA über RNA in Aminosäuren, dann Polypeptide, dann Proteine). Das die Biochemie und Mikrobiologie samt Genetik so viele Jahre benötigt hat, die Details dieser Prozesse erkennen zu können, ändert nichts daran, dass diese Transformationsprozesse als solche ‚trivial‘ sind, wenn ich die grundlegende Transformationsfunktion definiert habe. Wo aber kommt diese grundlegende Abbildungsfunktion her? Wie kann es sein, dass ein ordinäres chemisches Molekül ein anderes ordinäres chemisches Molekül als ‚Kode‘ interpretiert, und zwar genau dann so, wie es geschieht? Betrachtet man ’normale‘ Moleküle mit ihren chemischen Eigenschaften isoliert, dann gibt es keinerlei Ansatzpunkt, um diese grundlegende Frage zu beantworten. Offensichtlich geht dies nur, wenn man alle Moleküle als eine Gesamtheit betrachtet, diese Gesamtheit zudem nicht im unbestimmten Raum, sondern in Verbindung mit den jeweils möglichen ‚realen Kontextbedingungen‘, und dann unter Berücksichtigung des potentiellen Interaktionsraumes all dieser Moleküle und Kontexte. Aber selbst diese Raum repräsentiert im mathematischen Sinne nur Mengen, die alles und nichts sein können. Dass man in diesem Raum eine Funktion implantieren sollte, die dem Dekodieren des genetischen Kodes entspricht, dafür gibt es im gesamten Raum keinerlei Ansatzpunkt, es sei denn, man setzt solche eine Funktion als ‚Eigenschaft des Raumes‘ voraus, so wie die Physiker die ‚Gravitation‘ als Eigenschaft des Raumes voraussetzen, ohne irgendeinen Ansatzpunkt im Raum selbst zu haben, als die beobachtbare Wirkung der Gravitation. Die Biologen können feststellen, dass es tatsächlich einen Transformationsprozess gibt, der solch eine Abbildungsbeziehung voraussetzt, sie haben aber keine Chance, das Auftreten dieser Abbildungsbeziehung aus den beobachtbaren materiellen Strukturen abzuleiten!!!
  2. In der Beschreibung von Edelmans Position habe ich schon angemerkt, dass seine Wortwahl ‚Topobiologie‘ möglicherweise unglücklich ist, da es letztlich nicht der dreidimensionale Raum als solcher ist, der entscheidend ist (wenngleich indirekt die Drei-Dimensionalität eine Rolle spielt) sondern der ‚Kontext in Form von interaktiven Nachbarschaften‘: welche andere Zellen stehen in Interaktion mit einer Zelle; welche Signale werden empfangen. Indirekt spielt dann auch der ‚vorausgehende Prozess‘ eine Rolle, durch den eben Kontexte erzeugt worden sind, die nur in bestimmten Phasen des Prozesses vorliegen. Man hat also eher einen ‚Phasenraum‘, eine Folge typischer Zustände, die auseinander hervorgehen, so, dass der bisherige Prozess die nächste Prozessphase hochgradig determiniert. Dies ähnelt einer ‚algorithmischen‘ Struktur, in der eine Folge von Anweisungen schrittweise abgearbeitet wird, wobei jeder Folgeschritt auf den Ergebnissen der vorausgehenden Abarbeitungen aufbaut und in Abhängigkeit von verfügbaren ‚Parameterwerten‘ den nächsten Schritt auswählt. Im Unterschied zu einem klassischen Computer, bei dem die Ausführungsumgebung (normalerweise) festliegt, haben wir es hier mit einem algorithmischen Programm zu tun, das die jeweilige Ausführungsumgebung simultan zur Ausführung ‚mit erschafft‘! Wenn Computermetapher, dann eben so: ein Programm (Algorithmus), das seine Ausführungsumgebung (die Hardware) mit jedem Schritt selbst ‚erschafft‘, ‚generiert‘, und damit seine Ausführungsmöglichkeiten schrittweise ausbaut, erweitert. Dies setzt allerdings voraus, dass das genetische Programm dies alles schon ‚vorsieht‘, ‚vorwegnimmt‘. Die interessante Frage ist dann hier, wie ist dies möglich? Wie kann sich ein genetisches Programm ‚aus dem Nichts‘ entwickeln, das all diese ungeheuer komplexen Informationen bezüglich Ausführung und Ausführungsumgebung zugleich ‚aufgesammelt‘, ’strukturiert‘, ‚verpackt‘ hat, wo die Gesamtheit der modernen Wissenschaft bislang nur Fragmente versteht?
  3. Während Neurowissenschaftler (Edelman eingeschlossen) oft mit unsinnigen Computervergleichen versuchen, die Besonderheit des menschlichen Gehirns herauszustellen, kann man ja auch mal umgekehrt denken: wenn die Entwicklung des Gehirns (und des gesamten Organismus) Ähnlichkeiten aufweist mit einem Algorithmus, der seine eigene Ausführungsumgebung während der Ausführung (!!!) mit generiert, ob sich solch ein Prozess auch ‚rein technisch‘ denken ließe in dem Sinne, dass wir Maschinen bauen, die aus einer ‚kleinen Anfangsmenge von Materie‘ heraus ausgestattet mit einem geeigneten ‚Kode‘ und einem geeigneten ‚Interpretierer‘ sich analog selbst sowohl materiell als auch kodemäßig entwickeln? Da die biologischen Systeme zeigen, dass es grundsätzlich geht, kann man solch einen technischen Prozess nicht grundsätzlich ausschließen. Ein solches Gedankenexperiment macht aber sichtbar, worauf es wirklich ankommt: eine solche sich selbst mit-bauende Maschine benötigt auch einen geeigneten Kode und Interpretationsmechanismus, eine grundlegende Funktion. Ohne diese Funktion, geht gar nichts. Die Herkunft dieser Funktion ist aber gerade diejenige grundlegende Frage, die die gesamte empirische Wissenschaft bislang nicht gelöst hat. Es gibt zwar neuere Arbeiten zur Entstehung von ersten Zellen aus Molekülen unter bestimmten realistischen Kontexten, aber auch diese Forschungen beschreiben nur Prozesse, die man ‚vorfindet‘, die sich ‚zeigen‘, nicht aber warum und wieso es überhaupt zu diesen Prozessen kommen kann. Alle beteiligten materiellen Faktoren in diesen Prozessen als solchen geben keinerlei Ansatzpunkte für eine Antwort. Das einzige, was wir bislang wissen, ist, dass es möglich ist, weil wir es ‚beobachten können‘. Die ‚empirischen Phänomene‘ sind immer noch die härteste Währung für Wahrheit.

Fortsetzung folgt

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

 

ÜBER DIE MATERIE DES GEISTES. Relektüre von Edelman 1992. Teil 4

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 27.August 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

Gerald M.Edelman, Bright Air, Brilliant Fire. On the Matter of the Mind, New York: 1992, Basic Books

BISHER

Teil 1

Teil 2

Teil 3

WICHTIGE POSITIONEN

Zur Erinnerung, einige der wichtigen Positionen, auf die bislang hingewiesen wurde:

EDELMAN

Edelman benutzt die Arbeitshypothese, dass das, was wir ‚Geist‘ nennen, sich nur ab bestimmten Zeitpunkten während der allgemeinen Evolution ‚gezeigt‘ (‚emerged‘) hat, und zwar sehr spät.(vgl. S.41) Und dies setzt die Annahme voraus, dass die fundamentale Basis für alles Verhalten und für die ‚Sichtbarwerdung‘ (‚emergence‘) des Geistes die Anatomie und Morphologie der biologischen Strukturen ist sowie deren Funktionen.(vgl. S.41)

ASPEKTE DER DISKUSSION BISHER

Im Kontext seiner Argumentation kritisiert Edelman viele bekannte Positionen im Bereich Philosophie und Psychologie aus der eingeschränkten Perspektive ihres Bezuges zu den materiellen Strukturen heraus, die von ihm – letztlich wie bei Kant, nur mit anderem Akzent, mehr oder weniger – als ‚Ermöglichung des Geistes‘ gesehen werden. Diese Kritik in dieser speziellen Perspektive ist zum Teil berechtigt, aber auch nur zu einem sehr eingeschränkten Teil, da die kritisierten Personen und Positionen von den neuen Erkenntnissen noch gar nichts wissen konnten. Über diese enge Perspektive des expliziten Bezugs zu materiellen Strukturen hinaus repräsentieren die kritisierten Positionen aber auch Perspektiven, die ‚in sich eine methodische Rechtfertigung‘ besitzen, die Edelman schlicht nicht erkennt. Hier verkürzt zur Erinnerung einige seiner ‚methodischen blinden Flecken‘:

  1. … zugleich die Arbeitshypothese aufzustellen, dass damit Analyse- und Erklärungsansätze von vornherein zu verurteilen sind, die Verhaltensdaten (Psychologie) bzw. auch introspektive Daten (Philosophie) als solche als Basis nehmen ohne direkt einen Bezug zu den materiellen (anatomischen) Daten herzustellen, ist mindestens problematisch wenn nicht wissenschaftsphilosophisch unhaltbar…
  2. … denn, wie immer die anatomischen Grundlagen beschaffen sein mögen, wenn ich deren ‚Verhaltensdynamik‘ erforschen will, interessieren mich die Details dieser Anatomie nicht, sondern nur ihre Funktion. Und diese lässt sich nicht durch Rekurs auf Bestandteile beschreiben sondern nur durch Beobachtung des Systemverhaltens …
  3. … aus materiellen Strukturen als solchen folgt in keiner Weise irgend etwas ‚Geistiges‘ es sei denn, ich habe vorab zur Untersuchung einen Kriterienkatalog G, den ich als Maßstab anlegen kann, um dann bei der Analyse der Beobachtungsdaten konstatieren zu können, das der Eigenschaftskomplex G vorliegt. Habe ich solch einen Kriterienkatalog G nicht, kann ich noch so viele empirische Daten zu irgendwelchen materiellen Strukturen vorweisen; ‚aus sich heraus‘ lassen diese Daten eine solche Eigenschaftszuschreibung nicht zu! …
  4. … ohne die ‚Anhaltspunkte‘ im ‚beobachtbaren Verhalten‘ wäre es praktisch unmöglich, jene bedingenden materiellen Struktureigenschaften zu identifizieren, da die zugrundeliegenden neuronalen und damit letztlich biochemischen Grundlagen rein mathematisch nahezu unbegrenzt viele Funktionen erlauben. Letztlich deuten diese materiellen Strukturen auf einen quantenmechanischen Möglichkeitsraum hin, deren Konkretisierung von Faktoren abhängt, die sich aus den Strukturen selbst nicht so einfach ableiten lassen. …
  5. Philosophen arbeiten traditionell mit dem subjektiven Erlebnisraum direkt, ohne zugleich die Frage nach den materiellen Bedingungen der so erlebbaren ‚Phänomene‘ zu fragen. In gewisser Weise handelt es sich bei diesen subjektiven (= bewussten) Phänomenen auch um eine Systemfunktion eigener Art mit einer spezifischen Besonderheit, der man nicht gerecht werden würde, würde man sie durch Rekurs auf die bedingenden materiellen Strukturen (Gehirn, Körper, Welt, …) ‚ersetzen‘ wollen. …
  6. … muss man sich klar machen, dass alle sogenannten ‚empirischen Daten‘ ja nicht ‚außerhalb‘ des ‚bewusstseinsbedingten Phänomenraums‘ vorkommen, sondern auch nur ‚beusstseinsbedingte Phänomene‘ sind, allerdings eine spezielle Teilmenge, die man mit unterstellten Vorgängen in der Außenwelt in Verbindung bringt. Insofern bildet der subjektive Phänomenraum die Basis für jegliche Denkfigur, auch für die empirischen Wissenschaften. …
  7. Die Frage, was denn dann die primären Kriterien für das ‚Psychische-Geistige‘ sind, wird durch diese multidisziplinäre Kooperationen nicht einfacher: da die materiellen Strukturen als solche keinerlei Anhaltspunkte für ‚Geistiges‘ liefern, bleibt letztlich als Ausgangspunkt doch nur das ‚Geistige‘, wie biologische Systeme ’sich selbst‘ sehen, weil sie sich so ‚erleben‘. Das ‚Geistige‘ erscheint hier als ‚Dynamik‘ von Systemen, die sich anhand des Auftretens dieser Systeme ‚zeigt‘, ‚manifestiert‘. Aus den einzelnen materiellen Bestandteilen kann man diese Eigenschaften nicht ableiten, nur aus der Gesamtheit in spezifischen Wechselwirkungen. …
  8. … Erst durch die Dynamik des Gesamtsystems werden – oft als ‚emergent‘ klassifizierte – Phänomene sichtbar, die von den einzelnen Bestandteilen des materiellen Systems als solchen nicht ableitbar sind, nur eben durch das Verhalten, die Dynamik des Gesamtsystems. …
  9. … wenn ein homo sapiens ’nichts tut‘, dann ist die Dynamik ‚unsichtbar‘ und die durch solch eine Dynamik sichtbar werdenden Eigenschaften sind nicht greifbar. Weiter: wenn ein homo sapiens eine Dynamik erkennen lässt, dann bedarf es einer spezifischen ‚Erkenntnisweise‘, um die spezifischen Eigenschaften von ‚Geist‘ erkennen zu können. …
  10. … Es ist weder auszuschließen, dass es zwischen dem empirischen Phänomen der ‚Gravitation‘ und dem empirischen Phänomen ‚Geist‘ einen ‚tieferen‘ Zusammenhang gibt (da ‚Geist‘ als empirisches Phänomen ‚Gravitation‘ voraussetzt‘), noch dass es weit komplexere empirische Phänomene geben kann als den ‚individuell in Populationen‘ sich manifestierenden ‚empirischen Geist‘.

KAP.5 (+ Teil von Kap.3): MORPHOLOGIE UND GEIST: VERVOLLSTÄNDIGUNG VON DARWINS PROGRAMM

  1. Entsprechend seiner Grundannahme, dass die bekannten materiellen Strukturen biologischer Systeme (Edelman benutzt hier auch die Begriffe ‚Morphologie‘ oder gar ‚Form‘) sich im Rahmen eines evolutionären Prozesses herausgebildet haben beschreibt Edelman diesen evolutionären Prozess mit Rückgriff auf Darwin und die nachfolgende Forschung.
  2. Der begriffliche Rahmen der von Edelman beschriebenen biologischen Evolutionstheorie ist vergleichsweise einfach: als Basiselemente gibt es die veränderbaren ‚Gene‘ im Genotyp, die bis zu einem gewissen Grad festlegen, wie der zugehörige Körper, der ‚Phänotyp‘ aussehen wird. Der Phänotyp gehört zu einem ‚Individuum‘ in einer ‚Population, die wiederum in bestimmten ‚Umgebungen‘ leben. Die ‚Fitness‘ wird an der Anzahl der Nachkommen eines Individuums festgemacht. Ist die Anzahl der Nachkommen zu gering, dann stirbt dieser Phänotyp und damit der zugehörige Genotyp aus. Sind ausreichend Nachkommen da, erhöht sich die Wahrscheinlichkeit des Überlebens dieses Phänotyps und des zugehörigen Genotyps (was allerdings nur solange gilt, als die Umgebungsbedingungen sich nicht zu stark und zu schnell ändern!).
  3. Insofern alles beobachtbare Verhalten an den Phänotyp gebunden ist, kann man sagen, dass die zugrunde liegenden materiellen Strukturen des Phänotyps das Verhalten ‚bedingen‘. Sofern für die ermöglichenden materiellen Strukturen der Genotyp verantwortlich ist, kann man dann such sagen, dass der Genotyp über den Phänotyp auch das Verhalten bedingt.
  4. Die Interaktion zwischen Genotyp und Phänotyp ist gekennzeichnet durch ‚Transfer‘ von Genen, durch ‚Modifikationen‘ und durch ‚Expression‘ in materielle Strukturen eines Phänotyps. (vgl.S.46) Hierdurch kann es zu Variationen sowohl des Genotyps wie auch des Phänotyps kommen.
  5. Zusätzlich zu den Veränderungen des Genotyps bei der Reproduktion postuliert Edelman auch Veränderungen des Genotyps zur Lebenszeit eines Individuums was er ‚Epigenetic‘ nennt. Damit soll erklärt werden, warum Individuen in einer Populationen zu einem spezifischen Verhalten finden können, was sich innerhalb einer bestimmten Art von den anderen Mitgliedern unterscheidet.(vgl. S.46f)
  6. Die Zurückführung eines bestimmten beobachtbaren Verhaltens des Phänotyps auf ganz bestimmte Gene scheitert meist daran, dass komplexe Verhaltensweisen nicht nur durch einzelne Gene bestimmt sind sondern durch das Zusammenspiel von vielen Komponenten der materiellen Struktur, die wiederum auf das Zusammenspiel von vielen verschiedenen Genen zurückgehen. (vgl. S.47f)
  7. Der Versuch, aus unterschiedlichen einzelnen Datenfragmenten verteilt über eine Zeitachse (wobei die Feststellung der Zeit in sich ein Messproblem darstellt) mögliche Veränderungslinien zu rekonstruieren ist oft sehr schwierig, tentativ, da die verfügbaren Daten zu viele Fragen offen lassen.(vgl. S.49)
  8. Am Beispielen der prozentual geringen genetischen Differenz von Schimpansen und Menschen (1%) und der doch großen Differenz im Verhalten illustriert Edelman, wie ‚geringe‘ genetische Differenzen große Differenzen im Verhalten bewirken können.(vgl.S.50)
  9. Ebenso ist auffällig, wie unterschiedliche materielle Strukturen im menschlichen Gehirn mit unterschiedlichen komplexen Verhaltensweisen korrelieren. Dies wirft die Frage auf, wie es zu solchen Ausprägungen kommen kann. Wie müsste eine Theorie der Entwicklung materieller Strukturen (Edelman spricht von einer evolutiven Theorie der Morphogenese) aussehen, eine, die zudem alle Phasen abdeckt von der Zelle zum Embryo zum erwachsenen Organismus?(vgl. S.51)
  10. Im Kapitel 3 hat Edelman die Idee der Entwicklung von materiellen Strukturen am Beispiel der Gehirnentwicklung vom Embryo bis zum Erwachsenen schon ein wenig skizziert. Man erkennt einen hochkomplexen Prozess von Zellteilungen, Zellbewegungen, Zellkopplungen, Absterben von Zellen, Synapsenbildungen und auch wieder -rückbildungen, und vieles mehr. Wichtige Faktoren in diesem Prozess sind der jeweilige ‚Ort‘ und die ‚Zeit‘ insofern Nacheinander und Parallelität von Ereignissen eine Rolle spielen. Und welche späteren Verhaltenseigenschaften einer materiellen Struktur zugeordnet werden können hängt dann von dem ‚Ort‘ ab und stattfindenden Signalinteraktionen. Edelman spricht auch hier wieder von ‚Epigenetik‘, d.h. von Einwirkungen auf die materielle Strukturen, die zu nachfolgenden Änderungen bestimmter Gene führen. (vgl. S.22f)
  11. Edelman folgert daraus, dass die Gene die spätere Struktur und Funktion der materiellen Strukturen nicht vollständig determinieren.(vgl. S.23) Und er sieht eine große Herausforderung in der Frage, wie der Zusammenhang zwischen diesen Formungsprozessen auf lokalen materiellen Strukturen und den hochkomplexen Verhaltensweisen in einer nicht weniger komplexen drei-dimensionalen Körperwelt sich überhaupt einstellen kann. In diesem Zusammenhang spricht Edelman auch von einem sich selbst organisierendem System (’self organizing system‘) ohne dass dieser Begriff hier direkt etwas erklärt. (vgl. S.25)
  12. Die generelle Nicht-Determiniertheit bei der Entwicklung der konkreten Gehirnstruktur führt u.a. zu dem Phänomen, dass die Gehirne unterschiedlicher Individuen niemals identisch sind. Dennoch hat man den Eindruck, dass die kognitiven Leistungen der verschiedenen Gehirne in der Interaktion ‚hinreichend ähnlich‘ sind. Auch dieses Phänomen ist erklärungsbedürftig.(vgl. S.25ff)
  13. Edelman unterscheidet auch zwischen ‚Lernen‘ und ’strukturellen Änderungen‘ ohne dass klar wird, worin genau der Unterschied bestehen soll. Denn wie immer man Lernen in Korrelation setzen will zu zugrunde liegenden Strukturen, man wird nicht umhin kommen, Änderungen der materiellen Struktur anzunehmen, das aber entspricht seiner bisherigen Beschreibung von Epigenetik.(vgl. S.27f)
  14. Edelman diskutiert auch den häufigen Vergleich, der im Gehirn einen ‚Computer‘ sieht. Die Besonderheit des Gehirns macht er vor allem an der ‚evolutionären Morphologie‘ fest und an der durchgängigen ‚Selbstbezüglichkeit‘ des Gehirns. Seine Kritik am Computervergleich ist aber wenig hilfreich, da sein Konzept eines Computers nicht viel mit dem theoretischen Konzept eines Computers zu tun hat. (Der Computer der Theorie kann natürlich alles, was ein reales Gehirn kann. Dass reale Maschinen, die nur einige der Eigenschaften eines Computers besitzen, im Vergleich verlieren, ist daher eher irreführend. ).(vgl. S.28ff)

DISKUSSION FORTSETZUNG

  1. Die Einbeziehung der Entwicklung von materiellen Strukturen biologischer Systeme verändert an der Ausgangsfrage, was ‚Geist‘ ist, zunächst nicht viel. Da die bekannten ‚geistigen Eigenschaften‘ sich primär ausschließlich am beobachtbaren Verhalten und seiner Beschreibung durch Exemplare des homo sapiens festmachen, reproduziert sich hier die Aufgabenstellung, eine Liste von entscheidbaren Kriterien von Geist (G) zu haben, anhand deren man materielle Strukturen identifizieren kann, die mit solch einem Verhalten V korrelieren. Da jene geistige Eigenschaften, die den homo sapiens von anderen Lebensformen unterscheiden, erst mit diesem auftreten, kann eine ‚Geschichte der Entwicklung jener Formen, die den homo sapiens auszeichnen‘ nur indirekte Hinweise darauf liefern, wie sich jene ’späten‘ komplexen materiellen Strukturen aus ‚einfacheren, früheren‘ Strukturen entwickelt haben. Damit entsteht dann die interessante Frage, wie sich solche Komplexität aus ’scheinbar einfacheren‘ Strukturen entwickeln konnte? In der logischen Beweistheorie gilt allgemein, dass ich nur etwas ‚ableiten’/ ‚beweisen‘ kann, wenn ich das zu Beweisende letztlich schon in meinen ‚Voraussetzungen’/ ‚Annahmen‘ angenommen habe. Das ’spätere komplexere Neue‘ wäre in dem Sinne dann nicht wirklich ’neu‘ sondern nur eine ‚andere Zustandsform‘ eines Ausgangspunktes, der schon alles hat‘. Dies wäre nicht sehr überraschend, da wir in der Big-Bang-Theorie allgemein von ‚Energie (E)‘ ausgehen, die in Folge von Abkühlungsprozessen unendlich viele konkrete Zustandsformen angenommen hat, von denen wir mit E=mc^2 wissen, dass sie alle ineinander überführbar sind, wie speziell sie auch immer sein mögen.
  2. Die komplexen Abbildungsprozesse zwischen Genotypen und Phänotypen als Teil von Populationen in Umgebungen machen eine Zuordnung von im Verhalten fundierten Eigenschaftszuschreibungen von ‚Geist‘ zu vorliegenden materiellen Strukturen schwer bis unmöglich. Nicht nur die jeweils aktuelle Dynamik eines Gehirns wie auch die darin wirksamen vielfältigen Überlappungen, Interaktionen, Reaktionen, strukturellen Änderungen sowie die dazu vorausgehenden komplexen ontogenetischen Entwicklungsprozesse samt den evolutionären ‚Zubereitungen‘ lassen es irgendwie sinnlos erscheinen, die beobachtbaren Phänomene von Geist über diese unfassbar komplexen Dynamiken definieren zu wollen. Das Entscheidende am Phänomen des Geistes ist ja, dass er nach vielen Milliarden Jahren Entwicklung in einem aktuell hochkomplexen und dynamischen System sich zeigt, und zwar nicht ‚aus sich heraus‘ sondern nur dann, wenn ein anderes System, das ebenfalls ‚Geist‘ hat, diesen Phänomenen ‚ausgesetzt‚ ist. Ein System, das selbst ‚keinen Geist hat‘, kann die beobachtbaren Phänomene nicht als ‚geistige‘ klassifizieren! Dies schließt nicht aus, dass heutige Algorithmen quasi automatisch irgendwelche ‚Muster‘ im beobachtbaren Verhalten identifizieren können, allerdings sind dies Muster wie unendlich viele andere Muster, deren ‚Bewertung‘ in irgendeine Zustandsdimension völlig beliebig ist.
  3. Wenn also die verschiedenen materiellen Strukturen zu unterschiedlichen Entwicklungszeitpunkten als solche nichts über das empirische Phänomen des Geistes sagen können, so kann es dennoch eine interessante Frage sein, ob es irgendeinen interessanten Zusammenhang zwischen dem Ausgangspunkt der materiellen Entwicklung, der Logik der Entwicklung und dem sehr späten Zustand eines biologischen Systems geben kann. Diese Frage ist umso interessanter, als ja dieser Entwicklungsprozess offensichtlich noch nicht an einem Endpunkt angekommen ist. Von Interesse ist auch, wie sich der Zustandsraum der materiellen Strukturen (die Gesamtheit des aktuellen empirischen Wissens über das Universum und seiner möglichen Zukünfte) und der Zustandsraum von Systemen mit Geist (die Gesamtheit des geistigen Vorstellungsraumes samt seiner möglichen geistigen Zukünfte) unterscheidet. Die Sache wird dadurch kompliziert, dass ja die Systeme mit empirischem Geist letztlich auch zum genuinen Gegenstandsbereich der sogenannten ‚Natur‘-Wissenschaften gehören. Wenn das Empirisch-Geistige Teil der Natur ist, reichen die bisherigen empirischen naturwissenschaftlichen Theorien nicht mehr. Sie müssten entsprechend geändert werden. Der Beobachter muss wesentlicher Bestandteil der Theorie selbst werden. Für diese Konstellation haben wir bislang aber keinen geeigneten empirischen Theoriebegriff.

Fortsetzung folgt HIER.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

 

JEDER VON UNS KANN DER KLEINE UNTERSCHIED SEIN. Ein besonderes Theaterereignis gestern

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062
31.März 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: cagent

I

Gestern Abend, ein kleiner Ort in Hessen; eine alte, kleine Kirche mittendrin, evangelisch, wo ich normalerweise nie hingehe. Doch gestern Abend war ich dort, mit meiner Frau. Ein Theaterstück, in der Kirche. Mitglieder der Gemeinde waren die Schauspieler, Menschen wie jeder von uns: Alt, jung, Mann, Frau, dick, dünn, Stimmen, wie man sie im Alltag hört. Aber was?

II

Der Titel hieß: „Vernissage Passion. Eine postdramatische Darstellung Jesu Leiden“. Eine ungewöhnliche Formulierung, von einem ungewöhnlichen Dramaturgen. Gerade mal das Abitur hinter sich, ein noch sehr junger Mann, Leon Bornemann, hat die allen bekannte Passionsgeschichte in seinem Kopf mehrfach ‚verschoben‘ und als Regisseur dann zu einer Ereignisfolge im alten Kirchenraum verdichtet, der sich die Aufmerksamkeit kaum entziehen konnte.

III

„Kunst kann real sein. Kunst kann ideal sein. Kunst kann nicht wahr sein“. Diese abstrakt klingenden Sätze empfingen den Zuschauer in der Einleitung, szenisch aufbereitet, mit Margrits berühmten Pfeifenbild garniert, das bekanntlich einen Text mitliefert: ‚Das ist keine Pfeife‘. Als Zuschauer wurde man quasi offiziell aufgeweckt, nicht zu glauben, was man sieht, und es doch zu erleben, es auf sich wirken zu lassen. Aber wie dann? Nachdem die Eingangsfigur, offensichtlich ein Maler in seinem Atelier, der damit kämpfte, wie man denn die Figur Jesu malen könne, wo es doch eigentlich jeder sein könne, mit viel Dramatik in ein Koma fiel, erwachten 14 unvollendete Bilder zum Leben.

IV

Diese 14, zwar ganz in weiß und die Gesichter maskenhaft in weiß, boten dennoch ein realistisches Abbild unserer alltäglichen Erscheinungen. Suchend, zweifelnd, streitend versuchten sie ihre Position zu bestimmen. Wer sind wir jetzt. Was sollen wir jetzt tun. Wo sollen wir hin. Wer soll diese Jesusfigur darstellen? Die Lösung war: jeder stellt sie dar. Jeder ist Jesus.

V

Karges Bühnenbild, minimale Beleuchtung, zwischendurch Klänge, Songs, Einbeziehung des ganzen Raumes, des Publikums in die szenischen Abläufe. Das Publikum konnte sich ansatzweise als Teil dieser 14 fühlen. Dies umso mehr als ja die Schauspieler trotz ihrer ‚Maskierungen‘ erkennbar waren. Jeder kannte hier jeden. Das Wort des ‚anderen‘ waren Worte aus dem eigenen Bekanntenkreis, der Freund, die Schwester, der Vater, die Mutter, die Mitarbeiterin, …. In den 14 konnte sich jeder wiederfinden, konnte jeder das Gefühl haben: da spiele ich…Theater spielen war hier unmittelbar fühlbare Erweiterung des Alltags, von jedem…Die Ereignisse nahmen dann ihren Lauf.

VI

Ja, es war erkennbar, die all-bekannte Passionsgeschichte wurde gespielt. Aber wie! Jeder war mal dieser Jesus (im Spiel). Jeder war mal JüngerIn. Jeder war mal anklagendes Volk, Jeder war mal Richter, Pilatus…. Mal spielte es ‚vorne‘, mal in den Gängen, mal auf den Rängen, irgendwie überall. Der ansonsten tote, leere Raum wurde zum ‚Ereignisraum‘, menschliche Körper und Stimmen füllten den Raum, belebten ihn, umhüllt von Licht, eingehüllt von Sounds, aber nicht irgendwie, sondern planvoll, akzentuiert, zum Punkt. Jeder konnte erleben, wie sich ein Fokus durch eine Geschichte zog, die bekannt war und doch, in diesen Momenten so anders.

VII

Am Ende starb dieser Jesus so, wie es in der Passionsgeschichte vorgezeichnet ist, aber die Art und Weise des ereignishaften Geschehens, war merklich, spürbar anders. Viele Zuschauer sagten am Ende, dass es ihnen mehr unter die Haut gegangen sei, als wenn es einfach gelesen worden wäre; mehr auch, weil Bekanntes neu daherkam.

VIII

Dies alles nur, weil ein noch sehr junger Mann irgendwann vorher in seinem Kopf etwas Bekanntes, die Passionsgeschichte, hin und her geschoben hat, sich dazu befragt hat, andere gefragt hat, über modernes Theater nachgedacht hat, über Schein und Sein, über real und ideal, darüber, was Kunst denn eigentlich tut, tun kann. Und irgendwie wurden aus diesen Gedanken ein neues Bild, eine Folge von neuen Bildern, und er fand in den 14 Menschen, die bereit waren, diese Gedanken anzuhören, aufzunehmen, bereit waren, als konkrete Personen diese in Raum und Zeit umzusetzen. Eine dieser 14 war auch die Pfarrerin, wie ich später erfuhr; die mit der ‚Gesangsstimme’…

IX

Ja, ein junger Mensch erlaubte sich, zu Denken, anders zu denken, zu reden,… und das machte hier den kleinen Unterschied zum ‚gewöhnlichen‘ Gang der Dinge. Es entstand etwas Neues, das andere mit in seinen Bann zog, das mich in den Bann zog.

X

Natürlich war es Zufall. Am gleichen Abend lief zu späterer Stunde im Fernsehen der Film „Im Labyrinth des Schweigens“, die Geschichte der Aufarbeitung der NS-Verbrechen in Ausschwitz. Er spielte in den 1950iger Jahren, als in Deutschland noch das große Schweigen herrschte über die systematische Vernichtung von Millionen Menschen. Keiner wusste etwas, fast niemand wollte etwas wissen, und man galt als ‚Nestbeschmutzer‘, wenn man es wissen wollte. In dieser Wolke des Nichtwissens und der sozialen Ächtung war es ein junger Staatsanwalt, der anfing, die ‚Eindrücke im Kopf‘ neu zu ordnen, neu zu fragen, neu zu denken. Gegen massive Widerstände (aber mit Rückendeckung des Generalstaatsanwalts, auch einer, der wagte, ‚anders zu denken‘) spürte er den kleinsten Hinweisen nach, fand Unterstützer, kam in eine Krise, weil es irgendwann so aussah, als ob ja alle (auch sein Vater, der Vater seiner Freundin, sein Freund, …) Nazis waren, alle. Wo war hier Gerechtigkeit? Welche? Seine persönliche Krise, die das ganze Projekt zu zerschlagen drohte, fand dann Halt in den Gesichtern und Stimmen der realen Opfer, die das schier unfassbare Leiden erlebbar machten. In einer bestimmten Zeit hängen alle irgendwie ‚mit drin‘; einige aber mehr, einige wenige sehr viel mehr. Seine Neugierde machte den kleinen Unterschied, der alles ins Rollen brachte. Heute wissen wir in Deutschland, können wir wissen, welch unfassbares Leid die systematische Vernichtung von Juden, Andersdenkenden und psychisch kranke Menschen mit sich gebracht hat. Jeder kann das Opfer sein. Jeder kann der Täter sein. Jeder kann den kleinen Unterschied machen für jede Richtung…

XI

Die historische Person Jesu war einerseits nur einer von vielen, die damals als Messias angesehen wurden, die damals am Kreuz endeten, und doch machte er einen kleinen Unterschied zum allgemeinen Ablauf, ließ ein anderes Miteinander, ein anderes Menschenbild aufblitzen, für einen Wimpernschlag in der Weltgeschichte. Nach ihm gab es viele Tausend, Hunderttausend, Millionen Menschen, die wie er ihr Leben für andere hingegeben haben, für Gerechtigkeit, für Liebe, für Hoffnung. Seine Worte an seine Anhänger, dass sie all das, was er tut, auch tun könnten, ja, sie könnten sogar noch viel mehr tun als er es getan hat; diese Worte sind vielleicht die wichtigsten Worte, die den kleinen Unterschied ausmachen können, um in einem Ort irgendwo auf diesem Planeten, den Ablauf des Alltags ein klein wenig zu verschieben, gerade so viel, dass es ‚anders‘ wird.

XII

Es ist unbequem, es zu sagen, aber die kleinen Unterschiede beginnen, wenn überhaupt, ‚im Kopf‘, in der Art und Weise, wie wir die Dinge wahrnehmen, wie wir die Welt ‚in unserem Kopf‘ hin und her schieben; alles unsichtbar, ohne Geruch, ohne Sound, ohne Schmerzen. Aber hier, ‚im Kopf‘ entscheidet sich, ob wir einen kleinen Unterschied sehen, ihn fühlen, ihn denken, ihn in unseren Alltag erlebbar machen.

XIII

Schaut man sich um, heute, im Jahr 2018, dann nimmt die Zahl jener Länder, in denen Nationalismus, diktatorische Politik, Gewalt, Verbrechen, Armut, Korruption spürbar wirken, zu. Die kleinen Unterschiede verschieben sich zu mehr Dunkelheit, mehr Leid, mehr Aggression. In den Köpfen vieler Verantwortlichen herrscht Dunkelheit. Woher soll das Licht kommen? Irgendwelche Worte werden nicht ausreichen. Konkret erlebbare ‚Ereignisse des Guten‘ müssen her. Wie lernen Menschen, was gut ist? Was motiviert sie, ‚Gutes‘ zu tun? Wenn jeder an sich denkt, wo kann dann das Licht herkommen?

XIV

Die Geschichte hat viele klare Antworten bereit: wenn einer anfängt, den kleinen Unterschied zu machen, kann sich etwas ereignen. Wenn es dann zwei sind, drei, ….. Dunkelheit kann man nicht durch Dunkelheit bekämpfen. Irgendwo muss ‚Licht‘ herkommen, und die einzigen bekannten Quellen für Licht sind nur Menschen, Du oder ich …. die gleichen Menschen, die auch die Dunkelheit in die Welt bringen können…

 
BILDER VOM ABEND

Der Künstler (Leon Bornemann, Autor und Regisseur) zu Beginn in seinem Atelier mit einer seiner Figuren

Der Künstler (Leon Bornemann, Autor und Regisseur) zu Beginn in seinem Atelier mit einer seiner Figuren

Jeder war mal Jesus. Hier ein junger Mann im Kreis seiner Anhänger

Jeder war mal Jesus. Hier ein junger Mann im Kreis seiner Anhänger

Die Geister der Versuchung - Jesus vor seiner Schicksalsfrage

Die Geister der Versuchung – Jesus vor seiner Schicksalsfrage

Einzug in Jerusalem

Einzug in Jerusalem

Hoher Priester mit Geldbeute für Judas

Hoher Priester mit Geldbeute für Judas

Das ganze Ensemble (mit sehr viel Applaus!)

Das ganze Ensemble (mit sehr viel Applaus!)


 
Musikalische Reaktion von cagent auf den Text

KONTEXT BLOG

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER

 

 

 

ZUR ENTDECKUNG DER VERGANGENHEIT UND ZUKUNFT IN DER GEGENWART. Zwischenbemerkung

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 10.Dez. 2017
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: cagent
Email: cagent@cognitiveagent.org

PDF

IDEE

Wenn man gedanklich in komplexen Strukturen unterwegs ist, kann es bisweilen helfen, sich zwischen drin bewusst zu machen, wo man gerade steht,
worum es eigentlich geht. Dies ist so ein Moment.

I. BILDERFLUT AUS MÖGLICHKEIT

Wir leben in einer Zeit, wo die Technik die
Möglichkeit eröffnet hat, Bilder zu erschaffen, die
mehr oder weniger alles zum Gegenstand haben, auch
Unsinniges, Idiotisches, reinste Fantasien, explizite
Lügen, Verleumdungen, … und für einen normalen homo
sapiens, der – bei intaktem Sehvermögen – primär ein
visuell orientiertes Lebewesen ist, führt diese Bilderflut
dazu, dass die wahre Realität sich immer mehr auflöst
in dieser Bildersuppe. Selbst wenn die Bilder noch als
Science Fiction, Fantasy, Crime, … gelabelt werden, im
Gehirn entsteht eine Bildersuppe, wo sich wahres Reales
mit Irrealem zu einem Gebräu mischt, das den Besitzer
dieses Gehirns in einen Dauerzustand der zunehmenden
Desorientierung versetzt. Der einzelne Bildproduzent
mag vielleicht sogar redliche Absichten haben, aber die
Masse der irrealen Bilder folgt ihren eigenen Gesetzen.
Das einzelne Gehirn verliert Orientierungsmarken.
Die Bereitschaft und Neigung von Menschen aller
Bildungsschichten selbst mit Doktortiteln (!), beliebig
wirre populistische, fundamentalistische oder esoterische
Anschauungen über die Welt als ’wahr’ zu übernehmen,
ist manifest und erschreckend. Wenn die grundlegenden
Wahrheitsfähigkeit von Menschen versagt, weil das
Gehirn über zu wenig verlässlich Ankerpunkte in der
Realität verfügt, dann ist alles möglich. Ein alter Lehrsatz
aus der Logik besagt: Aus Falschem folgt alles.

More than Noise – But What?

II. RÜCKERINNERUNG AN DIE WAHRHEIT

In einem vorausgehenden – eher grundlegenden –
Blogeintrag sind jene elementaren Grundstrukturen angesprochen worden, durch die jeder homo sapiens eine elementare Wahrheitsfähigkeit besitzt, auch in
Kommunikation und Kooperation mit anderen.
Aus diesem Text geht hervor, dass es grundsätzlich
möglich ist, dass dies aber kein Selbstgänger ist,
keinen Automatismus darstellt. Das Gelingen von
Wahrheit erfordert höchste Konzentration, erfordert
kontinuierliche Anstrengung, und vor allem auch das
Zusammenspiel vieler Faktoren. Moderne Demokratien
mit einer funktionierenden Öffentlichkeit, mit einem
ausgebauten Bildungs- und Forschungssystem kommen
diesen wissenschaftsphilosophischen Anforderungen
bislang am nächsten.

Wer die Bedeutung dieser Mechanismen zur
Voraussetzung von Wahrheit kennt und sich die
reale Welt anschaut, der kann weltweit eine
starke Rückentwicklung dieser Strukturen und
Prozesse beobachten, eine weltweite Regression
von Wahrheitsprozessen. Die Folgen sind schon jetzt
katastrophal und werden sich eher verstärken. Den Preis
werden letztlich alle zahlen. Wer glaubt, man könne sich
in einem Teilprozess isolieren, der täuscht sich.
Allerdings, im Fall der Wahrheit gelten andere Regel
als rein physikalische: Wahrheit selbst ist ein nicht-
physikalisch beschreibbares Phänomen. Es entstand
gegen alle Physik, es entstand auf eine Weise, die wir
bislang noch nicht richtig verstehen, und es macht im
Ansatz alle zu Verlierern, die sich außerhalb stellen.
Genauso irrational, wie sich weltweit eine Regression
von Wahrheit ereignen kann – und aktuell ereignet –,
genauso bizarr ist zugleich, warum so viele Mächtige
solch eine ungeheure Angst vor Wahrheit haben
(schon immer). Warum eigentlich? Warum gibt es
diesen ungeheuren Drang dazu, andere Menschen
zu kontrollieren, Ihnen Meinungen und Verhalten
vorzuschreiben, Algorithmen zu entwickeln, die die
Menschen in Richtungen leiten sollen, die schon falsch
sind, als sie ausgedacht wurden?

Solange es nur einen einzigen Menschen auf dem
Planet Erde gibt, so lange gibt es die Chance für
Wahrheit. Und so lange es die Chance für Wahrheit gibt,
muss jeder, der Wahrheit verrät, unterdrückt, verleugnet
sich als Verräter sehen, als Feind des Lebens.

More Beyond Noise – How Far away? Which kind of Distance?

III. UNIVERSUM – ERDE – LEBEN

Wenn man zu ahnen beginnt, wie kostbar Wahrheit
ist, wie schwierig sie zu gewinnen ist, und wenn man
weiß, wie viele Milliarden Jahre das Leben auf der
Erde gebraucht hat, um wahrheitsfähig zu werden, auch
noch in den späten Phase der Lebensform homo bzw.
dann des homo sapiens, dann kann man umgekehrt
zu einer geradezu andächtigen Haltung finden, wenn
man sich anschaut, was die modernen experimentellen
Wissenschaften im Laufe der letzten Jahrhundert, sogar
erst in den letzten Jahrzehnten (!!!) alles offenlegen
konnten.

Man bedenke, was wir primär wahrnehmen, das
ist Gegenwart, und die unfassbaren Blicke zurück in
die Vergangenheit der Evolution des Lebens und des
Universums (und möglicher weiterer Universen) liegen
nicht auf der Straße! Die Gegenwart ist Gegenwart und
ihr, der Gegenwart, Hinweise auf eine Zeit davor zu
entlocken, das war – und ist – eine der größten geistigen
Leistungen des homo sapiens.

Die Vergangenheit kann sich ja niemals direkt zeigen,
sondern immer nur dann, wenn eine bestimmte Zeit
mit ihren Strukturen und Prozessen Artefakte erzeugt
hat, die im Fluss der Zeit dann später als Spuren,
Hinweise, vorkommen, die ein Lebewesen dieser neuen
Gegenwart dann auch als Hinweise auf eine andere Zeit
erkennt.

So hat die Geologie irgendwann bemerkt, dass die
verschiedenen Gesteinsschichten möglicherweise
Ablagerungen aus vorausgehenden Zeiten sind.
Entsprechend haben die Biologen aus Versteinerungen
auf biologische Lebensformen schließen können,
die ’früher einmal’ gelebt hatten, heute aber nicht
mehr oder, heute auch, aber eventuell verändert. Die
Physik entdeckte, dass aufgrund der unterschiedlichen
Leuchtkraft gleicher Sternphänomene große Entfernungen im Universum anzunehmen sind, und mit der Fixierung der Geschwindigkeit des Lichts konnte
man auch auf Zeiten schließen, aus denen dieses Licht
gekommen sein muss: man war plötzlich bei vielen
Milliarden Jahren vor der Gegenwart.
Diese wenigen und vereinfachten Beispiele können
andeuten, dass und wie in der Gegenwart Zeichen einer
Vergangenheit aufleuchten können, die unsere inneren
Augen des Verstehens in die Lage versetzen, die scheinbare Absolutheit der Gegenwart zu überwinden und langsam zu begreifen, dass die Gegenwart nur
ein Moment in einer langen, sehr langen Kette von
Momenten ist, und dass es Muster zu geben scheint,
Regeln, Gesetze, Dynamiken, die man beschreiben
kann, die ansatzweise verstehbar machen, warum dies
alles heute ist, wie es ist.

Es versteht sich von selbst, dass diese unfassbaren
Erkenntnisleistungen der letzten Jahrzehnte nicht nur
möglich wurden, weil der Mensch qua Mensch über
eine grundlegende Wahrheitsfähigkeit verfügt, sondern
weil der Mensch im Laufe der letzten Jahrtausende
vielerlei Techniken, Abläufe ausgebildet hat, die ihm
bei diesen Erkenntnisprozessen unterstützen. Man
findet sie im technischen Bereich (Messgeräte, Computer,
Datenbanken, Produktionsprozesse, Materialtechniken, …..), im institutionellen Training
(langwierige Bildungsprozesse mit immer feineren
Spezialisierungen), in staatlichen Förderbereichen, aber
auch – und vielleicht vor allem! – in einer Verbesserung
der Denktechniken, und hier am wichtigsten die
Ausbildung leistungsfähiger formaler Sprachen in vielen
Bereichen, zentral die Entwicklung der modernen
Mathematik. Ohne die moderne Mathematik und formale
Logik wäre fast nichts von all dem möglich geworden,
was moderne Wissenschaft ausmacht.

Wenn man um die zentrale Rolle der modernen
Mathematik weiß und dann sieht, welche geringe Wertschätzung Mathematik sowohl im
Ausbildungssystem wie in der gesamten Kultur einer
Gesellschaft (auch in Deutschland) genießt, dann kann
man auch hier sehr wohl von einem Teilaspekt der
allgemeinen Regression von Wahrheit sprechen.(Anmerkung: Es wäre mal eine interessante empirische Untersuchung, wie viel
Prozent einer Bevölkerung überhaupt weiß, was Mathematik ist. Leider
muss man feststellen, dass das, was in den Schulen als Mathematik
verkauft wird, oft nicht viel mit Mathematik zu tun hat, sondern mit
irgendwelchen Rechenvorschriften, wie man Zeichen manipuliert, die
man Zahlen nennt. Immerhin, mehr als Nichts.)

Im Zusammenspiel von grundlegender Wahrheitsfähigkeit, eingebettet in komplexe institutionelle Lernprozesse, angereichert mit wissensdienlichen
Technologien, haben die modernen experimentellen
Wissenschaften es also geschafft, durch immer
komplexere Beschreibungen der Phänomene und ihrer
Dynamiken in Form von Modellen bzw. Theorien, den
Gang der Vergangenheit bis zum Heute ansatzweise
plausibel zu machen, sondern auf der Basis dieser
Modelle/ Theorien wurde es auch möglich, ansatzweise
wissenschaftlich begründete Vermutungen über die
Zukunft anzustellen.

In einfachen Fällen, bei wenigen beteiligten Faktoren
mit wenigen internen Freiheitsgraden und für einen
begrenzten Zeithorizont kann man solche Vermutungen ü̈ber die Zukunft (kühn auch Prognosen genannt), einigermaßen überprüfen. Je größer die Zahl der
beteiligten Faktoren, je mehr innere Freiheitsgrade, je
weitreichender der Zeitrahmen, um so schwieriger wir
solch eine Prognose. So erscheint die Berechnung des
Zeitpunktes, ab wann die Aufblähung unserer Sonne
aufgrund von Fusionsprozessen ein biologisches Leben
auf der Erde unmöglich machen wird, relativ sicher
voraussagbar, das Verhalten eines einfachen Tieres in
einer Umgebung über mehr als 24 Stunden dagegen ist
schon fast unmöglich.

Dies kann uns daran erinnern, dass wir es in der
Gegenwart mit sehr unterschiedlichen Systemen zu
tun haben. Das Universum (oder vielleicht sogar die
Universen) mag komplex sein, aber es erweist sich
bislang als grundsätzlich verstehbar, ebenfalls z.B. die
geologischen Prozesse auf unserem Heimatplaneten
Erde; das, was die Biologen Leben nennen, also
biologisches Leben, entzieht sich aber den bekannten
physikalischen Kategorien. Wir haben es hier mit
Dynamiken zu tun, die irgendwie anders sind, ohne dass
es bislang gelingt, diese spezifische Andersheit adäquat
zu erklären.

Life is Energy…

IV. KOGNITIVER BLINDER FLECK

Eine Besonderheit des Gegenstandsbereiches
biologisches Leben ist, dass diejenigen, die es
untersuchen, selbst Teil des Gegenstandes sind.
Die biologischen Forscher, die Biologen – wie überhaupt
alle Forscher dieser Welt – sind selbst ja auch Teil
des Biologischen. Als Exemplare der Lebensform
homo sapiens sind sie ganz klar einer Lebensform
zugeordnet, die ihre eigene typische Geschichte hat,
die sich als homo sapiens ca. 200.000 Jahre entwickelt
hat mit einer Inkubationszeit von ca. 100.000 Jahren, in
denen sich verschiedene ältere Menschenformen verteilt
über ganz Afrika partiell miteinander vermischt haben.
Nach neuesten Erkenntnissen hat dann jener Teil, der
dann vor ca. 60.000/ 70.000 Jahren aus Ostafrika
ausgewandert ist, einige tausend Jahre mit den damals
schon aussterbenden Neandertalern im Gebiet des
heutigen Israel friedlich zusammen gelebt, was durch
Vermischungen dann einige Prozent Neandertaler-Gene
im Genom des homo sapiens hinterließ, und zwar bei
allen Menschen auf der heutigen Welt, die gemessen
wurden.

Die Tatsache, dass die erforschenden Biologen selbst
Teil dessen sind, was sie erforschen, muss nicht per
se ein Problem sein. Es kann aber zu einem Problem
werden, wenn die Biologen Methoden zur Untersuchung
des Phänomens biologisches Leben anwenden, die
für Gegenstandsbereiche entwickelt wurden, die keine
biologischen Gegenstände sind.

In der modernen Biologie wurden bislang sehr
viele grundlegende Methoden angewendet, die
unterschiedlichste Teilbereiche zu erklären scheinen: In
Kooperation mit der Geologie konnte man verschiedenen
Phasen der Erde identifizieren, Bodenbeschaffenheiten,
Klima, Magnetfeld, und vieles mehr. In Kooperation
mit Physik, Chemie und Genetik konnten die
Feinstrukturen von Zellen erfasst werden, ihre
Dynamiken, ihre Wechselwirkungen mit den jeweiligen
Umgebungen, Vererbungsprozesse, Generierung neuer
genetischer Strukturen und vieles mehr. Der immer
komplexere Körperbau konnte von seinen physikalisch-
mechanischen wie auch chemischen Besonderheiten her
immer mehr entschlüsselt werden. Die Physiologie half,
die sich entwickelnden Nervensysteme zu analysieren,
sie in ihrer Wechselwirkung mit dem Organismus
ansatzweise zu verstehen. und vieles mehr.

Die sehr entwickelten Lebensformen, speziell dann
der homo sapiens, zeigen aber dann Dynamiken, die
sich den bisher bekannten und genutzten Methoden
entziehen. Die grundlegende Wahrheitsfähigkeit des
homo sapiens, eingebunden in grundlegende Fähigkeit
zur symbolischen Sprache, zu komplexen Kooperation,
zu komplexen Weltbildern, dies konstituiert Phänomene
einer neuen Qualität. Der biologische Gegenstand homo
sapiens ist ein Gegenstand, der sich selbst erklären
kann, und in dem Maße, wie er sich selbst erklärt,
fängt er an, sich auf eine neue, bis dahin biologisch
unbekannte Weise, zu verändern.

Traditioneller Weise gab es in den letzten
Jahrtausenden spezielle Erklärungsmodelle zum
Phänomen der Geistigkeit des homo sapiens, die
man – vereinfachend – unter dem Begriff klassisch-
philosophische Erklärung zusammen fassen kann.
Dieses Erklärungsmodell beginnt im Subjektiven und
hat immer versucht, die gesamte Wirklichkeit aus der
Perspektive des Subjektiven zu erklären.

Die Werke der großen Philosophen – beginnend
mit den Griechen – sind denkerische Großtaten,
die bis heute beeindrucken können. Sie leiden
allerdings alle an der Tatsache, dass man aus der
Perspektive des Subjektiven heraus von vornherein
auf wichtige grundlegende Erkenntnisse verzichtet
hatte (in einer Art methodischen Selbstbeschränkung,
analog der methodischen Selbstbeschränkung der
modernen experimentellen Wissenschaften). Das,
was diese subjekt-basierte und subjekt-orientierte
Philosophie im Laufe der Jahrtausende bislang erkannt
hat, wird dadurch nicht falsch, aber es leidet daran,
dass es nur einen Ausschnitt beschreibt ohne seine
Fundierungsprozesse.

Eigentlich ist das Subjektive (oder das ’Geistige’,
wie die philosophische Tradition gerne sagt) das
schwierigste Phänomen für die moderne Wissenschaft, das provozierendste, aber durch die frühzeitige Selbstbeschränkung der Biologie auf die bisherigen
Methoden und zugleich durch die Selbstbeschränkung
der klassischen Philosophie auf das Subjektive wird
das Phänomen des Lebens seiner Radikalität beraubt.
Es wird sozusagen schon in einer Vor-Verabredung der
Wissenschaften entmündigt.

In einem Folgeartikel sollte dieser blinde Fleck der
Wissenschaften in Verabredung mit der Philosophie
nochmals direkt adressiert werden, etwa: Das Subjektive
im Universum: Maximaler Störfall oder Sichtbarwerdung
von etwas radikal Neuem?

KONTEXT BLOG

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER