ÜBER DIE MATERIE DES GEISTES. Relektüre von Edelman 1992. Teil 7

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 5.Sept. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

(Einige Korrekturen: 6.Sept.2018, 08:00h)

Gerald M.Edelman, Bright Air, Brilliant Fire. On the Matter of the Mind, New York: 1992, Basic Books

BISHER

Teil 1

Teil 2

Teil 3

Teil 4

Teil 5

Teil 6

WICHTIGE POSITIONEN

Zur Erinnerung, einige der wichtigen Positionen, auf die bislang hingewiesen wurde:

EDELMAN

Edelman benutzt die Arbeitshypothese, dass das, was wir ‚Geist‘ nennen, sich nur ab bestimmten Zeitpunkten während der allgemeinen Evolution ‚gezeigt‘ (‚emerged‘) hat, und zwar sehr spät.(vgl. S.41) Und dies setzt die Annahme voraus, dass die fundamentale Basis für alles Verhalten und für die ‚Sichtbarwerdung‘ (‚emergence‘) des Geistes die Anatomie und Morphologie der biologischen Strukturen ist sowie deren Funktionen.(vgl. S.41)

ASPEKTE DER DISKUSSION BISHER

Im Kontext seiner Argumentation kritisiert Edelman viele bekannte Positionen im Bereich Philosophie und Psychologie aus der eingeschränkten Perspektive ihres Bezuges zu den materiellen Strukturen heraus, die von ihm – letztlich wie bei Kant, nur mit anderem Akzent, mehr oder weniger – als ‚Ermöglichung des Geistes‘ gesehen werden. Diese Kritik in dieser speziellen Perspektive ist zum Teil berechtigt, aber auch nur zu einem sehr eingeschränkten Teil, da die kritisierten Personen und Positionen von den neuen Erkenntnissen noch gar nichts wissen konnten. Über diese enge Perspektive des expliziten Bezugs zu materiellen Strukturen hinaus repräsentieren die kritisierten Positionen aber auch Perspektiven, die ‚in sich eine methodische Rechtfertigung‘ besitzen, die Edelman schlicht nicht erkennt. Hier verkürzt zur Erinnerung einige seiner ‚methodischen blinden Flecken‘:

  1. Alternativen sind berechtigt:… zugleich die Arbeitshypothese aufzustellen, dass damit Analyse- und Erklärungsansätze von vornherein zu verurteilen sind, die Verhaltensdaten (Psychologie) bzw. auch introspektive Daten (Philosophie) als solche als Basis nehmen ohne direkt einen Bezug zu den materiellen (anatomischen) Daten herzustellen, ist mindestens problematisch wenn nicht wissenschaftsphilosophisch unhaltbar…

  2. Primär die Funktionen:… denn, wie immer die anatomischen Grundlagen beschaffen sein mögen, wenn ich deren ‚Verhaltensdynamik‘ erforschen will, interessieren mich die Details dieser Anatomie nicht, sondern nur ihre Funktion. Und diese lässt sich nicht durch Rekurs auf Bestandteile beschreiben sondern nur durch Beobachtung des Systemverhaltens …

  3. Daten als solche sind ‚blind‘:… aus materiellen Strukturen als solchen folgt in keiner Weise irgend etwas ‚Geistiges‘ es sei denn, ich habe vorab zur Untersuchung einen Kriterienkatalog G, den ich als Maßstab anlegen kann, um dann bei der Analyse der Beobachtungsdaten konstatieren zu können, das der Eigenschaftskomplex G vorliegt. Habe ich solch einen Kriterienkatalog G nicht, kann ich noch so viele empirische Daten zu irgendwelchen materiellen Strukturen vorweisen; ‚aus sich heraus‘ lassen diese Daten eine solche Eigenschaftszuschreibung nicht zu! …

  4. Konkretisierung und Quantenraum:… ohne die ‚Anhaltspunkte‘ im ‚beobachtbaren Verhalten‘ wäre es praktisch unmöglich, jene bedingenden materiellen Struktureigenschaften zu identifizieren, da die zugrundeliegenden neuronalen und damit letztlich biochemischen Grundlagen rein mathematisch nahezu unbegrenzt viele Funktionen erlauben. Letztlich deuten diese materiellen Strukturen auf einen quantenmechanischen Möglichkeitsraum hin, deren Konkretisierung von Faktoren abhängt, die sich aus den Strukturen selbst nicht so einfach ableiten lassen. …

  5. Phänomene zuerst: Philosophen arbeiten traditionell mit dem subjektiven Erlebnisraum direkt, ohne zugleich die Frage nach den materiellen Bedingungen der so erlebbaren ‚Phänomene‘ zu stellen. In gewisser Weise handelt es sich bei diesen subjektiven (= bewussten) Phänomenen auch um eine Systemfunktion eigener Art mit einer spezifischen Besonderheit, der man nicht gerecht werden würde, würde man sie durch Rekurs auf die bedingenden materiellen Strukturen (Gehirn, Körper, Welt, …) ‚ersetzen‘ wollen. …

  6. Empirie ist abgeleitet:… muss man sich klar machen, dass alle sogenannten ‚empirischen Daten‘ ja nicht ‚außerhalb‘ des ‚bewusstseinsbedingten Phänomenraums‘ vorkommen, sondern auch nur ‚bewusstseinsbedingte Phänomene‘ sind, allerdings eine spezielle Teilmenge, die man mit unterstellten Vorgängen in der Außenwelt in Verbindung bringt. Insofern bildet der subjektive Phänomenraum die Basis für jegliche Denkfigur, auch für die empirischen Wissenschaften. …

  7. Bezugspunkte für die Phänomene des Geistigen: Die Frage, was denn dann die primären Kriterien für das ‚Psychische-Geistige‘ sind, wird durch diese multidisziplinäre Kooperationen nicht einfacher: da die materiellen Strukturen als solche keinerlei Anhaltspunkte für ‚Geistiges‘ liefern, bleibt letztlich als Ausgangspunkt doch nur das ‚Geistige‘, wie biologische Systeme ’sich selbst‘ sehen, weil sie sich so ‚erleben‘. Das ‚Geistige‘ erscheint hier als ‚Dynamik‘ von Systemen, die sich anhand des Auftretens dieser Systeme ‚zeigt‘, ‚manifestiert‘. Aus den einzelnen materiellen Bestandteilen kann man diese Eigenschaften nicht ableiten, nur aus der Gesamtheit in spezifischen Wechselwirkungen. …

  8. … wenn ein homo sapiens ’nichts tut‘, dann ist die Dynamik ‚unsichtbar‘ und die durch solch eine Dynamik sichtbar werdenden Eigenschaften sind nicht greifbar. Weiter: wenn ein homo sapiens eine Dynamik erkennen lässt, dann bedarf es einer spezifischen ‚Erkenntnisweise‘, um die spezifischen Eigenschaften von ‚Geist‘ erkennen zu können. …

  9. Das System-Ganze: … Erst durch die Dynamik des Gesamtsystems werden – oft als ‚emergent‘ klassifizierte – Phänomene sichtbar, die von den einzelnen Bestandteilen des materiellen Systems als solchen nicht ableitbar sind, nur eben durch das Verhalten, die Dynamik des Gesamtsystems. …

  10. Begriffliches Mehr: … Es ist weder auszuschließen, dass es zwischen dem empirischen Phänomen der ‚Gravitation‘ und dem empirischen Phänomen ‚Geist‘ einen ‚tieferen‘ Zusammenhang gibt (da ‚Geist‘ als empirisches Phänomen ‚Gravitation‘ voraussetzt‘), noch dass es weit komplexere empirische Phänomene geben kann als den ‚individuell in Populationen‘ sich manifestierenden ‚empirischen Geist‘.

  11. Neues‘ und sein Ursprung:… Da jene geistige Eigenschaften, die den homo sapiens von anderen Lebensformen unterscheiden, erst mit diesem auftreten, kann eine ‚Geschichte der Entwicklung jener Formen, die den homo sapiens auszeichnen‘, nur indirekte Hinweise darauf liefern, wie sich jene ’späten‘ komplexen materiellen Strukturen aus ‚einfacheren, früheren‘ Strukturen entwickelt haben. Damit entsteht dann die interessante Frage, wie sich solche Komplexität aus ’scheinbar einfacheren‘ Strukturen entwickeln konnte? In der logischen Beweistheorie gilt allgemein, dass ich nur etwas ‚ableiten’/ ‚beweisen‘ kann, wenn ich das zu Beweisende letztlich schon in meinen ‚Voraussetzungen’/ ‚Annahmen‘ angenommen habe. Das ’spätere komplexere Neue‘ wäre in dem Sinne dann nicht wirklich ’neu‘, sondern nur eine ‚andere Zustandsform‘ eines Ausgangspunktes, der schon alles hat‘. Dies wäre nicht sehr überraschend, da wir in der Big-Bang-Theorie allgemein von ‚Energie (E)‘ ausgehen, die in Folge von Abkühlungsprozessen unendlich viele konkrete Zustandsformen angenommen hat, von denen wir mit E=mc^2 wissen, dass sie alle ineinander überführbar sind, wie speziell sie auch immer sein mögen.

  12. Rückschlüsse vom Phänotyp auf den Genotyp: …Die komplexen Abbildungsprozesse zwischen Genotypen und Phänotypen als Teil von Populationen in Umgebungen machen eine Zuordnung von im Verhalten fundierten Eigenschaftszuschreibungen von ‚Geist‘ zu vorliegenden materiellen Strukturen schwer bis unmöglich. … Das Entscheidende am Phänomen des Geistes ist ja, dass er nach vielen Milliarden Jahren Entwicklung in einem aktuell hochkomplexen und dynamischen System sich zeigt, und zwar nicht ‚aus sich heraus‘ sondern nur dann, wenn ein anderes System, das ebenfalls ‚Geist‘ hat, diesen Phänomenen ‚ausgesetzt‚ ist. Ein System, das selbst ‚keinen Geist hat‘, kann die beobachtbaren Phänomene nicht als ‚geistige‘ klassifizieren! Dies schließt nicht aus, dass heutige Algorithmen quasi automatisch irgendwelche ‚Muster‘ im beobachtbaren Verhalten identifizieren können, allerdings sind dies Muster wie unendlich viele andere Muster, deren ‚Bewertung‘ in irgendeine Zustandsdimension völlig beliebig ist.

  13. Der ‚Theoriemacher‘ kommt selbst als Gegenstand der Theorie nicht vor: …Von Interesse ist auch, wie sich der Zustandsraum der materiellen Strukturen (die Gesamtheit des aktuellen empirischen Wissens über das Universum und seiner möglichen Zukünfte) und der Zustandsraum von Systemen mit Geist (die Gesamtheit des geistigen Vorstellungsraumes samt seiner möglichen geistigen Zukünfte) unterscheidet. Die Sache wird dadurch kompliziert, dass ja die Systeme mit empirischem Geist letztlich auch zum genuinen Gegenstandsbereich der sogenannten ‚Natur‘-Wissenschaften gehören. Wenn das Empirisch-Geistige Teil der Natur ist, reichen die bisherigen empirischen naturwissenschaftlichen Theorien nicht mehr. Sie müssten entsprechend geändert werden. Der Beobachter muss wesentlicher Bestandteil der Theorie selbst werden. Für diese Konstellation haben wir bislang aber keinen geeigneten empirischen Theoriebegriff.

  14. Die ‚Interpretationsfunktion‘ als Fundament allen biologischen Lebens ungeklärt: Die fundamentale Tatsache, dass es Moleküle gibt, die andere Moleküle als ‚Kode‘ benutzen können, um Transformationsprozesse zwischen einer Sorte von Molekülen (DNA, RNA) in eine andere Sorte von Molekülen (Polypeptide, Proteine) steuern zu können, nimmt Edelman als Faktum hin, thematisiert es selbst aber nicht weiter. Er benennt diese ‚interpretierenden Moleküle‘ auch nicht weiter; sein Begriff ‚cellular device‘ ist eher nichtssagend. Dennoch ist es gerade diese Fähigkeit des ‚Übersetzens’/ ‚Interpretierens‘, die fundamental ist für den ganzen Transformationsprozess von einem Genom in einen Phänotyp bzw. in eine ganze Kette von hierarchisch aufeinander aufbauenden Phänotypen. Setzt man diese Übersetzungsfähigkeit voraus, ist das ganze folgende Transformationsgeschehen – so komplex es im Detail erscheinen mag – irgendwie ‚trivial‘. Wenn ich in mathematischer Sicht irgendwelche Mengen habe (z.B. verschiedene Arten von Moleküle), habe aber keine Beziehungen definiert (Relationen, Funktionen), dann habe ich quasi ‚Nichts‘. Habe ich aber z.B. eine Funktion definiert, die eine ‚Abbildung‘ zwischen unterschiedlichen Mengen beschreibt, dann ist es eine reine Fleißaufgabe, die Abbildung durchzuführen (z.B. die Übersetzung von DNA über RNA in Aminosäuren, dann Polypeptide, dann Proteine). Dass die Biochemie und Mikrobiologie samt Genetik so viele Jahre benötigt hat, die Details dieser Prozesse erkennen zu können, ändert nichts daran, dass diese Transformationsprozesse als solche ‚trivial‘ sind, wenn ich die grundlegende Transformationsfunktion definiert habe. Wo aber kommt diese grundlegende Abbildungsfunktion her? Wie kann es sein, dass ein ordinäres chemisches Molekül ein anderes ordinäres chemisches Molekül als ‚Kode‘ interpretiert, und zwar genau dann so, wie es geschieht? Betrachtet man ’normale‘ Moleküle mit ihren chemischen Eigenschaften isoliert, dann gibt es keinerlei Ansatzpunkt, um diese grundlegende Frage zu beantworten. Offensichtlich geht dies nur, wenn man alle Moleküle als eine Gesamtheit betrachtet, diese Gesamtheit zudem nicht im unbestimmten Molekül-Vorkommens-Raum, sondern in Verbindung mit den jeweils möglichen ‚realen Kontextbedingungen‘, und dann unter Berücksichtigung des potentiellen Interaktionsraumes all dieser Moleküle und Kontexte. Aber selbst dieser Molekül-Vorkommens-Raum repräsentiert im mathematischen Sinne nur Mengen, die alles und nichts sein können. Dass man in diesem Molekül-Vorkommens-Raum eine Funktion implantieren sollte, die dem Dekodieren des genetischen Kodes entspricht, dafür gibt es im gesamten Molekül-Vorkommens-Raum keinerlei Ansatzpunkt, es sei denn, man setzt solch eine Funktion als ‚Eigenschaft des Molekül-Vorkommens-Raumes‘ voraus, so wie die Physiker die ‚Gravitation‘ als Eigenschaft des physikalischen Raumes voraussetzen, ohne irgendeinen Ansatzpunkt im Raum selbst zu haben, als die beobachtbare Wirkung der Gravitation. Die Biologen können feststellen, dass es tatsächlich einen Transformationsprozess gibt, der solch eine Abbildungsbeziehung voraussetzt, sie haben aber keine Chance, das Auftreten dieser Abbildungsbeziehung aus den beobachtbaren materiellen Strukturen abzuleiten!!!

  15. Biologisches Leben als ‚Super-Algorithmus‘, der seine eigenen Realisierungsbedingungen mit organisiert: In der Beschreibung von Edelmans Position habe ich schon angemerkt, dass seine Wortwahl ‚Topobiologie‘ möglicherweise unglücklich ist, da es letztlich nicht der dreidimensionale Raum als solcher ist, der entscheidend ist (wenngleich indirekt die Drei-Dimensionalität eine Rolle spielt) sondern der ‚Kontext in Form von interaktiven Nachbarschaften‘: welche andere Zellen stehen in Interaktion mit einer Zelle; welche Signale werden empfangen. Indirekt spielt dann auch der ‚vorausgehende Prozess‘ eine Rolle, durch den eben Kontexte erzeugt worden sind, die nur in bestimmten Phasen des Prozesses vorliegen. Man hat also eher einen ‚Phasenraum‘, eine Folge typischer Zustände, die auseinander hervorgehen, so, dass der bisherige Prozess die nächste Prozessphase hochgradig determiniert. Dies ähnelt einer ‚algorithmischen‘ Struktur, in der eine Folge von Anweisungen schrittweise abgearbeitet wird, wobei jeder Folgeschritt auf den Ergebnissen der vorausgehenden Abarbeitungen aufbaut und in Abhängigkeit von verfügbaren ‚Parameterwerten‘ den nächsten Schritt auswählt. Im Unterschied zu einem klassischen Computer (der eine endliche Instanz eines an sich unendlichen theoretischen Konzeptes von Computer darstellt!), bei dem die Ausführungsumgebung (normalerweise) festliegt, haben wir es hier mit einem algorithmischen Programm zu tun, das die jeweilige Ausführungsumgebung simultan zur Ausführung ‚mit erschafft‘! Wenn Computermetapher, dann eben so: ein Programm (Algorithmus), das seine Ausführungsumgebung (die Hardware) mit jedem Schritt selbst ‚erschafft‘, ‚generiert‘, und damit seine Ausführungsmöglichkeiten schrittweise ausbaut, erweitert. Dies setzt allerdings voraus, dass das genetische Programm dies alles schon ‚vorsieht‘, ‚vorwegnimmt‘. Die interessante Frage ist dann hier, wie ist dies möglich? Wie kann sich ein genetisches Programm ‚aus dem Nichts‘ entwickeln, das all diese ungeheuer komplexen Informationen bezüglich Ausführung und Ausführungsumgebung zugleich ‚aufgesammelt‘, ’strukturiert‘, ‚verpackt‘ hat, wo die Gesamtheit der modernen Wissenschaft bislang nur Fragmente versteht?

  16. Ein technischer Super-Algorithmus scheint prinzipiell möglich; unklar ist seine ‚inhaltliche Ausgestaltung‘: Während Neurowissenschaftler (Edelman eingeschlossen) oft mit unsinnigen Computervergleichen versuchen, die Besonderheit des menschlichen Gehirns herauszustellen, kann man ja auch mal umgekehrt denken: wenn die Entwicklung des Gehirns (und des gesamten Organismus) Ähnlichkeiten aufweist mit einem Algorithmus, der seine eigene Ausführungsumgebung während der Ausführung (!!!) mit generiert, ob sich solch ein Prozess auch ‚rein technisch‘ denken ließe in dem Sinne, dass wir Maschinen bauen, die aus einer ‚kleinen Anfangsmenge von Materie‘ heraus ausgestattet mit einem geeigneten ‚Kode‘ und einem geeigneten ‚Interpretierer‘ sich analog selbst sowohl materiell als auch kodemäßig entwickeln? Da die biologischen Systeme zeigen, dass es grundsätzlich geht, kann man solch einen technischen Prozess nicht grundsätzlich ausschließen. Ein solches Gedankenexperiment macht aber sichtbar, worauf es wirklich ankommt: eine solche sich selbst mit-bauende Maschine benötigt auch einen geeigneten Kode und Interpretationsmechanismus, eine grundlegende Funktion. Ohne diese Funktion, geht gar nichts. Die Herkunft dieser Funktion ist aber gerade diejenige grundlegende Frage, die die gesamte empirische Wissenschaft bislang nicht gelöst hat. Es gibt zwar neuere Arbeiten zur Entstehung von ersten Zellen aus Molekülen unter bestimmten realistischen Kontexten, aber auch diese Forschungen beschreiben nur Prozesse, die man ‚vorfindet‘, die sich ‚zeigen‘, nicht aber warum und wieso es überhaupt zu diesen Prozessen kommen kann. Alle beteiligten materiellen Faktoren in diesen Prozessen als solchen geben keinerlei Ansatzpunkte für eine Antwort. Das einzige, was wir bislang wissen, ist, dass es möglich ist, weil wir es ‚beobachten können‘. Die ‚empirischen Phänomene‘ sind immer noch die härteste Währung für Wahrheit.

  17. Wissenschaftliche Theorie:… es ist überhaupt das erste Mal, dass Edelman in diesem Buch explizit über eine ‚wissenschaftliche Theorie‘ spricht… Seine Charakterisierung einer ‚wissenschaftlichen Theorie‘ ist … generell sehr fragmentarisch; sie ist ferner in ihrer Ernsthaftigkeit fragwürdig, da er die Forderung der Falsifizierbarkeit mit dem Argument begründt, dass ansonsten Darwins Theorie in ihrer Anfangszeit niemals hätte Erfolg haben können; und sie ist geradezu mystisch, da er eine radikal neue Rolle des Beobachters mit all seinen mentalen Eigenschaften innerhalb der Theoriebildung einfordert, ohne aber irgendwelche Hinweise zu liefern, wie das praktiziert werden soll. … Man stellt sich die Frage, welchen ‚Begriff von Theorie‘ Edelman eigentlich benutzt? In der Geschichte der empirischen Wissenschaften gab es viele verschiedene Begrifflichkeiten, die nicht ohne weiteres kompatibel sind, und seit ca. 100 Jahren gibt es eine eigene Meta-Wissenschaft zu den Wissenschaften mit Namen wie ‚Wissenschaftsphilosophie‘, ‚Wissenschaftstheorie‘, ‚Wissenschaftslogik‘, deren Gegenstandsbereich gerade die empirischen Wissenschaften und ihr Theoriebegriff ist…. Aufgrund seiner bisherigen Ausführungen scheint Edelman nichts vom Gebiet der Wissenschaftsphilosophie zu kennen.

  18. Überprüfbarkeit, Verifizierbarkeit, Theorie: Die Überprüfbarkeit einer Theorie ist in der Tat ein wesentliches Merkmal der modernen empirischen Wissenschaften. Ohne diese Überprüfbarkeit gäbe es keine empirische Wissenschaft. Die Frage ist nur, was mit ‚Überprüfbarkeit‘ gemeint ist bzw. gemeint sein kann. … Wenn Edelman fordert dass für eine Theorie gelten soll, dass nicht (vi) ‚jeder Teil von der Theorie direkt falsifizierbar‘ sein muss, dann geht er offensichtlich davon aus, dass eine Theorie T aus ‚Teilen‘ besteht, also etwa T(T1, T2, …, Tn) und dass im ‚Idealfall‘ jeder Teil ‚direkt falsifizierbar‘ sein müsste. Diese Vorstellung ist sehr befremdlich und hat weder mit der Realität existierender physikalischer Theorien irgend etwas zu tun noch entspricht dies den modernen Auffassungen von Theorie. Moderne Theorien T sind mathematische (letztlich algebraische) Strukturen, die als solche überhaupt nicht interpretierbar sind, geschweige denn einzelne Teile davon. Ferner liegt die Erklärungsfähigkeit von Theorien nicht in ihren Teilen, sondern in den ‚Beziehungen‘, die mittels dieser Teile formulierbar und behauptbar werden. Und ob man irgendetwas aus solch einer Theorie ‚voraussagen‘ kann hängt minimal davon ab, ob die mathematische Struktur der Theorie die Anwendung eines ‚logischen Folgerungsbegriffs‘ erlaubt, mittels dem sich ‚Aussagen‘ ‚ableiten‘ lassen, die sich dann – möglicherweise – ‚verifizieren‘ lassen. Diese Verifizierbarkeit impliziert sowohl eine ‚Interpretierbarkeit‘ der gefolgerten Aussagen wie auch geeignete ‚Messverfahren‘, um feststellen zu können, ob die ‚in den interpretierten Aussagen involvierten entscheidbaren Eigenschaften‘ per Messung verifiziert werden können oder nicht. Der zentrale Begriff ist hier ‚Verifikation‘. Der Begriff der ‚Falsifikation‘ ist relativ zu Verifikation als komplementärer Begriff definiert. Begrifflich erscheint dies klar: wenn ich nicht verifizieren kann, dann habe ich automatisch falsifiziert. In der Praxis stellt sich aber oft das Problem, entscheiden zu können, ob der ganz Prozess des Verifizierens ‚korrekt genug‘ war: sind die Umgebungsbedingungen angemessen? Hat das Messgerät richtig funktioniert? Haben die Beobachter sich eventuell geirrt? Usw. Als ‚theoretischer Begriff‘ ist Falsifikation elegant, in der Praxis aber nur schwer anzuwenden. Letztlich gilt dies dann auch für den Verifikationsbegriff: selbst wenn der Messvorgang jene Werte liefert, die man aufgrund einer abgeleiteten und interpretierten Aussage erwartet, heißt dies nicht mit absoluter Sicherheit, dass richtig gemessen wurde oder dass die Aussage möglicherweise falsch interpretiert oder falsch abgeleitet worden ist.

  19. Rolle des Theoriemachers und Beobachters fundamental: All diese Schwierigkeiten verweisen auf den ausführenden Beobachter, der im Idealfall auch der Theoriemacher ist. In der Tat ist es bislang ein menschliches Wesen, das mit seinen konkreten mentalen Eigenschaften (basierend auf einer bestimmten materiellen Struktur Gehirn im Körper in einer Welt) sowohl Phänomene und Messwerte in hypothetische mathematische Strukturen transformiert, und diese dann wiederum über Folgerungen und Interpretationen auf Phänomene und Messwerte anwendet. Dies in der Regel nicht isoliert, sondern als Teil eines sozialen Netzwerkes, das sich über Interaktionen, besonders über Kommunikation, konstituiert und am Leben erhält. … Edelman hat Recht, wenn er auf die bisherige unbefriedigende Praxis der Wissenschaften hinweist, in der die Rolle des Theoriemachers als Teil der Theoriebildung kaum bis gar nicht thematisiert wird, erst recht geht diese Rolle nicht in die eigentliche Theorie mit ein. Edelman selbst hat aber offensichtlich keinerlei Vorstellung, wie eine Verbesserung erreicht werden könnte, hat er ja noch nicht einmal einen rudimentären Theoriebegriff.

  20. Theorie einer Population von Theoriemachern: Aus dem bisher Gesagten lässt sich zumindest erahnen, dass ein verbessertes Konzept einer Theorie darin bestehen müsste, dass es eine explizite ‚Theorie einer Population von Theoriemachern (TPTM)‘ gibt, die beschreibt, wie solch eine Population überhaupt eine Theorie gemeinsam entwickeln und anwenden kann und innerhalb dieser Theorie einer Population von Theoriemachern würden die bisherigen klassischen Theoriekonzepte dann als mögliche Theoriemodelle eingebettet. Die TPTM wäre dann quasi ein ‚Betriebssystem für Theorien‘. Alle Fragen, die Edelman angeschnitten hat, könnte man dann in einem solchen erweiterten begrifflichen Rahmen bequem diskutieren, bis hinab in winzigste Details, auch unter Einbeziehung der zugrunde liegenden materiellen Strukturen.

  21. Darwin und Theorie: Anmerkung: Darwin hatte nichts was einem modernen Begriff von Theorie entsprechen würde. Insofern ist auch das Reden von einer ‚Evolutionstheorie‘ im Kontext von Darwin unangemessen. Damit wird aber der epochalen Leistung von Darwin kein Abbruch getan! Eher wirkt sein Werk dadurch noch gewaltiger, denn die Transformation von Gedanken, Phänomenen, Fakten usw. in die Form einer modernen Theorie setzt nicht nur voraus, dass man über die notwendigen Formalisierungsfähigkeiten verfügt … sondern man kann erst dann ’sinnvoll formalisieren‘, wenn man überhaupt irgendetwas ‚Interessantes‘ hat, was formalisiert werden soll. Die großen Naturforscher (wie z.B. Darwin) hatten den Genius, die Kreativität, den Mut, die Zähigkeit, das bohrende, systematisierende Denken, was den Stoff für interessante Erkenntnisse liefert. Dazu braucht man keine formale Theorie. Die Transformation in eine formale Theorie ist irgendwo Fleißarbeit, allerdings, wie die Geschichte der Physik zeigt, braucht man auch hier gelegentlich die ‚Genies‘, die das Formale so beherrschen, dass sie bisherige ‚umständliche‘ oder ‚unpassende‘ Strukturen in ‚einfachere‘, ‚elegantere‘, ‚besser passende‘ formale Strukturen umschreiben.

KAP. 8 DIE WISSSENSCHAFTEN DES ERKENNENS (The Sciences of Recognition)

Vorab zum Kapitel 8 (und einigen weiteren nachfolgenden Kapiteln) positioniert Edelman sich wie folgt:

  1. Nach den bisherigen Vorüberlegungen sieht sich Edelman in die Lage versetzt, eine ‚Theorie des Bewusstseins‘ zu postulieren als wesentliche Komponente einer ‚Theorie über das Funktionieren des Gehirns‘.(vgl. S.71)

  2. Edelman begründet dieses Vorgehen in Richtung von ‚expliziten Theorien‘ damit, dass Fakten alleine nichts nützen. Vielmehr müssen Fakten in Zusammenhänge eingebracht werden (’synthesizing ideas‘), die sich dann experimentell testen lassen. Diese Experimente bestätigen (‚amend‘) dann die bisherigen Synthesen oder widerlegen sie (‚knock down‘).(vgl. S.71)

  3. Er präzisiert seine Forderung nach einer Synthese der Fakten dahingehend, dass letztlich eine ‚wissenschaftliche Theorie‘ erstellt werden sollte, die möglichst alle ‚bekannten Fakten‘ über Gehirne und ‚Geist‘ integriert. Für Edelman ist klar, dass solch eine Theorie sehr viele ‚Schichten des Gehirns‘ beschreiben muss. (vgl. S.71)

  4. Diese Schichten des Gehirns bilden die ‚materielle Basis des Geistes‘ und in einer wissenschaftlichen Theorie des Bewusstseins als Teil einer Theorie des Gehirns werden bekannte Begriffe wie ‚Gedächtnis‘, ‚Konzept‘, ‚Bedeutung‘, ‚Bewusstsein als ein Tier‘, ‚Bewusstsein als ein menschliches Wesen‘ eine neue Bedeutung gewinnen.

Es folgt dann das Kap.8 als erstes Kapitel um dieses Programm zu erläutern.

  1. Edelman beginnt mit der These, dass er die ‚Sache des Geistes‘ (‚matter of mind‘) aus einem ‚biologischen Blickwinkel‘ heraus angehen will, also einer Blickrichtung, die sich auf ‚biologische Konzepte‘ stützt. (vgl. S.73)

  2. Eines der grundlegendsten (‚most fundamental‘) biologischen Konzepte ist für ihn der Begriff des ‚Denkens in Populationen‘ (‚population thinking‘), das für ihn historisch mit den Arbeiten von Darwin beginnt. (vgl. S.73)

  3. Das Denken in Populationen betrachtet die unterschiedlichen individuellen ‚Varianten‘ in einer Populationen als die Quelle von ‚Vielfalt‘. Diese Vielfalt ist der Angriffspunkt für eine ‚Auswahl‘ von jenen Arten, die erfolgreich sind. (vgl. S.73)

  4. Innerhalb einer kurzen Zeitspanne mögen diese Varianten kaum auffallen, über viele, sehr viele Generationen können sich die Unterschiede aber zu markant anderen Lebensformen auswirken, die dann als unterschiedliche ‚Arten‘ nebeneinander existieren. (vgl. S.73)

  5. Mit der Einführung des Begriffs ‚Denken in Populationen‘ stellt sich die Frage, wie denn hier eine Beziehung zum Begriff ‚Geist‘ hergestellt werden kann.

  6. Edelman wählt als potentielles Bindeglied den Begriff ‚Erkennen/ Wiedererkennen‘ (‚recognition‘). Er definiert diesen Begriff ‚Erkennen‘ zunächst sehr abstrakt, klassisch mathematisch, als eine ‚Abbildung‘ zwischen zwei ‚physikalischen Bereichen‘ (‚physical domains‘) A und B derart, dass die Elemente aus Bereich A in eine Menge A+ abgebildet werden, die zu den Ereignissen aus dem Bereich B ‚besser passen‘ (‚fit‘) als zuvor, sogar dann, wenn der Bereich B als B+ ’neue‘ Ereignisse umfasst. Er betont zusätzlich, dass diese Abbildung ‚ohne vorausgehende Instruktionen‘ (‚without prior instructions‘) stattfindet! Eine überaus starke These. (vgl. S.74)

  7. Um dieser noch sehr abstrakten Definition etwas mehr Bedeutung zu verleihen führt er ein Beispiel an, nämlich die ‚biologische Evolution‘: der eine Bereich A ist hier gegeben durch die Menge der biologischen Systeme (BIOS), der andere Bereich B durch die Menge der Ereignisse, die die Umgebung manifestieren (EVENTS). Durch die ‚Reproduktion‘ bildet der Bereich A neue Varianten, die zur Menge A+ führen. Der Bereich der Ereignisse B kann sich ändern, muss aber nicht. Wenn sich B so ändert, dass es neue Ereignisse gibt, dann liegt der Bereich B+ vor. Die Eigenschaft ‚fit zu sein‘ wird assoziiert mit dem Anteil der Nachkommen einer bestimmten Lebensform in einer Population. Je mehr Nachkommen eine Lebensform ermöglicht, um so ‚fitter‘ soll sie sein. Edelman legt Wert auf die Feststellung, dass die Herausbildung der ’nachkommensstarken‘ (‚fitten‘) Lebensformen A+ nicht durch eine ‚Instruktion seitens der Umwelt‘ zustande kam (‚does not require prior explicit information (‚instruction‘)), sondern dass die Herausbildung jener Varianten, die nachkommensstark sind, auf endogene Prozesse in den biologischen Systemen selbst zurück zu führen sei. Ebenso sind auch die Änderungen in der Umgebung B+ nach Edelman weitgehend unabhängig von den individuellen Variantenbildungen in der Population. Edelman geht hier noch weiter indem er postuliert, dass aus dieser wechselseitigen Unabhängigkeit folgt, dass es hier keine ‚finale Ursache‘, ‚keine Teleologie‘, ‚keine alles leitende Absicht‘ gibt. (vl. S.74)

  8. Als weiteres — eher spezielleres – Beispiel führt er das ‚Immunsystem‘ an. Das Immunsystem ist für Edelman ein ’somatisches selektives System (ssS)‘ das während der Lebenszeit eines biologischen Systems in einem Körper wirkt, während die Evolution ein ‚evolutionäres selektives System (esS)‘ repräsentiert, das über viele Generationen über viele Körper wirkt, innerhalb deren jeweils ein somatisches selektives System am Wirken ist. (vgl. 74)

  9. Edelman äußert hier die Vermutung, dass auch das ‚Gehirn‘ ein ’selektives somatisches System‘ ist. In diesem Fall wäre die ‚Neurowissenschaft‘ auch eine ‚Wissenschaft des Erkennens‘.(vgl. S.75)

  10. Das Immunsystem besitzt als wirkende Komponenten ‚Moleküle, Zellen‘ und ’spezialisierte Organe‘, wobei es sich bei den Molekülen und Zellen letztlich um alle Moleküle und Zellen des Körpers handelt. Letztlich operiert es ‚auf allen Molekülen‘, da es in der Lage ist zu ‚unterscheiden‘ (‚distinguishing‘) zwischen den ‚genuinen Molekülen/ Zellen‘ des eigenen Körpers (= das ‚Selbst‘) und ‚fremden Molekülen/ Zellen‘ (= ‚Nicht-Selbst‘). Diese Unterscheidungsfähigkeit ist extrem ’sensibel‘, da es selbst geringfügige Änderungen in der räumliche Anordnung von Atomen in einem Molekül erkennen kann. Zudem kann das Immunsystem solche Eigenschaften ‚erinnern‘, es hat ein ‚Gedächtnis‘ (‚memory‘).(vgl. S.75)

  11. Wenn ein körperfremdes Molekül (ein Protein) – auch ‚Antigen‘ genannt – auftritt, dann erzeugen spezialisierte Zellen des Körpers – die Lymphozyten – Moleküle, die sich an bestimmte charakteristische Eigenschaften des fremden Moleküls ‚anheften‘ können (sie binden sich an, ‚bind‘). Diese körpereigenen Identifizierungsmoleküle werden ‚Antikörper‘ (‚antibodies‘) genannt. (vgl. S.75)

  12. Die aktuelle Erklärung für diese beeindruckende Fähigkeit des Immunsystems solche Antikörper zu bilden, selbst bei völlig neuartigen Molekülen, wird als ‚Theorie der klonalen Selektion‘ gehandelt, die nach Edelman zurückgeht auf Sir Frank MacFarlant Burnet. (vgl. S.77)

  13. Die Grundidee dieser Theorie ist wie folgt: (i) Das körpereigene Immunsystem produziert ‚auf Vorrat‘ eine große Menge von Antikörpern mit unterschiedlichen Schnittstellen zum Anbinden. (ii) Treten dann körperfremde Moleküle auf (Viren, Bakterien), dann treffen diese auf eine Population von Lymphozyten mit ganz unterschiedlichen Antikörpern. Die eindringenden Zellen binden sich dann an jene Antikörper, die mit ihren Schnittstellen ‚am beste‘ zu ihnen ‚passen‘. Dies bringt die Lymphozyten, die diese Antikörper an sich tragen, dazu, sich durch Bildung von Klonzellen zu vermehren, so dass im Laufe der Zeit immer mehr Eindringlinge ‚gebunden‘ werden. (iii) Die Veränderung und Vermehrung der Lymphozyten einer bestimmten Art geschieht damit durch – nach Edelman – durch ‚Selektion‘ aufgrund von Ereignissen in der Umgebung. (vgl. S.75)

  14. Edelman unterstreicht auch hier, dass die Ausbildung der vielen Varianten von Antikörpern ’nicht von außen instruiert wurde‘, sondern innerhalb der Lebenszeit eines Körpers in den Lymphozyten, also ’somatisch‘ (’somatically‘). (vgl. S.75) Für ihn ist das Immunsystem daher eine wirkliche Instanz des allgemeinen Konzepts eines ‚Erkennungssystems‘ (‚recognition system‘): unabhängig von dem potentiellen Ereignisraum der fremden Moleküle produziert das Immunsystem ‚aus sich heraus‘ eine Menge von Antikörpern, die dann im Nachhinein (‚ex post facto‘) aufgrund der fremden Ereignisse ‚ausgewählt‘ (’selected‘) werden. Diese Produktionen ‚im voraus‘ und dann ‚Auswahlen im Moment‘ geschehen kontinuierlich, beinhalten ein retardierendes Moment (Gedächtnis) und erlauben eine ‚Anpassung‘ an die auftretenden neuen Moleküle (‚adaptively‘). Diese ‚zellulare Form eines Gedächtnisses‘ beruht auf der Tatsache, dass Mengen von Lymphozyten mit bestimmten Antikörpern meistens erhalten bleiben und aufgrund ihrer Zahl zukünftig auch schneller reagieren können. (vgl. S.78)

  15. Anhand der beiden Instanzen eines ‚Erkennungssystems‘ (‚evolutionäres selektives System‘ in Gestalt der Evolution und ’somatisches selektives System‘ in Gestalt des Immunsystems) macht Edelman darauf aufmerksam dass man zwischen dem ‚Prinzip der Auswahl‘ und den dazu eingesetzten ‚konkreten Mechanismen der Realisierung‘ unterscheiden muss. Das ‚Auswahlprinzip‘ wird sowohl von der ‚Evolution‘ benutzt wie auch vom ‚Immunsystem‘, aber die konkreten Mechanismen, wie dies umgesetzt wird, sind verschieden. (vgl. S.78) Beide Systeme brauchen aber auf jeden Fall eine Form von ‚Gedächtnis‘ jener Varianten, die eine ‚verbesserte Anpassung‘ ermöglichen. (vgl. S.79)

  16. Edelman nennt ‚Evolution‘ und ‚Immunologie‘ ‚Wissenschaften‘ (’sciences‘), ebenso die ‚Neurobiologie‘. (vgl. S.79)

  17. Edelman wiederholt seine Vermutung, dass das Gehirn ein ’somatisches selektives System‘ ist und ergänzt, dass nach seinen Forschungen die ‚Adhäsionsmoleküle der neuronalen Zellen‘ die ‚evolutionären Vorläufer‘ des gesamten Immunsystems waren. (vgl. S.79) Im folgenden Kapitel will er diese seine Hypothese, dass das Gehirn ein ’somatisches selektives System‘ sei, weiter erläutern.

DISKUSSION FORTSETZUNG

  1. Inkompatible Daten: 1.Person – 3.Person: Schon die erste Überlegung von Edelman, die Theorie des Bewusstseins als Teil einer Theorie des Gehirns zu konzipieren, wirft methodische Fragen auf. Diese resultieren daher, dass ja eine Theorie – was er im nächsten Abschnitt ja auch ausdrücklich feststellt – , im Kern darin besteht, ‚Zusammenhänge‘ einzuführen, durch die die einzelnen, isolierten Fakten kausale, erklärende, prognostische Eigenschaften bekommen können. Nun ist nach bisherigem Kenntnisstand klar, dass jene Fakten, durch die sich für einen menschlichen Beobachter und Theoriemacher das Bewusstsein ‚zeigt‘, und jene Fakten, mittels denen eine Neurobiologie arbeitet, nicht nur einfach ‚unterschiedlich‘ sind, sondern im ersten Anlauf prinzipiell ‚ausschließend‘. Die dritte Person Perspektive im Fall neurobiologischer Theoriebildung und die erste Person Perspektive im Fall von Bewusstseinstheorien sind im ersten Schritt nicht kompatibel miteinander. Jede Form von Beziehungsentwicklung über diesen unterschiedlichen Datenengen – nennen wir sie DAT_NN und DAT_BW – wird vollständig unabhängig voneinander stattfinden müssen. Bei dieser Sachlage zu sagen, dass eine Theorie des Bewusstseins als Teil einer Theorie des Gehirns entwickelt werden soll, klingt spannend, lässt aber jegliche Einsicht in ein mögliches Wie vermissen. Der umgekehrte Fall, eine Theorie des Gehirns als Teil einer Theorie des Bewusstseins hingegen wäre methodisch möglich, da alle empirische Daten abgeleitete Bewusstseinsdaten sind (also: DAT_NN C DAT_BW).

  2. Denken als kreativer Akt – Kein Automatismus: Im übrigen sollte man im Hinterkopf behalten, dass das ‚Einführen von Beziehungen‘ über Datenpunkten in keiner Weise von den Daten selbst her ‚ableitbar‘ ist. Es handelt sich bei solchen Einführungen um ‚kreative Denkakte‘, die aus einem vorgegebenen begrifflichen Denkraum einen möglichen Teilraum aktivieren und diesen ‚an den Daten ausprobieren‘. Insofern handelt es sich bei der Theoriebildung um ein ‚Erkenntnissystem‘ im Sinne von Edelman, das ‚gedachte Varianten von Beziehungen‘ bilden kann, und jene Fakten (ein vom Denken unabhängiger Bereich), die zu irgendwelchen Beziehungsvarianten ‚passen‘, die werden ‚ausgewählt‘ als solche Fakten, die sich im Sinne der ausgewählten Beziehungen ‚erklären‘ lassen. Im Sinne von Edelman könnte man hier von einem ‚bewusstseinsbasierten selektiven System (bsS)‘ sprechen. Es ist an die Lebensdauer des Bewusstseins gebunden, es verfügt über ein ‚Gedächtnis‘, es kann dadurch ‚adaptiv‘ sein, es kann aufgrund von zusätzlichen Kommunikationsprozessen Beziehungsvarianten auf andere Bewusstseine übertragen und durch Übertragung auf bewusstseinsexterne Medien sogar über die Lebensdauer eines individuellen Bewusstseins hinaus gespeichert werden.

  3. Damit deutet sich eine interessante Hierarchie von ‚Erkennungssystemen‘ an: (i) ‚evolutionäre selektive Systeme (esS)‘, (ii) ’somatische selektive Systeme (ssS)‘, (iii) ’neuronale selektive Systeme (nsS)‘, sowie (iv) ‚bewusstseinsbasierte selektive Systeme (bsS)‘.

  4. Kategoriefehler? Während die Hypothese von Edelman, dass die ‚materielle Basis des Geistes‘ in den materiellen Schichten des Gehirns zu suchen sei, möglicherweise Sinn macht, ist seine andere Hypothese, dass eine wissenschaftliche Theorie des Bewusstseins als Teil einer Theorie des Gehirns zu entwickeln sei, aus fundamentalen Gründen nicht nachvollziehbar.

  5. Integrierte Theoriebildung: Greift man Punkt (1) der Diskussion auf, dann könne eine Lösung der Paradoxie von Edelman darin bestehen, dass die Verschränkung der Daten aus der 1ten-Person Perspektive DAT_1Person und die Daten aus der 3ten-Person Perspektive als DAT_3Person C DAT_1Person die Basis für eine mögliche ‚integrierte (philosophische) Theorie des Bewusstseins‘ bilden, die empirische Theorien als Teiltheorien enthält, unter anderem eine Theorie des Gehirns. Wollte man ferner das von Edelman in den ersten Kapiteln mehrfach angesprochene ungelöste Problem der ‚mangelnden Integration des Beobachters‘ in die zugehörige Theorie aufgreifen, dann wäre dies in einer ‚integrierten philosophischen Theorie des Bewusstseins (IPTB)‘ im Prinzip möglich. Folgendes Theorienetzwerk deutet sich damit an:

  6. In einem ersten Schritt (i) könnte man eine ‚Theorie des Bewusstseins‘ T1CS auf Basis der DAT_1Person formulieren; im Rahmen dieser Theorie kann man unter anderem (ii) die empirischen Daten DAT_3Person als eine genuine Teilmenge der Daten DAT_1Person ausweisen. Damit erhält man den Ausgangspunkt dafür, diverse Theorien T3X auf Basis der dritten Person Daten DAT_3Person zu formulieren. Hier gibt es verschiedene Optionen. Eine mögliche wäre die folgende:

  7. In einem ersten Schritt (iii) wird eine ‚Theorie der Evolution der Körper‘ T3EV formuliert. Von hier aus gibt es zwei Fortsetzungen:

  8. Die Interaktion verschiedener Körper einer Population kann in einer (iv) ‚Theorie der Akteure‘ T3A formuliert werden (diese sind u.a. potentielle Beobachter). Diese Theorie T3A beschreibt, welche Verhaltensweisen an Akteuren beobachtbar sind und wie diese sich miteinander verschränken können (z.B. bekannt aus Psychologie und Soziologie).

  9. Eine ‚Theorie der Körper‘ T3BD beschreibt (v) die innere Struktur jener Körper, die den Akteuren zugrunde liegt. Dazu kann es Teil-Theorien geben (vi) wie eine ‚Theorie des Gehirns‘ T3BR (mit all seinen Schichten ) oder (vii) eine ‚Theorie des Immunsystems‘ T3IM.

  10. Brückentheorien: Es ist dann eine eigene theoretische Leistung diese verschiedenen Teil-Theorien und Theorien miteinander in Beziehung zu setzen. Dies ist keinesfalls trivial. Während die Theorie der Evolution eine Zeitkomponente umfasst, in der sich Strukturen komplett ändern können, sind Strukturtheorien des Körpers, des Gehirns und des Immunsystems tendenziell an ’statischen‘ Strukturen orientiert. Dies ist aber unrealistisch: Körper, Gehirn und Bewusstsein sind dynamische Systeme, die sowohl durch ‚Wachstum‘ wie auch durch ‚Lernen‘ kontinuierlich ihre Strukturen ändern. Ferner ist die Interaktion der verschiedenen Theorien ein eigenständiges Problem: Gehirn und Immunsystem sind ja nur zwei Komponenten von vielen anderen, die zusammen einen Körper ausmachen. Wenn man die neuen Erkenntnisse zur Komponente ‚Darm‘ ernst nimmt, dann kann diese Komponenten das gesamte Rest-System vollständig dominieren und steuern (auch das Gehirn). Die genauen Details dieser Interaktion sind noch weitgehend unerforscht. Schließlich ist auch die Rückkopplung der diversen empirischen Theorien T3X zur primären Theorie des Bewusstseins T1CS zu lösen. Dies wäre eine ‚Brückentheorie‘ T1CS3BD mit Anbindung sowohl an die Theorie der Evolution T3EV als auch an die diversen Teiltheorien wie T3BR und T3IM. Bislang ist weltweit kein einziger Kandidat für solch eine Brückentheorie T1CS3BD bekannt, zumal es bislang auch keine ernsthafte Theorie des Bewusstseins T1CS gibt (wohl aber sehr viele Texte, die inhaltlich zum Begriff ‚Bewusstsein‘ etwas schreiben).

  11. Beginn Kap.8: Zu Beginn des Kap. 8 wiederholt Edelman seine These, dass er die ‚Sache des Geistes‘ (‚matter of mind‘) aus einem ‚biologischen Blickwinkel‘ heraus angehen will. Wie schon oben angemerkt, stellen sich hier grundlegende methodische Probleme, die hier jetzt nicht wiederholt werden sollen. Er stellt dann die sachlich unausweichliche Frage, wie man denn dann einen Zusammenhang zwischen ‚Geist‘ und ‚Materie‘ – hier Materie fokussiert auf ‚Gehirn‘ – herstellen kann.

  12. Populationsdenken und Erkennungssystem: Ohne weitere Begründung führt er dann den Begriff ‚Populationsdenken‘ ein, den er sodann überführt in den Begriff ‚Erkennungssystem‘ (‚recogntion system‘). Anschließend bringt er mit der ‚Evolution‘, ‚mit dem Immunsystem‘ und dann mit dem ‚Gehirn‘ drei Beispiele von Erkennungssystemen in seinem Sinne.

  13. Begriff ‚Geist‘ methodisch unbestimmt: Dieses ganze begriffliche Manöver von Edelmann leidet von Anbeginn an dem Umstand, dass er bislang weder genau erklärt hat, was er unter dem Begriff ‚Geist‘ versteht noch mit welchen Methoden man diesen ‚Geist‘ erforschen kann. Der Begriff ‚Geist‘ bildet also bislang nur eine ‚abstrakte Wortmarke ohne definierte Bedeutung‘ und ohne jeglichen Theorie- und Methodenbezug. Zugleich wird ‚Geist‘ streckenweise mit dem Begriff ‚Bewusstsein‘ gleichgesetzt, für den die gleichen Unwägbarkeiten gelten wie für den Begriff ‚Geist‘. Unter diesen Umständen die These aufzustellen, dass sich eine Theorie des Bewusstseins als Teil einer Theorie des Gehirns formulieren lässt ist mindestens kühn (siehe die vorausgehende Diskussion). Für die soeben von Edelman aufgeworfene Frage nach einem möglichen Zusammenhang zwischen dem mit ‚Geist‘ Gemeinten und dem mit ‚Materie‘ – sprich: Gehirn – Gemeinten ist damit alles offen, da die Begriffe ‚Geist‘ und ‚Bewusstsein‘ letztlich auch ‚offen‘ sind, da sie nicht definiert sind. Es bleibt dann nur, abzuwarten und zu schauen, ob sich aus den von Edelman eingeführten Begriffen ‚Populationsdenken‘ bzw. ‚Erkennungssystem‘ etwas ableiten lässt, was die Grundsatzfrage nach dem Verhältnis zwischen ‚Geist‘ und ‚Materie‘ etwas erhellt.

  14. Das Populationsdenken basiert auf Mengen von Individuen, die sich ‚verändern‘ können; man kann diese veränderte Individuen als ‚Varianten‘ auffassen‘, die damit eine ‚Vielfalt‘ in einer Population repräsentieren. Wichtig ist hier, sich klar zu machen, dass in der Perspektive eines einzelnen Individuums dieses weder ‚weiß‘, was vorher war noch was kommen wird noch aus sich heraus abschätzen kann, ob das, was es repräsentiert bzw. das, was es tut, in irgendeiner Weise ’sinnvoll‘ ist! Das einzelne Individuum ‚lebt sich aus‘ unter den Bedingungen, die die Umgebung ‚vorgibt‘ Zu sagen, dass ein einzelnes Individuum ‚erfolgreich‘ ist (‚fit‘), setzt voraus, dass man auf das Gesamtsystem schauen kann und man ein Meta-Kriterium hat, das definiert, wann ein Individuum in einer Population ‚erfolgreich‘ ist oder nicht. Unter Evolutionsbiologen hat sich eingebürgert, als ein Erfolgskriterium die ‚Zahl der Nachkommen‘ zu nehmen. Individuen mit den meisten Nachkommen gelten als erfolgreich. Dieser ‚äußerliche‘ Befund, der sich nur mit Blick auf mehrere Generationen definieren lässt und im Vergleich zu allen anderen Individuen, wird dann zusätzlich verknüpft mit der Hypothese, dass die  äußerlich beobachtbare Gestalt, der Phänotyp, letztlich auf eine ‚tiefer liegende Struktur‘ verweis, auf den Genotyp. Der äußerlich beobachtbare Erfolg eines bestimmten Genotyps wird dann auf die angenommene tiefer liegende Struktur des Genotyps übertragen. In dieser komplexen metatheoretischen Betrachtungsweise verantworten also Genotypen die Phänotypen, die dann in einer bestimmten Umgebung über die Zeit die meisten Nachkommen ermöglichen.

  15. In diesem Kontext von ‚Selektion‘, ‚Auswahl‘ zu sprechen ist ziemlich problematisch, da kein eigentlicher Akteur erkennbar ist, der hier ’selektiert‘. Das einzelne Individuum für sich selektiert sicher nicht, da es nichts hat zum Selektieren. Die Population als solche selektiert auch nicht, da die Population keine handelnde Einheit bildet. ‚Population‘ ist ein ‚Meta-Begriff‘, der einen externen Beobachter voraussetzt, der die Gesamtheit der Individuen beobachten und darüber sprechen kann. Eine Population als ‚existierende‘ ist nur eine Ansammlung von Individuen, von denen jedes einzelne ‚vor sich hin agiert‘. Nur bei externer Beobachtung über die Zeit lässt sich erkennen, dass sich Varianten von Phänotypen bilden von denen einige größere Anzahlen bilden als andere oder einige sogar aussterben. Weder das einzelne Individuum noch die Gesamtheit der Individuen ’selektieren‘ hier irgend etwas.

  16. Beobachter mit Theorie: Wenn man dennoch am Begriff ‚Selektion‘ festhalten will, dann nur dann, wenn man tatsächlich einen ‚externen Beobachter‘ voraussetzt, der alle diese variierenden Phänotypen in ihren jeweiligen Umgebungen in der Zeit ‚beobachten‘ kann und der eine ‚Theorie‘ formuliert (also eine systematische Beschreibung von den Beobachtungsdaten), in der die Veränderung der Phänotypen samt ihren ‚Anzahlen‘ in Beziehung gesetzt werden zu den verschiedenen Umgebungen. Wenn bestimmte Phänotypen in einer bestimmten Umgebung E aussterben während andere Phänotypen bei der gleichen Umgebung nicht aussterben, sich vielleicht sogar vermehren, dann könne man in dieser Theorie den Begriff ‚Selektion‘ so definieren, dass die ‚zahlenmäßig erfolgreichen‘ Phänotypen zur Umgebung E ‚besser passen‘ als die anderen. Es sind dann die ‚Umstände der Umgebung‘, die ‚Eigenschaften der Umgebung‘, die darüber entscheiden, welcher Phänotyp ‚bleibt‘ und welcher ’nicht bleibt‘. Die Umgebung wäre dann das ‚harte Kriterium‘, an dem die Leistungsfähigkeit eines Phänotyps (und indirekt damit des ermöglichenden Genotyps), ‚gemessen‘ werden kann. ‚Messen‘ heißt ‚Vergleichen‘: passt ein Phänotyp in eine bestehende Umgebung oder nicht.

  17. Erfolgskriterium nicht absolut: Da die Umgebung ‚Erde‘ nach heutigem Wissensstand sich beständig verändert hat, ist das Erfolgskriterium ‚Passen‘ sehr relativ. Was heute ‚gut passt‘ kann morgen ‚unpassend‘ sein.

  18. Akteure als Teil der Umgebung: Ferner ist in Rechnung zu stellen, dass Phänotypen (i) sowohl mit der Umgebung wechselwirken können und dadurch diese so stark verändern können, dass sie damit ihre eigenen Lebensgrundlagen zerstören (etwas ‚Passendes‘ wird ‚unpassend‘ gemacht), als auch (ii) dass die Vielzahl von Phänotypen untereinander ‚zur Umgebung wird‘ (z.B. in Räuber-Beute Beziehungen). Dann besteht die Umgebung nicht nur aus der Erde wie sie ist (sehr veränderlich), sondern andere Phänotypen einer anderen ‚Art‘ müssen entweder als Feinde abgewehrt werden oder als potentielle Beute gefangen oder es muss mit ‚Artgenossen‘ kooperiert werden. Das erfolgreiche Überleben wird damit zu einer Gleichung mit sehr vielen dynamischen Variablen. Das theoretische Kriterium der ‚Selektion‘ erscheint daher als ein sehr abstraktes Kriterium in der Beschreibung von Erfolg, hat sich aber historisch als Minimalanforderung durchgesetzt.

  19. Fähigkeit zur Variationsbildung im Dunkeln: Interessant ist der Punkt – auf den auch Edelman zentral abhebt – dass die Genotypen überhaupt in der Lage sind, immer komplexere Phänotypen zu bilden, ohne dass erkennbar ist, dass ihnen von der Umgebung aus irgendwelche Vorab-Informationen übermittelt würden. Dies scheitert allein auch schon daran, dass die Erde – und das Sonnensystem, und die Milchstraße, und … — als ‚Umgebung‘ keinen geschlossenen Akteur mit eigener ‚Absicht‘ darstellt. Vielmehr handelt es sich – nach heutigem Kenntnisstand – um ein System, das ‚aus sich heraus‘ Ereignisse erzeugt, die als Ereignisse dieses System manifestieren. Biologische Systeme können diese Ereignismengen nur ‚aufnehmen‘, ’sortieren‘, auf unterschiedliche Weise ‚erinnern‘, und auf der Basis dieser ‚Erfahrungen‘ Strukturen ausbilden, die dieser Ereignismenge möglichst ‚optimal‘ gerecht werden. Und da im Moment der ‚reproduktiven‘ Strukturbildung zwar einige Erfolge aus der Vergangenheit ‚bekannt‘ sind, aber ’nichts aus der Zukunft‘, bleibt den biologischen Systemen nur, im Rahmen ihrer genetischen und phänotypischen Variationsbildung möglichst viele Variationen ‚ins Blaue hinein‘ zu bilden. Nach 3.8 Milliarden Jahren kann man konstatieren, es hat bislang irgendwie funktioniert. Daraus kann man aber leider nicht zweifelsfrei ableiten, dass dies auch in der Zukunft so sein wird.

  20. Selektion als sekundärer Effekt: Also, ‚Selektion‘ ist keine Eigenleistung eines Individuums oder einer Population, sondern Selektion ist der Effekt, der entsteht, wenn Populationen mit Umgebungen wechselwirken müssen und die Umgebung festlegt, unter welchen Bedingungen etwas zu ‚passen‘ hat. Erst ’nach‘ der Reproduktion und ’nach einiger Zeit‘ zeigt sich für ein Individuum, ob ein bestimmter Genotyp einen ‚erfolgreichen‘ Phänotyp hervorgebracht hat. Zu dem Zeitpunkt, wo ein Individuum diese Information bekommen könnte, hat es aber keine Gestaltungsmacht mehr: einmal weil seine Reproduktionsaktivität dann schon vorbei ist und zum anderen, weil es bei Erfolg ‚alt‘ ist oder gar schon ‚gestorben‘.

  21. Begriff ‚Erkennen‘ unglücklich: Dass Edelman diese Populationsdynamik als ‚Erkennungssystem‘ (‚recognition system‘) verstanden wissen will, ist nicht ganz nachvollziehbar, da, wie schon angemerkt, kein eigentlicher Akteur erkennbar ist, der dies alles ’steuert‘. Dass im Fall der Evolution die Gesamtheit der Genotypen zu einem bestimmten Zeitpunkt einen gewissen ‚Informationsbestand‘, einen gewissen ‚Erfahrungsbestand‘ repräsentieren, der sich aus den vorausgehenden Reproduktions- und aufgezwungenen Selektionsereignissen ‚angesammelt‘ hat, lässt sich theoretisch fassen. Dass aber hier ein identifizierbarer Akteur etwas ‚erkennt‘ ist wohl eine starke Überdehnung des Begriffs ‚Erkennen‘. Das gleiche gilt für das Beispiel mit dem Immunsystem. Das ‚Herausfiltern‘ von bestimmten ‚passenden Eigenschaften‘ aus einer zuvor produzierten Menge von Eigenschaften ist rein mathematisch eine Abbildung, die so zuvor nicht existierte. Aber es gibt keinen bestimmten Akteur, der für die Konstruktion dieser Abbildung verantwortlich gemacht werden kann.

  22. Netzwerke lernen ohne eigentlichen Akteur: Dennoch arbeitet Edelman hier einen Sachverhalt heraus, der als solcher interessant ist. Vielleicht sollte man ihn einfach anders benennen. Interessant ist doch, dass wir im Bereich der biologischen Systeme beobachten können, dass eine Menge von unterscheidbaren Individuen, von denen jedes für sich genommen keinerlei ‚Bewusstsein‘ oder ‚Plan‘ hat, als Gesamtheit ‚Ereignismengen‘ so ’speichern‘, dass ‚metatheoretisch‘ eine ‚Abbildung‘ realisiert wird, die es so vorher nicht gab und die Zusammenhänge sichtbar macht, die eine gewisse ‚Optimierung‘ und auch eine gewisse ‚Logik‘ erkennen lassen. Nennen wir diese Herausbildung einer Populationsübergreifenden Abbildung ’strukturelles Lernen‘ was zu einer ’strukturellen Erkenntnis‘ führt, dann habe wir dadurch immer noch keinen eigentlichen ‚Akteur‘, aber wir haben ein interessantes Phänomen, was die Entwicklung von großen Mengen von biologischen Systemen charakterisiert. Das Biologische erscheint als ein Netzwerk von vielen Systemen, Teilsystemen, bei dem die einzelnen Komponenten keinen ‚Plan des Ganzen‘ haben, aber durch ihre individuelle Manifestationen indirekt an einem ‚größeren Ganzen‘ mitwirken.

  23. Homo sapiens: Erst mit dem Aufkommen des Homo sapiens, seiner Denk- und Kommunikationsfähigkeit, seinen Technologien, ist es möglich, diese impliziten Strukturen, die alle einzelnen Systeme bestimmen, dirigieren, filtern, usw. zu ‚erfassen‘, zu ‚ordnen‘, zu ‚verstehen‘ und auf diese Weise mit einem angenäherten ‚Wissen um das Ganze‘ anders handeln zu können als in den zurückliegenden Zeiten.

Fortsetzung folgt HIER.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

DIE ZUKUNFT WARTET NICHT – 2117 – PHILOSOPHISCHE WELTFORMEL – FAKE-NEWS ALS TODESENGEL

NACHTRAG: Mo, 13.März 2017

Wichtiger Nachtrag zum Komplexitätsbegriff, seinen Grenzen, und erweiterte  Diskussion zur ersten Periodisierung genannt ‚Emergent Life‘ (hauptsächlich ab Nr.25)

KONTEXT

  1. Der aktuelle Blogeintrag ist keine direkte Fortsetzung des letzten Eintrags, sondern schließt gedanklich eher an den vorletzten Beitrag an und ist von daher eher als eine Einleitung zu dem Blogeintrag über das Bewusstsein zu verstehen.
  2. Welche Themen jeweils in die Feder fließen hängt von vielerlei Faktoren ab. Generell natürlich schon von den übergreifenden Perspektiven des Blogs, dann aber auch von alltäglichen Ereignissen und Diskussionen. Dass es heute nun zu diesem sehr grundsätzlichen Beitrag gekommen ist, ist u.a. den intensiven Diskussionen mit Manfred Fassler geschuldet, der aufgrund seines Hintergrundes in Soziologie und Anthropologie die gesellschaftliche Dimension stark in die Überlegungen einbringt, während ich mich meist auf systemische Perspektiven fokussieren. Als ich versucht habe (während ich durch meine Grippe weitgehend ausgeschaltet war (und immer noch bin)), seine Aspekte mit meinen Überlegungen zusammen zu bringen, entstand schrittweise eine Struktur, ein Modell, das sich darstellt wie der Beginn einer philosophischen Weltformel, mit deren Hilfe man mit einem Male viele komplexe Einzelphänomene in die Logik eines übergeordneten Zusammenhangs einordnen kann (siehe Schaubild).

    Periodisierung der Evolution des Lebens mit dem Versuch eines systematischen Kriteriums

    Periodisierung der Evolution des Lebens mit dem Versuch eines systematischen Kriteriums

WELTFORMEL

  1. Den Begriff Weltformel kennen wir ja meist nur im Kontext der modernen Physik, die mit ihren Erklärungsmodellen zu immer umfassenderen Aussagen über das Universum kommen konnte, so umfassend, dass man tatsächlich geneigt ist, von einer Weltformel zu sprechen. Nun wissen wir aber, dass diese sogenannten Weltformeln der Physik bislang noch nicht wirklich alles erklären, geschweige denn nicht all jene Phänomene, die wir dem Bereich des biologischen Lebens zuordnen und den damit verbundenen immer komplexeren Phänomenen von Verhalten und menschlichen Gesellschaften. Es besteht auch wenig Aussicht, dass die physikalischen Weltformeln jemals zu einer völlig erschöpfenden Weltformeln werden könnte, weil schon rein mathematisch eine Theorie der Welt ohne jene, die die Theorie hervorbringen, seit Gödel 1931 entweder als grundsätzlich unvollständig oder unentscheidbar gilt.
  2. Ein anderes Hindernis besteht darin, dass die Physik als empirische Wissenschaft – wie alle anderen empirischen Disziplinen auch – schon vom Start weg nur einen kleinen Teil der möglichen Phänomene dieser Welt als Ausgangspunkt zulässt. Diese vorwissenschaftlich getroffene methodische Beschränkung auf die sogenannten intersubjektiven Phänomene, die sich mittels vereinbarter Messverfahren messen lassen, und zwar invariant mit Bezug auf den, der misst, hat sich zwar im großen und ganzen als sehr leistungsfähig erwiesen, aber anzunehmen, dass sich mit dieser methodisch eingeschränkten Phänomenmenge auf lange Sicht alles erklären lassen wird, auch das, was sich hinter den ausgeschlossenen Phänomenen verbirgt, dies ist eine vor-wissenschaftliche Annahme, für die es keinerlei Belege gibt. Die Zukunft wird zeigen, wie es sich mit diesem Ausschluss verhält.
  3. Ob es also die Physik sein wird, die uns die endgültige Weltformel liefern wird, oder doch eher die Philosophie, wird uns die Zukunft zeigen. Die Philosophie hat gegenüber der Physik (und auch gegenüber allen anderen empirischen Disziplinen), den methodisch großen Vorteil, dass die Philosophie alle anderen Disziplinen voraussetzen und einbeziehen kann. So kann ein Philosoph alle Fragmente und Entwürfe von Weltformeln der Physik nehmen und dann dazu ergänzend, erweiternd, begründend seine Weltformel formulieren. Alles, was in der Physik gilt, wird dann hier auch gelten, aber eventuell noch mehr.
  4. Die Überlegungen des Autors zu den Umrissen einer philosophischen Weltformel begannen nun aber gerade nicht so, dass er sich vor den Computer gesetzt hat und sich sagte, so, jetzt wird eine philosophische Weltformel geschrieben. Nein, so würde es auch nie funktionieren. Formeln, selbst die einfachsten, sind immer Ergebnisse von Denkprozessen, mehr oder weniger bewusst, mehr oder weniger schnell. Und eine Weltformel ist, wie man vermuten kann, wenn überhaupt, das Ergebnis von vielen Jahren Arbeit mit ganz vielen Inhalten. Und wie wir wissen, Zeit und Aufwand alleine garantieren auch keine Ergebnisse; sie können die Wahrscheinlichkeit erhöhen, etwas Interessantes zu finden, aber garantieren kann man es nicht.
  5. Das Ganze fing eher unscheinbar an. Unter dem Eindruck eines Telefonats mit Manfred Fassler begann der Autor zunächst für sich, eine Skizze jener Themen zu malen, die in diesem Blog seit 2007 aufgeschlagen sind (380 Beiträge von cagent und 52 Beiträge von cagent im Kontext der Werkstattgespräche). Er überlegte sich, ob man die Themen nach bestimmten inhaltlichen Kriterien und zeitlich ‚clustern‘ könnte. Was dabei herauskam das waren diese merkwürdigen Zylinderfiguren auf der linken Seite des Bildes.

ZEITLICHE EINTEILUNGEN

 

  1. Von oben – beginnend mit dem Big Bang – bis nach unten, zur Gegenwart, haben wir eine zeitliche Erstreckung von ca. 13.8 Mrd Jahren. Eine Einteilung hängt von vorausgehenden Kriterien ab, von einem Muster, Modell, von dem man annimmt, dass es die Menge der Ereignisse sinnvoll strukturiert.
  2. Wie man aus der Skizze ersehen kann, wurde solch eine Unterteilung vorgenommen.
  3. Im ersten Anlauf wurde versucht, mit einem Begriff der Komplexität zu arbeiten. Dahinter steht die Intuition, dass es sich bei den zu beschreibenden Ereignissen um Strukturen handelt, sich sich im Laufe der Zeit bildeten und die immer dichter wurden. Die aktuelle Unterteilung markiert solche Phasen, in denen hervorstechende Komplexitätssprünge zu verzeichnen sind.
  4. Bevor auf die Details dieser Betrachtung eingegangen wird, soll aber zunächst der benutzte Komplexitätsbegriff näher erläutert werden. Dabei sei schon hier angemerkt, dass sich im weiteren Verlauf herausgestellt hat, dass der gewählte Komplexitätsbegriff viel zu schwach ist, um jene Eigenschaften zu repräsentieren, von denen die heutige Biologie, Ethologie und Anthropologie (und möglicherweise viele weitere Disziplinen) sagen würden, dass sie als ‚wichtig‘ für das Phänomen angesehen werden.

KOMPLEXITÄT

 

  1. Vorab, es gibt in der Literatur keinen einheitlichen Komplexitätsbegriff. Im Laufe der Jahre habe ich einen eigenen Begriff von Komplexität entwickelt, den ich hier kurz vorstelle. Man kann ihn dann kritisieren oder übernehmen. Im Falle von Kritik wäre ich an Argumenten interessiert, um weiter lernen zu können, ihn vielleicht weiter zu entwickeln oder letztlich doch wieder zu verwerfen.
  2. Die Frage ist immer, mit welcher mentalen Brille man die Wirklichkeit sieht. Der berühmte Pessimist sieht überall die halbleeren Gläser, der Optimist die halbvollen. Der Tierschützer sieht überall, wie die Tiere leiden, der Chemiker sieht überall chemische Verbindungen am Werke, der Immobilienmakler potentielle Kaufobjekte, und so fort.
  3. Für die Frage der Komplexität besteht eine Möglichkeit darin, sich die mentale Brille der Systeme aufzusetzen. Mit der System-Brille besteht die Welt nur noch aus Systemen. Ein System ist Etwas, das sich von seiner Umgebung unterscheiden lässt. Diese Annahme impliziert, dass es rein abstrakt zwischen diesem unterscheidbaren Etwas und seiner Umgebung Wechselwirkungen geben kann. Sofern es um Einwirkungen auf das System geht sprechen wir einfach vom Input (I) des Systems und im umgekehrten Fall, wenn das System auf die Umgebung einwirkt, vom Output (O) des Systems. Rein abstrakt, auf der begrifflichen Ebene, hat ein System demgemäß immer einen Input und Output in Wechselwirkung mit seiner Umgebung; im konkreten, empirischen Fall, kann diese Wechselwirkung so schwach sein, dass sie sich nicht messen lässt. Dann ist die Wechselwirkung leer, oder 0 = I = O.
  4. Nimmt man ein bestimmtes System S als Bezugspunkt, dann kann man sagen, dass sich das System S auf Ebene/ Level 0 befindet. Alle Systeme, die sich mit Bezug auf das System S in seiner Umgebung befinden, wären dann auf der Ebene/ dem Level +1. Alle Systeme, die sich im System S befinden, finden sich auf Ebene/ Level -1. Sollte ein System S‘ sich auf Level -1 von System S befinden, also LEVEL(S‘,S,-1), und sollte das System S‘ selbst weiter Systeme S“ enthalten, dann lägen diese auf Level -2 von System S (und auf Level -1 zu System S‘).
  5. Beispiel: Vom menschlichen Körper wissen wir, dass er sich so betrachten lässt, dass er aus einer endlichen Anzahl von Körperorganen besteht (Level -1), die wiederum aus vielen Zellen bestehen (Level -2). Hier kann man entweder weitere Subeinheiten annehmen oder betrachtet diese Zellen als nächsten Bezugspunkt, von denen wir wissen, dass jeder Körperzelle wiederum aus einer Vielzahl von Systemen besteht (Level -3). Diese Betrachtung könnte man weiter fortsetzen bis zu den Molekülen, dann Atomen, dann subatomaren Teilchen, usw. Nimmt man die Umgebung menschlicher Körper, dann haben wir auf Level +1 andere menschliche Körper, Tiere, Pflanzen, Gebäude, Autos, Computer usw. Jedes dieser Systeme in der Umgebung ist selbst ein System mit inneren Systemen.
  6. Was bislang noch nicht gesagt wurde, ist, dass man anhand der Inputs und Outputs eines Systems sein Verhalten definiert. Die Abfolge von Inputs und Outputs konstituiert eine Folge von (I,O)-Paaren, die in ihrer Gesamtheit eine empirische Verhaltensfunktion f_io definieren, also f_io ={(i,o), …, (i,o)}, wobei man mit Hilfe einer Uhr (eine Maschine zur Erzeugung von gleichmäßigen Intervallen mit einem Zähler) jedem Input- und Outputereignis eine Zeitmarke zuordnen könnte.
  7. Während empirisch immer nur endlich viele konkrete Ereignisse beobachtet werden können, kann man abstrakt unendlich viele Ereignisse denken. Man kann also abstrakt eine theoretische Verhaltensfunktion f_th über alle möglichen denkbaren Input- und Outputereignisse definieren als f_th = I —> O. Eine empirische Verhaltensfunktion wäre dann nur eine Teilmenge der theoretischen Verhaltensfunktion: f_io c f_th. Dies hat Vorteile und Nachteile. Die Nachteile sind ganz klar: theoretisch spricht die Verhaltensfunktion über mehr Ereignisse, als man jemals beobachten kann, also auch über solche, die vielleicht nie stattfinden werden. Dies kann zu einer falschen Beschreibung der empirischen Welt führen. Demgegenüber hat man aber den Vorteil, dass man theoretisch über Ereignisse sprechen kann, die bislang noch nicht beobachtet wurden und die daher für Prognosezwecke genutzt werden können. Wenn die Theorie also sagen würde, dass es ein bestimmtes subatomares Teilchen mit der Beschaffenheit X geben müsste, was aber bislang noch nicht beobachtet werden konnte, dann könnte man aufgrund dieser Prognose gezielt suchen (was in der Vergangenheit auch schon zu vielen Entdeckungen geführt hat).
  8. Rein abstrakt kann man ein System SYS damit als eine mathematische Struktur betrachten, die über mindestens zwei Mengen Input (I) und Output (O) definiert ist zusammen mit einer Verhaltensfunktion f, geschrieben: SYS(x) genau dann wenn x = <I,O,f> mit f: I → O.
  9. Rein abstrakt gilt also, dass jedes System SYS auch weitere Systeme als interne Elemente besitzen kann, d.h. Jedes System kann Umgebung für weitere Systeme sein. Nennen wir die Gesamtheit solcher möglicher interner Systeme IS, dann müsste man die Strukturformel eines Systems erweitern zu SYS(x) gdw x = <I,O,IS,f> mit f: I x IS —> IS x O. Dies besagt, dass ein System mit weiteren internen Systemen IS in seinem Verhalten nicht nur abhängig ist vom jeweiligen Input I, sondern auch vom Output der jeweiligen internen Systeme. Aus beiden Inputs wir dann nicht nur der Systemoutput O ermittelt, sondern zugleich bekommen auch die internen Systeme einen Input (der diese internen Systeme u.U. So verändern kann, dass sie beim nächsten Mal ganz anders reagieren als vorher).
  10. In welchem Sinn könnte man nun sagen, dass ein System S komplexer ist als ein System S‘ (geschrieben S >~> S‘)?
  11. Es gibt jetzt verschiedene Möglichkeiten. Einmal (i) könnte die Anzahl der inneren Ebenen (-N) ein Ansatzpunkt sein. Ferner (ii) bietet sich die Anzahl der Systeme pro Ebene (|-n| mit n in N), ihre ‚Dichte‘, an. Schließlich (iii) macht es auch einen Unterschied, wie groß die Anzahl der möglichen verschiedenen Inputs-Outputs ist, die in ihrer Gesamtheit einen Raum möglicher Verhaltenszustände bilden (|I| x |O| = |f_io|). Rein mathematisch könnte man auch noch (iv) den Aspekt der Mächtigkeit der Menge aller Systeme einer Art SYS, also |SYS|, definieren und diese Menge – die in der Biologie Population genannt wird – als eine Art ‚Hüllensystem‘ S_pop definieren. Ein Hüllensystem wäre dann ein System, das ausschließlich Elemente einer bestimmten Art enthält. Ein Hüllensystem S_pop_a könnte zahlreicher sein als ein Hüllensystem S_pop_b, |S_pop_a| > |S_pop_b|, es könnte aber auch sein, dass sich die Mächtigkeit einer Population im Laufe der Zeit ändert. Eine Population mit einer Mächtigkeit |S_pop_x| = 0 wäre ausgestorben. Die Veränderungen selbst können Wachstumsraten und Sterberaten anzeigen.
  12. Im Folgenden nehmen wir hier an, dass ein System S komplexer ist als ein System S‘ (S >~> S‘), wenn S ein System im Sinne der Definition ist und entweder (i) mehr innere Ebenen enthält oder (ii) pro innere Ebene eine höhere Dichte aufweist oder aber (iii) der Raum möglicher Verhaltenszustände der beteiligten Systeme größer ist. Bei Gleichheit der Größen (i) – (iii) könnte man zusätzlich die Größe (iv) berücksichtigen.
  13. Beispiel: Die Milchstraße, unsere Heimatgalaxie, umfasst zwischen 150 und 400 Mrd. Sterne (Sonnen) und hat einen Durchmesser von ca. 100.000 bis 180.000 Lichtjahre. In einem einführenden Buch über die Mikrobiologie präsentiert Kegel als neueste Schätzungen, dass der menschliche Körper etwa 37 Billionen (10^12) Körperzellen umfasst, dazu 100 Billionen (10^12) Bakterien im Körper und 224 Mrd. (10^9) Bakterien auf der Haut. Dies bedeutet, dass ein einziger menschlicher Körper mit seinen Körperzellen rein quantitativ etwa 150 Galaxien im Format der Milchstraße entspricht (1 Zelle = 1 Stern) und die Bakterien darin nochmals etwa 400 Galaxien. Dies alles zudem nicht verteilt in einem Raum von ca. 550 x 100.000 – 180.000 Lichtjahren, sondern eben in diesem unserem unfassbar winzigen Körper. Dazu kommt, dass die Körperzellen (und auch die Bakterien) in intensiven Austauschprozessen stehen, so dass eine einzelne Zelle mit vielen Tausend, wenn nicht gar zigtausenden anderen Körperzellen kommuniziert (Hormone im Blut können können viele Milliarden Zellen adressieren). Diese wenigen Zahlen können ahnen lassen, mit welchen Komplexitäten wir im Bereich des Biologischen zu tun haben. Dabei ist noch nicht berücksichtigt, dass ja die Zellen im Körper meist noch in funktionellen Einheiten organisiert sind mit weiteren Untereinheiten, so dass sich hier viele Ebenen finden lassen.

KOMPLEXITÄTSEREIGNISSE

 

  1. Unter Voraussetzung des bisherigen Komplexitätsbegriffs kann man nun die Ereignisse der biologischen Evolution mit diesem Begriff beschreiben und schauen, ob es irgendwann einen hervorstechenden Komplexitätssprung gibt, der möglicherweise den Beginn einer neuen Phase markiert.
  2. An dieser Stelle wird schon deutlich, dass die Wahl eines Komplexitätsbegriffs basierend auf Systemen möglicherweise noch zu schwach ist, um den zu beschreibenden Phänomenen gerecht zu werden. Den Begriff ‚Komplexitätssprung‘ kann man zwar formal definieren (es gibt immer viele Möglichkeiten), ob nun solch ein Konzept dann in der empirischen Realität aber genau das beschreibt, was wirklich dem Phänomen optimal entspricht, das kann sich letztlich nur am empirischen Ereignis selbst anschaulich entscheiden (im positiven Fall). Ein einfacher Ansatz wäre, einen Komplexitätssprung über den Begriff des minimalen Abstands zwischen zwei Komplexitäten S und S‘ zu definieren, und unter Einbeziehung ‚einer empirisch sinnvollen Konstante‘. Dann würde immer dann, wenn ein solcher Abstand gemessen werden kann, ein Komplexitätssprung vorliegt. Was wäre aber ein ‚empirisch sinnvoller Abstand‘ in biologischer Sicht?

PERIODISIERUNG

  1. Betrachtet man nach diesen Vorbemerkungen das Schaubild, dann kann man als ersten Abschnitt ‚Emergent Life‘ erkennen. Dies identifiziert die Zeit ab dem ersten nachgewiesenen Auftreten von biologischen Zellen, vor ca. 3.5 Mrd Jahren (nach neuesten Funden evtl. sogar schon ab 3.77 Mrd Jahren). Der Übergang von Molekülen zu sich selbst reproduzierenden Zellen markiert einen gewaltigen Komplexitätssprung.
  2. Man kann versuchen, den formalen Komplexitätsbegriff darauf anzuwenden. Nimmt man beispielsweise eine eukaryotische Zelle als System S, dann kann man typische Umgebungen ermitteln, interne Organisationslevel, die Dichte auf den Leveln sowie den Raum möglicher Verhaltenszustände von jedem beteiligten System. Nimmt man als Vergleich die strukturell einfacheren prokaryotischen Zellen (die als evolutionär älter gelten), dann kann man zu unterschiedlichen Werten kommen, die im Falle der prokaryotischen Zellen kleiner ausfallen. Im Unterschied zu einer Ansammlung von irgendwelchen Molekülen wird man noch größere Unterschiede feststellen. Will man diese strukturellen Unterschiede für eine Klassifikation nutzen, dann muss man sie gewichten. Ohne hier auf die Details einer solchen Gewichtung eingehen zu können (das wäre ein eigener riesiger Artikel) stellen wir hier einfach mal fest, dass gilt: S_eukaryot >~> S_prokaryot >~> S_molecule, wobei der ‚Abstand‘ zwischen den beiden Zelltypen deutlich kleiner ist als zwischen dem einfachen Zelltyp und einem einfachen Molekül, also Distance(S_eukaryot, S_prokaryot) < Distance(S_prokaryot, S_molecule).
  3. Unterstellen wir mal, alle Details vorausgehender Klassifikationen wären erfüllt. Was wäre damit erreicht? Wir wüssten schematisch, dass wir es mit drei verschiedenen Typen von Systemen zu tun hätte mit unterschiedlichen Levels, Input-Output-Räumen, unterschiedlichen Dichten … hätten wir damit aber irgendetwas von dem erfasst, was die evolutionäre Biologie, Molekularbiologie, Zellbiologie usw. bislang als charakteristisch für die biologische Zelle erkannt zu haben meint?
  4. Einige der wichtigen Eigenschaften werden informell so beschrieben: (i) Zellen haben eine erkennbare Struktur mit Wechselwirkungen zur Umgebung (insofern sind sie Systeme); (ii) sie sind in der Lage, Energie aus der Umgebung aufzunehmen und damit unterschiedliche chemische Prozesse zu moderieren; (iii) sie sind in der Lage, die Strukturen und Funktionen dieser Struktur in Form eines speziellen Moleküls zu kodieren (Bauplan, ‚Gedächtnis‘); (iv) sie können sich mit Hilfe des Bauplans reproduzieren, wobei die Reproduktion Abweichungen zulässt.
  5. Mindestens in diesen vier genannten Eigenschaften unterscheiden sich biologische Zellen von Molekülen. Der zuvor eingeführte Komplexitätsbegriff kann hier zwar eine höhere Komplexität herausrechnen, aber tut sich schwer, die vier Leiteigenschaften angemessen zu repräsentieren. Woran liegt das?
  6. Das ist einmal der Begriff der Energie. Dieser wurde von der Physik in vielen Jahrhunderten schrittweise erarbeitet und ist eine Eigenschaft, die generisch die gesamte empirische Welt durchzieht. Letztlich liegt er allem zugrunde als Äquivalent zur bewegten Massen. Wenn man nur Strukturen von Systemen betrachtet, kommt Energie nicht wirklich vor. Wenn es nun aber eine zentrale neue Eigenschaft eines Systems ist, freie Energie für eigene Zwecke ‚verarbeiten‘ zu können, dann müsste dies in die Systemstruktur aufgenommen werden (spezielle Funktionen…). Allerdings verarbeiten sogar Moleküle in gewisser Weise Energie, allerdings nicht so komplex und produktiv wie Zellen.
  7. Dann sind dort die metabolischen Prozesse (Stoffwechselprozesse) der Zellen. Diese sind extrem vielfältig und komplex miteinander verwoben. Der abstrakte Komplexitätsbegriff kann dies zwar anzeigen, aber nur ‚äußerlich‘; die Besonderheiten dieser Prozesse werden damit nicht sichtbar.
  8. Schließlich das Phänomen des Zellkerns mit Molekülen, die einen Bauplan kodieren; man könnte dies auch als eine Form von Gedächtnis beschreiben. Zum kodierten Bauplan gibt es auch eine komplexe Dekodierungsmaschinerie. Eine rein formale Repräsentation im Komplexitätsbegriff macht die Besonderheit nicht sichtbar. Wenn man weiß, worauf es ankommt, könnte man eine entsprechende Systemstruktur zusammen mit den notwendigen Operationen definieren.
  9. Was sich hier andeutet, ist, dass die abstrakte Seite der formalen Repräsentation als solche zwar nahezu alles zulässt an Formalisierung, aber welche Struktur letztlich etwas Sinnvolles in der empirischen Welt kodiert, folgt aus der abstrakten Struktur alleine nicht. Dies muss man (mühsam) aus den empirischen Phänomenen selbst herauslesen durch eine Art induktive Modellbildung/ Theoriebildung, also das, was die empirischen Wissenschaften seit Jahrhunderten versuchen.
  10. Der Versuch, ‚auf die Schnelle‘ die sich hier andeutenden Komplexitäten zu systematisieren, wird also nur gelingen, wenn die Verallgemeinerungen die entscheidenden empirischen Inhalte dabei ’nicht verlieren‘.
  11. Ohne diese Problematik an dieser Stelle jetzt weiter zu vertiefen (darauf ist später nochmals zurück zu kommen), soll hier nur ein Gedanke festgehalten werden, der sich mit Blick auf die nachfolgende Phase anbietet: mit Blick aufs Ganze und den weiteren Fortgang könnte man in der ersten Phase von Emerging Life als grundlegendes Ereignis die Ausbildung der Fähigkeit sehen, eine Art strukturelles Gedächtnis bilden zu können, das sich bei der Weitergabe strukturell variieren lässt. Damit ist grundlegend der Ausgangspunkt für die Kumulation von Wissen unter Überwindung der reinen Gegenwart möglich geworden, die Kumulierung von ersten Wirkzusammenhängen. Diese Urform eines Gedächtnisses bildet einen ersten grundlegenden Meta-Level für ein erstes Ur-Wissen von der Welt jenseits des Systems. Der Emerging Mind aus der nächsten Phase wäre dann der Schritt über das strukturelle Gedächtnis hin zu einem lokal-dynamischen Gedächtnis.
  12. Dann stellt sich die Frage, welche der nachfolgenden Ereignisse in der Evolution eine weitere Steigerung der Komplexität manifestieren? Kandidaten kann man viele finden. Zellen haben gelernt, sich in immer komplexeren Verbänden zu organisieren, sie haben immer komplexere Strukturen innerhalb der Verbände ausgebildet, sie konnten in immer unterschiedlicheren Umgebungen leben, sie konnten innerhalb von Populationen immer besser kooperieren, konnten sich auch immer besser auf die Besonderheiten anderer Populationen einstellen (als potentielle Beute oder als potentielle Feinde), und konnten immer mehr Eigenschaften der Umgebungen nutzen, um nur einige der vielfältigen Aspekte zu nennen. Manche bildeten komplexe Sozialstrukturen aus, um in zahlenmäßig großen Populationen gemeinsam handeln zu können (Schwärme, ‚Staaten‘, Verbünde, ….). Nach vielen Milliarden Jahren, von heute aus erst kürzlich, vor einigen Millionen Jahren, gab es aber Populationen, deren zentrale Informationsverarbeitungssysteme (Nervensysteme, Gehirne), das individuelle System in die Lage versetzen können, Vergangenes nicht nur zu konservieren (Gedächtnis), sondern in dem Erinnerbaren Abstraktionen, Beziehungen, Unterschiede und Veränderungen erkennen zu können. Zugleich waren diese Systeme in der Lage Gegenwärtiges, Gedachtes und neue Kombinationen von all dem (Gedachtes, Geplantes) symbolisch zu benennen, auszusprechen, es untereinander auszutauschen, und sich auf diese Weise ganz neu zu orientieren und zu koordinieren. Dies führte zu einer revolutionären Befreiung aus der Gegenwart, aus dem Jetzt und aus dem ‚für sich sein‘. Damit war mit einem Mal alles möglich: das schrittweise Verstehen der gesamten Welt, die schrittweise Koordinierung allen Tuns, das Speichern von Wissen über den Moment hinaus, das Durchspielen von Zusammenhängen über das individuelle Denken hinaus.
  13. Als nächster Komplexitätssprung wird daher das Auftreten von Lebewesen mit komplexen Nervensystemen gesehen, die ein Bewusstsein ausbilden konnten, das sie in die Lage versetzt, miteinander ihre internen Zustände symbolisch austauschen zu können, so dass sie einen Siegeszug der Erkenntnis und des Aufbaus komplexer Gesellschaften beginnen konnten. Dieses Aufkommen des Geistes (‚Emerging Mind‘) definiert sich damit nicht nur über die direkt messbaren Strukturen (Nervensystem, Struktur, Umfang,..), sondern auch über den Umfang der möglichen Zustände des Verhaltens, das direkt abhängig ist sowohl von den möglichen Zuständen des Gehirns, des zugehörigen Körpers, aber auch über die Gegebenheiten der Umwelt. Anders ausgedrückt, das neue Potential dieser Lebensform erkennt man nicht direkt und alleine an ihren materiellen Strukturen, sondern an der Dynamik ihrer potentiellen inneren Zustände in Wechselwirkung mit verfügbaren Umwelten. Es ist nicht nur entscheidend, dass diese Systeme symbolisch kommunizieren konnten, sondern auch WAS, nicht entscheidend alleine dass sie Werkzeuge bilden konnten, sondern auch WIE und WOZU, usw.
  14. Es ist nicht einfach, dieses neue Potential angemessen theoretisch zu beschreiben, da eben die rein strukturellen Elemente nicht genügend aussagestark sind. Rein funktionelle Aspekte auch nicht. Es kommen hier völlig neue Aspekte ins Spiel.

Die Fortsezung gibt es HIER.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Buch: Die andere Superintelligenz. Oder: schaffen wir uns selbst ab? – Kapitel 5 – neu – Version 2

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 27.August 2015
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

VORBEMERKUNG: Der folgende Text ist ein Vorabdruck zu dem Buch Die andere Superintelligenz. Oder: schaffen wir uns selbst ab?, das im November 2015 erscheinen soll.

Was ist Leben?

Erst die Erde

Etwa 9.2 Mrd Jahre nach dem sogenannten Big Bang kam es zur Entstehung unseres Sonnensystems mit der Sonne als wichtigstem Bezugspunkt. Nur ca. 60 Mio Jahre später gab es unsere Erde. Die Zeitspanne, innerhalb der Spuren von Leben auf der Erde bislang identifiziert wurden, liegt zwischen -4 Mrd Jahre von heute zurück gerechnet bis ca. -3.5 Mrd Jahre. Oder, vom Beginn der Erde aus gesehen, ca. 540 Mio Jahre bis ca. 1 Mrd Jahre nach der Entstehung der Erde.

Alte Bilder vom Leben

Wenn man vom Leben spricht, von etwas Belebtem im Gegensatz zum Unbelebtem, fragt man sich sofort, wie man ‚Leben‘ definieren kann? In der zurückliegenden Geschichte gab es viele Beschreibungs- und Definitionsversuche. Einer, der heute noch begrifflich nachwirkt, ist die Sicht der Philosophie der Antike (ca. -600 bis 650) . Hier wurde das ‚Atmen‘ (gr. ‚pneo‘) als charakteristisches Merkmal für ‚Lebendiges‘ genommen, wodurch es vom ‚Unbelebtem‘ abgegrenzt wurde. Aus dem ‚Atmen‘ wurde zugleich ein allgemeines Lebensprinzip abgeleitet, das ‚Pneuma‘ (im Deutschen leicht missverständlich als ‚Geist‘ übersetzt, im Lateinischen als ’spiritus‘), das sich u.a. im Wind manifestiert und ein allgemeines kosmologisches Lebensprinzip verkörpert, das sowohl die Grundlage für die psychischen Eigenschaften eines Lebewesens bildet wie auch für seine körperliche Lebendigkeit. In der Medizin gab es vielfältige Versuche, das Pneuma im Körper zu identifizieren (z.B. im Blut, in der Leber, im Herzen, im Gehirn und den Nerven). Im philosophischen Bereich konnte das Pneuma ein heißer Äther sein, der die ganze Welt umfasst. Eine andere Auffassung sieht das Pneuma zusammengesetzt aus Feuer und Luft, woraus sich alle Körper der Welt bilden. Das Pneuma wird auch gesehen als die ‚Seele‘, die allein das Leben des Körpers ermöglicht. Bei den Stoikern wird das Pneuma-Konzept zum allumfassenden Begriff einer Weltseele gesteigert. Mit der Zeit vermischte sich der Pneuma-Begriff mit dem Begriff ’nous‘ (Kurzform für ’noos‘)(Englisch als ‚mind‘ übersetzt; Deutsch ebenfalls als ‚Geist‘), um darin die kognitiv-geistige Dimension besser auszudrücken. Weitere einflussreiche begriffliche Koordinierungen finden statt mit dem lateinischen ‚mens‘ (Deutsch auch übersetzt mit ‚Geist‘) und dem hebräischen ‚ruach‘ (im Deutschan ebenfalls mit ‚Geist‘ übersetzt; bekannt in der Formulierung ‚Der Geist Gottes (= ‚ruach elohim‘) schwebte über den Wassern‘; in der Septuaginta, der griechischen Übersetzung der hebräischen Bibel, heißt es ‚pneuma theou‘ (= der Geist Gottes)) (Anmerkung: Diese Bemerkungen sind ein kleiner Extrakt aus der sehr ausführlichen begriffsgeschichtlichen Herleitung in Sandkühler 2010)

Die Zelle im Fokus

War es für die antiken Philosophen, Mediziner und Wissenschaftler noch praktisch unmöglich, die Frage nach den detaillierten Wirkprinzipien des ‚Lebens‘ genauer zu beantworten, erarbeitete sich die moderne Naturwissenschaft immer mehr Einsichten in die Wirkprinzipien biologischer Phänomene (bei Tieren, Pflanzen, Mikroben, molekularbiologischen Sachverhalten), so dass im Laufe des 20.Jahrhunderts klar wurde, dass die Gemeinsamkeit aller Lebensphänomene auf der Erde in jener Superstruktur zu suchen ist, die heute (biologische) Zelle genannt wird.

Alle bekannten Lebensformen auf der Erde, die mehr als eine Zelle umfassen (wir als Exemplare der Gattung homo mit der einzigen Art homo sapiens bestehen aus ca. 10^13 vielen Zellen), gehen zu Beginn ihrer körperlichen Existenz aus genau einer Zelle hervor. Dies bedeutet, dass eine Zelle über alle notwendigen Eigenschaften verfügt, sich zu reproduzieren und das Wachstum eines biologischen Systems zu steuern.

So enthält eine Zelle (Anmerkung: Für das Folgende benutze ich B.Alberts et.al (2008)) alle Informationen, die notwendig sind, um sowohl sich selbst zu organisieren wie auch um sich zu reproduzieren. Die Zelle operiert abseits eines chemischen Gleichgewichts, was nur durch permanente Aufnahme von Energie realisiert werden kann. Obwohl die Zelle durch ihre Aktivitäten die Entropie in ihrer Umgebung ‚erhöht‘, kann sie gegenläufig durch die Aufnahme von Energie auch Entropie verringern. Um einen einheitlichen Prozessraum zu gewährleisten, besitzen Zellen eine Membran, die dafür sorgt, dass nur bestimmte Stoffe in die Zelle hinein- oder herauskommen.

Keine Definition für außerirdisches Leben

Obgleich die Identifizierung der Zelle samt ihrer Funktionsweise eine der größten Errungenschaften der modernen Wissenschaften bei der Erforschung des Phänomens des Lebens darstellt, macht uns die moderne Astrobiologie darauf aufmerksam, dass eine Definition der Lebensphänomene mit Einschränkung des Blicks auf die speziellen Bedingungen auf der Erde nicht unproblematisch ist. Wunderbare Bücher wie „Rare Earth“ von Peter Douglas Ward (Geboren 1949) und Donald Eugene Brownlee (Geboren 1943) „ASTROBIOLOGY. A Multidisciplinary Approach“ von Jonathan I.Lunine (Geb. 1959) machen zumindest sichtbar, wo die Probleme liegen könnten. Lunine diskutiert in Kap.14 seines Buches die Möglichkeit einer allgemeineren Definition von Leben explizit, stellt jedoch fest, dass es aktuell keine solche eindeutige allgemeine Definition von Leben gibt, die über die bekannten erdgebundenen Formen wesentlich hinausgeht. (Vgl. ebd. S.436)

Schrödingers Vision

Wenn man die Charakterisierungen von Leben bei Lunine (2005) in Kap.14 und bei Alberts et.al (2008) in Kap.1 liest, fällt auf, dass die Beschreibung der Grundstrukturen des Lebens trotz aller Abstraktionen tendenziell noch sehr an vielen konkreten Eigenschaften hängen.

Erwin Rudolf Josef Alexander Schrödinger (1887-1961), der 1944 sein einflussreiches Büchlein „What is Life? The Physical Aspect of the Living Cell“ veröffentlichte, kannte all die Feinheiten der modernen Molekularbiologie noch nicht . Schrödinger unterzog das Phänomen des Lebens einer intensiven Befragung aus Sicht der damaligen Physik. Auch ohne all die beeindruckenden Details der neueren Forschung wurde ihm klar, dass das hervorstechendste Merkmal des ‚Biologischen‘, des ‚Lebendigen‘ die Fähigkeit ist, angesichts der physikalisch unausweichlichen Zunahme der Entropie einen gegensätzlichen Trend zu realisieren; statt wachsender Unordnung als Entropie diagnostizierte er eine wachsende Ordnung als negative Entropie, also als etwas, was der Entropie entgegen wirkt.

Diesen Gedanken Schrödingers kann man weiter variieren und in dem Sinne vertiefen, dass der Aufbau einer Ordnung Energie benötigt, mittels der Freiheitsgrade eingeschränkt und Zustände temporär ‚gefestigt‘ werden können.

Fragt sich nur, warum?

Alberts et.al (2008) sehen das Hauptcharakteristikum einer biologischen Zelle darin, dass sie sich fortpflanzen kann, und nicht nur das, sondern dass sie sich selbstmodifizierend fortpflanzen kann. Die Realität biologischer Systeme zeigt zudem, dass es nicht nur um ‚irgendeine‘ Fortpflanzung ging, sondern um eine kontinuierlich optimierende Fortpflanzung.

Metastrukturen

Nimmt man diese Eckwerte ernst, dann liegt es nahe, biologische Zellen als Systeme zu betrachten, die einerseits mit den reagierenden Molekülen mindestens eine Objektebene [O] umfasst und in Gestalt der DNA eine Art Metaebene [M]; zwischen beiden Systemen lässt sich eine geeigneten Abbildung [R] in Gestalt von Übersetzungsprozessen realisieren, so dass die Metaebene M mittels Abbildungsvorschrift R in eine Objektebene O übersetzt werden kann (R: M \longmapsto O). Damit eine Reproduktion grundsätzlich gelingen kann, muss verlangt werden, dass das System mit seiner Struktur ‚lang genug‘ stabil ist, um solch einen Übersetzungsprozess umsetzen zu können. Wie diese Übersetzungsprozesse im einzelnen vonstatten gehen, ist letztlich unwichtig. Wenn in diesem Modell bestimmte Strukturen erstmals realisiert wurden, dann fungieren sie als eine Art ‚Gedächtnis‘: alle Strukturelemente von M repräsentieren potentielle Objektstrukturen, die jeweils den Ausgangspunkt für die nächste ‚Entwicklungsstufe‘ bilden (sofern sie nicht von der Umwelt ‚aussortiert‘ werden).

Die Rolle dieser Metastrukturen lässt sich letztlich nicht einfach mit den üblichen chemischen Reaktionsketten beschreiben; tut man es dennoch, verliert man die Besonderheit des Phänomens aus dem Blick. Eine begriffliche Strategie, um das Phänomen der ‚wirkenden Metastrukturen‘ in den Griff zu bekommen, war die Einführung des ‚Informationsbegriffs‘.

Information

Grob kann man hier mindestens die folgenden sprachlichen Verwendungsweisen des Begriffs ‚Information‘ im Kontext von Informationstheorie und Molekularbiologie unterscheiden:

  1. Unreflektiert umgangssprachlich (‚Information_0‘)
  2. Anhand des Entscheidungsaufwandes (Bit) (‚Information_1‘)
  3. Rein statistisch (a la Shannon 1948) (‚Information_2‘)
  4. Semiotisch informell (ohne die Semiotik zu zitieren) (‚Semantik_0‘)
  5. Als komplementär zur Statistik (Deacon) (‚Semantik_1‘)
  6. Als erweitertes Shannonmodell (‚Semantik_2‘)

Information_0

Die ‚unreflektiert umgangssprachliche‘ Verwendung des Begriffs ‚Information‘ (hier: ‚Information_0‘) brauchen wir hier nicht weiter zu diskutieren. Sie benutzt den Begriff Information einfach so, ohne weitere Erklärungen, Herleitungen, Begründungen. (Ein Beispiel Küppers (1986:41ff))

Information_1

Die Verwendung des Begriffs Information im Kontext eines Entscheidungsaufwandes (gemessen in ‚Bit‘), hier als ‚Information_1‘ geht auf John Wilder Tukey (1915-2000) zurück.

Information_2

Shannon (1948) übernimmt zunächst diesen Begriff Information_1, verzichtet dann aber im weiteren Verlauf auf diesen Informationsbegriff und führt dann seinen statistischen Informationsbegriff ein (hier: ‚Information_2‘), der am Entropiekonzept von Boltzmann orientiert ist. Er spricht dann zwar immer noch von ‚Information‘, bezieht sich dazu aber auf den Logarithmus der Wahrscheinlichkeit eines Ereignisses, was alles und jedes sein kann. Ein direkter Bezug zu einem ’speziellen‘ Informationsbegriff (wie z.B. Information_1) besteht nicht. Man kann die logarithmierte Wahrscheinlichkeit eines Ereignisses als ‚Information‘ bezeichnen (hier: ‚Information_2‘), aber damit wird der Informationsbegriff inflationär, dann ist alles eine Information, da jedes Ereignis mindestens eine Wahrscheinlichkeit besitzt. (Leider benutzt auch Carl Friedrich von Weizsäcker (1971:347f) diesen inflationären Begriff (plus zusätzlicher philosophischer Komplikationen)). Interessanterweise ist es gerade dieser inflationäre statistische Informationsbegriff Information_2, der eine sehr starke Resonanz gefunden hat.

Semantik 0

Nun gibt es gerade im Bereich der Molekularbiologie zahlreiche Phänomene, die bei einer Beschreibung mittels eines statistischen Informationsbegriffs wichtige Momente ihres Phänomens verlieren. (Dazu eine kleine Übersicht bei Godfrey-Smith, Kim Sterelny (2009)) Ein Hauptkritikpunkt war und ist das angebliche Fehlen von Bedeutungselementen im statistischen Modell von Shannon (1948). Man spricht auch vom Fehlen einer ‚Semantik‘. Allerdings wird eine Diskussion der möglichen Bedeutungsmomente von Kommunikationsereignissen unter Verwendung des Begriffs ‚Semantik‘ auch oft unreflektiert alltagssprachlich vorgenommen (hier: Semantik_0′), d.h. es wird plötzlich von Semantik_0 gesprochen (oft noch erweitert um ‚Pragmatik‘), ohne dass die Herkunft und Verwendung dieses Begriffs in der Wissenschaft der Semiotik weiter berücksichtigt wird. (Ein Beispiel für solch eine verwirrende Verwendungsweise findet sich z.B. wieder bei Weizsäcker (1971:350f), wo Information_0, Information_2 sowie Semantik_0 miteinander frei kombiniert werden, ohne Berücksichtigung der wichtigen Randbedingungen ihrer Verwendung; ganz ähnlich Küppers (1986:61ff); zur Semiotik siehe Noeth (2000)). Ein anderes neueres Beispiel ist Floridi (2015:Kap.3+4) Er benutzt zwar den Begriff ‚Semantik‘ extensiv, aber auch er stellt keinen Bezug zur semiotischen Herkunft her und verwendet den Begriff sehr speziell. Seine Verwendung führt nicht über den formalen Rahmen der statistischen Informationstheorie hinaus.

Semantik 1

Sehr originell ist das Vorgehen von Deacon (2007, 2008, 2010). Er diagnostiziert zwar auch einen Mangel, wenn man die statistische Informationstheorie von Shannon (1948) auf biologische Phänomene anwenden will, statt sich aber auf die schwierige Thematik einer expliziten Semantik einzulassen, versucht er über die Ähnlichkeit des Shannonschen statistischen Informationsbegriffs mit dem von Boltzmann einen Anschluss an die Thermodynamik zu konstruieren. Von dort zum Ungleichgewicht biologischer Systeme, die durch Arbeit und Energieaufnahme ihr Gleichgewicht zu halten versuchen. Diese Interaktionen des Systems mit der Umgebung modifizieren die inneren Zustände des Systems, die wiederum dann das Verhalten des Systems ‚umweltgerecht‘ steuern. Allerdings belässt es Deacon bei diesen allgemeinen Annahmen. Die ‚Abwesenheit‘ der Bedeutung im Modell von Shannon wird über diese frei assoziierten Kontexte – so vermutet man als Leser – mit den postulierten internen Modifikationen des interagierenden Systems begrifflich zusammengeführt. Wie dies genau gedacht werden kann, bleibt offen.

Semantik 2

So anregend die Überlegungen von Deacon auch sind, sie lassen letztlich offen, wie man denn – auch unter Berücksichtigung des Modells von Shannon – ein quasi erweitertes Shannonmodell konstruieren kann, in dem Bedeutung eine Rolle spielt. Hier eine kurze Skizze für solch ein Modell.

Ausgehend von Shannons Modell in 1948 besteht die Welt aus Sendern S, Empfängern D, und Informationskanälen C, über die Sender und Empfänger Signale S eingebettet in ein Rauschen N austauschen können (<S,D,S,N,C> mit C: S —> S x N).

Ein Empfänger-Sender hat die Struktur, dass Signale S in interne Nachrichten M dekodiert werden können mittels R: S x N —> M. Umgekehrt können auch Nachrichten M in Signale kodiert werden mit T: M —> S. Ein minimaler Shannon Sender-Empfänger hat dann die Struktur <M, R, T>. So gesehen funktionieren R und T jeweils als ‚Schnittstellen‘ zwischen dem ‚Äußeren‘ und dem ‚Inneren‘ des Systems.

In diesem minimalen Shannonmodell kommen keine Bedeutungen vor. Man kann allerdings annehmen, dass die Menge M der Nachrichten eine strukturierte Menge ist, deren Elemente Paare der Art (m_i,p_i) in M mit ‚m_i‘ als Nachrichtenelement und ‚p_i‘ als Wahrscheinlichkeit, wie oft dieses Nachrichtenelement im Kanal auftritt. Dann könnte man Shannons Forml H=-Sum(p_i * log2(p_i)) als Teil des Systems auffassen. Das minimale Modell wäre dann <M, R, T, H>.

Will man ‚Bedeutungen‘ in das System einführen, dann muss man nach der Semiotik einen Zeichenbegriff für das System definieren, der es erlaubt, eine Beziehung (Abbildung) zwischen einem ‚Zeichenmaterial‚ und einem ‚Bedeutungsmaterial‚ zu konstruieren. Nimmt man die Signale S von Shannon als Kandidaten für ein Zeichenmaterial, fragt sich, wie man das Bedeutungsmaterial B ins Spiel bringt.

Klar ist nur, dass ein Zeichenmaterial erst dann zu einem ‚Zeichen‘ wird, wenn der Zeichenbenutzer in der Lage ist, dem Zeichenmaterial eine Bedeutung B zuzuordnen. Eine einfache Annahme wäre, zu sagen, die dekodierten Nachrichten M bilden das erkannte Zeichenmaterial und der Empfänger kann dieses Material irgendwelchen Bedeutungen B zuordnen, indem er das Zeichenmaterial M ‚interpretiert‚, also I : M —> B. Damit würde sich die Struktur erweitern zu <B, M, R, T, H, I>. Damit nicht nur ein Empfänger ‚verstehen‘ kann, sondern auch ‚mitteilen‘, müsste der Empfänger als Sender Bedeutungen auch wieder ‚umgekehrt lesen‘ können, also -I: B —> M. Diese Nachrichten könnten dann wieder mittels T in Signale übersetzt werden, der Kanal sendet diese Signale S angereichert mit Rauschen N zum Empfänger, usw. Wir erhalten also ein minimal erweitertes Shannon Modell mit Bedeutung als <B, M, R, T, H, I, -I>. Ein Sender-Empfänger kann also weiterhin die Wahrscheinlichkeitsstruktur seiner Nachrichten auswerten; zusätzlich aber auch mögliche Bedeutungsanteile.

Bliebe als Restfrage, wie die Bedeutungen B in das System hineinkommen bzw. wie die Interpretationsfunktion I entsteht?

An dieser Stelle kann man die Spekulationen von Deacon aufgreifen und als Arbeitshypothese annehmen, dass sich die Bedeutungen B samt der Interpretationsbeziehung I (und -I) in einem Adaptionsprozess (Lernprozess) in Interaktion mit der Umgebung entwickeln. Dies soll an anderer Stelle beschrieben werden.

Für eine komplette Beschreibung biologischer Phänomene benötigt man aber noch weitere Annahmen zur Ontogense und zur Phylogense. Diese seien hier noch kurz skizziert. (Eine ausführliche formale Darstellung wird anderswo nachgeliefert).

Ontogenese

Von der Lernfähigkeit eines biologischen Systems muss man die Ontogenese unterscheiden, jenen Prozess, der von der Keimzelle bis zum ausgewachsenen System führt.

Die Umsetzung der Ontogenese in einem formalen Modell besteht darin, einen Konstruktionsprozess zu definieren, das aus einem Anfangselement Zmin das endgültige System Sys in SYS erstellen würde. Das Anfangselement wäre ein minimales Element Zmin analog einer befruchteten Zelle, das alle Informationen enthalten würde, die notwendig wären, um diese Konstruktion durchführen zu können, also Ontogenese: Zmin x X —> SYS. Das ‚X‘ stünde für alle die Elemente, die im Rahmen einer Ontogenese aus der Umgebung ENV übernommen werden müssten, um das endgültige system SYS = <B, M, R, T, H, I, -I> zu konstruieren.

Phylogenese

Für die Reproduktion der Systeme im Laufe der Zeiten benötigte man eine Population von Systemen SYS, von denen jedes System Sys in SYS mindestens ein minimales Anfangselement Zmin besitzt, das für eine Ontogenese zur Verfügung gestellt werden kann. Bevor die Ontogenese beginnen würde, würden zwei minimale Anfangselemente Zmin1 und Zmin2 im Bereich ihrer Bauanleitungen ‚gemischt‘. Man müsste also annehmen, dass das minimale System um das Element Zmin erweitert würde SYS = <B, M, Zmin, R, T, H, I, -I>.

Erstes Zwischenergebnis

Auffällig ist also, dass das Phänomen des Lebens

  1. trotz Entropie über dynamische Ungleichgewichte immer komplexere Strukturen aufbauen kann.
  2. innerhalb seiner Strukturen immer komplexere Informations- und Bedeutungsstrukturen aufbaut und nutzt.

So wie man bislang z.B. die ‚Gravitation‘ anhand ihrer Wirkungen erfasst und bis heute erfolglos zu erklären versucht, so erfassen wir als Lebende das Leben anhand seiner Wirkungen und versuchen bis heute auch erfolglos, zu verstehen, was hier eigentlich passiert. Kein einziges physikalisches Gesetzt bietet auch nur den leisesten Anhaltspunkt für dieses atemberaubende Geschehen.

In dieser Situation den Menschen als eine ‚vermutlich aussterbende Art‘ zu bezeichnen ist dann nicht einfach nur ‚gedankenlos‘, sondern im höchsten Maße unwissenschaftlich, da es letztlich einer Denkverweigerung nahe kommt. Eine Wissenschaft, die sich weigert, über die Phänomene der Natur nachzudenken, ist keine Wissenschaft.

Fortsetzung Folgt.

QUELLEN

  1. H.J. Sandkühler (Hg.), 2010, „Enzyklopädie Philosophie“, Hamburg: Felix Meiner Verlag, Band 1: Von A bis H, Kapitel: Geist, SS.792ff
  2. B.Alberts et.al (Hg.), 2008, „Molecular Biology of the CELL“, Kap.1, 5.Aufl., New York: Garland Science, Taylor & Francis Group
  3. Peter Douglas Ward und `Donald Eugene Brownlee (2000),“Rare Earth: Why Complex Life Is Uncommon in the Universe“, New York: Copernikus/ Springer,
  4. Jonathan I.Lunine (2005), „ASTROBIOLOGY. A Multidisciplinary Approach“, San Francisco – Boston – New York et al.: Pearson-Addison Wesley
  5. Zu Schroedinger 1944: Based on Lectures delivered under the auspices of the Institute at Trinity College, Dublin, in February 1943, Cambridge: University Press. 1944. Ich selbst habe die Canto Taschenbuchausgabe der Cambridge University von 1992 benutzt. Diese Ausgabe enthält ‚What is Life?‘, ‚Mind from Matter‘, sowie autobiographischen Angaben und ein Vorwort von Roger Penrose
  6. Anmerkung zu Schroedinger 1944: Sowohl James D. Watson (2003) wie auch ähnlich Francis Crick (1990) berichten, dass Schrödingers Schrift (bzw. einer seiner Vorträge) sie für ihre Erforschung der DNA stark angeregt hatte.
  7. James D.Watson und A.Berry(2003), „DNA, the Secret of Life“, New York: Random House
  8. Francis Crick (1990),„What Mad Pursuit: A Personal View of Scientific Discovery“, Reprint, Basic Books
  9. Peter Godfrey-Smith und Kim Sterelny (2009) Biological Information“, in: Stanford Enyclopedia of Philosophy
  10. Carl Friedrich von Weizsäcker (1971), „Die Einheit der Natur“, München: Carl Hanser Verlag
  11. Bernd-Olaf Küppers (1986), „Der Ursprung biologischer Information. Zur Naturphilosophie der Lebensentstehung“, München – Zürich: Piper Verlag.
  12. Claude E. Shannon, A mathematical theory of communication. Bell System Tech. J., 27:379-423, 623-656, July, Oct. 1948
  13. Claude E. Shannon; Warren Weaver (1949) „The mathematical theory of communication“. Urbana – Chicgo: University of Illinois Press.
  14. Noeth, W., Handbuch der Semiotik, 2. vollst. neu bearb. und erw. Aufl. mit 89 Abb. Stuttgart/Weimar: J.B. Metzler, xii + 668pp, 2000
  15. Luciano Floridi (2015) Semantic Conceptions of Information, in: Stanford Enyclopedia of Philosophy
  16. Deacon, T. (2007), Shannon-Boltzmann-Darwin: Redfining information. Part 1. in: Cognitive Semiotics, 1: 123-148
  17. Deacon, T. (2008), Shannon-Boltzmann-Darwin: Redfining information. Part 2. in: Cognitive Semiotics, 2: 167-194
  18. Terrence W.Deacon (2010), „What is missing from theories of information“, in: INFORMATION AND THE NATURE OF REALITY. From Physics to Metaphysics“, ed. By Paul Davies & Niels Henrik Gregersen, Cambridge (UK) et al: Cambridge University Press, pp.146 – 169

Einen Überblick über alle Blogbeiträge des Autors cagent nach Titeln findet sich HIER.

MEMO PHILOSOPHIE-WERKSTATT 14.Juni 2015 in der DENKBAR FRANKFURT

KONTEXT

Die Philosophiewerkstatt am 14.Juni 2015 – begleitet von einem wunderbaren Sommerwetter und eingebettet in kulinarische Produktionen von Reinhard Graef – folgte dem Programmentwurf der Einladung vom 8.Juni 2015.

Thematischer Ausgangspunkt für den 14.Juni war die Philosophiewerkstatt vom 10.Mai 2015 gewesen. In dieser hatte es unter dem Titel „ENTSCHEIDEN IN EINER MULTIKAUSALEN WELT?“ ein gemeinsames Gespräch gegeben, das sehr viele Zusammenhänge zutage gefördert hatte. Die Rolle der Politik blieb aber relativ unbestimmt; verkürzt: eine Art Lobbyistenverein, der sich nur noch bei den Wahlen um Wähler kümmert.

KURZEINFÜHRUNG

Dies animierte Reinhard Graef – ein ausgebildeter Ökonom (mit starkem Soziologieanteil) – zu einem Input für das Treffen am 14.Juni 2015: Ausgehend von dem Buch ‚Postdemokratie‘ (DE: 2008, EN: 2004) des Politikwissenschaftlers Colin Crouch fasste er die wichtigsten Thesen von Crouch zusammen und ermöglichte uns allen einen neuen Einstieg in das Thema (siehe Bild).

Memo Philosophiewerkstatt vom 14.Juni 2015 - Colin Crouch referiert von Graef - Gruppengespräch

Memo Philosophiewerkstatt vom 14.Juni 2015 – Colin Crouch referiert von Graef – Gruppengespräch

Crouch – in der Sicht von Reinhard Graef – spannt in seinen Thesen die drei Pole auf: (i) die Bevölkerung (als apathische Masse), (ii) die Wirtschaft (heute globalisiert und anonymisiert), und (iii) die Politik (von wirtschaftlichen Interessen dominiert, Demokratie nur noch als vom Marketing gesteuerte Wahlen). Dieses Bild wurde anhand von weiteren Thesen differenziert, gelegentlich auch ergänzt um Parallelen zwischen England und der Deutschen Politik.

Zwar als Monster hingestellt beeindruckten Personen wie Hitler, Mussolini und Stalin die westlichen Politiker (und Firmenchefs) doch darin, wie man ‚die Massen‘ für etwas begeistern kann. Die Steuerung der Medien und die Verflachung der Inhalte sind mittlerweile ‚Standard‘ auch in westlichen Demokratien. Der westlich-demokratische Politikbetrieb (speziell in den USA) tendiert immer mehr zu einer Propagandaschlacht, in der Marketingspezialisten den obersten Ton angeben. Differenzierte politische Diskurse sind ‚unpassend‘.

Dieser marketingorientierte Politikbetrieb beherrscht mittlerweile auch immer mehr den Alltag. Pressekonferenzen leben vom Verschweigen, Abwiegeln, Verweigern, Dementis, Floskeln. Hier manifestiert sich eine Verachtung des Wählerwillens und zugleich ein Verbergen von politischer Unfähigkeit hinter Floskeln.

Durch die zunehmende Globalisierung der Wirtschaft entziehen sich die großen Firmen einerseits dem Einfluss nationaler Politik, zugleich versuchen sie aber die nationalen Infrastrukturen (Verkehr, Recht, Arbeitskräfte, …) für ihre Marktaktivitäten zu nutzen bei minimalen Steuern. In den letzten Jahren versucht die Politik durch eine vermehrte internationale Kooperation den globalen Ausbeutungen nationaler Ressourcen entgegen zu steuern, aber durch die starken Bindungen einzelner Politiker an große Konzerne fehlt diesen Maßnahmen bislang der richtige ‚Biss‘.

Colin Crouch sieht die Bevölkerung als apathische Masse, die das alles mit sich geschehen lässt. Andererseits deutet sich an, dass mit einem wachsenden Bildungs- und Aufklärungsniveau die Wahrnehmung geschärft werden kann und dass sich partielle Widerstände ausbilden, die sich dann doch über die Wahlen direkt auf die Politik auswirken können.

GESPRÄCH

Im Gespräch wurden alle diese Punkte aufgegriffen und vertieft. Das Gespräch nahm dann aber seine ganz eigene Richtung.

BEVÖLKERUNG

Das Gespräch hakte bei der Bevölkerung ein. Was ist mit dieser apathischen Masse? Haben wir apathische Jugendliche mit einer Sinnkrise? Sind die sozialen Stellungen tatsächlich mittlerweile eher fest, weniger durchlässig? Wachsende Ungleichheit, speziell beim Vermögen ist aktenkundig. Was macht dies mit der Gesellschaft? Haben wir eine ‚Kultur der Abrichtung‘, die im Kindergarten beginnt, sich in der Schule fortpflanzt und bei den Studenten nur noch willenlos-apathische Mehrheiten hinterlässt?

Ein Vertreter der jüngeren Generation (Student) widersprach diesem Bild. Die Jugendlichen sind nicht grundsätzlich apathisch, aber ihnen fehlen kritische Leitbilder, an denen sie ihr Verhalten ausrichten können. Er kritisierte seine Eltern, dass sie ihn eigentlich nicht zu einer Haltung des kritischen Hinterfragens erzogen haben.

Dies führte zu der Arbeitshypothese, dass die Menschen (Kinder, Jugendliche, Erwachsene) heute nicht schlechter sind als zu früheren Zeiten, dass aber die allgemeine Bildung und Ausbildung zu wenig Anreize liefert, sich kritisch und kreativ mit der Gesellschaft, der Politik und der Wirtschaft aktiv auseinander zu setzen.

FAKTOREN

Dies kann viele Gründe haben. Einmal natürlich die Arbeitswelt selbst, die durch ihre Anforderungen wenig Zeit und wenig Kraft übrig lässt, sich daneben noch aktiv mit Fragen des Lebens zu beschäftigen. Zum anderen die Medienwelt, die kritische Informationen, gedankliche anfordernde Inhalte eher meiden (Einschaltquoten).[Anmerkung: bei dem zweitgrößten Radiosender Europas darf keine Sekunde gesendet werden, die nach dem empirisch ermittelten Bild der Hörer des Senders den Eindruck erwecken könnten, das Wohlbefinden des Hörers zu stören. Es werden Millionen Euros nur dafür ausgegeben, zu wissen, wie der Hörer fühlt, denkt, und handelt]. Die Frage der ‚Wahrheit‘ der Quellen stellt sich: Wem kann man noch vertrauen? Ferner die gesamte Kultur samt ihren Bildungseinrichtungen, die eher zur ‚Anpassung‘ erzieht, zum ‚Wohlverhalten‘, zum ‚Nichtfragen‘ (‚Kultur der Abrichtung‘) als zum kritischen Hinterfragen, zum Widerstand, zur jugendlichen Revolte, um sich im Gegensatz neu finden zu können. Schließlich die Politik, die sich über Wählermüdigkeit beklagt, aber selbst ein massive Politikverweigerung täglich demonstriert: Wähler nicht ernst nehmen, statt fachlich-kundige Expertise Schlagworte, Floskeln, Pressekonferenzen als Aussageverweigerung, extremer Lobbyismus ohne offizielle Transparenz, usw.

ALTERNATIVE DURCH AUFKLÄRUNG

Vor diesem Hintergrund stellte sich die Frage nach einer Alternative zu einer ‚Kultur der Abrichtung‘.

Das Wort ‚Aufklärung‘ kam ins Spiel, eine Kultur der Aufklärung. Hier stellten sich viele Fragen: Woher soll die Zeit kommen, die man braucht, sich kritisch verhalten zu können? Das Effizienz- und Leistungsdenken steht dem bislang diametral entgegen. Und wenn aufklärendes Wissen und Handeln zu einer Veränderung führen könnte, wie viel Zeit muss man realistisch veranschlagen, bis Veränderungen greifen? Wichtige Prozesse brauchen Jahre, Jahrzehnte oder gar Jahrhunderte. Wer hat soviel Geduld?

Zu Aufklärung gehören auch Fragen wie die nach dem ‚richtigen Wissen‘, nach den ‚angemessenen Werten‘. Woher soll das kommen? Wer kann es wissen? Muss man sich dazu nicht mit anderen zusammen tun? Woher weiß eine Gruppe, ob sie nicht als Gruppe irrt? In der Geschichte gibt es genügend Beispiele, dass Gruppen sich in eine Idee verrannt hatten und dann scheiterten? Andererseits, wenn etwas wirklich ’neu‘ und ‚innovativ‘ ist, dann ist es fremd, unbekannt, erzeugt Irritation und Ängste, fördert Ablehnung. Kritisch-innovativ sein heißt dann nicht, dass man unbedingt ‚gesellschaftlich erfolgreich‘ ist. Kann oder muss man diese Ablehnung trainieren? Muss man das ‚Anderssein‘ üben? Einige berichteten, dass sie tatsächlich so etwas wie einen gesellschaftlichen Erwartungsdruck spüren, dass man bestimmte Dinge so und so tut. Sich anders ernähren, sich anders bewegen, sich anders kleiden usw. geht nicht ohne eine gewisse Anstrengung und Überwindung. Zusätzlich stellt man fest, dass man zwar A als eigentlich besser erkannt hat, dass man persönlich aber noch an Nicht-A hängt (Bedürfnisse, Gewohnheiten, Leidenschaften, Ängste, …). Dies verhindert eine Änderung.

In diesem Zusammenhang kam auch der Hinweis auf das hohe Potential an Selbsttäuschung, das jeder in sich trägt. Das ‚bewusste Wissen‘ ist ja nur ein winziger Ausschnitt aus dem riesigen Raum des ‚Nicht-Bewussten‘, der angefüllt ist mit einem komplexen Netzwerk an Bedürfnissen, Emotionen, Gefühlen, Ängsten und komplexen Denkprozessen. Wenn man nicht lernt, diese nicht-bewussten Anteile ein wenig einzuschätzen, dann meint man zwar, A zu tun wegen B, aber im nicht-bewussten Teil von einem selbst tut man A wegen C. Und dann wundert man sich, warum die Dinge dann anders laufen, als man wollte oder warum man auf Dauer krank wird.

Schließlich ist auch noch zu erwähnen, dass die besten Ideen nichts nützen, wenn man etwas plant und einfach nicht über die notwendigen Voraussetzungen verfügt. Ein Schuss Realismus bei der Übernahme von Aufgaben – speziell bei der Einschätzung der notwendigen Zeit – ist wichtig.

FORTSETZUNG DER PHILOSOPHIEWERKSTATT IN DER DENKBAR?

Wie beim letzten Treffen angekündigt, sollte bei dem letzten Treffen vor der Sommerpause auch darüber gesprochen werden, ob man das Experiment Philosophiewerkstatt in der DENKBAR fortsetzen soll oder nicht. Falls Ja, wie weiter?

Es gab ein überraschend einhelliges sehr klares Votum aller TeilnehmerInnen, dass diese Form des gemeinsamen Sprechens und Einsichten Findens von allen als sehr positiv, hilfreich, anregend usw. erlebt wird. Alle votierten für eine Fortsetzung im Herbst, wieder jeder 2.Sonntag im Monat, 16:00h, Start So 11.Oktober 2015. Ergänzung oder Verzahnung mit anderen Veranstaltungen ist möglich. Allerdings wurde von allen auch betont, dass diese Gesprächsform keine zu großen Teilnehmerzahlen verträgt.

BUCH ZUM BLOG cognitiveagent.org

Gerd Doeben-Henisch wies daruf hin, dass er bis Ende August versucht, auf 100 Seiten die ca. 1500 Seiten seines Blogs ‚lesbar‘ zusammen zu fassen. Eine Veröffentlichung ist für November 2015 geplant. Bis dahin gibt es einen Vorabdruck für jedes Kapitel im Blog selbst.

FREIHEIT DIE ICH MEINE – ÜBERLEGUNGEN ZU EINER PARTEIINTERNEN DISKUSSION DER GRÜNEN

1. Bevor ich gleich ein wenig auf die wichtigsten Beiträge der Mitgliederzeitschrift ‚Schrägstrich‘ (Ausgabe Juli 2014) der Grünen eingehe, hier einige Vorüberlegungen zu den gedanklichen Koordinaten, innerhalb deren ich diese Beiträge rezipiere. Im wesentlichen handelt es sich bei diesen gedanklichen Koordinaten um jene, die ich hier im Blog bislang ansatzweise skizziert habe. Hier in einer komprimierten Form wichtige Elemente, die dann im weiteren Verlauf nach Bedarf präzisiert werden:

Aus Sicht des einzelnen: Woher? Was tun? Wohin?

Aus Sicht des einzelnen: Woher? Was tun? Wohin?

2. Ausgangspunkt des Koordinatensystem ist jeder einzelne von uns, der sich täglich konkret die Frage stellen muss, was an diesem Tag zu tun ist. Die Frage, woher man selbst kommt spielt bei den meisten in der Regel keine Rolle, höchstens soweit, dass aus der unmittelbaren Vergangenheit irgendwelche ‚Verpflichtungen‘ erwachsen sind, die in die Gegenwart hineinwirken (negatives oder positives Vermögen, erlernte Fähigkeiten, erworbenes Wissen, gewachsene Beziehungen, …). Wohin wir gehen wollen ist bei den meisten auch nur schwach ausgeprägt (Die Alltagsnotwendigkeiten stehen im Vordergrund: seine Verpflichtungen erfüllen, die Arbeitsanforderungen, den Unterhalt für das tägliche Leben, persönliche und soziale Erwartungen durch Beziehungen und Zugehörigkeiten, ein Ausbildungsziel erreichen, eine höhere Position in der Karriereleiter, …..). Übergreifende Ziele wie Erhaltung bestimmter Systeme (Ausbildung, Gesundheit, Infrastrukturen, …) sind meistens ‚delegiert‘ an Institutionen, die dafür ‚zuständig‘ sind, auf die man nur sehr begrenzt Einfluss nehmen kann. Dennoch gibt es nicht wenige, die sich in Vereinigungen engagieren, die spezifische soziale Räume aufspannen (Sport, Kleingärtner, Chöre, Parteien, Gewerkschaften, …), in denen sie ihr individuelles Handeln mit anderen verbünden.

Jeder nur als Teil einer Population in einem physikalischen Rahmen mit chemischer, biologischer und kultureller Evolution. Erfolg ist kurzfristig oder nachhaltig

Jeder nur als Teil einer Population in einem physikalischen Rahmen mit chemischer, biologischer und kultureller Evolution. Erfolg ist kurzfristig oder nachhaltig

3. Beginnt man seine eigene Situation zu analysieren, dann wird man nicht umhin kommen, festzustellen, dass man als einzelner als Mitglied einer größeren Population von Menschen vorkommt, die über unterschiedlichste Kommunikationsereignisse miteinander koordiniert sind. Das tägliche Leben erweist sich als eingebettet in einen gigantischen realen Raum, von dem man unter normalen Umständen nur einen winzigen Ausschnitt wahrnimmt. Schaut man genauer hin, dann sind wir das Produkt einer komplexen Geschichte von Werden im Laufe von vielen Milliarden Jahren. Eingeleitet durch die chemische Evolution kam es vor ca. 3.8 Milliarden Jahren zur biologischen Evolution, die dann vor – schwierig zu definieren, wann Kultur und Technik genau anfing – sagen wir ca. 160.000 Jahren mit einer kulturellen Evolution erweitert wurde. Technik sehe ich hier als Teil der kulturellen Leistungen. Eine Erfolgskategorie ist die des schieren Überlebens. Innerhalb dieser Kategorie macht es einen Unterschied wie ‚lange‘ eine Population überhaupt lebt (‚kurz‘ oder ‚lang‘). Die Frage ist nur, welche ‚Zeiteiheiten‘ man hier anlegen will, um ‚kurz‘ oder ‚lang‘ zu definieren. Aus der Perspektive eines einzelnen Menschen können ‚Jahre‘ schon sehr lang sein und ‚Jahrzehnte‘ können wie eine Ewigkeit wirken. Aus Sicht einer ‚Generation‘ sind 30 Jahre ’normal‘, 10 Generationen (also ca. 300 Jahre) sind eine Zeiteinheit, die für einzelne schon unvorstellbar sein mögen, die aber gemessen an dem Alter so mancher Arten von Lebewesen mit vielen Millionen oder gar hunderten von Millionen Jahren (die Dinosaurier beherrschten das Ökosystem von -235 bis -65 Mio, also 170 Mio Jahre lang!) nahezu nichts sind.

4. Das komplexeste bis heute bekannte Lebewesen, der homo sapiens, jene Art, zu der wir gehören, ist bislang ca. 160.000 Jahre alt (natürlich mit langer Vorgeschichte). Biologisch betrachtet ist diese Zeitspanne nahezu ein ‚Nichts‘. Insofern sollte man nicht zu früh sagen ‚Wer‘ bzw. ‚Was‘ der ‚Mensch‘ als ‚homo sapiens‘ ist. Wir leben in einem Wimpernschlag der Geschichte und wenn wir sehen, welche Veränderungen die Art homo sapiens in kürzester Zeit über die Erde gebracht hat, dann sollten wir genügend biologische Fantasie entwickeln, um uns klar zu machen, dass wir eher ganz am Anfang einer Entwicklung stehen und nicht an deren Ende.

Mensch als Teil des Biologischen hat Technik als Teil von Kultur hervorgebracht: Generisch oder arbiträr. Technik ist effizient oder nicht

Mensch als Teil des Biologischen hat Technik als Teil von Kultur hervorgebracht: Generisch oder arbiträr. Technik ist effizient oder nicht

5. Der homo sapiens ist ganz wesentlich Teil eines größeren komplexen biologischen Systems von unfassbarer ‚Tiefe‘, wo alles ineinander greift, und wo der homo sapiens aufgrund seiner Leistungsfähigkeit aktuell dabei zu sein scheint, trotz seiner kognitiven Möglichkeiten seine eigenen biologischen Voraussetzungen zu zerstören, ohne die er eigentlich nicht leben kann (Umweltverschmutzung, Ausrottung vieler wichtiger Arten, Vernichtung der genetischen Vielfalt, …).

6. Die erst langsame, dann immer schneller werdende Entwicklung von leistungsfähigen und immer ‚effizienteren‘ Technologien eingebettet in einen ‚kulturellen Raum‘ von Zeichen, Formen, Interpretationen, Normen, Regelsystemen und vielerlei Artefakten zeigt eine immense Vielfalt z.T. ‚arbiträrer‘ Setzungen, aber auch einen harten Kern von ‚generischen‘ Strukturen. ‚Generisch‘ wäre hier die Ausbildung von gesprochenen und geschriebenen Sprachen; ‚arbiträr‘ wäre die konkrete Ausgestaltung solcher Sprachen: welche Zeichensysteme, welche Laute, welche Anordnung von Lauten oder Zeichen, usw. So sind ‚Deutsch‘, ‚Arabisch‘, ‚Russisch‘ und ‚Chinesisch‘ alles Sprachen, mithilfe deren sich Menschen über die Welt verständigen können, ihre gesprochene und geschriebene Formen weichen aber extrem voneinander ab, ihre Akzent- und Intonationsstrukturen, die Art und Weise, wie die Zeichen zu Worten, Sätzen und größeren sprachlichen Strukturen verbunden werden, sind so verschieden, dass der Sprecher der einen Sprache in keiner Weise in der Lage ist, ohne größere Lernprozesse die andere Sprache zu verstehen.

7. Bei der Entwicklung der Technologie kann man die Frage stellen, ob eine Technologie ‚effizienter‘ ist als eine andere. Nimmt man den ‚Output‘ einer Technologie als Bezugspunkt, dann kann man verschiedene Entwürfe dahingehend vergleichen, dass man z.B. fragt, wie viele Materialien (erneuerbar, nicht erneuerbar) sie benötigt haben, wie viel Energie und Arbeitsaufwand in welcher Zeit notwendig war, und ob und in welchem Umfang die Umwelt belastet worden ist. Im Bereich der Transporttechnologie wäre der Output z.B. die Menge an Personen oder Gütern, die in einer bestimmten Zeit von A nach B gebracht würden. Bei der Technologie Dampfeisenbahn mussten Locks und Wagen hergestellt werden, Gleise mussten hergestellt und verlegt werden; dazu mussten zuvor geeignete Trassen angelegt werden; ein System von Signalen und Überfahrtregelungen muss für den reibungslosen Ablauf sorgen; dazu benötigt man geeignet ausgebildetes Personal; zum Betrieb der Locks benötigte man geeignete Brennstoffe und Wasser; die Züge selbst erzeugten deutliche Emissionen in die Luft (auch Lärm); durch den Betrieb wurden die Locks, die Wagen und die Schienen abgenutzt. usw.

8. Ein anderes Beispiel wäre die ‚Technologie des Zusammenwohnens auf engem Raum‘, immer mehr Menschen können heute auf immer kleineren Räumen nicht nur ‚überleben‘, sondern sogar mit einem gewissen ‚Lebensstandard‘ ‚leben‘. Das ist auch eine Effizienzsteigerung, die voraussetzt, dass die Menschen immer komplexere Systeme der Koordinierung und Interaktion beherrschen können.

Das Herz jeder Demokratie ist eine funktionierende Öfentlichkeit. Darüber leitet sich die Legislative ab, von da aus die Exekutive und die Judikative. Alles muss sich hier einfügen.

Das Herz jeder Demokratie ist eine funktionierende Öfentlichkeit. Darüber leitet sich die Legislative ab, von da aus die Exekutive und die Judikative. Alles muss sich hier einfügen.

9. Im Rahmen der kulturellen Entwicklung kam es seit ca. 250 Jahren vermehrt zur Entstehung von sogenannten ‚demokratischen‘ Staatsformen (siehe auch die z.T. abweichenden Formulierungen der englischen Wikipedia zu Democracy). Wenngleich es nicht ‚die‘ Norm für Demokratie gibt, so gehört es doch zum Grundbestand, dass es als primäre Voraussetzung eine garantierte ‚Öffentlichkeit‘ gibt, in der Meinungen frei ausgetauscht und gebildet werden können. Dazu regelmäßige freie und allgemeine Wahlen für eine ‚Legislative‘ [L], die über alle geltenden Rechte abstimmt. Die Ausführung wird normalerweise an eine ‚Exekutive‘ [E] übertragen, und die Überwachung der Einhaltung der Regeln obliegt der ‚Judikative‘ [J]. Die Exekutive gewinnt in den letzten Jahrzehnten immer mehr Gewicht im Umfang der Einrichtungen/ Behörden/ Institutionen und Firmen, die im Auftrag der Exekutive Aufgaben ausführen. Besonderes kritisch waren und sind immer Sicherheitsbehörden [SICH] und das Militär [MIL]. Es bleibt eine beständige Herausforderung, das Handeln der jeweiligen Exekutive parlamentarisch hinreichend zu kontrollieren.

Oberstes Ziel ist es, eine Demokratie zu schüzen; was aber, wenn die Sicherheit zum Selbstzweck wird und die Demokratie im Innern zerstört?

Oberstes Ziel ist es, eine Demokratie zu schüzen; was aber, wenn die Sicherheit zum Selbstzweck wird und die Demokratie im Innern zerstört?

10. Wie es in vielen vorausgehenden Blogeinträgen angesprochen worden ist, erweckt das Beispiel USA den Eindruck, dass dort die parlamentarische Kontrolle der Exekutive weitgehend außer Kraft gesetzt erscheint. Spätestens seit 9/11 2001 hat sich die Exekutive durch Gesetzesänderungen und Verordnungen weitgehend von jeglicher Kontrolle unabhängig gemacht und benutzt das Schlagwort von der ’nationalen Sicherheit‘ überall, um sowohl ihr Verhalten zu rechtfertigen wie auch die Abschottung des Regierungshandelns durch das Mittel der auswuchernden ‚Geheimhaltung‘. Es entsteht dadurch der Eindruck, dass die Erhaltung der nationalen Sicherheit, die als solche ja etwas Positives ist, mittlerweile dazu missbraucht wird, das eigene Volk mehr und mehr vollständig zu überwachen, zu kontrollieren und die Vorgänge in der Gesellschaft nach eigenen machtinternen Interessen (auf undemokratische Weise) zu manipulieren. Geheimdienstaktionen gegen normale Bürger, sogar gegen Mitglieder der Legislative, sind mittlerweile möglich und kommen vor. Der oberste Wert in einer Demokratie kann niemals die ‚Sicherheit‘ als solche sein, sondern immer nur die parlamentarische Selbstkontrolle, die in einer funktionierenden Öffentlichkeit verankert ist.

GRÜNES GRUNDSATZPROGRAM VON 2002

11. Bei der Frage nach der genaueren Bestimmung des Freiheitsbegriffs verweist Bütikofer auf SS.7ff auf das Grüne Grundsatzprogramm von 2002, das in 3-jähriger Arbeit alle wichtigen Gremien durchlaufen hatte, über 1000 Änderungsanträge verarbeitet hat und einer ganzen Vielzahl von Strömungen Gehör geschenkt hat. Schon die Präambel verrät dem Leser, welch großes Spektrum an Gesichtspunkten und Werteinstellungen Berücksichtigung gefunden haben.

12. Im Mittelpunkt steht die Würde des Menschen, der sehr wohl auch als Teil einer umfassenderen Natur mit der daraus resultierenden Verantwortung gesehen wird; der Aspekt der Nachhaltigkeit allen Handelns wird gesehen. Grundwerte und Menschenrechte sollen Orientierungspunkte für eine demokratische Gesellschaft bilden, in der das Soziale neben dem Ökonomischen gleichberechtigt sein soll. Diese ungeheure Spannweite des Lebens impliziert ein Minimum an Liberalität, um der hier waltenden Vielfalt gerecht zu werden.

13. Die Freiheit des einzelnen soll einerseits so umfassend wie möglich unterstützt werden, indem die gesellschaftlichen Verhältnisse immer ein Maximum an Wahlmöglichkeiten bereit halten sollten, zugleich muss die Freiheit aber auch mit hinreichend viel Verantwortung gepaart sein, um die jeweiligen aktuellen Situationen so zu gestalten, dass Lebensqualität und Nachhaltigkeit sich steigern.

ENGAGIERTE POLITIK vs. LIBERALISMUS UND FREIHEIT?

14. Reinhard Loske wirft auf SS.10ff die Frage auf, ob und wie sich eine ökologisch verpflichtete Politik mit ‚Liberalismus‘ vereinbaren könnte. Natürlich wäre ein unbeschränkter ‚wertfreier‘ Liberalismus ungeeignet, da sich dann keinerlei Art von Verantwortung und einer daraus resultierenden nachhaltigen Gestaltung ableiten ließe. Doch muss man dem Begriff des Liberalismus historisch gerecht werden – was Loske im Beitrag nicht unbedingt tut – , denn in historischer Perspektive war ein liberales Denken gerade nicht wertfrei, sondern explizit orientiert am Wert des Individuums, der persönlichen Würde und Freiheit, das es gegenüber überbordenden staatlichen Ansprüchen zu schützen galt, wie auch übertragen auf das wirtschaftliche Handeln, das hinreichend stark zu schützen sei gegenüber ebenfalls überbordenden staatlichem Eingriffshandeln das tendenziell immer dazu neigt, unnötig viel zu reglementieren, zu kontrollieren, ineffizient zu sein, Verantwortung zu nivellieren, usw.

15. Zugleich ist bekannt, dass wirtschaftliches Verhalten ohne jegliche gesellschaftliche Bindung dazu tendiert, die Kapitaleigner zu bevorteilen und die abhängig Beschäftigten wie auch die umgebende Gesellschaft auszubeuten (man denke nur an das Steuerverhalten von Konzernen wie z.B. google, amazon und Ikea).

16. Es muss also in der Praxis ein ‚Gleichgewicht‘ gefunden werden zwischen maximaler (wertgebundener) Liberalität einerseits und gesellschaftlicher Bindung andererseits. Doch, wie gerade die hitzigen Debatten um die richtige Energiepolitik in Deutschland und Europa zeigen, sind die Argumente für oder gegen bestimmte Maßnahmen nicht völlig voraussetzungslos; je nach verfügbarem Fachwissen, je nach verfügbaren Erfahrungen, ja nach aktueller Interessenslage kommen die Beteiligten zu unterschiedlichen Schlüssen und Bewertungen.

17. Loske selbst erweckt in seinem Beitrag den Eindruck, als ob man so etwas wie einen ‚ökologisch wahren Preis‘ feststellen kann und demzufolge damit konkret Politik betreiben kann. Angesichts der komplexen Gemengelage erscheint mir dies aber als sehr optimistisch und nicht wirklich real zu sein. Wenn man in einer solch unübersichtlichen Situation unfertige Wahrheiten zu Slogans oder gar Handlungsmaximen erhebt und gar noch versucht, sie politische durchzudrücken, dann läuft man Gefahr, wie es im letzten Bundeswahlkampf geschehen ist, dass man vor dem Hintergrund einer an sich guten Idee konkrete Maßnahmen fordert, die nicht mehr gut sind, weil sie fachlich, sachlich noch nicht so abgeklärt und begründet sind, wie es der Fall sein müsste, um zu überzeugen. Dann besteht schnell die Gefahr, mit dem Klischee der ‚Ideologen‘, ‚Fundamentalisten‘, ‚Oberlehrer‘ assoziiert zu werden, obgleich man doch so hehre Ziele zu vertreten meint.

OBERLEHRER DER NATION – NEIN DANKE

18. Im Eingangsartikel SS.4ff stellt Katharina Wagner genau diese Frage, ob verschiedene während des Wahlkampfs angekündigten konkrete Maßnahmen nicht genau solch einen Eindruck des Oberlehrerhaften erweckt haben, als ob die Grüne Partei trotz ihrer großen Werte und Ziele letztlich grundsätzlich ‚anti-liberal‘ sei. Doch bleibt ihre Position unklar. Einerseits sagt sie sinngemäß, dass sich das grüne Programm auf Freiheit verpflichtet weiß, andererseits verbindet sie die ökologische Verantwortung mit der Notwendigkeit, auch entsprechend konkrete und verpflichtende Maßnahmen zu ergreifen. So hält sie z.B. Verbote im Kontext der Gentechnik für unumgänglich. Müssen die Verbote nur besser kommuniziert werden? Gibt es verschiedene ‚Formen‘ von Regeln in einer Skala von ‚gusseisern‘ bis ‚freundliche Einladung‘?

19. Ich finde diese Argumentation unvollständig. Ihr mangelt der Aspekt – genauso wie im Beitrag von Loske –, dass das Wissen um das ‚ökologisch Angemessene‘ in der Regel höchst komplex ist; unser Wissen um die Natur, die komplexen Technologien ist in der Regel unfertig, kaum von einzelnen alleine zu überschauen und in ständiger Weiterentwicklung. Absolut klare und endgültige Aussagen hier zu treffen ist in der Regel nicht möglich. Zwar ist es verständlich, dass das politische Tagesgeschäft griffige Formeln benötigt, um Abstimmungsmehrheiten zu erzeugen, aber dieser Artefakt unseres aktuellen politischen Systems steht im direkten Widerspruch zur Erkenntnissituation und zu den Erfordernissen einer seriösen Forschung ( Mittlerweile gibt es viele Fälle, wo die Politik erheblichen Druck auf die Wissenschaft ausgeübt hat und ausübt, damit auch genau die Ergebnisse geliefert werden, die politisch gewünscht sind; das ist dann nicht nur kontraproduktiv sondern sogar wissenschaftsfeindlich, anti-liberal und auf Dauer eine massive Gefährdung unser Wissensbasis von der Welt, in der wir leben).

20. Eine politische Partei wie die der Grünen, die sich der ökologischen Dimension unserer Existenz verpflichtet wissen will, muss meines Erachtens, um ihre Glaubwürdigkeit zu wahren, weniger darauf bedacht sein, umfassende Vereinfachung durchzudrücken, sondern gerade angesichts der Verpflichtung für das Ganze massiv die wissenschaftlichen Erforschung der Phänomene unterstützen und den sich daraus ergebenden Ansätzen in ihrer ganzen Breite und Vielfalt Raum geben. Dazu müssten viel mehr Anstrengungen unternommen werden, das relevante Wissen öffentlich transparent zu sammeln und so aufzubereiten, dass es öffentlich diskutiert werden könnte. Alle mir bekannten Texte greifen immer nur Teilaspekte auf, betrachten kurze Zeiträume, vernachlässigen Wechselwirkungen, geben sich zu wenig Rechenschaften über Unwägbarkeiten und Risiken. So vieles z.B. an den Argumenten gegen Kernenergie und Gentechnik richtig ist, so fatal ist es aber, dass damit oft ganze Gebiete tabuisiert werden, die als solche noch viele andere Bereiche enthalten, die für eine ökologische Zukunft der Menschheit möglicherweise überlebenswichtig sind.

21. Kurzum, das ‚Oberlehrerhafte‘ und ‚Anti-Liberale‘ erwächst nicht automatisch aus einer Maßnahme als solcher, sondern daraus, wie sie zustande kommt und wie sie sachlich, wissensmäßig begründet ist. In einer komplexen Welt wie der unsrigen, wo die Wissenschaften selbst momentan eine akute Krise der Konsistenz und Qualität durchlaufen, erscheint es nicht gut, mangelndes Wissen durch übertriebenen Dogmatismus ersetzen zu wollen.

FREIHEIT UND GERECHTIGKEIT

22. Die zuvor schon angesprochene Komplexität findet sich ungebremst auch in dem Gespräch zwischen Dieter Schnaas, Kerstin Andreae und Rasmus Andresen (vgl. SS.8f). Hier geht es um maximal komplexe Sachverhalte zwischen verschiedenen sozialen Gruppen, Beschäftigungsverhältnissen, Einkommensstrukturen, Besteuerungssystemen, Versorgungssystemen, Umverteilung, Bildungsprozessen, Wirtschaft im allgemeinen wie auch unterschiedlichen Unternehmensformen und Wirtschaftsbereichen. Diese komplexen Begriffe auf nur zwei Seiten zu diskutieren erscheint mir unangemessen. Schon eine einigermaßen Definition jedes einzelnen dieser Begriffe würde Seiten benötigen.

23. In diesem Bereich griffige Parolen zu formulieren ist zwar eine anhaltende Versuchung und Herausforderung für jeden Politiker, aber dies ist in meinen Augen zum Scheitern verurteilt. Was immer man parolenhaft vereinfachend propagieren möchte, man wird mehr Kollateralschäden anrichten als wenn man das System zunächst einmal sich selbst überlassen würde. Beteiligte Bürger sind in der Regel in der Lage, Schwachstellen des gesellschaftlichen Systems zu erkennen, vorausgesetzt, man lässt diese zu Wort kommen. Und in der Regel wissen auch alle Beteiligte recht gut, in welche Richtung Lösungsansätze gesucht werden müssten, vorausgesetzt, man führt einen realen Dialog, transparent, undogmatisch, mit den notwendigen unterstützenden wissenschaftlichen Exkursen. Die ‚herrschenden‘ Parteien zeichnen sich hingegen bislang überwiegend dadurch aus, dass sie im Kern Lobbypolitik machen, die sie nur notdürftig mit allgemeinen Floskeln kaschieren. Im Prinzip hat die Partei der Grünen sehr gute strukturelle – und motivationale – Voraussetzungen, eine solche transparente, basisdemokratische, wissenschaftlich unterstütze Lösungsfindung zu propagieren und zu praktizieren, wenn sie etwas weniger ‚Oberlehrer‘ sein würde und etwas mehr ‚passionierter Forscher‘ und ‚kreativer Lösungsfinder‘.

WIDER DIE KONTROLLGESELLSCAFT

24. Das Thema ‚Abhören‘ ist zwar seit dem Sommer 2013 mehr und mehr im Munde aller, aber selten übersteigt die Diskussion den rein technischen Charakter des Abhörens oder führt über das bloße Lamentieren hinaus. Selbst die Bundesregierung zusammen mit den einschlägigen Behörden hat bis zu den neuesten Äußerungen der Bundeskanzlerin zum Thema wenig Substanzielles gesagt; im Gegenteil, die politische Relevanz wurde extrem herunter gespielt, die Brisanz für eine zukünftige demokratische Gesellschaft in keiner Weise erkannt.

25. Vor diesem Hintergrund hebt sich der Beitrag von Jan Philipp Albrecht (vgl. SS.6f) wohltuend ab. Er legt den Finger sehr klar auf die Versäumnisse der Bundesregierung, macht den großen Schaden für die deutsche und europäische Industrie deutlich, und er macht u.a. auch auf das bundesweite Sicherheitsleck deutlich, dass durch die Verwendung von US-amerikanischer Software in allen wichtigen Behörden und Kommunen besteht, von der man mittlerweile weiß, dass diese Software schon beim Hersteller für die US-amerikanische Geheimdienste geschützte Zugänge bereit halten. Albrecht macht die Konsequenzen für die Idee einer demokratisch selbstbestimmten Gesellschaft deutlich.

26. Was auch Albrecht nicht tut, ist, einen Schritt weiter zu gehen, und den demokratischen Zustand jenes Landes zu befragen – die USA –, aus dem heraus weltweit solche massenhaft undemokratischen Handlungen bewusst und kontinuierlich geplant und ausgeführt werden. Sind die USA noch minimal demokratisch? Müssen wir uns in Deutschland (und Europa) als Demokraten nicht auch die Frage stellen, inwieweit wir eine Verantwortung für die US-Bevölkerung haben, wenn ihre Regierung sich anscheinend schrittweise von allem verabschiedet, was man eine demokratische Regierung nennen kann? Wie können wir über Demokratie in Deutschland nachdenken, wenn unsere Partner Demokratie mindestens anders auslegen, wie wir? Diese – und weitergehende – transnationale politische Überlegungen fehlen mir in der Debatte der Grünen völlig. Wir leben nicht auf einer Insel der Seeligen. Was heißt ökologische Verantwortung auf einem Planeten, der zu mehr als 50% aus Staaten besteht, die nicht als demokratisch gelten, wobei ja selbst die sogenannten demokratischen Staaten vielfache Mängel aufweisen. Wie sollen wir z.B. die Umwelt schützen, wenn die meisten anderen Staaten keinerlei Interesse haben? usw.

FAZIT

27. Klar, die vorausgehenden Überlegungen sind sehr kursorisch, fragmentarisch. Dennoch, so unvollkommen sie sind, will man sich heute in der kaum überschaubaren Welt als einzelner eine Meinung bilden, hat man keine andere Möglichkeit, als die verschiedenen Gesprächsangebote aufzugreifen und sie mit den eigenen unvollkommenen Mitteln für sich versuchen, durchzubuchstabieren. Am Ende steht gewöhnlich keine neue Supertheorie, sondern – vielleicht – ein paar zusätzliche Querbeziehungen, ein paar neue Eindrücke, der eine der andere neue Aspekt, an dem es sich vielleicht lohnt, weiter zu denken.

28. Jeder, der heute nicht alleine vor sich hin werkeln will, braucht Netzwerke, in denen er ‚Gleichgesinnte‘ findet. Ich selbst bin zwar seit vielen Jahren offizielles Mitglied der Grünen, habe aber bislang – aus Zeitgründen – nahezu nichts gemacht (außer dass ich viele meiner FreundeInnen bewundert habe, die auf kommunaler Ebene konkrete Arbeit leisten). In den nächsten Jahren kann ich mich möglicherweise politisch mehr bewegen. Dies sind erste Annäherungsversuche, um zu überprüfen, ob und wieweit die Partei der Grünen ein geeignetes Netzwerk sein könnte, um politisch ein klein wenig mehr ‚zu tun‘. Allerdings verstehe ich mich primär als Philosoph und Wissenschaftler und ich würde den Primat des Wissens niemals aufgeben, nur um ‚irgendetwas zu tun‘ ….

Einen Überblick über alle bisherigen Blogeinträge nch Titeln findet sich HIER.

ERKENNTNISSCHICHTEN – Das volle Programm…

 

  1. Wir beginnen mit einem Erkenntnisbegriff, der im subjektiven Erleben ansetzt. Alles, was sich subjektiv als ‚Gegeben‘ ansehen kann, ist ein ‚primärer‘ ‚Erkenntnisinhalt‘ (oft auch ‚Phänomen‘ [PH] genannt).

  2. Gleichzeitig mit den primären Erkenntnisinhalten haben wir ein ‚Wissen‘ um ’sekundäre‘ Eigenschaften von Erkenntnisinhalten wie ‚wahrgenommen‘, ‚erinnert‘, ‚gleichzeitig‘, ‚vorher – nachher‘, ‚Instanz einer Klasse‘, ‚innen – außen‘, und mehr.

  3. Auf der Basis der primären und sekundären Erkenntnisse lassen sich schrittweise komplexe Strukturen aufbauen, die das subjektive Erkennen aus der ‚Innensicht‘ beschreiben (‚phänomenologisch‘, [TH_ph]), aber darin auch eine systematische Verortung von ‚empirischem Wissen‘ erlaubt.

  4. Mit der Bestimmung des ‚empirischen‘ Wissens lassen sich dann Strukturen der ‚intersubjektiven Körperwelt‘ beschreiben, die weit über das ’subjektive/ phänomenologische‘ Wissen hinausreichen [TH_emp], obgleich sie als ‚Erlebtes‘ nicht aus dem Bereich der Phänomene hinausführen.

  5. Unter Einbeziehung des empirischen Wissens lassen sich Hypothesen über Strukturen bilden, innerhalb deren das subjektive Wissen ‚eingebettet‘ erscheint.

  6. Der Ausgangspunkt bildet die Verortung des subjektiven Wissens im ‚Gehirn‘ [NN], das wiederum zu einem ‚Körper‘ [BD] gehört.

  7. Ein Körper stellt sich dar als ein hochkomplexes Gebilde aus einer Vielzahl von Organen oder organähnlichen Strukturen, die miteinander in vielfältigen Austauschbeziehungen (‚Kommunikation‘) stehen und wo jedes Organ spezifische Funktionen erfüllt, deren Zusammenwirken eine ‚Gesamtleistung‘ [f_bd] des Input-Output-Systems Körpers ergibt. Jedes Organ besteht aus einer Vielzahl von ‚Zellen‘ [CL], die nach bestimmten Zeitintervallen ‚absterben‘ und ‚erneuert‘ werden.

  8. Zellen, Organe und Körper entstehen nicht aus dem ‚Nichts‘ sondern beruhen auf ‚biologischen Bauplänen‘ (kodiert in speziellen ‚Molekülen‘) [GEN], die Informationen vorgeben, auf welche Weise Wachstumsprozesse (auch ‚Ontogenese‘ genannt) organisiert werden sollen, deren Ergebnis dann einzelne Zellen, Zellverbände, Organe und ganze Körper sind (auch ‚Phänotyp‘ genannt). Diese Wachstumsprozesse sind ’sensibel‘ für Umgebungsbedingungen (man kann dies auch ‚interaktiv‘ nennen). Insofern sind sie nicht vollständig ‚deterministisch‘. Das ‚Ergebnis‘ eines solchen Wachstumsprozesses kann bei gleicher Ausgangsinformation anders aussehen. Dazu gehört auch, dass die biologischen Baupläne selbst verändert werden können, sodass sich die Mitglieder einer Population [POP] im Laufe der Zeit schrittweise verändern können (man spricht hier auch von ‚Phylogenese‘).

  9. Nimmt man diese Hinweise auf Strukturen und deren ‚Schichtungen‘ auf, dann kann man u.a. zu dem Bild kommen, was ich zuvor schon mal unter dem Titel ‚Emergenz des Geistes?‘ beschrieben hatte. In dem damaligen Beitrag hatte ich speziell abgehoben auf mögliche funktionale Unterschiede der beobachtbaren Komplexitätsbildung.

  10. In der aktuellen Reflexion liegt das Augenmerk mehr auf dem Faktum der Komplexitätsebene allgemein. So spannen z.B. die Menge der bekannten ‚Atome‘ [ATOM] einen bestimmten Möglichkeitsraum für theoretisch denkbare ‚Kombinationen von Atomen‘ [MOL] auf. Die tatsächlich feststellbaren Moleküle [MOL‘] bilden gegenüber MOL nur eine Teilmenge MOL‘ MOL. Die Zusammenführung einzelner Atome {a_1, a_2, …, a_n} ATOM zu einem Atomverband in Form eines Moleküls [m in MOL‘] führt zu einem Zustand, in dem das einzelne Atom a_i mit seinen individuellen Eigenschaften nicht mehr erkennbar ist; die neue größere Einheit, das Molekül zeigt neue Eigenschaften, die dem ganzen Gebilde Molekül m_j zukommen, also {a_1, a_2, …, a_n} m_i (mit {a_1, a_2, …, a_n} als ‚Bestandteilen‘ des Moleküls m_i).

  11. Wie wir heute wissen, ist aber auch schon das Atom eine Größe, die in sich weiter zerlegt werden kann in ‚atomare Bestandteile‘ (‚Quanten‘, ‚Teilchen‘, ‚Partikel‘, …[QUANT]), denen individuelle Eigenschaften zugeordnet werden können, die auf der ‚Ebene‘ des Atoms verschwinden, also auch hier wenn {q_1, q_2, …, q_n} QUANT und {q_1, q_2, …, q_n} die Bestandteile eines Atoms a_i sind, dann gilt {q_1, q_2, …, q_n} a_i.

  12. Wie weit sich unterhalb der Quanten weitere Komplexitätsebenen befinden, ist momentan unklar. Sicher ist nur, dass alle diese unterscheidbaren Komplexitätsebenen im Bereich ‚materieller‘ Strukturen aufgrund von Einsteins Formel E=mc^2 letztlich ein Pendant haben als reine ‚Energie‘. Letztlich handelt es sich also bei all diesen Unterschieden um ‚Zustandsformen‘ von ‚Energie‘.

  13. Entsprechend kann man die Komplexitätsbetrachtungen ausgehend von den Atomen über Moleküle, Molekülverbände, Zellen usw. immer weiter ausdehnen.

  14. Generell haben wir eine ‚Grundmenge‘ [M], die minimale Eigenschaften [PROP] besitzt, die in einer gegebenen Umgebung [ENV] dazu führen können, dass sich eine Teilmenge [M‘] von M mit {m_1, m_2, …, m_n} M‘ zu einer neuen Einheit p={q_1, q_2, …, q_n} mit p M‘ bildet (hier wird oft die Bezeichnung ‚Emergenz‘ benutzt). Angenommen, die Anzahl der Menge M beträgt 3 Elemente |M|=3, dann könnte man daraus im einfachen Fall die Kombinationen {(1,2), (1,3), (2,3), (1,2,3)} bilden, wenn keine Doubletten zulässig wären. Mit Doubletten könnte man unendliche viele Kombinationen bilden {(1,1), (1,1,1), (1,1,….,1), (1,2), (1,1,2), (1,1,2,2,…),…}. Wie wir von empirischen Molekülen wissen, sind Doubletten sehr wohl erlaubt. Nennen wir M* die Menge aller Kombinationen aus M‘ (einschließlich von beliebigen Doubletten), dann wird rein mathematisch die Menge der möglichen Kombinationen M* gegenüber der Grundmenge M‘ vergrößert, wenngleich die Grundmenge M‘ als ‚endlich‘ angenommen werden muss und von daher die Menge M* eine ‚innere Begrenzung‘ erfährt (Falls M’={1,2}, dann könnte ich zwar M* theoretisch beliebig groß denken {(1,1), (1,1,1…), (1,2), (1,2,2), …}, doch ‚real‘ hätte ich nur M*={(1,2)}. Von daher sollte man vielleicht immer M*(M‘) schreiben, um die Erinnerung an diese implizite Beschränkung wach zu halten.

  15. Ein anderer Aspekt ist der Übergang [emer] von einer ’niedrigerem‘ Komplexitätsniveau CL_i-1 zu einem höheren Komplexitätsniveau CL_i, also emer: CL_i-1 —> CL_i. In den meisten Fällen sind die genauen ‚Gesetze‘, nach denen solch ein Übergang stattfindet, zu Beginn nicht bekannt. In diesem Fall kann man aber einfach ‚zählen‘ und nach ‚Wahrscheinlichkeiten‘ Ausschau halten. Allerdings gibt es zwischen einer ‚reinen‘ Wahrscheinlich (absolute Gleichverteilung) und einer ‚100%-Regel‘ (Immer dann wenn_X_dann geschieht_Y_) ein Kontinuum von Wahrscheinlichkeiten (‚Wahrscheinlichkeitsverteilungen‘ bzw. unterschiedlich ‚festen‘ Regeln, in denen man Z%-Regeln benutzt mit 0 < Z < 100 (bekannt sind z.B. sogenannte ‚Fuzzy-Regeln‘).

  16. Im Falle des Verhaltens von biologischen Systemen, insbesondere von Menschen, wissen wir, dass das System ‚endogene Pläne‘ entwickeln kann, wie es sich verhalten soll/ will. Betrachtet man allerdings ‚große Zahlen‘ solcher biologischer Systeme, dann fällt auf, dass diese sich entlang bestimmter Wahrscheinlichkeitsverteilungen trotzdem einheitlich verhalten. Im Falle von Sterbensraten [DEATH] einer Population mag man dies dadurch zu erklären suchen, dass das Sterben weitgehend durch die allgemeinen biologischen Parameter des Körpers abhängig ist und der persönliche ‚Wille‘ wenig Einfluß nimmt. Doch gibt es offensichtlich Umgebungsparameter [P_env_i], die Einfluss nehmen können (Klima, giftige Stoffe, Krankheitserreger,…) oder indirekt vermittelt über das individuelle ‚Verhalten‘ [SR_i], das das Sterben ‚begünstigt‘ oder ‚verzögert‘. Im Falle von Geburtenraten [BIRTH] kann man weitere Faktoren identifizieren, die die Geburtenraten zwischen verschiedenen Ländern deutlich differieren lässt, zu verschiedenen Zeiten, in verschiedenen sozialen Gruppen, usw. obgleich die Entscheidung für Geburten mehr als beim Sterben individuell vermittelt ist. Bei allem Verhalten kann man mehr oder weniger starke Einflüsse von Umgebungsparametern messen. Dies zeigt, dass die individuelle ‚Selbstbestimmung‘ des Verhaltens nicht unabhängig ist von Umgebungsparametern, die dazu führen, dass das tatsächliche Verhalten Millionen von Individuen sehr starke ‚Ähnlichkeiten‘ aufweist. Es sind diese ‚gleichförmigen Wechselwirkungen‘ die die Ausbildung von ‚Verteilungsmustern‘ ermöglichen. Die immer wieder anzutreffenden Stilisierungen von Wahrscheinlichkeitsverteilungen zu quasi ‚ontologischen Größen‘ erscheint vor diesem Hintergrund eher irreführend und verführt dazu, die Forschung dort einzustellen, wo sie eigentlich beginnen sollte.

  17. Wie schon die einfachen Beispiele zu Beginn gezeigt haben, eröffnet die nächst höhere Komplexitätstufe zunächst einmal den Möglichkeitsraum dramatisch, und zwar mit qualitativ neuen Zuständen. Betrachtet man diese ‚Komplexitätsschichtungen‘ nicht nur ‚eindimensional‘ (also z.B. in eine Richtung… CL_i-1, CL_i, CL_i+1 …) sondern ‚multidimensional‘ (d.h. eine Komplexitätsstufe CL_i kann eine Vielzahl von Elementen umfassen, die eine Komplexitätstufe j<i repräsentieren, und diese können wechselseitig interagieren (‚kommunizieren‘)), dann führt dies zu einer ‚Verdichtung‘ von Komplexität, die immer schwerer zu beschreiben ist. Eine einzige biologische Zelle funktioniert nach so einem multidimensionalen Komplexitätsmuster. Einzelne Organe können mehrere Milliarden solcher multidimensionaler Einheiten umfassen. Jeder Körper hat viele solcher Organe die miteinander wechselwirken. Die Koordinierung aller dieser Elemente zu einer prägnanten Gesamtleistung übersteigt unsere Vorstellungskraft bei weitem. Dennoch funktioniert dies in jeder Sekunde in jedem Körper Billionenfach, ohne dass das ‚Bewusstsein‘ eines biologischen Systems dies ‚mitbekommt‘.

  18. Was haben all diese Komplexitätstufen mit ‚Erkenntnis‘ zu tun? Nimmt man unser bewusstes Erleben mit den damit verknüpften ‚Erkenntnissen‘ zum Ausgangspunkt und erklärt diese Form von Erkenntnis zur ‚Norm‘ für das, was Erkenntnis ist, dann haben all diese Komplexitätsstufen zunächst nichts mit Erkenntnis zu tun. Allerdings ist es dieses unser ’subjektives‘ ‚phänomenologisches‘ ‚Denken‘, das all die erwähnten ‚Komplexitäten‘ im Denken ’sichtbar‘ macht. Ob es noch andere Formen von Komplexität gibt, das wissen wir nicht, da wir nicht wissen, welche Form von Erkenntnis unsere subjektive Erkenntnisform von vornherein ‚ausblendet‘ bzw. aufgrund ihrer Beschaffenheit in keiner Weise ‚erkennt‘. Dies klingt paradox, aber in der Tat hat unser subjektives Denken die Eigenschaft, dass es durch Verbindung mit einem Körper einen indirekt vermittelten Bezug zur ‚Körperwelt jenseits des Bewusstseins‘ herstellen kann, der so ist, dass wir die ‚Innewohnung‘ unseres subjektiven Erkennens in einem bestimmten Körper mit dem Organ ‚Gehirn‘ als Arbeitshypothese formulieren können. Darauf aufbauend können wir mit diesem Körper, seinem Gehirn und den möglichen ‚Umwelten‘ dann gezielt Experimente durchführen, um Aufklärung darüber zu bekommen, was denn so ein Gehirn im Körper und damit korrelierend eine bestimmte Subjektivität überhaupt erkennen kann. Auf diese Weise konnten wir eine Menge über Erkenntnisgrenzen lernen, die rein aufgrund der direkten subjektiven Erkenntnis nicht zugänglich sind.

  19. Diese neuen Erkenntnisse aufgrund der Kooperation von Biologie, Psychologie, Physiologie, Gehirnwissenschaft sowie Philosophie legen nahe, dass wir das subjektive Phänomen der Erkenntnis nicht isoliert betrachten, sondern als ein Phänomen innerhalb einer multidimensionalen Komplexitätskugel, in der die Komplexitätsstrukturen, die zeitlich vor einem bewussten Erkennen vorhanden waren, letztlich die ‚Voraussetzungen‘ für das Phänomen des subjektiven Erkennens bilden.

  20. Gilt im bekannten Universum generell, dass sich die Systeme gegenseitig beeinflussen können, so kommt bei den biologischen Systemen mit ‚Bewusstsein‘ eine qualitativ neue Komponente hinzu: diese Systeme können sich aktiv ein ‚Bild‘ (‚Modell‘) ihrer Umgebung, von sich selbst sowie von der stattfindenden ‚Dynamik‘ machen und sie können zusätzlich ihr Verhalten mit Hilfe des konstruierten Bildes ’steuern‘. In dem Masse, wie die so konstruierten Bilder (‚Erkenntnisse‘, ‚Theorien‘,…) die tatsächlichen Eigenschaften der umgebenden Welt ‚treffen‘ und die biologischen Systeme ‚technologische Wege‘ finden, die ‚herrschenden Gesetze‘ hinreichend zu ‚kontrollieren‘, in dem Masse können sie im Prinzip nach und nach das gesamte Universum (mit all seinen ungeheuren Energien) unter eine weitreichende Kontrolle bringen.

  21. Das einzig wirkliche Problem für dieses Unterfangen liegt in der unglaublichen Komplexität des vorfindlichen Universums auf der einen Seite und den extrem beschränkten geistigen Fähigkeiten des einzelnen Gehirns. Das Zusammenwirken vieler Gehirne ist absolut notwendig, sehr wahrscheinlich ergänzt um leistungsfähige künstliche Strukturen sowie evtl. ergänzt um gezielte genetische Weiterentwicklungen. Das Problem wird kodiert durch das Wort ‚gezielt‘: Hier wird ein Wissen vorausgesetzt das wir so eindeutig noch nicht haben Es besteht ferner der Eindruck, dass die bisherige Forschung und Forschungsförderung diese zentralen Bereiche weltweit kum fördert. Es fehlt an brauchbaren Konzepten.

Eine Übersicht über alle bisherigen Beiträge findet sich hier

RÜCKKEHR DER METAPHYSIK? Natur als Offenbarung? Universale Ethik?

Einbettung von Metaphysik in moderne Wissenschaft

 

 

 

 

(1) Im Zwiegespräch mit dem Text ‚Metaphysik der Erkenntnis‘ (erstmalig 1921) von Nicolai Hartmann trifft man auf zahlreiche Aporien (siehe die anderen Blogeintragungen). Hartmann nimmt seinen Ausgangspunkt bei der — für ihn grundlegenden – Beziehung zwischen einem ‚erkennenden Subjekt‘ und einem ‚erkannten Objekt‘. Dies in einer primär ‚phänomenologischen‘ Einstellung, die ihren Ausgangspunkt bei dem ‚Gegebenem‘ nimmt im Versuch, ’sichtbar zu machen‘, was sich vorfindet.

 

(2) Tatsächlich ist das, was wir im Bewusstseinserlebnis als aufscheinendes ‚Phänomen‘ vorfinden, das erste und einzige, was wir vorfinden. Nach Hartmann ist dieses aufscheinend Gegebene aber eingebettet in eine begleitend vorhandene ‚Reflexion‘, mittels der sich Eigenschaften fokussieren, abstrahieren und in Beziehung setzen lassen; nicht zuletzt lassen sich ‚Begriffe‘ bilden. Die Reflexion als solche ist nicht mehr ’neutral‘; sie kann das vorfindlich Gegebene verändern, modifizieren und damit in gewisser Weise interpretieren.

 

(3) Die ‚Abfallprodukte‘ der Reflexion bilden nicht automatisch eine ‚Theorie‘ verstanden als ein systematisches Begriffsnetzwerk, in dem alle Begriffe vollständig aufeinander bezogen sind entweder als ‚Grundterme‘ oder als ‚axiomatische Terme‘, eingebunden in Relationen und Axiome, repräsentiert in einer eigenen ‚Theoriesprache‘. Eine Theorie auf der Basis der primären Reflexion bildet eine ‚Metaebene‘ und stellt eine Konstruktion dar, die aus einer Vielzahl von Möglichkeiten eine Variante herausgreift. Zugleich ist jede Theorie eine bestimmte Interpretation. Eine interessante Frage ist, ob und wie sowohl die Begriffe der primären Reflexion wie auch die Strukturen einer Theorie in einem bestimmbaren Sinn ‚wahr‘ oder ‚falsch‘ sein können.

 

(4) Hartmann diskutiert die Frage der ‚Wahrheit‘ im Umfeld seiner Subjekt-Objekt-Relation mit einem sehr unspezifischen Begriff von ‚Erkenntnis‘. Er geht von der Annahme aus – die er nicht weiter begründet –, dass Wahrheit mit Übereinstimmung zu tun haben muss, nämlich der Übereinstimmung (oder Nicht-Übereinstimmung) von dem erkennbaren Objekt für das Subjekt mit einem Objekt an sich, das dem erkennenden Subjekt per definitionem nicht zugänglich ist; daher spricht er hier auch von einem ‚transzendentem Objekt‘ bzw. vom ‚Transobjektivem‘, das das erkennende Subjekt ‚objiziert‘ mithilfe von ‚Bestimmtheiten‘, die ein ‚Bild‘ des ursprünglichen Objektes darstellen, nicht das transzendente Objekt selbst. Die vom Transobjektivem objizierten Bestimmtheiten, die vom verursachenden Objekt verschieden sind, will er auch eine ‚Repräsentation‘ des Transobjektiven nennen.

 

 

(5) Das ‚Transobjektive‘, das vom erkennenden Subjekt nicht erreicht werden kann, ist damit auch nicht intelligibel, ist im vollen Sinne ‚irrational‘. Dennoch assoziiert Hartmann genau mit diesem Transobjektiven das eigentliche ‚Sein‘, ‚volle Wirklichkeit‘, ‚Realität‘. Hier verortete er die ontologische Dimension, den Fluchtpunkt jeder Metaphysik. In einer Metaphysik ist Erkenntnis nur ein Durchgang, ein Medium zur Erfassung und Beschreibung von ‚Wahrheit‘ als letztlich im ‚Sein‘ gründend.

 

 

(7) Der von ihm zuerst favorisierte Wahrheitsbegriff als Übereinstimmungsoperation wahr: OBJ x OBJ* —> {wahr, falsch} mit ‚OBJ‘ für das Transobjektive (verursachende) Sein und ‚OBJ*‘ als der Repräsentation des Transobjektiven für das erkennende Subjekt setzt die Verfügbarkeit des Transobjektiven in dieser Übereinstimmung voraus, ohne aber in der Lage zu sein, zu erklären, wie das erkennende Subjekt dies nutzen soll, da das Transobjektive ja per definitionem vom Erkennen eines Transobjektiven ausgeschlossen wurde. Die sich hier auftuende logische Antinomie verwirbelt Hartmann in bis zu vier unterschiedliche Aporien, die allesamt letztlich nur diese eine zentrale Antinomie umschreiben.

 

(8) Aktuell weiss ich noch nicht, wie es ab S.88 in seinem Buch weiter gehen wird. Bezogen auf seine bisherigen Ausführungen kann man nur sagen, dass er sich mit seinem bisherigen Begriffsapparat in einer Sackgasse befindet. Auch wenn er noch weitere Aporien durch Einführung neuer begrifflicher Gebilde generieren mag, sein Grundproblem wird er nicht lösen, solange er seine bisherigen Voraussetzungen nicht einer kritischen Re-Analyse unterzieht.

 

(9) Ob mein Lösungsansatz tatsächlich ein Lösungsansatz ist, muss sich in den weiteren Diskussionen und Experimenten noch zeigen, aber auf jeden Fall sehe ich einen gedanklichen Weg, der ohne die antinomischen Konstruktionen Hartmanns auskommt, der mit den großen Themen der Philosophie kompatibel ist, und der nicht zuletzt auch mit den tiefgreifenden Erkenntnissen der modernen Naturwissenschaften harmoniert (soweit wir heute meinen zu verstehen, was wir verstehen).

 

(10) Wie schon im Bremerhaven-Vortrag skizziert nehme ich auch den Ausgangspunkt im Raum der Phänomene (es gibt keine Alternative), allerdings mit der Differenzierung, dass sich im Gesamtbereich der Phänomene Ph eine spezielle Teilmenge der empirischen Phänomene Ph_emp identifizieren lässt. Dies sind solche Phänomene, die durch Verwendung von definierten Messprozeduren meas() generiert werden, etwa meas: Ph —> Ph_emp. Empirische Phänomene sind zwar auch Phänomene, aber eben solche, die auf eine spezielle Weise hervorgebracht werden, die unabhängig vom Körper eines Menschen ist. Nur das Produkt eines Messvorganges muss wahrnehmbar sein, der Messvorgang selber ist unabhängig von einem menschlichen Körper (und Gehirn, und Bewusstsein).

 

(11) Auf den ersten Blick wirkt dieser Hinweis auf die Teilmenge der empirischen Phänomene möglicherweise unscheinbar. Aber bei längerer Betrachtung zeigt sich, dass hier die Lösung für nahezu alle Aporien liegen kann, mit denen sich Hartmann herumschlägt.

 

(12) Natürlich gilt im Falle der empirischen Phänomene Ph_emp auch – wie im Falle aller Phänomene –, dass die empirischen Phänomene nicht ‚isoliert‘ dastehen, sondern auch eingebettet sind in die allgemeine ‚Reflexion‘, die alles Erleben begleitet und durchdringt; und es gilt auch, dass sich im Medium dieser Reflexion Unterscheidungen treffen lassen, Zusammenfassungen bilden lassen, Begriffe einführen lassen, Beziehungen aufzeigen lassen, usw. bis hin dazu, dass sich explizite Theorien formulieren lassen. Diese Reflexion, Begriffsbildungen, Theoriebildung unterscheidet sich im Allgemeinen in Nichts von der alltäglichen oder philosophischen Reflexion, wohl aber im Speziellen. Auf der Basis von empirischen Daten lassen sich nämlich eindeutiger und klarer als durch die rein körperbasierten Phänomene Ph\Ph_emp Begriffe mit einer ‚operationalisierten‘ Bedeutung einführen, darauf aufbauend Abstraktionen, Relationen und Gesetzmäßigkeiten unter kontrollierten Bedingungen und in mathematischer Form. Natürlich ist auch diese Form von Erkenntnisbildung nicht frei von Problemen (dazu gibt es weit mehr als 1000 wissenschaftliche Publikationen!), doch trotz all dieser Probleme hat die Praxis gezeigt, dass diese Erkenntnisstrategie trotz aller Spezialisierung Erkenntnisse (und Technologien) hervorgebracht hat, die noch vor 100 – 150 Jahren unvorstellbar waren.

 

(13) Mittels der Reflexion (und darauf aufbauenden Theorien oder theorieähnlichen begrifflichen Strukturen) lassen sich im Strom der Phänomene Objekte, Beziehungen, und Aktionen identifizieren, die das Bild eines ‚Außenraums‘ um den Körper herum entstehen lassen, der eine eigene Dynamik hat, die man heute ansatzweise in seiner evolutionären Dimension fassen kann. Ferner kann man im Bereich der identifizierbaren Objekte solche unterscheiden, die man durch spezifische Eigenschaften als ‚biologisch‘ qualifizieren kann, als ‚Körper‘ mit einer Innenstruktur, zu der u.a. ein Nervensystem (Gehirn) gehört. Durch Korrelation der empirischen Daten mit den Erlebnisdaten läßt sich die starke Hypothese formulieren, dass die uns primär zugänglichen Phänomene Ph im Raum des Bewusstseins Eigenschaften eines Nervensystems sind, das sich empirisch nur ‚von außen‘ messen und beschreiben läßt. D.h. man kann nicht die bewussten Erlebnisse selbst ‚messen‘, sondern nur physikalisch-chemische Eigenschaften des Nervensystems DAT_nn, die zeitlich mit bestimmten Erlebnissen Ph korrelieren.

 

(14) Abseits vieler ungelöster Detailfragen lässt sich eine generelle Schlussfolgerung auf jeden Fall ziehen: die Phänomene unseres Bewusstseins sind als solche keine Objekte der umgebenden Außenwelt! Vielmehr scheint es so zu sein, dass die ‚Zustände der Außenwelt‘ auf einen ‚Körper‘ einwirken können, der diese physikalisch-chemischen Einwirkungen mittels einer Vielzahl sogenannter ‚Sensoren‘ in ’neuronale Signale‘ ‚übersetzt‘, also etwa sens: ENV x IS —> IS x NN, d.h. die Menge aller Sensoren realisieren eine Abbildung von Umweltereignissen ENV – eventuell modifiziert durch aktuelle interne Zustände IS des Körpers – in eine Menge von neuronalen Signalen NN, eventuell begleitet von zusätzlichen internen Zuständen IS des Körpers.

 

(15) Wie wir heute schon wissen werden diese sensorisch induzierten neuronalen Signale NN_sens über ein komplexes Schaltwerk von Neuronen auf verschiedenen ‚Ebenen‘ und durch verschiedene ‚Querschaltungen‘ und ‚Rückkopplungen‘ zu abstrakteren Konzepten und Beziehungen ‚weiterverarbeitet‘. D.h. das, was uns irgendwann ‚bewusst‘ wird als Phänomen Ph ist in der Regel sowohl ein ’spätes Verarbeitungsprodukt‘ und zugleich eine ‚Auswahl‘ aller stattfindender neuronaler Zustände, also etwa nn: NN_sens x NN —> NN x Ph. Hierbei gilt die weitreichende Annahme, dass die Menge der Phänomene Ph aus Sicht des Gehirns letztlich eine Teilmenge, und zwar eine echte Teilmenge, der Menge aller neuronalen Zustände ist. Sei NN_ph jene Menge von Neuronalen Signalen, die mit den erlebten Phänomenen Ph korrelieren, und NN_nph die Menge der neuronalen Signale, die nicht mit Ph korrelieren, dann gilt, dass die Menge der neuronalen Signale NN = NN_ph u NN_nph, mit der Annahme, dass die Menge der neuronalen Signale NN_ph, die mit den erlebten Phänomenen Ph korrelieren, eine echte Teilmenge aller neuronalen Signale sind NN_ph  rsubset NN. Denn gerade in diesem Umstand der echten Teilmenge wurzelt der evolutionäre Gewinn des ‚Bwusstseins‘: durch die Möglichkeit einer ‚Abstraktion‘ von der beliebig großen Komplexität des begleitenden Körpers und eines kontinuierlich wachsenden Gehirns kann man aktuelles Entscheiden und Kommunizieren in einem überschaubaren Bereich halten.

 

(16) Zu sagen, dass die bewussten Phänomene Ph aus ‚Sicht des Gehirns‘ auch nur neuronale Zustände sind ist kein (logischer) Widerspruch zur Annahme, dass die Phänomene unseres Bewusstseins aus Sicht unseres Erlebens etwas Besonderes sind, das sich nicht auf neuronale Signale reduzieren lässt. Dies hat mit dem begrifflichen Rahmen zu tun, in dem man sich bewegt. Im phänomenologischen Kontext bewege ich mich im Raum meines Erlebens. Meine ‚Daten‘ DAT_ph sind die erlebbaren Phänomene meines Bewusstseins. Aufbauend auf diesen primären Daten kann ich Begriffsnetze entwickeln, ja sogar Theorien reflexion: DAT_ph —> Th_ph. Beschränke ich mich auf die Teilmenge der empirischen Phänomene Ph_emp habe ich zwar immer noch Phänomene, im Fall der empirischen Untersuchungen zum Körper und Gehirn benutze ich aber zusätzlich zum ’normalen‘ Erkennen empirische Messverfahren meas(), mit denen ich Eigenschaften des Körpers bzw. des Nervensystems untersuche, also meas: BODY x BRAIN —> DAT_bd x DAT_nn. Insofern ich diese Messwerte als Messwerte wahrnehmen kann, sind diese natürlich auch Phänomene Ph_emp_bd und Ph_emp_nn, aber das Besondere dieser Phänomene liegt nicht in dem, was ich als Messergebnis wahrnehme, sondern in der Art, wie ich dieses Phänomen erzeugt habe, eben durch einen zusätzlichen Messvorgang. Wenn ich also bei dem Drücken einer bestimmten Taste auf einem Klavier einen bestimmten Ton höre DAT_ph_ton_i, und die Neuropsychologen zeitlich gleichzeitig durch eine geeignete Messvorrichtung in bestimmten Bereichen meines Gehirns bestimmte Erregungsmuster DAT_nn_ton_i messen können, dann kann man in der Regel nicht direkt von DAT_nn_ton_i auf DAT_ph_ton_i schliessen oder umgekehrt, aber eine Versuchsperson Vpn, die einen Ton hört (DAT_ph_ton_i)Person_abc, und die zugleich das Messergebnis (DAT_nn_ton_i)Person_abc wahrnehmen kann, kann kontrollieren, ob es zwischen den empirischen Messwerten und ihren subjektiven Wahrnehmungen eine signifikante Korrelation gibt (wobei wir unterstellen, dass die ausgewählte Gehirnregion ‚relevant‘ ist). Insofern also solch eine Versuchsperson in dieser speziellen Konstellation eine signifikante Korrelation feststellen könnte, könnte man begründet vermuten, dass das erlebte Phänomen und die gemessenen neuronalen Zustände ‚identisch‘ sind in dem Sinne, dass Erlebnisse als indirekt messbare neuronale Zustände ‚auftreten‘. Davon zu unterscheiden ist die Frage, wie man das Phänomen des subjektiven Erlebens im Rahmen einer empirischen Theorie des Gehirns ‚erklärt‘. Offensichtlich handelt es sich um eine Art ‚Innensicht‘ des Gehirns, bei der ausgewählte Bereiche der Gehirnzustände dazu dienen, wichtige Steuerungsparameter des Gehirns auf einer hohen Abstraktionsebene so zu organisieren, dass sie sich u.a. auch mit symbolischer Sprache verknüpfen lassen.

 

(17) Zusammenfassend gilt, dass die jeweiligen Konstruktionen des Gehirns auf Basis der sensorischen und körpereigenen Signale DAT_nn_sens und DAT_bd vollständige Eigenleistungen des Gehirns sind. Letztlich baut das Gehirn mit seinen ‚Bordmitteln‘ eine ‚Theorie der umgebenden Welt‘ TH_nn_env mit sich selbst als ‚agierendem Objekt‘ Th_nn_ego subset Th_nn_env.

 

(18) In diesem Kontext stellt sich die ‚Wahrheitsfrage‘ – will man diesen klassischen Term beibehalten – auf mindestens zweifache Weise: (i) systemintern und (ii) in Relation zur umgebenden Außenwelt.

 

(19) Systemintern (hier ‚Wahrheit_1‘ genannt) stellt sich primär die Frage, ob die emergierenden Theorien Th_nn als hypothetische Deutungen der in den Daten DAT_nn implizit mitgegebenen Dynamiken mit den Daten hinreichend ‚kongruent‘ sind? D.h. gilt es, dass die Daten DAT_nn vollständig in der ‚Bildmenge‘ der Theorie(n) Th_nn vorkommen? Bzw. gilt, dass  DAT_nn_sens subset Th_nn(DAT_nn_sens)? Da jede Theorie aufgrund der ihr ‚innewohnenden‘ Generalisierungen grundsätzlich mehr Elemente in ihrer Bildmenge hat als sensorische Daten in sie eingehen, kann man nicht verlangen, dass sich zu allen theoretisch möglichen Bildelementen 1-zu-1-Entsprechungen in den Primärdaten finden lassen, wohl aber kann – und muss – man verlangen, dass alle tatsächlich auftretenden Primärdaten sich als Elemente der Bildmenge darstellen lassen. Wahrheit_1 wäre dann also genau die Erfüllung dieser Forderung, dass man also sagen könnte: Eine nuronale Theorie der Welt ist Wahr_1 genau dann, wenn gilt: DAT_nn_sens subset Th_nn(DAT_nn_sens). Also nicht Übereinstimmung sondern abschwächend ‚Enthaltensein‘. Der Bewusstseinsraum Ph als ‚Bewusstsein‘  CONSC ist hier verstehbar als korrespondierend mit eine Teilmenge NN_ph der Menge der neuronalen Zustände NN, also NN_ph subset NN und die zu prüfenden neuronalen Theorien sind Muster innerhalb von NN_ph und NN_nph und ihr Referenzpunkt (ihr ‚Kriterium‘) für Wahrheit_1 ist das Enthaltensein der auftretenden neuronalen Ereignisse in der Bildmenge der Theorie. Eine logische Antinomie und daraus sich herleitenden Aporien gibt es hier nicht.

 

(20) In Relation zur umgebenden Außenwelt (hier ‚Wahrheit_2‘ genannt) stellt sich die Frage nicht innerhalb eines Systems, da das einzelne System in seinem internen Modell ‚gefangen‘ ist. Die modernen empirischen Wissenschaften haben uns aber die Möglichkeit eröffnet, dass wir andere Körper – menschliche wie tierische und andere – als ‚empirische Objekte‘ untersuchen können. Zusätzlich können wir – bis zu einem gewissen Grad – die Entwicklung von Populationen im Laufe der Zeit untersuchen. In diesem Kontext kann man die Frage der ‚Passung‘ des Verhaltens einer Population zur jeweiligen Außenwelt nach unterschiedlichen Kriterien gewichten. Z.B. stellt das schlichte ‚Überleben‘ bzw. ‚Nicht-Überleben‘ ein Basiskriterium dar. Populationen, die nicht überleben, haben offensichtlich ein Verhaltensspektrum, was nicht geeignet ist, alle notwendigen ‚Aufgaben‘, die die jeweilige Umgebung stellt, in der verfügbaren Zeit befriedigend zu lösen. Insofern das Verhalten ein Ouput des Körpers mit seinem Nervensystem ist, das auf einem bestimmten Input basiert – also sys: IN x BD x NN —> OUT — muss man sagen, dass die Systemfunktion sys offensichtlich unzulänglich ist. Da jede Systemfunktion eine Synthese von Körper mit Nervensystem BD x NN bildet, von dem wir wissen, dass es auf biochemischem Wege über Genetik, Wachstum und Vererbung weitergegeben und zugleich ‚verformt‘ wird, könnte man sagen, ein Körper-mit-Nervensystem-System SYS_bd_nn hat eine ‚wahre_2‘ Struktur, wenn das potentielle Verhalten sys( IN x BD x NN) geeignet ist, dass die Population dieses Systems POP_sys überlebt. Hier wird also der Körper mit seinem Nervensystem und den im Nervensystem bildbaren ‚Modellen‘ Th_nn einheitlich als ein dynamisches Modell sys() gesehen, das alle für das Überleben notwendigen Eigenschaften in der umgebenden Außenwelt hinreichend abbilden und gestalten kann. Das ‚Transobjektive‘ von Hartmann könnte in diesem Kontext interpretiert werden als die umgebenden Außenwelt, die auf den jeweiligen Körper einwirkt und über die verfügbaren Sensoren in dem Körper ein ‚Bild ihrer selbst‘ erzeugt, das nicht die Außenwelt ist, wie sie ‚an sich‘ ist, sondern die Außenwelt, wie sie aufgrund einer kausalen Wirkkette innerhalb eines Organismus repräsentiert werden kann. Die verfügbare neuronale Maschinerie generiert aus diesem primären ‚Bild‘ unterschiedliche komplexe Theorien, die über die konkreten einzelnen Daten hinausreichen (sie ‚transzendieren‘) und mittels einer Theorie ein übergreifendes Bild von einem ‚transzendierenden Objekt‘ entwerfen. Dieses selbst generierte ‚Bild eines Urbildes‘ kann mit dem Urbild – von einem Metastandpunkt aus betrachtet — mehr oder weniger ‚übereinstimmen‘ –also: wahr2: ENV x BD x NN x IN —> {passt, passt-nicht} –, doch ist diese Art von Passung dem individuellen System nicht zugänglich! Sie erschliesst sich nur in einer empirischen Untersuchung, die historische Entwicklungen untersuchen kann.

 

(21) Behält man das Verständnis von Metaphysik als Wissenschaft vom Seienden bei, das sich durch und jenseits der Erkenntnis erschließt und das unabhängig von der Erkenntnis existiert, dann müsste man nun sagen, Metaphysik ist im Prinzip möglich, nicht jedoch als Disziplin individuellen Erkennens, sondern nur als empirische Disziplin, die in einem Netzwerk betrieben wird. Moderne empirische Wissenschaften mit explizitem Theorieanteil, die die Leistungsfähigkeit von Populationen unter expliziter Berücksichtigung des neuronal basierten Verhaltens mit Bezug auf ihre Umwelt untersuchen, bilden gute Kandidaten für eine moderne Metaphysik.

(22) Man kann diese Überlegungen auf vielfältige Weise ergänzen und weiterführen. Ein interessanter Aspekt ist der ‚Offenbarungscharakter‘ von Natur. Wenn man bedenkt, wie umfangreich der Weg vom sogenannten Big-Bang (reine Energie mit einer unvorstellbar großen Temperatur) über Ausdehnung, Sternenbildung, Elementbildung, Bildung unserer Galaxie mit einem komfortablen Platz für unser Sonnensystem, mit einem komfortablen Platz für unsere Erde mit einer extrem günstigen Konstellation aller Planeten, der Entstehung von Molekülen aus Elementen, bis hin zu den ersten Zellen (bis heute letztlich ungeklärt)(vor ca. -3.2 Milliarden Jahren), von da aus eine ‚endogen und interaktiv  getriebene Entwicklung‘ genannt Evolution hin zu körperlichen Strukturen mit vielen Zellen, hin zu Nervensystemen (Start vor ca. -700 Mio Jahren), hin zu Körpern und Gehirnen, die explizite Modelle ihrer Umwelt und ihrer selbst entwickeln können, die symbolische Sprache erfunden haben und vieles mehr. Entscheidend: von der reinen Energie am Anfang sind wir zu Gehirnzuständen gekommen, in denen sich das Universum gleichsam ’selbst‘ anschauen kann, den Augenblick, das Einzelne, aber auch Alle und die ganze Entwicklung. Im Bewusstsein eines JEDEN Menschen kann sich potentiell das gesamte Universum mit allen seinen Facetten ‚versammeln‘, ‚aufscheinen‘. Ich habe nicht den Eindruck, dass irgendein Mensch sich der Tragweite dieses Faktums bewusst ist. Und bezogen auf die klassischen Offenbarungsreligionen (Judentum, Christentum, Islam) habe ich den Eindruck, dass diese die Menschen, statt sie mehr und tiefer zu Gott und einer Ehrfurcht vor dem Leben hinzuführen, eher dazu dienen, die Menschen Gott zu entfremden und das Leben – auch in Gestalt anderer Menschen – zu verachten, zu hassen oder gar zu töten. Ein solches Verhalten ist NIEMALS die Botschaft des Lebens, wenngleich das ‚Fressen und Gefressenwerden‘ im Bereich des Lebens eine Eigenschaft darstellt, die an die Notwendigkeit der Verfügbarkeit von hinreichender Energie gekoppelt ist. Doch in der Gestalt des Menschen hat das biologische Leben einen Punkt erreicht, bei dem dieses zwanghafte Fressen und Gefressenwerden prinzipiell durchbrochen werden kann. Wir haben die grundsätzliche Möglichkeit –zum ersten Mal seitdem es dieses Universum gibt!!! — die Gesetze des Lebens neu zu gestalten, neu zu formen, ja, letztlich können wir im Prinzip das gesamte bekannte Weltall von Grund auf neu umformen (natürlich nicht an einem Tag….). Genau dazu sind wir ‚berufen‘. Aber wen interessiert schon die Wahrheit2? Noch liegt immer ein gewisser ‚Schleier‘ über der Bestimmung des gesamten Lebens. Dass es auch irgendwo anders im riesigen Universum ähnliches der gar gleiches Leben wie unseres geben sollte, ist grundsätzlich weder auszuschließen noch würde es unserer ‚Bestimmung‘ irgendeinen Abbruch tun. Die Erkenntnis des ‚gemeinsam Gewordenseins‘ enthält in sich eine gemeinsame Berufung für das Ganze, von dem wir in Gestalt des messbaren Universums möglicherweise bislang nur einen kleinen Zipfel sehen (so wie unser Gehirn im Körper sich als ‚Herr der Dinge‘ erlebt, obgleich es doch, wie wir heute wissen können, nur einen winzigen Ausschnitt eines viel Größeren erlebt). ‚Wahrheit‘ ist das jeweils ‚Größere‘ (Magis), dem wir uns beugen und dienen müssen, da wir als einzelne nicht ‚Herr des Geschehens‘ sind. Insofern wir aber untereinander mit allem unauflöslich ‚verbunden‘ sind, ist diese individuelle Beschränkung nur relativ.

 

 

Eine direkte Fortsetzung findet sich hier

 

 

Eine Übersicht zu allen Beiträgen des Blogs findet sich im begleitenden cogntiveagent-Wiki

 

 

 

 

 

 

Philosophie Jetzt: Veranstaltung am 2.Okt.2011

Hier eine Ankündigung in eigener Sache:

Am 2.Okt.2011 beginne ich mit einer ersten Veranstaltung im Rahmen des Projektes ‚Philosophie Jetzt‘ mit dem aktuellen Titel ‚Unterwegs Wohin?‘

Grundidee ist, die Diskussion aus dem Blog auch in der Öffentlichkeit zu führen und damit  das Umdenken vieler gewohnter Alltagsbegriffe weiter zu unterstützen. Die Veranstaltung findet im

Bistro des Restautant ‚Schnittlik‘ statt

61137 Schöneck

Platz der Republik 2

16:00 – 19:00h

Gedacht ist an einer lockeren Form  von Vortrag, Gespräch, aufgelockert mit eigener experimenteller Musik. Denkbar, dass in Zukunft auch andere aktiv mitwirken durch Texte und Musik. Dies ist jedenfalls ein Anfang. Philosophie ist für uns alle wichtig, nicht nur für ‚Hinterstubendenker’……

Herzliche Grüße,

cagent

PS:  Es deutet alles darauf hin, dass es mir zum ersten Mal gelingt, einen Zusammenhang von ‚Urknall‘ über kosmische Evolution, biologische Evolution 1, biologische Evolution 2 (=Kultur, Technologie) bis hin zu Grundstrukturen von Wissen, Lernen und Werten zu zeichnen. Hätte dies nie für möglich gehalten. Im Nachhinein erscheint es so einfach und man versteht gar nicht, warum man sich nahezu 63 Jahre quälen muss, bis man dahin kommt (kleiner Trost. den anderen geht es auch nicht besser…). Die neue Perspektive hat allerdings etwas ‚Berauschendes‘; die philosophisch-theologischen Kategorien der Vergangenheit wirken da wie ein ’schlechter Traum‘. Andererseits war dies irgendwie als ‚Durchgangsphase‘ unumgänglich. Erkennen funktioniert nur über Blindversuch, Fehler, Korrektur, neuer Versuch… irgendwann hat man dann das Gefühl, jetzt scheint es ‚besser‘ zu sein…bis zur nächsten ‚Verbesserung’…Ohne diese gelegentlichen Blog-Einträge — so einfach und erratisch sie auch im einzelnen sein mögen — wäre dies nie passiert….

PS2: Ja, die Veranstaltung hat stattgefunden. Trotz strahlendem Sommerwetter war der Raum gefüllt und die drei Stunden erwiesen sich als viel zu kurz….Das ruft nach mehr….

Zusammenfassung des Vortrags

 

(1) Der Vortrag wählte als Ausgangspunkt die Position des Dualismus, der fast 2000 Jahre die europäische Philosophie — und auch das übrige Denken — geprägt hatte und selbst heute noch in vielen Kreisen präsent ist: die Gegenübersetzung von Geist und Materie.

 

(2) Es wurde dann in mehreren Schritten gezeigt, wie diese Gegenübersetzung im Lichte des heutigen Wissens nicht nur ‚in sich zusammenfällt‘ sondern mehr noch, einen völlig neuen Denkansatz ermöglicht.

 

(3) Über die Stationen Erde – Sonnensystem – Milchstraße – Universum wurde nicht nur deutlich, dass wir in einer der wenigen ‚bewohnbaren‘ (habitablen) Zonen leben, sondern dass alle bekannte ‚Materie‘ letztlich nichts anderes ist als eine ‚Zustandsform von Energie‘.

 

(4) Anhand der unterschiedlichen komplexen Strukturen wie subatomar Quanten, Atome, Moleküle wurde deutlich, wie es eine Brücke gibt von der Energie zu den kleinsten Bauelementen biologischer Lebensformen im Rahmen der chemischen Evolution. Zwar sind hier bis heute noch nicht alle Abläufe vollständig aufgeklärt, aber der Weg vom Molekül zur Zelle ist zumindest prinzipiell nachvollziehbar.

 

(5) Es wurden grob jene Prozess skizziert, die bei der Selbstreproduktion involviert sind (DNA, mRNA, tRNA, Ribosomenkomplexe….). Sämtliche Prozesse dieser chemischen Informationsmaschinerie basieren ausschließlich auf Molekülen.

 

(6) Die biologische Evolution von den ersten Zellen bis zum homo sapiens wurde stark verkürzend skizziert. Die Rolle des Gehirns in der Steuerung, für das Verhalten, für die Sprache. Die mittlerweile allgemein akzeptierte Out-of-Africa Hypothese, die Abstammung aller heute lebenden Menschen von einer Gruppe von homo sapiens Menschen, die von Ostafrika aus vor ca. -70.000 über Arabien, Persien, Indien Australien bevölkerten, Asien und ab ca. -45000 Europa. Später auch Nord- und Südamerika.

 

(7) Es wurde kurz erklärt wie der ‚Wissensmechanismus‘ hinter der biologischen Evolution funktioniert, die — obgleich vollständig ‚blind‘ — innerhalb von ca. 3.7 Mrd. Jahren hochkomplexe Organismen hervorgebracht hat. Die ‚Logik‘ dahinter ist ein gigantischer Suchprozess über die möglichen ökologischen Nischen, deren Feedbackmechanismus ausschließlich im Modus des ‚Überlebens‘ gegeben war. Das konnte nur funktionieren, weil beständig Milliarden von ‚Experimenten‘ gleichzeitig ausgeführt wurden. Evolution heißt ‚aktiv mit dem Unbekannten spielen‘ mit dem Risiko, unter zu gehen; aber dieses Risiko war — und ist — die einzige ‚Versicherung‘, letztlich doch zu überleben.

 

(8) Es wurde dann die Besonderheit des Gehirns erläutert, warum und wie Gehirnzellen in der Lage sind, Signale zu verarbeiten. Es wurden die chemischen Prozesse geschildert, die diesen Prozessen zugrunde liegen und dann, wie sich diese komplexen chemischen Prozesse heute technisch viel einfacher realisieren lassen. Es wurde ferner erklärt, warum ein Computer das Verhalten eines Gehirns simulieren kann. Zugleich wurde aber auch deutlich gemacht, dass die Simulation mittels eines Computers keine vollständige Berechenbarkeit impliziert, im Gegenteil, wir wissen, dass ein Gehirn — real oder simuliert — grundsätzlich nicht entscheidbar ist (Goedel, Turing).

 

(9) Es wurde weiter erläutert, wie sich die Informationsverarbeitung eines Gehirns von der DNA-basierten Informationstechnologie unterscheidet. Neben Details wie Gedächtnisstrukturen, Bewusstsein – Unbewusstsein, Sprache, Abstraktionen, Planen, usw. wurde deutlich gemacht, dass die Informationseinheiten eines Gehirns (Meme) permanent durch das Verhalten eines Organismus modifiziert werden können. Im Zusammenwirken von Gehirn und Sprache ist das biologische Leben nun im Stande, komplexe Modelle des Lebens versuchsweise zu entwickeln, die in Verbindung mit Genetik den Entwicklungsprozess biologischer Strukturen extrem beschleunigen könnten. Mit Blick auf die drohenden Faktoren der Lebenszerstörung wie Sonnenerwärmung, Zusammenstoß mit der Galaxie Andromeda in ca. 2-4 Mrd Jahren — um nur einige Faktoren zu nennen — kann diese Beschleunigung des Entwicklungsprozesses von Leben von Interesse sein.

 

(10) Hier endete die Sitzung mit dem vielfachen Wunsch, den Diskurs fort zu setzen, speziell mit Blick auf die sich neu stellenden ethischen und praktischen Lebensfragen.

DIE UNIVERSELLE SEMIOTISCHE MASCHINE

In der letzten Woche hatte ich Gelegenheit, das Buch ‚Information Theory and Evolution‘ von John Avery zu lesen. Eigentlich interessierte mich die Frage, ob und wie man das Verhältnis zwischen der offensichtlichen  ‚Konzentration von Energie‘ im Falle biologischer Systeme mit dem zweiten Hauptsatz der Thermodynamik  plausibel machen kann (eine gute intuitive Formulierung des zweiten Hauptsatzes von Claudius findet sich bei  Enrico Fermi (1937, repr. 1956, S.30): ‚A transformation whose only final result is to transfer heat from a body at a given temperature to a body at a higher temperature is impossible.‘). Die eigentliche Frage konnte ich für mich noch nicht befriedigend beantworten  (siehe meine kurze Buchbesprechung hier: Buchbesprechung Avery), aber das Buch war –und ist– äußerst informativ und anregend. So ergaben sich interessante Hinweise auf eine Reihe von Themen, die im Blog schon öfters angesprochen wurden (siehe auch das beigefügte Diagramm).

(1) Eine intensiv diskutierte Frage seit Jahrhunderten ist die Frage nach der Bedeutung und der Rolle des Selbstbewusstseins.

(2) Von den verschiedenen Analysestandpunkten (introspektiv (1st person), verhaltensbasiert (3rd person), physiologisch (3rd person)) aus ergeben sich unterschiedliche Zugänge.

(3) Avery zieht in seinem Buch eine lange Linie quer durch die gesamte Evolution, die zeigt, daß und und wie sich auf allen Ebenen Informationsprozesse identifizieren lassen, die strukturverändernd wirken, vom Molekül bis hin zur menschlichen Kultur.

(4) Allerdings verwendet Avery für diese verschiedenen Ausprägungen von Kommunikation kein einheitliches theoretisches Modell. Dies verwundert ein wenig, da er im Anhang B auf 2.25 Seiten die Semiotik mit Schwerpunkt Biosemiotik kurz erwähnt. Die Semiotik könnte zumindest eine Variante eines Modells anbieten, das von der ersten Zelle bis hin zu komplexen kulturellen Kommunikationsprozessen in der Lage ist, die entscheidenden Mechanismen zu beschreiben.

(5) Benutzt man das semiotische Zeichenmodell (siehe z.B. Peirce, Morris oder Saussure), dann hat man immer die drei Elemente (i) Zeichenmaterial, (ii) Bezeichnetes sowie (iii) Bedeutungsstiftende Beziehung durch einen Zeichenbenutzer. Der Zeichenbenutzer ist ein ‚System‘, das bei vorhandener Bedeutungsbeziehung beim Auftreten eines Zeichenmaterials das Bezeichnete ‚generiert‘; die ‚Herstellung‘ einer Bedeutungsbeziehung geschieht entweder ’strukturell‘ durch ‚Wachstum‘ oder aber ‚adaptiv‘ durch Lernen. Sofern Bedeutungsbeziehungen vorliegen sind diese mehr oder weniger ‚determiniert‘.

(6)Während der ‚Entwicklungsweg‘ von der Organisationsebene der Atome (die selbst komplex sind) bis hin zu den ersten Zellen im Detail noch immer vielfältigen Forschungen unterliegt ist aber so viel klar, dass die heute auf der Erde bekannten Lebensformen dort beginnen, wo die Fähigkeit zur Selbstreproduktion beginnt. Diese Struktur der Selbstreproduktion kann man als (Primäres) Semiotisches System (PSS) bezeichnen: Als Zeichenmaterial dient die mRNA; dieses wird durch einen ‚geeigneten‘ Molekülkomplex (Zeichenbenutzer) anhand vorgegebener Rahmenbedingungen (Bedeutungsbeziehung) ‚übersetzt‘ in andere ‚geeignete‘ Molekülstrukturen (Bezeichnetes Objekt), die dann zur Bildung jener Strukturen führen, die wiederum reproduktionsfähig sind.

(7) Man könnte diese Art von Zeichenbenutzer ‚primäre‘ semiotische Systeme nennen, doch ist dies ein bischen willkürlich. Denn wenn sich bei einem Vererbungsprozess zwei Molekülketten zu einem neuen Molekül verbinden, könnte man auch sagen, dass der umgebende ‚Molekülraum‘ der Zeichenbenutzer ist, der bei Vorliegen gewisser Randbedingungen (Zeichenmaterial) eine vorgegebene Bedeutungsbeziehung in Form eines definierten chemischen Prozesses aktiviert, der die Randbedingungen in das durch diese Bedeutungsbeziehung definierte Bezeichnete (das neue vereinte Molekül) überführt/ übersetzt/ transformiert. Wandert man auf dem Gradienten des Organisationsniveaus immer weiter ’nach unten‘, dann kann man den Übergang von Atomen zu Molekülen ebenfalls als semiotischen Prozess modellieren. Dann wird der umgebende Raum aller Atome zum Zeichenbenutzer, dessen Bedeutungsbeziehung ansatzweise durch die sogenannten ‚Naturgesetze‘ beschrieben wird. Und noch weiter ’nach unten‘ lässt sich dann auch der Übergang von den subatomaren Teilchen zu den Atomen als semiotischer Prozess modellieren: die subatomaren Teilchen bilden jenes Zeichenmaterial, das der umgebende Raum aller verfügbaren Teilchen als Zeichenbenutzer nach vorgegebenen Zuordnungen zu unterschiedlichen Atomen (das jeweils durch die Zeichenbeziehung Bezeichnete)  ‚formt’/ ‚generiert’…

(8) Diese universelle Anwendbarkeit des semiotischen Modells ist schon ein wenig verblüffend. Es fragt sich aber, ob uns dies irgendwie weiterhilft?

(9) Folgt man dem Gradienten des Organisationsniveaus ‚von unten nach oben‘, dann lässt sich feststellen, dass der Zeichenbenutzer sich von einem ‚Raum von wirkenden Regeln auf der Basis seiner Bestandteile‘ immer mehr hin entwickelt zu konkret fassbaren Strukturen, die sich als ‚materielle Input-Output-Systeme‘ abgrenzen lassen von ihrer ‚Umgebung‘; dies beinhaltet die Konkretisierung der ‚Oberfläche‘ des Systems mit einer zusätzlichen Spezialisierung hin zu rein ’stützenden‘, ’sensitiven‘ und ‚aktiven‘ Komponenten. Bei dieser zunehmenden ‚Konkretisierung‘ einer Organisationsstruktur bleiben  alle anderen semiotischen Ebenen erhalten. Im Falle von Pflanzen und dann insbesondere bei den Tieren kann man dann beobachten, wie die ’strukturellen‘ Zeichenbenutzer zusätzliche Teilstrukturen ausbilden (Nervensystem, explizite Signalsysteme), die die Bindung an eine biologische Struktur überschreiten und die Möglichkeit schaffen, zeichenbasierte Kommunikation auszubilden, bei denen sowohl das Zeichenmaterial wie auch das Bezeichnete bis zum gewissen Grade ‚frei wählbar‘ ist und deren Bedeutungsbeziehungen weitgehend ‚frei definierbar‘ sind. Vielleicht bietet sich hier an, die Unterscheidung einzuführen zwischen einer ’strukturbedingten‘ Semiotik und einer ’strukturfreien‘ Semiotik. Die  ‚Freiheit‘ innerhalb der ’strukturfreien‘ Semiotik ist natürlich nicht im absoluten Sinne zu nehmen, da die körperlichen Randbedingungen klare Grenzen setzen. Mit der Genetik und dem Aufkommen der Informationstechnologie werden diese körperbedingten Randbedingunen aber ’schwimmend‘. Umgekehrt ist die ‚Bedingung‘ in der ’strukturbedingten‘ Semiotik nicht völlig starr, sondern –wie man am Beispiel der genetischen Vererbung sehen kann– umfasst kombinatorische Räume, deren Nutzung unterschiedliche Ergebnisse zulässt.

(10) Ein anderer Gradient neben dem Organisationsniveau ist sicher die ‚Koordinierung‘. Vom subatomaren zum Atomaren, vom Atom zu Molekül, vom Molekül zu Molekülstrukturen hin zu reproduzierenden Strukturen, zu Zellen, zu Vielzellern, usw. besteht die Notwendigkeit, die ‚Bestandteile‘ der jeweils größeren Einheit so zu ‚koordinieren‘, dass die ‚übergeordnete‘ Einheit funktional werden kann (in diesem Zusammenhang gehört vielleicht auch das Reden von der ‚Emergenz‘).  Koordinierung kann aber nur funktionieren, wenn die interagierenden Bestandteile in irgendeiner Weise ‚Austauschprozesse‘ organisieren können, deren unterscheidbaren Bestandteile als Zeichenmaterial funktionieren können, das mithilfe vorhandener Bedeutungsbeziehungen in entsprechende ‚intendierte‘ Veränderungen (das jeweils Bezeichnete) überführt werden können. M.a.W. ‚Koordinierung‘ impliziert ’semiotische‘ Prozesse, die eine hinreichende ‚Kommunikation‘ ermöglichen. Beliebte Beispiele solcher Kommunikation, die Koordinierung ermöglicht, stammen aus dem Bereich der Ameisen und Bienen oder aus dem Jagdverhalten von in Rudeln jagenden Raubtieren. Tatsächlich liegt solch eine Koordinierung ermöglichende Kommunikation aber als ermöglichender Faktor auf allen Organisationsebenen vor. Am komplexesten vielleicht ausgeprägt im Bereich der menschlichen Kultur, die sich seit ca. 12.000 Jahren immer rasanter entwickelt.

(11) Ein weiterer wichtiger Gradient kann die ‚Vorausberechenbarkeit (Planbarkeit)‘ des ‚eigenen‘ Zustands bzw. des Zustands ‚aller beteiligten Systeme‘ sein: um z.B. die verfügbaren begrenzten Ressourcen ‚besser nutzen‘ zu können, wäre es hilfreich, wenn man die möglichen ‚Folgezustände‘ sowohl des eigenen Körpers (Müdigkeit, Hunger, Durst,….) wie auch der jeweiligen Umgebungen weitmöglichst voraus berechnen könnte. Dies setzt voraus, dass sich sowohl Körper- wie auch Umgebungszustände ‚modellhaft‘ innerhalb des agierenden Systems ‚generieren‘ lassen, so dass man mittels dieser ‚Modelle‘ dann deren mögliches ‚Verhalten in der Zukunft‘ ‚ablesen‘ könnte. Je besser diese Modelle wären, um so größer der ‚Vorteil‘ in der Nutzung der knappen Ressourcen.

(12) Vor dem Hintergrund der Vorausberechenbarkeit stellen Nervensysteme, die sowohl die Zustände des eigenen Körpers wie auch wichtige Aspekte der jeweiligen Umgebung ‚modellieren‘ können, eine extreme Verbesserung dar. Dazu gehört auch die Art und Weise der Modelle selbst: welche Aspekte der Umgebung werden wie repräsentiert und wie sind diese Modelle geeignet, das ‚eigene‘ Verhalten bzgl. des eigenen Körpers und der jeweiligen Umwelt so zu ‚leiten‘, dass ‚passende‘ Aktionen erfolgen können, die dem System ‚tatsächlich nützen‘. Vor diesem Hintergrund ist das Phänomen des ‚Selbstbewusstseins‘ möglicherweise interpretierbar als jene Modellierungsleistung des Nervensystems, die dem System ein –notgedrungen stark vereinfachendes–  ‚Modell seiner selbst‘ zur Verfügung stellt. Dies ist eng verknüpft mit einem ‚Modell der Aussenwelt‘ (von dem wir heute auch wissen, dass es nur Teilaspekte der messbaren Umgebung abbildet und diese z.T. stark idealisierend oder gar verzerrt). Nichtsdestotrotz bildet dieses Phänomen der systemimmanenten ‚Modellierung‘ des Systems mit seiner Umgebung einen ungeheuerlichen Schritt dar. Damit können z.B. menschliche Systeme ihre Planungen durch Kommunikation in einer Weise koordinieren, die in wenigen tausend Jahren zu einer absoluten biologischen Explosion auf der Erde geführt hat, die durch die Verfügbarkeit von Computern viele körperbedingte Beschränkungen in der Modellierung weit hinter sich lassen kann. Mit der zusätzlich verfügbar werdenden Gentechnik können parallel auch die heute vorgegebenen körperlichen Begrenzungen in der Zukunft eventuell ‚weiter ausgedehnt‘ werden.

(13) Das ‚Staunen‘ der klassischen Philosophie über das Phänomen des Selbstbewusstseins und die Projizierung der hier vorfindlichen Objekte und Strukturen hinein in ‚metaphysische‘ Modelle von Mensch, Welt und Geist müssen angesichts der sich hier neu eröffnenden Perspektiven einer weitgehenden Revision unterzogen werden. Dies läuft  nach meiner Einschätzung nicht hinaus auf eine ‚Verabschiedung‘ des ‚Geistes‘ sondern auf ein weit umfassenderes und radikaleres Verständnis als je zuvor. Jenseits der unseligen Trennung von ‚klassischen Geist‘ und ‚klassischer Materie‘ gibt es nur noch ‚Geist.Materie‘ , oder wie immer man dieses vielschillernde Etwas nennen will, aus dem sich alles ‚herausentwickelt‘, was wir heute kennen, einschliesslich unserer menschlichen ‚Geistigkeit‘.

(14) Es gibt –wie immer– sehr viele Autoren, die man hier an den einzelnen Stellen zitieren könnte und müßte. Aber, wie schon mehrfach gesagt, es geht hier um meinen persönlichen Versuch, viele Einzelteile und Versatzstücke für mich selbst zu ‚ordnen‘ um mein eigenes Denken zu ‚orientieren‘, ohne dass ich irgendwie den Anspruch auf Originalität erhebe. In der Regel ist jeder Gedanke irgendwann immer schon mal von einem anderen gedacht worden. In den offiziellen Publikationen versuche ich mich denn auch an die üblichen Zitierregeln zu halten. Dies hier ist eine private ‚Spielwiese‘ für Gedanken…..

The Semiotic Dimension

WIR SIND NICHT NICHTS — Oder: Zur Ethik des Lebens

(1) Die meisten Menschen haben wenigstens einmal im Leben in den nächtlichen Sternenhimmel geschaut. manche vielleicht mit einem Fernglas oder einem Teleskop verstärkt….Der Blick in dieses Meer an Sternen, Sonnen, Galaxien kann verwirren. Milliarden von Sonnen sollen da draußen sein. Ein beständiges Kommen und Gehen noch heute. Wir, am Rande der Milchstraße, eine von vielen Millionen Galaxien, auf der Flucht voreinander, seit 13 oder mehr Milliarden Jahren…Wen beschleicht da nicht das Gefühl einer großen Verlorenheit, eine Winzigkeit in einem schier unendlichen Raum, wo kein noch so lautes Lachen das Vakuum des Weltraums überwinden kann, das uns allenthalben umgibt….

(2) Ein Resümee dieser Art von Betrachtung kann sein: Wir sind buchstäblich ‚Nichts‘. Die Wahrheit aber ist: Wir sind nicht Nichts!

(3) In dem Moment in dem einer diese meine Worte liest, muss er sich sagen, dass er ‚lebt‘; nur deswegen kann er diese Worte lesen.

(4) Dass jemand ‚lebt‘ bedeutet, dass er  einen ‚Körper‘ hat, der weit mehr als 100 Milliarden Zellen hat, wo jede Zelle in sich ein kleiner Kosmos ist mit einer Komplexität, die bis heue noch nicht vollständig erforscht ist. Viel wichtiger noch: diese Zellen sind selbst ‚lebendig‘: unfassbar viele chemische Prozesse finden in ihnen statt, in jedem Moment. Sie tauschen ‚Botschaften‘ aus, sie koordinieren ihre Prozesse. Sie formen unterschiedliche Funktionseinheiten von einer Komplexität, die sich dem Begreifen bislang weitgehend widersetzt. Die Physiologen sprechen von ‚Organen‘ (Leber, Niere, Herz, Blutkreislauf, Gehirn, Immunsystem,….), aber das Wort ‚Organ‘ sagt so gut wie garnichts; eher verdeckt es das ungeheuerliche Geschehen, was sich hier kontinuierlich ereignet. Außerdem, beständig sterben Zellen auch wieder ab und neue bilden sich; ein ‚Kommen‘ und ‚Gehen’….Kein einzelner Mensch kann bislang umfassend begreifen, was hier geschieht. Es gibt nicht nur ‚Galaxien da draussen‘, es gibt solche ‚Galaxien‘ auch  ‚in uns’……

(5) Zudem, ein biologisches Lebewesen ‚entsteht‘: es beginnt als eine einzige Zelle, die anfängt, sich zu teilen, immer mehr, unaufhaltsam; gleichsam ‚aus dem Nichts‘ entsteht etwas, ein Symphonie an Zellen, die sich in einem besonderen ‚Rhythmus‘ teilen, aber nicht ‚planlos‘, sondern einer ‚inneren Stimme‘ in Form von chemischen Regeln folgend, die mehr und mehr eine ‚Ordnung‘ erkennen lassen, mehrere Ordnungsebenen, aufeinander aufbauend, jede dieser über hundert Milliarden Zellen weiß, ‚was sie zu tun hat’….

(6) Diese Entstehung ‚lebender Strukturen‘ läuft den Gesetzen der Physik bis zu einem gewissen Grad zuwider. Nach dem Gesetzt der Entropie soll sich die Energie in einem geschlossenen System auf Dauer ausgleichen. Die Bildung eines lebenden Systems ist aber das genaue Gegenteil: an einem bestimmten Punkt im System wird Energie in Form von Zellverbänden ‚angehäuft‘, ‚verdichtet‘. Die Physik hat dafür noch kein Gesetz. Fakt ist aber, dass dies im großen Maßstab geschieht; es muss also ‚Gesetze‘ geben, die dies beschreiben. Die Physik läßt uns hier bislang im Stich.

(7) Wir wissen heute, dass es bis zur Entstehung unseres Sonnensystems mit der Erde und dem Mond ca. 10 Mrd Jahre gebraucht hat; weitere ca. 3.5 Mrd Jahre hat es gedauert, bis das Lebens aus ersten RNA- und DNA-Molekülen sich bis zur heutigen Form ‚hochgearbeitet‘ hat. Zeiträume, die für uns, die wir bislang ca. 50-70 Jahre im Schnitt leben, jenseits aller Vorstellungskraft sind. Und dennoch, die entscheidende Botschaft ist, dass wir mit unserem unglaublich fantastischem Körper nur deshalb existieren, weil wir Teil eines umfassenden gigantischen  Prozesses sind, innerhalb dessen sich Miliarden unterschiedlichster biologischer Körper in Form von Tieren, Pflanzen, Mikroben, Bakterien usw.  als eine ‚Arbeitsgemeinschaft‘ auf dem Planet Erde so eingerichtet hat, dass jeder auf seine Weise Energie aus der Umgebung entzieht und wiederum Energie dem anderen in irgendeiner Weise ‚zuspielt‘, sehr oft zum Preis des eigenen ‚Todes‘! Kein Körper kann alleine existieren! Leben heißt ‚per se‘, dass man aus anderem Leben hervorgegangen ist und dass man nur im Zusammenspiel mit anderen Lebensformen selber leben kann!

(8) In dem Masse, wie einem diese Zusammenhänge klar werden, verliert der einzelne seine ‚isolierte Winzigkeit‘ sondern es wird deutlich, dass es tatsächlich in erster Linien nur ein einziges großes Projekt gibt, das planetenumspannende Projekt Leben, das alle Tiefen (Erdreich, Ozeane) und Höhen (Luftschichten Atmosphäre) umfasst, das auf dem Prinzip der ‚Weitergabe von Generation zu Generation‘ beruht, das an ‚Extremen‘ (Hitze, Kälte, Trockenheit) geschult wurde, und das auf Effizienz basiert, da alle Ressourcen grundsätzlich knapp sind (dass wir ‚Menschen‘ als selbsternannte ‚Ego-Idioten‘ in der Lage sind, in wenigen Jahrtausenden alles zu zerstören, was in vielen Milliarden Jahren aufgebaut wurde, soll hier jetzt kein Thema sein).

(9) Obgleich schon die bisherige Betrachtungsweise viele Hinweise liefert, die den Gedanken unterstützen, dass wir als Teil des ‚Projektes Leben‘ Teil von etwas sind, das Milliarden Jahre  überdauern kann und dazu einen kompletten Planeten bis zu einem gewissen Grad verändern konnte –und wir in diesem Sinne keinesfalls ‚Nichts‘ sind–, ist dies noch nicht die ganze Geschichte. Denn, alle diese wunderbaren Eigenschaften, die uns am Beispiel der biologischen Strukturen  ins Auge fallen, kommen ja wiederum nicht aus dem ‚Nichts‘, sondern gründen darauf, dass  die Bestandteile von Molekülen, die Atome, selbst keine ’neutralen, blassen Nichtse‘ sind sondern in sich eine reiche –wiederum höchst komplexe– Struktur besitzen, die so ist, dass jedes Atom –bildlich gesprochen– ein Bündel von spezifischen Eigenschaften verkörpert, verschiedene ‚Farben‘, die nach bestimmten ‚vorgegebenen Gesetzen‘ (!) auf unterschiedliche Weise in ‚Wechselwirkung‘ treten. Atome als Atome können ’nicht Nichts‘ sein in dem Sinne, dass Sie die anderen Atome nicht ‚wahrnehmen‘ würden; ein Atom ist quasi dazu ‚verurteilt‘, mit einem anderen Atom in Wechselwirkung zu treten. In diesem Sinne sind Atome keine ‚geschlossenen‘ Systeme, sondern ‚offene‘ Systeme: sie tauschen zwangsläufig Eigenschaften aus und formen so systemische Einheiten ‚oberhalb‘ der Organsationsebene ‚Atom‘. Dies bedeutet, was immer wir an Atomverbindungen vorfinden bis dahin, dass wir Moleküle haben, die RNA- und DNA-Moleküle bilden können, diese Verbindungen  quasi ‚erzwungen‘ sind aufgrund der Eigenschaften, die einzelne Atome ‚charakterisieren‘. Dies bedeutet, in dem Moment wo es überhaupt solche Atome gibt wie jene, die unser Universum charakterisieren, in dem Moment ist der Weg zu komplexeren Einheiten angelegt.  Dass es bislang in dem uns bekannten Weltall nur einen einzigen Ort gibt, an dem diese ‚Kondensierung von komplexen lebensfähigen Strukturen‘ tatsächlich stattgefunden hat, zeigt –unbeschadet der Möglichkeit, dass wir noch woanders im Weltall irgendwann Lebensformen finden können– dass diese Lebensform, von der wir ein Teil sind, etwas extrem Seltenes ist! In anderen Zusammenhängen sprechen Menschen gerne davon, dass etwas ‚kostbar‘ sei und man deswegen dafür ein ‚hohen Preis zu zahlen bereit wäre‘. Im Falle des biologischen Lebens im Weltall, das an Kostbarkeit kaum zu überbieten ist, verhalten wir uns bislang eher als grenzenlose ‚Verächter‘ und treten es (und damit uns selbst) in  einer Weise mit Füßen, die kaum zu überbieten ist.

(10) Es wird heute immer noch die Meinung vertreten, dass es aufgrund der Größe des Weltalls mit höchster Wahrscheinlichkeit noch an vielen anderen Stellen im Universum Leben gibt und dass dieses Leben auch ganze andere Formen haben könnte als jene, die wir bislang kennen. Angesichts der immer mehr bekanntwerdenden Komplexität von Leben und der Entwicklung des Lebens auf der Erde in diesem Sonnensystem in dieser unserer Galaxie ist die mathematische Wahrscheinlichkeit, dass ein ähnlich komplexer Prozess irgendwo anders auch nochmals stattfinden konnte statistisch so gering ist, dass die angeführte Größe des Universums dafür mathematisch keinen Ausgleich liefern kann. Was den  anderen Punkt mit der möglichen anderen Form von Leben betrifft, so läßt die bis heute bekanntgewordene Struktur der Atome keine anderen Molekülformen zu; wenn sich Moleküle bilden, dann nur die, die bislang bekannt geworden sind. Auch wenn die mathematischen Modelle zur Beschreibung von Atomen statistischer Natur sind, die letztlich wirkende ‚Eigenschaftsstruktur‘ der Atome ist nicht ‚beliebig‘ sondern eher deterministisch und –sofern sich überhaupt komplexere Lebensformen bilden– der ‚Bootstrapping‘-Prozess von Leben ist damit weitgehend vorgezeichnet (wenn er gelingt).

(11) Völlig offen ist, welche Formen Leben annehmen kann, wenn es –wie auf der Erde geschehen– sich bis zur Struktur von modellhaftem Denken, symbolischer Kommunikation, Selbstbewusstsein ‚hochgearbeitet‘ hat und durch  Verfügbarmachung geeigneter Werkzeuge (Technologien)  auf die Struktur der Materie ‚zurückwirken‘ kann; Genetik und Kernphysik bilden den Ausgangspunkt zu Organisationsformen, die es so noch nie gab. Allerdings weiß auch bislang niemand, in welche Richtung die Entwicklung gehen sollte. Die Menschen sind bislang noch so sehr mit sich selbst, lächerlichen Alltagsproblemen oder gegenseitiger Vernichtung beschäftigt, dass kaum Potential verfügbar ist, die eigentliche ‚Mission Leben‘ in Angriff zu nehmen.  Eine erste Bewährungsprobe entsteht in den nächsten 25 Jahren z.B. dann, wenn die Weltbevölkerung die verfügbaren Ressourcen in Punkto Ernährung überschritten haben wird. In ein paar Millionen Jahren wird der Mond die Erde tanzen lassen, weil er sich dann weit genug von der Erde entfernt hat; sollten wir das in den Griff bekommen (im Prinzip nicht unmöglich) bleiben dem Leben noch ein paar hundert Millionen Jahre, bis die Sonne alles zum Verdampfen bringen wird; auch dies ist prinzipiell nicht unlösbar (auch wenn man sich angesichts unserer heutigen Alltagsformen und alltäglichen Vorstellungswelten nicht so recht vorstellen kann, wie eine solche Mentalität dies in den verfügbaren Zeiträumen schaffen soll).