Die Wiederentdeckung Gottes auf dem Planeten Erde für alle denkbaren Universen. Essay. Teil 3

PDF

ÜBERBLICK

Voraus ging ein anderer  Beitrag, siehe HIER.

Im Folgenden weitere Aspekte zur Wiederentdeckung Gottes auf dem Planet Erde … Wir sind da. Die Dinge sind da. Wir selbst sind ein ‚Ding‘. Raum und Zeit. Konservierte Zeit.

WAS DA IST

Naturgesetz im Alltag

  1. Wenn etwas, was da ist, so da ist, weil es nach unserem Verständnis einem ‚Naturgesetz‘ folgt, dann ist es nach unserem alltäglichen Verständnis erzwungener Maßen da, notwendigerweise, deterministisch. Bei gleichen Voraussetzungen würde es immer genau so sich wiederholen. Der berühmte Apfel löst sich aus dem Baum, fällt ’nach unten‘ und bleibt liegen.

Gegenstand im Raum

  1. Und es ist auch wahr, dass in unserem alltäglichem Erleben der Apfel nicht isoliert vorkommt sondern als abgrenzbares Etwas in dem, was wir ‚Raum‘ nennen; an derselben Stelle, an der sich der Apfel befindet, kann kein zweiter Apfel sein, und der Apfel hat eine ‚Umgebung‘, die wir hemdsärmelig mit ‚Oben‘, ‚Unten‘, ‚links‘, ‚rechts‘, ‚vorne‘ und ‚hinten‘ usw. beschreiben. In unserem alltäglichen Raum fällt der Apfel immer nach ‚unten‘, nie nach ‚oben‘.
  2. Auf den Apfel können wir als Gegenstand, als Objekt hinweisen, ihn abgrenzen von seiner Umgebung; auf den Raum können wir nicht direkt hinweisen; der Raum ist kein Objekt wie der Apfel. Der Raum ist wie eine Art ‚Behälter‘ aber ohne Begrenzung. Für uns erscheint der Raum in der alltäglichen Erfahrung quasi ‚unendlich‘. Wir sprechen über den Raum relativ durch Bezug über das, was ‚in dem Raum‘ vorkommt. Wir kennen ‚Objekte‘ nur als ‚in einem Raum vorkommend‘. Die Erfahrung von Objekten und Raum ist simultan.
  3. Was ist, wenn jemand blind ist, absolut nichts sieht? Ist der Raum dann weg?
  4. Wenn wir unsere Augen schließen können wir (im Normalfall (was ist ’normal?)) mit unseren Händen Oberflächen spüren, denen wir durch Bewegung unserer Finger, Hände, Arme, eventuell auch des Körpers, folgen können. Die Bewegung unseres Körpers verändern die jeweilige ‚Stellung‘ von Körperteilen, Muskeln, Knochen… Diese ‚Stellungen‘ sind subjektiv, sie spiegeln sich ‚in uns selbst‘ wieder; wir können sie im Erleben unterscheiden. ‚In uns‘ versammeln wir alle diese Erlebnisse unterschiedlicher Stellungen und können sie ‚in Beziehung‘ setzen: wenn das Objekt selbst sich nicht verändert, dann sind diese Stellungen nicht beliebig. Das Verhältnis der verschiedenen erlebbaren Stellungen bildet ein Beziehungsgeflecht, das man auch als ‚räumlich‘ interpretieren kann, das dann auch ein ‚oben‘, ‚unten‘, ‚links‘ und ‚rechts‘ usw. zulässt. Die unterschiedlichen Stellungen markieren dann in diesem Beziehungsgeflecht eine ‚Position‘. Mit anderen Worten: auch ohne Sehen, nur mit unseren körperlichen Bewegungen zusammen mit den Tastempfindungen ist unser Erleben von etwas anderem, von Gegenständen, von Objekten, mit der ‚Vorstellung eines Raumes‘ verbunden.
  5. Wenn wir ‚Sehen‘ und ‚Tasten‘ können, dann lässt sich der ‚Seh-Raum‘ und der ‚Tast-Raum‘ miteinander in Beziehung setzen.

Wir sind auch ein Objekt

  1. Eine Besonderheit ist, dass wir in beiden Räumen ‚uns selbst‘, ‚unseren Körper‘ als Teil des Raumes, als Gegenstand neben anderen Gegenständen erleben können. Wir erleben uns als Gegenstand, als Objekt in einem ‚Raum‘ von vielen Objekten. Die Gegenstände erscheinen als ‚endlich‘, der Raum als ‚unendlich‘.

Sprache kann verbinden

  1. Wenn wir weder sehen noch tasten können, wird es schwierig. Mir persönlich versagt da die Vorstellung, und unsere Sprache verliert den Weltbezug, den sie braucht, um zwischen verschiedenen Menschen zu funktionieren. Was immer ein einzelner Mensch ‚in sich‘ erlebt, sofern jeder Mensch als Objekt in einem Raum von Objekten vorkommt, den er mit einem anderen Menschen teilt, so lange kann er mittels der Sprache ein gemeinsames Bezugssystem aufspannen, innerhalb dessen er sich selbst und sein Erleben ‚verorten‘ kann.

Zeit subjektiv

  1. Die Situation des fallenden Apfels lässt aber noch mehr erkennen. Es ist nicht nur ein ‚Raum‘, der sich mit dem Apfel zum Erleben bringt, es ist auch etwas, das wir ‚Zeit‘ nennen.
  2. Wie selbstverständlich sagen wir im Alltag, dass der Apfel ‚zuerst‘ am Baum war, und ‚dann‘, ’später‘ auf dem Boden lag. Wir verfügen (als Menschen) über die Fähigkeit, nicht nur den ‚jeweiligen Augenblick‘ erleben zu können, sondern wir können auch ‚vergangene Augenblicke erinnern‘, weil wir uns Erlebnisse ‚merken‘ können (nicht unbedingt 1-zu-1), und weil wir ‚vergangene Augenblicke‘ erinnern können, können wir zwischen einem ‚aktuellen Augenblick‘ und einem ‚erinnerten Augenblick‘ vergleichen. Im aktuellen Augenblick liegt der Apfel z.B. auf dem Boden, wir können aber erinnern, dass es einen Augenblick gab, da war der Apfel noch am Baum, also ‚vorher‘ an einer anderen Position im Raum als ‚jetzt‘.

Konservierte Zeit

  1. Diese Unterscheidung von ‚vorher‘ und ’nachher‘ relativ zu einem ‚jetzt‘ können wir erleben, weil wir erinnern können. In der Welt des Raumes für sich, ohne das menschliche Erleben, gibt es nur ein Jetzt! Die Raumwelt ist reine Gegenwart, allerdings, wenn man die Gegenwart der Raumwelt ‚lesen‘ kann, dann kann man in der Gegenwart der Raumwelt ‚Hinweise‘ finden, ‚Indizien‘, die auf eine ‚andere (vorausgehende) Gegenwart‘ hindeuten können. In der Gegenwart des Raumes ist die Zeit des Entstehens quasi ‚konserviert‘, ‚eingefroren‘, ‚eingebrannt‘ in die Welt. Die Raumwelt enthält ihre ‚Geschichte‘ quasi ‚in sich selbst‘, ‚an sich‘.
  2. Am Beispiel des fallenden Apfels ‚lernt‘ schon jedes Kind, dass Äpfel, die am Boden liegen, vorher am Baum hingen und dann irgendwann herunter fallen. Wenn also ein Kind einen Apfel liegen sieht, erinnert es sich an die ‚Regel‘ die es gelernt hat, und schließt vom Apfel am Boden mittels dieser Regel darauf, dass es ‚vorher‘ einen Zustand gegeben hat, bei dem der Apfel am Baum war. Mit der gelernten Regel wird der Apfel am Boden zu einem Anzeichen, einem Hinweis, einem Indiz, dass es vorher einen anderen Zustand gegeben hat.
  3. Es war eine große Sternstunde der menschlichen Wissenschaft, als die Geologen — wie jedes Kind — lernten, in der Gegenwart der Erde ‚Spuren‘, ‚Hinweise‘, ‚Indizien‘ zu entdecken, die darauf hindeuteten, dass aktuelle Erdschichten ‚Ablagerungen‘ sind aus vorausgehenden Zeiten, und dass diese Ablagerungen mit ihren spezifischen Eigenschaften Hinweise enthalten auf die Besonderheiten dieser vorausgehenden Zeiten.
  4. So konnten die Geologen durch Vulkane der Gegenwart lernen, wie ihre Ablagerungen aussehen, und dadurch auf Vulkane der Vergangenheit schließen. Durch die Meere der Gegenwart konnte man auf Meere der Vergangenheit schließen, die oft da waren, wo heute Land ist oder gar Wüste. Und sie entdeckten, dass die heutigen Kontinente in Bewegung sind; dass sie vor vielen Millionen Jahren anders angeordnet waren. Dass sich das Klima im Laufe von vielen Milliarden Jahren mehrfach dramatisch geändert hatte; es gab allein in den letzten 2.5 Millionen Jahren abwechselnd 50 Kalt- und Warmzeiten, und insgesamt gab es viele große Eiszeiten mit Dauern von Millionen von Jahren. Dabei schwankte die ‚Höhe‘ des Meeresspiegels um viele hundert Meter. Und vieles mehr.
  5. Parallel zu den Geologen konnten dann auch die Biologen die Funde aus den verschiedenen Ablagerungen verschiedenen Zeiten zuordnen und so schrittweise entdecken, dass die Formen des Lebens sich seit mindestens 3.5 Milliarden Jahre beständig verändert haben. Von unfassbar klein und vielfältig bis immer komplexer, mit großen dramatischen Einbrüchen bedingt durch dramatische Veränderungen der Geologie und des Klimas (Supervulkanausbrüche, Asteroideneinfall auf der Erdoberfläche, lange Eiszeiten, Trockenheiten, …). Seit kurzem können die Biologen auch über die Struktur der Zellen und Moleküle Beziehungen zwischen den verschiedenen Lebensformen über ihre direkte biologische Abstammung aufgrund ihrer ‚Baupläne‘ untersuchen; vorher waren sie allein auf den Körperbau und das Aussehen (den Phänotyp) angewiesen.
  6. Und noch mehr. Parallel zu Geologie und Biologie haben auch die Physiker entdeckt, dass es in der Gegenwart des physikalischen Universums Hinweise auf eine mögliche Vergangenheit gibt. Und, wie so oft, wenn erst einmal eine Entdeckung gemacht wird, zieht diese viele weitere nach sich. Schrittweise konnte man rekonstruieren, dass das Universum sich immer noch ausdehnt, von daher zurück verweist auf einen physikalischen Anfangspunkt, den man ‚Big Bang‘ nannte, von dem aus sich Energie in Teilchen verwandelte, Atome, Moleküle, dazu gigantische Gaswolken, Sternenbildung, Bildung von Galaxien und Superclustern, Neuwerdung von Sternen, aber auch das Sterben von Sternen, Verschmelzung von Galaxien, und vieles mehr.
  7. Zu beachten ist hier, dass die subjektive Zeit des Erlebens und die Zeit der Physik zwei verschiedene Sachverhalte bezeichnen.

Technische Zeit: Uhren

  1. Die subjektive Zeit des Erlebens basiert auf der Erinnerung von vorausgehenden Augenblicken und erlaubt durch Vergleich von aktuellem Jetzt und erinnertem Jetzt eine ‚relative‘ Bestimmung von ‚Vorher‘ und ‚Nachher‘. Dieses ‚Vorher-Nachher‘ lässt sich mit konkreten Objekten und deren Eigenschaften verknüpfen, z.B. auch mit periodischen Vorgängen in unserem Erlebnisraum wie ‚Wachen – Schlafen‘, ‚Tag und Nacht‘, ‚Jahreszeiten‘ oder auch Vorrichtungen zur künstlichen Erzeugung von periodischen Ereignissen, die wir ‚Uhren‘ nennen.
  2. In der Physik gibt es kein ’subjektives Erleben‘ (nur indirekt, über das Erleben der Physiker, das aber ausgeklammert werden soll). Wenn die Physik von ‚Zeit‘ spricht, dann nur als ein theoretischer Begriff innerhalb einer formalen Theorie, die sich mit einer definierten Messprozedur zur empirischen Welt in Beziehung setzen lässt. Und hier gibt es in der Physik mindestens zwei Szenarien.
  3. In dem einen Szenario hat die Physik z.B. die Zeitdauer von ‚1 Sekunde‘ an Eigenschaften einer technischen Vorrichtung gekoppelt, die man ‚Atomuhr‘ nennt. Innerhalb eines bestimmten Genauigkeitsgrades sind alle Atomuhren ‚gleich‘ (andererseits, wenn eine Atomuhr in Nordamerika steht, eine andere in Europa, wieder eine andere in Asien, usw., dann erfordert die Abstimmung der ‚Gleichzeitigkeit‘ eine Kommunikation zwischen den Betreibern der Atomuhren. Diese Kommunikation erfolgt mittels elektromagnetischer Wellen durch die Atmosphäre. Diese Kommunikation ist um Dimensionen langsamer und ungenauer als die Atomuhren selbst. Dennoch sprechen die zuständigen ‚Behörden für die Zeit‘ (meistens die nationalen metrologischen Institute) von einer gleichen Zeit. (Es ist eine interessante Aufgabe, zu verstehen, wie dies möglich ist). Ferner ist zu beachten, dass der Alltag der Menschen primär natürlich nicht von den Atomuhren bestimmt wird, sondern von den Tag-Nacht Perioden und den Jahreszeiten, auf die auch alle Kalender aufbauen. Die Physik muss also ihre Atomuhren-Zeit mit den Erdzeiten abgleichen. Da die Erdzeiten nicht vollständig exakt zu der Atomzeit passen, müssen immer wieder ‚Zeit-Ausgleiche‘ vorgenommen werden. Im Alltag haben wir die Kalender und unsere ‚Normaluhren‘, hinter der Oberfläche haben wir aber eine exakte Atomzeit, die den Physikern hilft, die Zeit des Alltags immer wieder auszutarieren.

Die Zeit des Lichts

  1. Mitten in einem schier unendlich erscheinenden Universums wird das Beobachten zu einem Problem: wenn alles in Bewegung ist, wo ist der gemeinsame, stabile Bezugspunkt? Im Alltag setzen wir voraus, dass die Situation, das Land, die Erde ’stabil‘ genug ist, so dass wir diese Umgebung als gemeinsamen Bezugspunkt benutzen können (Landkarten, Navis, …). Im Universum gibt es aber keinen festen Punkt; alles bewegt sich, auch der Beobachter auf der Erde, die sich um sich selbst dreht, die sich zur Sonne hin unterschiedlich neigt, die sich um die Sonne bewegt, und der Beobachter bewegt sich auf der Erde, vielleicht fliegt er mit einem Flugzeug, einem Raumschiff … Woran soll man sich hier noch festmachen?
  2. Glücklicherweise konnten die Physiker herausfinden, dass das Licht eine konstante Geschwindigkeit c hat (siehe: \url{https://de.wikipedia.org/wiki/Lichtgeschwindigkeit}). Je nach dem umgebenden Medium kann sich diese zwar verringern, aber man kann für jedes Medium ermitteln, wie stark das Licht verlangsamt wird, so dass man am Ende heraus rechnen kann, wie schnell das Licht unterwegs war und ist. Mit diesem Wissen kann man unter Berücksichtigung der verschiedenen Beobachter dann Entfernungen fixieren und eine Gleichzeitigkeit ermitteln. Im mathematischen Konzept der Raum-Zeit hat Einstein diesen Überlegungen mit seiner speziellen Relativitätstheorie (SRT) einen konzeptuellen Rahmen gegeben.
  3. Wie schon angemerkt, kann die Umgebung des Lichts dessen Geschwindigkeit verändern. Eine besondere Beeinflussung geschieht auch durch die sogenannte ‚Gravitation‘, die durch die Masse der Körper aufeinander stattfindet. Die Gravitation kann den Weg des Lichts im Raum beeinflussen, indem es dieses ‚ablenkt‘. Das Licht breitet sich dann nicht ‚gerade‘ aus, sondern wird ‚gebogen‘. Für einen Beobachter bewirkt dies, dass er die Lichtquelle (ein Stern) mit einer anderen Form/ Gestalt wahrnimmt, als sie tatsächlich hat. Um diese besondere Wirkung der Gravitation berücksichtigen zu können hat Einstein dann den begrifflichen Rahmen der speziellen Relativitätstheorie zur allgemeinen Relativitätstheorie (ART) erweitert.  Das Konzept der Raum-Zeit wurde durch den Aspekt der Raum-Zeit-Krümmung erweitert, d.h. man gab dem physikalischen Phänomen der Beeinflussung der Lichtbahn durch die Gravitation eine mathematische Deutung als ‚Krümmung‘ in einem geometrischen Modell.
  4. Obwohl mit der speziellen wie mit der allgemeinen Relativitätstheorie bislang sehr viele physikalische Phänomene ‚erklärt‘ werden konnten, indem man sagen konnte, dass das B, was man im aktuellen Augenblick beobachten kann, von einem vorausgehenden A kommt, und der Weg von A nach B durch die spezielle oder der allgemeinen Relativitätstheorie beschrieben werden kann, herrscht in der Physik die Überzeugung, dass man noch nicht am Ende der theoretischen Erklärungen angekommen sei, da eine Vereinigung der Quantenphysik und der allgemeinen Relativitätstheorie noch ausstehe.

UND WIR?

  1. Wenn man den Gesprächen der Physiker lauscht, dann kann man ergriffen werden von einem großen Wundern und Staunen über dieses Universum, seinen unfassbaren Dimensionen, die uns umgeben. Zugleich kann es auch nieder schmettern, das Gefühl einer tiefen Verlorenheit erzeugen, wir, auf dieser Erde, so winzig in einer Galaxie, diese so winzig in einem Meer von Galaxien, alles auseinander fliegend … und man selbst so klein, so endlich in der Zeit. Was sind schon 100 Jahre Lebenszeit angesichts dieser Millionen, ja Milliarden von Jahren?

Fortsetzung folgt.

Pausenmusik 🙂

KONTEXT BLOG

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER

ONTOLOGIE DES BEWUSSTSEINS – Nachbemerkung zu Craik

PDF

Übersicht
Craik führt in seinem Buch eine breit angelegte Diskussion im Spannungsfeld von Philosophie, Psychologie, Physiologie, Physik und Technik, die einige Hauptthemen erkennen lässt: ein Plädoyer für ein kausales Verständnis der realen Welt, für die Rekonstruktion von Bewusstsein durch Rückgriff auf das Nervensystem, für die zentrale Rolle mentaler Modelle, sowie für die wichtige Rolle von Sprache in allem Erklären. Dies gibt Anlass, den ontologischen Status des Bewusstseins nochmals zu präzisieren.

I. KONTEXT

In einem vorausgehenden Blogeintrag hatte ich kurz einige der Hauptthemen aus dem Buch ’The Nature of Explanation’ (1943) von Craig vorgestellt und kurz kommentiert. In diesem Buch weist Craik zurecht darauf hin, dass eine Erklärung der geistigen/ mentalen/ kognitiven Phänomene des Menschen ohne Rückgriff auf das ermöglichende Gehirn unvollständig sind. Eine introspektive Beschreibung solcher Phänomene beschreibt die Oberfläche dieser Phänomene, wenn sie gut gemacht ist, auch noch deren Dynamik, aber sie kann sie nicht wirklich erklären, da derjenige Kontext, der kausal für diese Phänomene verantwortlich zu sein scheint (harte Beweise gibt es nicht, siehe weiter unten), das menschliche Gehirn, in solch einer phänomenalen Beschreibung nicht berücksichtigt wird (bisher nicht!).

Dieser überdeutliche Hinweis seitens Craig wird durch vielfache Überlegungen untermauert. Was aber fehlt ist ein klares Konzept, wie denn eine philosophisch-wissenschaftliche Beschreibung des Sachverhalts methodisch vorgenommen werden müsste, um allen Aspekten Rechnung zu tragen. Obwohl Craig alle wesentlich beteiligten
Disziplinen explizit nennt (Philosophie, Psychologie, Physiologie, Physik) und er sich in diesen Bereichen gut auskennt, lässt er das genaue Verhältnis dieser Disziplinen zueinander offen.

II. MULTIPLE SICHTEN

Multiple Sichten auf den Menschen und sein Umfeld

Multiple Sichten auf den Menschen und sein Umfeld

1) Vielleicht kann es in dieser Situation helfen, sich bewusst zu machen, welch Faktoren in dieser Erkenntnissituation beteiligt sind und wie diese (grob) aufeinander bezogen sind.
2) Im Schaubild 1 sind diese Faktoren angedeutet. Die Perspektive, aus der heraus dieses Bild entstanden ist, ist zunächst die der empirischen Wissenschaften, dann ergänzt um eine introspektive Perspektive.
3) Die Physik erzählt uns die Geschichte vom Universum, seiner Entstehung seit dem Big-Bang Ereignis, seiner Struktur, die u.a. unsere Heimatgalaxie, die Milchstraße, enthält. Innerhalb der Milchstraße gibt es u.a. unser Sonnensystem mit der Erde, unserem Heimatplaneten. Die Biologie erzählt uns die Geschichte von der Entstehung des biologischen Lebens auf der Erde, die Entwicklung all der unzähligen Arten (von denen die meisten wieder ausgestorben sind), bis hin zum homo sapiens, den wir repräsentieren.
4) Um den Menschen herum gibt es zahllose wissenschaftliche Disziplinen, die unterschiedliche Aspekte des homo sapiens untersuchen. Die Physiologie hat uns darüber belehrt, dass der menschliche Körper mit all seinen komplexen Organen letztlich aus einzelnen Zellen besteht, die auf unterschiedliche Weise im Körper als Zellverbände kooperieren und dabei kommunizieren.
5) Was man bei der Betrachtung der beeindruckenden Gesamtleistung aber niemals vergessen darf, ist, dass alle Zellen zu jedem Zeitpunkt aus Molekülen bestehen, diese wiederum aus Atomen, diese wiederum aus sub-atomaren Teilchen. Jede dieser identifizierbaren Einheiten folgt eigenen, spezifischen Gesetzen des Verhaltens.
Diese Verhaltensweisen sind so spezifisch, dass es sinnvoll ist, hier entsprechend den jeweiligen Einheiten von unterschiedlichen Organisationsebenen zu sprechen, mit steigender Komplexität.
6) Diese Unterscheidung nach Organisationsebenen (denen unterschiedliche Komplexitätsebenen entsprechen), ist hilfreich, wenn man die Interaktion zwischen allen Einheiten betrachtet. Das Herz z.B. ist in einer Hinsicht eine ’Pumpe’, die das Blut durch die Adern pumpt. Es ist über Zellen auch mit dem Gehirn verbunden, das den Zustand des Herzens ’kontrolliert’ und durch elektrische-chemische Impulse beeinflussen kann. Die einzelnen Zellen, die den Zellverband ’Herz’ bilden, sind ferner für sich genommen individuelle, autonome Systeme, die untereinander durch Stoffwechselprozesse (Energieversorgung, …) verbunden sind, die absterben und durch  neue ersetzt werden, und vieles mehr. Je nach Zustand der Umgebung einer Zelle, welche Moleküle, Atome
dort vorkommen, kann dies auch die Zelle stören, zerstören. Die Zelle kann auch selbst Störungen aufweisen.
7) Insofern alle Moleküle auch Atome sind mit subatomaren Einheiten, unterliegen diese Atome jederzeit den unterschiedlichen Wechselwirkungen, die zwischen Atomen und subatomaren Einheiten im gesamten Universum möglich sind. Wie die Physik uns heute erzählen kann, gibt es hier vielfältige Wechselwirkungen im quantenmechanischen Bereich, die über den Bereich eines einzelnen menschlichen Körpers weit hinausgehen,
die bis in die Dimension der Milchstraße reichen.
8) Dies alles gilt natürlich auch für den Zellverband, der unser Nervensystem mit dem Gehirn bildet. Das Gehirn ist Teil des Gesamtkörpers; es liegt im Körper. Das Gehirn, so erzählen die Gehirnforscher heute, hat trotz der Flexibilität, Plastizität seiner Zellen in sich eine Struktur, die unterschiedliche funktionelle Einheiten abgrenzen lässt, die sowohl in sich wie auch miteinander sowohl über elektro-chemische Weise kommunizieren
wie auch nur chemisch. Dabei werden die quantenmechanischen Wechselbeziehungen normalerweise nicht berücksichtigt.
9) Lässt man die quantenmechanischen Wechselbeziehungen außen vor, dann kann das Gehirn mit der Umgebung des Körpers nur über Zellen kommunizieren, die elektro-chemische oder chemische Signale austauschen. Dazu gibt es spezielle Sinneszellen, die externe Energieereignisse in interne neuronale Energieereignisse übersetzen, und diese dann auf unterschiedliche Weise von Zelle zu Zelle weiter reichen. Dieser Prozess ist niemals 1-zu-1 sondern bringt mehrfache Transformationen und Abstraktionen mit sich. In der Regel werden zudem nicht Signale von einzelnen Sinneszellen benutzt, sondern meistens viele Hunderte, Tausend, Hunderttausende oder gar Millionen gleichzeitig und parallel. Diese werden auf unterschiedliche Weise miteinander
verrechnet. Wie das Gehirn es schafft, ohne direkten Kontakt mit der externen Welt aus diesen vielen Abermillionen gleichzeitigen Einzelsignalen brauchbare Muster, Zusammenhänge und Abläufe zu extrahieren und damit ein komplexes Verhalten zu steuern, das enthüllt sich nur langsam.
10) Aus empirischer Sicht ist die Geschichte hier zu Ende. Im Schaubild 1 gibt es aber noch die Größe Bewusstsein. Wie kommt die ins Spiel?

III. BEWUSSTSEIN

1) Aus empirischer Sicht (Physiologie, Gehirnforschung, Biologie, Physik, Chemie, Molekularbiologie, Genetik, empirische Psychologie,…) kann man die Zellen, Zellverbände, ihre Eigenschaften beobachten, messen, und das Verhalten dieser Einheiten auf der Basis dieser Messwerte beschreiben, auch mit kausalen Beziehungen,
zunehmend auch mit partiellen Modellen. Dabei wurden und werden zahlreiche interessante Wechselbeziehungen aufgedeckt z.B. zwischen Zellen und deren Molekülen, gar Atomen. In dieser Perspektive gibt es aber keinerlei Phänomene, die irgendetwas mit dem sogenannten Bewusstsein zu tun haben. In einer empirischen Perspektive gibt es prinzipiell keinerlei Möglichkeiten, bewusstseinsrelevante Phänomene zu beobachten und
zu beschreiben.
2) Selbst die moderne empirische Psychologie ist methodisch beschränkt auf messbare Sachverhalte, die sie letztlich nur im Bereich des beobachtbaren Verhaltens finden kann, neuerdings erweiterbar mit physiologischen Daten, sodass man in einer neuro-psychologischen Vorgehensweise beobachtbare Verhaltensdaten mit Körperdaten und speziell Gehirndaten in Beziehung setzen kann. Dies hat zu einer erheblichen Ausweitung
der möglichen Erklärungsleistung geführt. Aber auch in der Perspektive einer Neuro-Psychologie gibt es streng genommen keinerlei Phänomene, die man als bewusstseins-relevant bezeichnen könnte.
3) Wissenschaftstheoretisch (andere sprechen von Wissenschaftsphilosophisch) beschränkt sich der Begriff Bewusstsein auf eine spezielle Form von Innensicht des Gehirns, wie wir sie bislang explizit nur von Exemplaren des homo sapiens kennen, da dieser mittels des Werkzeugs symbolische Sprache Aussagen, Beschreibungen
liefern kann, die indirekt Zeugnis geben von Sachverhalten, die sich auf diese Innensicht des Gehirns beziehen. Die Innensicht des Gehirns ist einer empirischen Beobachtung nicht direkt zugänglich (auch wenn man in zahllosen neuro-psychologischen Abhandlungen immer wieder das Wort ’Bewusstsein’ findet, auch z.B, in der
Wortschöpfung ’neuronales Korrelat des Bewusstseins’; wissenschaftsphilosophisch ist dies Unsinn; es kann aber möglicherweise einen gewissen ’heuristischen’ Wert innerhalb wissenschaftlicher Untersuchungen haben.)
4) Dass wir überhaupt von Bewusstsein sprechen liegt daran, dass alle Exemplare des homo sapiens (und vermutlich nahezu alle biologischen Systeme) über diese bemerkenswerte Fähigkeit einer Innensicht des Gehirns verfügen, die die Betroffenen mit einem kontinuierlichen Strom von Ereignissen versorgt. Um diese Ereignisse aus der Innensicht des Gehirns von den Ereignissen der empirischen Wissenschaften abzugrenzen, sprechen die Philosophen spätestens seit dem Philosophen Edmund Husserl (1859 – 1938) von phänomenalen Ereignissen statt einfach von Ereignissen. Dies hat damit zu tun, dass Edmund Husserl und alle weiteren Anhänger einer bewusstseinsbasierten Philosophie die Ereignisse in der Innensicht des Gehirns generell als Phänomene (Ph) bezeichnet haben.
5) Da jeder Mensch qua Mensch im normalen Erkenntniszustand sich primär im Modus der Innensicht des Gehirns befindet (was anderes hat er auch gar nicht zur Verfügung) hat er zwar direkten Zugang zu den Phänomenen seines Erlebnisstroms, aber er hat nahezu keine Möglichkeit, den Begriff ’Bewusstsein’ intersubjektiv, objektiv zu definieren. Der einzelne Mensch hat zwar Zugang zu seinen Phänomenen, aber eben nur zu seinen;
das gilt für jeden Menschen in gleicher Weise. Sofern verschiedene Menschen eine gemeinsame Sprache sprechen und in dieser Sprache z.B. den Begriff ’Bewusstsein’ einführen, können sie die Wortmarke ’Bewusstsein’ zwar untereinander vorstellen, sie können aber niemals ein intersubjektives Objekt aufzeigen, auf das sich die Wortmarke ’Bewusstsein’ beziehen könnte. Nach zehntausenden Jahren von menschlicher Existenz
(wissenschaftlich gibt es den homo sapiens ca. 200.000 Jahre) gibt es so etwas wie ein explizites Sprechen mit dem Begriff ’Bewusstsein’ vielleicht 400 – 500 Jahre, höchstens. Ausführlich und systematisch vielleicht erst seit ca. 150 Jahren. Und bis heute erwecken die vielen Sprachspiele, in denen die Wortmarke ’Bewusstsein’ vorkommt, nicht den Eindruck, als ob allen Beteiligten so richtig klar ist, was sie da tun.

IV. SUBJEKTIV – EMPIRISCH

1) Die Tatsache, dass Menschen sich zunächst und primär im Modus der Innensicht des Gehirns vorfinden, ist einerseits – biologisch – normal, da sich explizite und leistungsfähige Nervensysteme und Gehirne erst relativ spät entwickelt haben, aber dann für die biologischen Systeme, die darüber verfügen konnten, zu einer der wertvollsten Eigenschaften des Überlebens und dann auch überhaupt Lebens auf der Erde wurden.
Jedes biologische System bekommt durch die Innensicht seines Gehirns eine Reihe von wertvollen (allerdings meist hochkomplexe) Informationen, mittels deren es seine aktuelle Situation, seine Geschichte, und seine mögliche Zukunft immer besser ausrechnen kann. Beim homo sapiens kommt dazu eine spezielle Kommunikationsfähigkeit hinzu. Gerade die besonderen Eigenschaften des Nervensystems beim Menschen haben dem
homo sapiens eine gigantische Überlegenheit über nahezu alle anderen biologischen Systeme gegeben. Für den homo sapiens ist dies eine Erfolgsgeschichte, nicht für die anderen Arten, die der homo sapiens entweder ausgerottet oder stark dezimiert hat oder für seine Zwecke brutal knechtet.
2) Durch die immense Zunahme der Population des homo sapiens aufgrund seiner immer verfeinerten Technik und Kultur gab es, beginnend vor ca. 2500 bis 3000 Jahren und dann andauernd bis ca. vor 500 Jahren (letztlich andauernd bis heute) immer größere Konflikte mit dem Reden über die Welt. Der Reichtum der Phänomene in der Innensicht des Gehirns ermöglicht in Kombination mit der symbolischen Sprache immer komplexere
Beschreibungen von phänomenal möglichen Sachverhalten, denen aber nicht notwendigerweise etwas in der (empirischen, objektiven, intersubjektiven) Außenwelt entsprechen musste. Das menschliche Gehirn kann in der Innensicht mühelos abstrakt-virtuelle Strukturen erzeugen, denen direkt nichts in der Außenwelt entsprechen
muss. Dies kann zu Verwirrungen führen, zu Fehlern, Katastrophen (man denke z.B. an die vorwissenschaftliche Medizin oder Physik oder …).
3) An diesem – in gewisser Weise ’natürlichem’ – Kulminationspunkt von denkerisch-sprachlicher Blütezeit und Diskrepanz zwischen gedachten Bedeutungen und empirisch, realer Bedeutung entdeckten immer mehr Menschen, dass eine Unterscheidung der menschlichen Rede in jene Redewendungen, die sich auf reale Aspekte
der Welt beziehen, und jene, die ’anders’ sind, von hohem praktischen Nutzen wäre. Die Idee einer empirischen (wissenschaftlichen) Sprache wurde geboren: empirisch wissenschaftlich sollten fortan nur noch jene Redewendungen gelten, die sich auf Gegebenheiten der realen Außenwelt beziehen lassen. Und damit dies
intersubjektiv, objektiv zweifelsfrei sei, wurde zusätzlich postuliert, dass sich diese Gegebenheiten nach einem vereinbarten Vergleichsverfahren mit einem vereinbarten Standard wissenschaftlich messen lassen. Nur solche Aussagen sollten künftig als wissenschaftlich relevante Fakten/ Daten akzeptiert werden.
4) Damit gab es nun zwar wissenschaftliche Fakten, aber es war nicht verbindlich geklärt, in welcher Form man diese Fakten dann zu komplexeren Aussagen über Beziehungen, Beziehungsnetzwerken (Modelle, Theorien) nutzen könnte. Faktisch benutzen die meisten mathematische Formeln zur abstrakten Beschreibung von empirischen Sachverhalten, die dann durch die empirischen Fakten fundiert wurden. Was genau aber
eine wissenschaftliche empirische Theorie ist, dies wurde bis in die Gegenwart nicht restlos geklärt (trotz Wissenschaftstheorie oder Philosophy of Science. Noch heute kann man in jeder sogenannten wissenschaftlichen Zeitschrift Artikel finden, in denen die Autoren sichtlich keine Vorstellung haben, was letztlich eine wissenschaftlich
empirische Theorie ist!)
5) Ein negativer (wenngleich unnötiger) Nebeneffekt der Entstehung wissenschaftlich empirischer Redeformen war die (zunächst sinnvolle) Abgrenzung gegenüber den nicht-wissenschaftlichen Redeformen, die dann aber im weiteren Verlauf zu einer Aufspaltung des Denkens in wissenschaftlich und nicht wissenschaftlich führte mit dem besonderen Akzent, dass das nicht-wissenschaftliche Reden (von den empirischen Wissenschaftlern)
grundsätzlich negativ belegt wurde. Aufgrund der historischen Lebensformen, Machtausübungen, Unterdrückungen kann man diese stark abgrenzende Haltung der Wissenschaft gegenüber den nicht wissenschaftlichen Redeformen aus der Vergangenheit verstehen. Heute dagegen wirkt diese Abgrenzung mehr und mehr kontra-produktiv.
6) Man sollte sich immer wieder bewusst machen, dass die Erfindung der empirischen Redeformen durch Verknüpfung des Redens mit definierten Vergleichsverfahren im intersubjektiven Bereich die grundsätzliche Ausgangssituation des Erkennens nicht verändert hat. Auch ein empirischer Wissenschaftler lebt primär mit dem Ereignisstrom in der Innensicht des Gehirns. Da kommt er trotz Einführung der Verknüpfung mit Messverfahren auch nicht heraus. Man kann sich dies so veranschaulichen: Ausgangspunkt für jeden Menschen ist die Menge seiner phänomenalen Ereignisse (Ph) in der Innensicht. Diese differenziert sich in aktuelle sinnliche (externe wie interne) Wahrnehmung vermischt mit den aktuell verfügbaren Gedächtnisinhalten, die diese Wahrnehmungen automatisch interpretieren. Diejenigen Phänomene, die mit intersubjektiven Messverfahren korrespondieren, bleiben trotzdem Ereignisse in der Innensicht des Gehirns; nennen wir sie Ph_emp . Als Phänomene bilden sie
dann eine Teilmenge von allen Phänomenen (Ph), also Ph_emp ⊆ Ph. Der empirische Wissenschaftler steigt also nicht grundsätzlich aus dem Club der Phänomenologen aus, sondern er folgt einer methodisch motivierten Beschränkung, wann und wie er wissenschaftlich über die empirische Welt spricht.
7) Auch in dieser Betrachtungsweise wird nochmals klar, dass eine wissenschaftliche Definition eines Begriffs ’Bewusstsein’ niemals möglich sein wird, da es grundsätzlich keine intersubjektiven Messverfahren geben kann.
8) Allerdings sollte durch diese Überlegungen auch klar werden, dass eine grundsätzliche Ausklammerung einer Beschäftigung mit der Innensicht des Gehirns und des möglichen Wechselspiels zwischen phänomenalen und empirisch-phänomenalen Ereignissen von allerhöchstem Interesse sein sollte. Denn das Gesamtphänomen Innensicht
des Gehirns ist eines der erstaunlichsten Phänomene im gesamten bekannten Universum und es wäre eine Bankrotterklärung jeglichen menschlichen Erkenntnisstrebens, würde man sich dem Phänomen verschließen, nur weil die bisher vereinbarten wissenschaftlichen Redeformen dieses Phänomen ausschließen. Wissenschaft muss nicht notwendigerweise bei den empirischen Sachverhalten enden.

 KONTEXTE

Frühe Überlegungen zu diesem Thema gab es schon 2009 HIER.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

DIE ZUKUNFT WARTET NICHT – 2117 – PHILOSOPHISCHE WELTFORMEL – FAKE-NEWS ALS TODESENGEL

NACHTRAG: Mo, 13.März 2017

Wichtiger Nachtrag zum Komplexitätsbegriff, seinen Grenzen, und erweiterte  Diskussion zur ersten Periodisierung genannt ‚Emergent Life‘ (hauptsächlich ab Nr.25)

KONTEXT

  1. Der aktuelle Blogeintrag ist keine direkte Fortsetzung des letzten Eintrags, sondern schließt gedanklich eher an den vorletzten Beitrag an und ist von daher eher als eine Einleitung zu dem Blogeintrag über das Bewusstsein zu verstehen.
  2. Welche Themen jeweils in die Feder fließen hängt von vielerlei Faktoren ab. Generell natürlich schon von den übergreifenden Perspektiven des Blogs, dann aber auch von alltäglichen Ereignissen und Diskussionen. Dass es heute nun zu diesem sehr grundsätzlichen Beitrag gekommen ist, ist u.a. den intensiven Diskussionen mit Manfred Fassler geschuldet, der aufgrund seines Hintergrundes in Soziologie und Anthropologie die gesellschaftliche Dimension stark in die Überlegungen einbringt, während ich mich meist auf systemische Perspektiven fokussieren. Als ich versucht habe (während ich durch meine Grippe weitgehend ausgeschaltet war (und immer noch bin)), seine Aspekte mit meinen Überlegungen zusammen zu bringen, entstand schrittweise eine Struktur, ein Modell, das sich darstellt wie der Beginn einer philosophischen Weltformel, mit deren Hilfe man mit einem Male viele komplexe Einzelphänomene in die Logik eines übergeordneten Zusammenhangs einordnen kann (siehe Schaubild).

    Periodisierung der Evolution des Lebens mit dem Versuch eines systematischen Kriteriums

    Periodisierung der Evolution des Lebens mit dem Versuch eines systematischen Kriteriums

WELTFORMEL

  1. Den Begriff Weltformel kennen wir ja meist nur im Kontext der modernen Physik, die mit ihren Erklärungsmodellen zu immer umfassenderen Aussagen über das Universum kommen konnte, so umfassend, dass man tatsächlich geneigt ist, von einer Weltformel zu sprechen. Nun wissen wir aber, dass diese sogenannten Weltformeln der Physik bislang noch nicht wirklich alles erklären, geschweige denn nicht all jene Phänomene, die wir dem Bereich des biologischen Lebens zuordnen und den damit verbundenen immer komplexeren Phänomenen von Verhalten und menschlichen Gesellschaften. Es besteht auch wenig Aussicht, dass die physikalischen Weltformeln jemals zu einer völlig erschöpfenden Weltformeln werden könnte, weil schon rein mathematisch eine Theorie der Welt ohne jene, die die Theorie hervorbringen, seit Gödel 1931 entweder als grundsätzlich unvollständig oder unentscheidbar gilt.
  2. Ein anderes Hindernis besteht darin, dass die Physik als empirische Wissenschaft – wie alle anderen empirischen Disziplinen auch – schon vom Start weg nur einen kleinen Teil der möglichen Phänomene dieser Welt als Ausgangspunkt zulässt. Diese vorwissenschaftlich getroffene methodische Beschränkung auf die sogenannten intersubjektiven Phänomene, die sich mittels vereinbarter Messverfahren messen lassen, und zwar invariant mit Bezug auf den, der misst, hat sich zwar im großen und ganzen als sehr leistungsfähig erwiesen, aber anzunehmen, dass sich mit dieser methodisch eingeschränkten Phänomenmenge auf lange Sicht alles erklären lassen wird, auch das, was sich hinter den ausgeschlossenen Phänomenen verbirgt, dies ist eine vor-wissenschaftliche Annahme, für die es keinerlei Belege gibt. Die Zukunft wird zeigen, wie es sich mit diesem Ausschluss verhält.
  3. Ob es also die Physik sein wird, die uns die endgültige Weltformel liefern wird, oder doch eher die Philosophie, wird uns die Zukunft zeigen. Die Philosophie hat gegenüber der Physik (und auch gegenüber allen anderen empirischen Disziplinen), den methodisch großen Vorteil, dass die Philosophie alle anderen Disziplinen voraussetzen und einbeziehen kann. So kann ein Philosoph alle Fragmente und Entwürfe von Weltformeln der Physik nehmen und dann dazu ergänzend, erweiternd, begründend seine Weltformel formulieren. Alles, was in der Physik gilt, wird dann hier auch gelten, aber eventuell noch mehr.
  4. Die Überlegungen des Autors zu den Umrissen einer philosophischen Weltformel begannen nun aber gerade nicht so, dass er sich vor den Computer gesetzt hat und sich sagte, so, jetzt wird eine philosophische Weltformel geschrieben. Nein, so würde es auch nie funktionieren. Formeln, selbst die einfachsten, sind immer Ergebnisse von Denkprozessen, mehr oder weniger bewusst, mehr oder weniger schnell. Und eine Weltformel ist, wie man vermuten kann, wenn überhaupt, das Ergebnis von vielen Jahren Arbeit mit ganz vielen Inhalten. Und wie wir wissen, Zeit und Aufwand alleine garantieren auch keine Ergebnisse; sie können die Wahrscheinlichkeit erhöhen, etwas Interessantes zu finden, aber garantieren kann man es nicht.
  5. Das Ganze fing eher unscheinbar an. Unter dem Eindruck eines Telefonats mit Manfred Fassler begann der Autor zunächst für sich, eine Skizze jener Themen zu malen, die in diesem Blog seit 2007 aufgeschlagen sind (380 Beiträge von cagent und 52 Beiträge von cagent im Kontext der Werkstattgespräche). Er überlegte sich, ob man die Themen nach bestimmten inhaltlichen Kriterien und zeitlich ‚clustern‘ könnte. Was dabei herauskam das waren diese merkwürdigen Zylinderfiguren auf der linken Seite des Bildes.

ZEITLICHE EINTEILUNGEN

 

  1. Von oben – beginnend mit dem Big Bang – bis nach unten, zur Gegenwart, haben wir eine zeitliche Erstreckung von ca. 13.8 Mrd Jahren. Eine Einteilung hängt von vorausgehenden Kriterien ab, von einem Muster, Modell, von dem man annimmt, dass es die Menge der Ereignisse sinnvoll strukturiert.
  2. Wie man aus der Skizze ersehen kann, wurde solch eine Unterteilung vorgenommen.
  3. Im ersten Anlauf wurde versucht, mit einem Begriff der Komplexität zu arbeiten. Dahinter steht die Intuition, dass es sich bei den zu beschreibenden Ereignissen um Strukturen handelt, sich sich im Laufe der Zeit bildeten und die immer dichter wurden. Die aktuelle Unterteilung markiert solche Phasen, in denen hervorstechende Komplexitätssprünge zu verzeichnen sind.
  4. Bevor auf die Details dieser Betrachtung eingegangen wird, soll aber zunächst der benutzte Komplexitätsbegriff näher erläutert werden. Dabei sei schon hier angemerkt, dass sich im weiteren Verlauf herausgestellt hat, dass der gewählte Komplexitätsbegriff viel zu schwach ist, um jene Eigenschaften zu repräsentieren, von denen die heutige Biologie, Ethologie und Anthropologie (und möglicherweise viele weitere Disziplinen) sagen würden, dass sie als ‚wichtig‘ für das Phänomen angesehen werden.

KOMPLEXITÄT

 

  1. Vorab, es gibt in der Literatur keinen einheitlichen Komplexitätsbegriff. Im Laufe der Jahre habe ich einen eigenen Begriff von Komplexität entwickelt, den ich hier kurz vorstelle. Man kann ihn dann kritisieren oder übernehmen. Im Falle von Kritik wäre ich an Argumenten interessiert, um weiter lernen zu können, ihn vielleicht weiter zu entwickeln oder letztlich doch wieder zu verwerfen.
  2. Die Frage ist immer, mit welcher mentalen Brille man die Wirklichkeit sieht. Der berühmte Pessimist sieht überall die halbleeren Gläser, der Optimist die halbvollen. Der Tierschützer sieht überall, wie die Tiere leiden, der Chemiker sieht überall chemische Verbindungen am Werke, der Immobilienmakler potentielle Kaufobjekte, und so fort.
  3. Für die Frage der Komplexität besteht eine Möglichkeit darin, sich die mentale Brille der Systeme aufzusetzen. Mit der System-Brille besteht die Welt nur noch aus Systemen. Ein System ist Etwas, das sich von seiner Umgebung unterscheiden lässt. Diese Annahme impliziert, dass es rein abstrakt zwischen diesem unterscheidbaren Etwas und seiner Umgebung Wechselwirkungen geben kann. Sofern es um Einwirkungen auf das System geht sprechen wir einfach vom Input (I) des Systems und im umgekehrten Fall, wenn das System auf die Umgebung einwirkt, vom Output (O) des Systems. Rein abstrakt, auf der begrifflichen Ebene, hat ein System demgemäß immer einen Input und Output in Wechselwirkung mit seiner Umgebung; im konkreten, empirischen Fall, kann diese Wechselwirkung so schwach sein, dass sie sich nicht messen lässt. Dann ist die Wechselwirkung leer, oder 0 = I = O.
  4. Nimmt man ein bestimmtes System S als Bezugspunkt, dann kann man sagen, dass sich das System S auf Ebene/ Level 0 befindet. Alle Systeme, die sich mit Bezug auf das System S in seiner Umgebung befinden, wären dann auf der Ebene/ dem Level +1. Alle Systeme, die sich im System S befinden, finden sich auf Ebene/ Level -1. Sollte ein System S‘ sich auf Level -1 von System S befinden, also LEVEL(S‘,S,-1), und sollte das System S‘ selbst weiter Systeme S“ enthalten, dann lägen diese auf Level -2 von System S (und auf Level -1 zu System S‘).
  5. Beispiel: Vom menschlichen Körper wissen wir, dass er sich so betrachten lässt, dass er aus einer endlichen Anzahl von Körperorganen besteht (Level -1), die wiederum aus vielen Zellen bestehen (Level -2). Hier kann man entweder weitere Subeinheiten annehmen oder betrachtet diese Zellen als nächsten Bezugspunkt, von denen wir wissen, dass jeder Körperzelle wiederum aus einer Vielzahl von Systemen besteht (Level -3). Diese Betrachtung könnte man weiter fortsetzen bis zu den Molekülen, dann Atomen, dann subatomaren Teilchen, usw. Nimmt man die Umgebung menschlicher Körper, dann haben wir auf Level +1 andere menschliche Körper, Tiere, Pflanzen, Gebäude, Autos, Computer usw. Jedes dieser Systeme in der Umgebung ist selbst ein System mit inneren Systemen.
  6. Was bislang noch nicht gesagt wurde, ist, dass man anhand der Inputs und Outputs eines Systems sein Verhalten definiert. Die Abfolge von Inputs und Outputs konstituiert eine Folge von (I,O)-Paaren, die in ihrer Gesamtheit eine empirische Verhaltensfunktion f_io definieren, also f_io ={(i,o), …, (i,o)}, wobei man mit Hilfe einer Uhr (eine Maschine zur Erzeugung von gleichmäßigen Intervallen mit einem Zähler) jedem Input- und Outputereignis eine Zeitmarke zuordnen könnte.
  7. Während empirisch immer nur endlich viele konkrete Ereignisse beobachtet werden können, kann man abstrakt unendlich viele Ereignisse denken. Man kann also abstrakt eine theoretische Verhaltensfunktion f_th über alle möglichen denkbaren Input- und Outputereignisse definieren als f_th = I —> O. Eine empirische Verhaltensfunktion wäre dann nur eine Teilmenge der theoretischen Verhaltensfunktion: f_io c f_th. Dies hat Vorteile und Nachteile. Die Nachteile sind ganz klar: theoretisch spricht die Verhaltensfunktion über mehr Ereignisse, als man jemals beobachten kann, also auch über solche, die vielleicht nie stattfinden werden. Dies kann zu einer falschen Beschreibung der empirischen Welt führen. Demgegenüber hat man aber den Vorteil, dass man theoretisch über Ereignisse sprechen kann, die bislang noch nicht beobachtet wurden und die daher für Prognosezwecke genutzt werden können. Wenn die Theorie also sagen würde, dass es ein bestimmtes subatomares Teilchen mit der Beschaffenheit X geben müsste, was aber bislang noch nicht beobachtet werden konnte, dann könnte man aufgrund dieser Prognose gezielt suchen (was in der Vergangenheit auch schon zu vielen Entdeckungen geführt hat).
  8. Rein abstrakt kann man ein System SYS damit als eine mathematische Struktur betrachten, die über mindestens zwei Mengen Input (I) und Output (O) definiert ist zusammen mit einer Verhaltensfunktion f, geschrieben: SYS(x) genau dann wenn x = <I,O,f> mit f: I → O.
  9. Rein abstrakt gilt also, dass jedes System SYS auch weitere Systeme als interne Elemente besitzen kann, d.h. Jedes System kann Umgebung für weitere Systeme sein. Nennen wir die Gesamtheit solcher möglicher interner Systeme IS, dann müsste man die Strukturformel eines Systems erweitern zu SYS(x) gdw x = <I,O,IS,f> mit f: I x IS —> IS x O. Dies besagt, dass ein System mit weiteren internen Systemen IS in seinem Verhalten nicht nur abhängig ist vom jeweiligen Input I, sondern auch vom Output der jeweiligen internen Systeme. Aus beiden Inputs wir dann nicht nur der Systemoutput O ermittelt, sondern zugleich bekommen auch die internen Systeme einen Input (der diese internen Systeme u.U. So verändern kann, dass sie beim nächsten Mal ganz anders reagieren als vorher).
  10. In welchem Sinn könnte man nun sagen, dass ein System S komplexer ist als ein System S‘ (geschrieben S >~> S‘)?
  11. Es gibt jetzt verschiedene Möglichkeiten. Einmal (i) könnte die Anzahl der inneren Ebenen (-N) ein Ansatzpunkt sein. Ferner (ii) bietet sich die Anzahl der Systeme pro Ebene (|-n| mit n in N), ihre ‚Dichte‘, an. Schließlich (iii) macht es auch einen Unterschied, wie groß die Anzahl der möglichen verschiedenen Inputs-Outputs ist, die in ihrer Gesamtheit einen Raum möglicher Verhaltenszustände bilden (|I| x |O| = |f_io|). Rein mathematisch könnte man auch noch (iv) den Aspekt der Mächtigkeit der Menge aller Systeme einer Art SYS, also |SYS|, definieren und diese Menge – die in der Biologie Population genannt wird – als eine Art ‚Hüllensystem‘ S_pop definieren. Ein Hüllensystem wäre dann ein System, das ausschließlich Elemente einer bestimmten Art enthält. Ein Hüllensystem S_pop_a könnte zahlreicher sein als ein Hüllensystem S_pop_b, |S_pop_a| > |S_pop_b|, es könnte aber auch sein, dass sich die Mächtigkeit einer Population im Laufe der Zeit ändert. Eine Population mit einer Mächtigkeit |S_pop_x| = 0 wäre ausgestorben. Die Veränderungen selbst können Wachstumsraten und Sterberaten anzeigen.
  12. Im Folgenden nehmen wir hier an, dass ein System S komplexer ist als ein System S‘ (S >~> S‘), wenn S ein System im Sinne der Definition ist und entweder (i) mehr innere Ebenen enthält oder (ii) pro innere Ebene eine höhere Dichte aufweist oder aber (iii) der Raum möglicher Verhaltenszustände der beteiligten Systeme größer ist. Bei Gleichheit der Größen (i) – (iii) könnte man zusätzlich die Größe (iv) berücksichtigen.
  13. Beispiel: Die Milchstraße, unsere Heimatgalaxie, umfasst zwischen 150 und 400 Mrd. Sterne (Sonnen) und hat einen Durchmesser von ca. 100.000 bis 180.000 Lichtjahre. In einem einführenden Buch über die Mikrobiologie präsentiert Kegel als neueste Schätzungen, dass der menschliche Körper etwa 37 Billionen (10^12) Körperzellen umfasst, dazu 100 Billionen (10^12) Bakterien im Körper und 224 Mrd. (10^9) Bakterien auf der Haut. Dies bedeutet, dass ein einziger menschlicher Körper mit seinen Körperzellen rein quantitativ etwa 150 Galaxien im Format der Milchstraße entspricht (1 Zelle = 1 Stern) und die Bakterien darin nochmals etwa 400 Galaxien. Dies alles zudem nicht verteilt in einem Raum von ca. 550 x 100.000 – 180.000 Lichtjahren, sondern eben in diesem unserem unfassbar winzigen Körper. Dazu kommt, dass die Körperzellen (und auch die Bakterien) in intensiven Austauschprozessen stehen, so dass eine einzelne Zelle mit vielen Tausend, wenn nicht gar zigtausenden anderen Körperzellen kommuniziert (Hormone im Blut können können viele Milliarden Zellen adressieren). Diese wenigen Zahlen können ahnen lassen, mit welchen Komplexitäten wir im Bereich des Biologischen zu tun haben. Dabei ist noch nicht berücksichtigt, dass ja die Zellen im Körper meist noch in funktionellen Einheiten organisiert sind mit weiteren Untereinheiten, so dass sich hier viele Ebenen finden lassen.

KOMPLEXITÄTSEREIGNISSE

 

  1. Unter Voraussetzung des bisherigen Komplexitätsbegriffs kann man nun die Ereignisse der biologischen Evolution mit diesem Begriff beschreiben und schauen, ob es irgendwann einen hervorstechenden Komplexitätssprung gibt, der möglicherweise den Beginn einer neuen Phase markiert.
  2. An dieser Stelle wird schon deutlich, dass die Wahl eines Komplexitätsbegriffs basierend auf Systemen möglicherweise noch zu schwach ist, um den zu beschreibenden Phänomenen gerecht zu werden. Den Begriff ‚Komplexitätssprung‘ kann man zwar formal definieren (es gibt immer viele Möglichkeiten), ob nun solch ein Konzept dann in der empirischen Realität aber genau das beschreibt, was wirklich dem Phänomen optimal entspricht, das kann sich letztlich nur am empirischen Ereignis selbst anschaulich entscheiden (im positiven Fall). Ein einfacher Ansatz wäre, einen Komplexitätssprung über den Begriff des minimalen Abstands zwischen zwei Komplexitäten S und S‘ zu definieren, und unter Einbeziehung ‚einer empirisch sinnvollen Konstante‘. Dann würde immer dann, wenn ein solcher Abstand gemessen werden kann, ein Komplexitätssprung vorliegt. Was wäre aber ein ‚empirisch sinnvoller Abstand‘ in biologischer Sicht?

PERIODISIERUNG

  1. Betrachtet man nach diesen Vorbemerkungen das Schaubild, dann kann man als ersten Abschnitt ‚Emergent Life‘ erkennen. Dies identifiziert die Zeit ab dem ersten nachgewiesenen Auftreten von biologischen Zellen, vor ca. 3.5 Mrd Jahren (nach neuesten Funden evtl. sogar schon ab 3.77 Mrd Jahren). Der Übergang von Molekülen zu sich selbst reproduzierenden Zellen markiert einen gewaltigen Komplexitätssprung.
  2. Man kann versuchen, den formalen Komplexitätsbegriff darauf anzuwenden. Nimmt man beispielsweise eine eukaryotische Zelle als System S, dann kann man typische Umgebungen ermitteln, interne Organisationslevel, die Dichte auf den Leveln sowie den Raum möglicher Verhaltenszustände von jedem beteiligten System. Nimmt man als Vergleich die strukturell einfacheren prokaryotischen Zellen (die als evolutionär älter gelten), dann kann man zu unterschiedlichen Werten kommen, die im Falle der prokaryotischen Zellen kleiner ausfallen. Im Unterschied zu einer Ansammlung von irgendwelchen Molekülen wird man noch größere Unterschiede feststellen. Will man diese strukturellen Unterschiede für eine Klassifikation nutzen, dann muss man sie gewichten. Ohne hier auf die Details einer solchen Gewichtung eingehen zu können (das wäre ein eigener riesiger Artikel) stellen wir hier einfach mal fest, dass gilt: S_eukaryot >~> S_prokaryot >~> S_molecule, wobei der ‚Abstand‘ zwischen den beiden Zelltypen deutlich kleiner ist als zwischen dem einfachen Zelltyp und einem einfachen Molekül, also Distance(S_eukaryot, S_prokaryot) < Distance(S_prokaryot, S_molecule).
  3. Unterstellen wir mal, alle Details vorausgehender Klassifikationen wären erfüllt. Was wäre damit erreicht? Wir wüssten schematisch, dass wir es mit drei verschiedenen Typen von Systemen zu tun hätte mit unterschiedlichen Levels, Input-Output-Räumen, unterschiedlichen Dichten … hätten wir damit aber irgendetwas von dem erfasst, was die evolutionäre Biologie, Molekularbiologie, Zellbiologie usw. bislang als charakteristisch für die biologische Zelle erkannt zu haben meint?
  4. Einige der wichtigen Eigenschaften werden informell so beschrieben: (i) Zellen haben eine erkennbare Struktur mit Wechselwirkungen zur Umgebung (insofern sind sie Systeme); (ii) sie sind in der Lage, Energie aus der Umgebung aufzunehmen und damit unterschiedliche chemische Prozesse zu moderieren; (iii) sie sind in der Lage, die Strukturen und Funktionen dieser Struktur in Form eines speziellen Moleküls zu kodieren (Bauplan, ‚Gedächtnis‘); (iv) sie können sich mit Hilfe des Bauplans reproduzieren, wobei die Reproduktion Abweichungen zulässt.
  5. Mindestens in diesen vier genannten Eigenschaften unterscheiden sich biologische Zellen von Molekülen. Der zuvor eingeführte Komplexitätsbegriff kann hier zwar eine höhere Komplexität herausrechnen, aber tut sich schwer, die vier Leiteigenschaften angemessen zu repräsentieren. Woran liegt das?
  6. Das ist einmal der Begriff der Energie. Dieser wurde von der Physik in vielen Jahrhunderten schrittweise erarbeitet und ist eine Eigenschaft, die generisch die gesamte empirische Welt durchzieht. Letztlich liegt er allem zugrunde als Äquivalent zur bewegten Massen. Wenn man nur Strukturen von Systemen betrachtet, kommt Energie nicht wirklich vor. Wenn es nun aber eine zentrale neue Eigenschaft eines Systems ist, freie Energie für eigene Zwecke ‚verarbeiten‘ zu können, dann müsste dies in die Systemstruktur aufgenommen werden (spezielle Funktionen…). Allerdings verarbeiten sogar Moleküle in gewisser Weise Energie, allerdings nicht so komplex und produktiv wie Zellen.
  7. Dann sind dort die metabolischen Prozesse (Stoffwechselprozesse) der Zellen. Diese sind extrem vielfältig und komplex miteinander verwoben. Der abstrakte Komplexitätsbegriff kann dies zwar anzeigen, aber nur ‚äußerlich‘; die Besonderheiten dieser Prozesse werden damit nicht sichtbar.
  8. Schließlich das Phänomen des Zellkerns mit Molekülen, die einen Bauplan kodieren; man könnte dies auch als eine Form von Gedächtnis beschreiben. Zum kodierten Bauplan gibt es auch eine komplexe Dekodierungsmaschinerie. Eine rein formale Repräsentation im Komplexitätsbegriff macht die Besonderheit nicht sichtbar. Wenn man weiß, worauf es ankommt, könnte man eine entsprechende Systemstruktur zusammen mit den notwendigen Operationen definieren.
  9. Was sich hier andeutet, ist, dass die abstrakte Seite der formalen Repräsentation als solche zwar nahezu alles zulässt an Formalisierung, aber welche Struktur letztlich etwas Sinnvolles in der empirischen Welt kodiert, folgt aus der abstrakten Struktur alleine nicht. Dies muss man (mühsam) aus den empirischen Phänomenen selbst herauslesen durch eine Art induktive Modellbildung/ Theoriebildung, also das, was die empirischen Wissenschaften seit Jahrhunderten versuchen.
  10. Der Versuch, ‚auf die Schnelle‘ die sich hier andeutenden Komplexitäten zu systematisieren, wird also nur gelingen, wenn die Verallgemeinerungen die entscheidenden empirischen Inhalte dabei ’nicht verlieren‘.
  11. Ohne diese Problematik an dieser Stelle jetzt weiter zu vertiefen (darauf ist später nochmals zurück zu kommen), soll hier nur ein Gedanke festgehalten werden, der sich mit Blick auf die nachfolgende Phase anbietet: mit Blick aufs Ganze und den weiteren Fortgang könnte man in der ersten Phase von Emerging Life als grundlegendes Ereignis die Ausbildung der Fähigkeit sehen, eine Art strukturelles Gedächtnis bilden zu können, das sich bei der Weitergabe strukturell variieren lässt. Damit ist grundlegend der Ausgangspunkt für die Kumulation von Wissen unter Überwindung der reinen Gegenwart möglich geworden, die Kumulierung von ersten Wirkzusammenhängen. Diese Urform eines Gedächtnisses bildet einen ersten grundlegenden Meta-Level für ein erstes Ur-Wissen von der Welt jenseits des Systems. Der Emerging Mind aus der nächsten Phase wäre dann der Schritt über das strukturelle Gedächtnis hin zu einem lokal-dynamischen Gedächtnis.
  12. Dann stellt sich die Frage, welche der nachfolgenden Ereignisse in der Evolution eine weitere Steigerung der Komplexität manifestieren? Kandidaten kann man viele finden. Zellen haben gelernt, sich in immer komplexeren Verbänden zu organisieren, sie haben immer komplexere Strukturen innerhalb der Verbände ausgebildet, sie konnten in immer unterschiedlicheren Umgebungen leben, sie konnten innerhalb von Populationen immer besser kooperieren, konnten sich auch immer besser auf die Besonderheiten anderer Populationen einstellen (als potentielle Beute oder als potentielle Feinde), und konnten immer mehr Eigenschaften der Umgebungen nutzen, um nur einige der vielfältigen Aspekte zu nennen. Manche bildeten komplexe Sozialstrukturen aus, um in zahlenmäßig großen Populationen gemeinsam handeln zu können (Schwärme, ‚Staaten‘, Verbünde, ….). Nach vielen Milliarden Jahren, von heute aus erst kürzlich, vor einigen Millionen Jahren, gab es aber Populationen, deren zentrale Informationsverarbeitungssysteme (Nervensysteme, Gehirne), das individuelle System in die Lage versetzen können, Vergangenes nicht nur zu konservieren (Gedächtnis), sondern in dem Erinnerbaren Abstraktionen, Beziehungen, Unterschiede und Veränderungen erkennen zu können. Zugleich waren diese Systeme in der Lage Gegenwärtiges, Gedachtes und neue Kombinationen von all dem (Gedachtes, Geplantes) symbolisch zu benennen, auszusprechen, es untereinander auszutauschen, und sich auf diese Weise ganz neu zu orientieren und zu koordinieren. Dies führte zu einer revolutionären Befreiung aus der Gegenwart, aus dem Jetzt und aus dem ‚für sich sein‘. Damit war mit einem Mal alles möglich: das schrittweise Verstehen der gesamten Welt, die schrittweise Koordinierung allen Tuns, das Speichern von Wissen über den Moment hinaus, das Durchspielen von Zusammenhängen über das individuelle Denken hinaus.
  13. Als nächster Komplexitätssprung wird daher das Auftreten von Lebewesen mit komplexen Nervensystemen gesehen, die ein Bewusstsein ausbilden konnten, das sie in die Lage versetzt, miteinander ihre internen Zustände symbolisch austauschen zu können, so dass sie einen Siegeszug der Erkenntnis und des Aufbaus komplexer Gesellschaften beginnen konnten. Dieses Aufkommen des Geistes (‚Emerging Mind‘) definiert sich damit nicht nur über die direkt messbaren Strukturen (Nervensystem, Struktur, Umfang,..), sondern auch über den Umfang der möglichen Zustände des Verhaltens, das direkt abhängig ist sowohl von den möglichen Zuständen des Gehirns, des zugehörigen Körpers, aber auch über die Gegebenheiten der Umwelt. Anders ausgedrückt, das neue Potential dieser Lebensform erkennt man nicht direkt und alleine an ihren materiellen Strukturen, sondern an der Dynamik ihrer potentiellen inneren Zustände in Wechselwirkung mit verfügbaren Umwelten. Es ist nicht nur entscheidend, dass diese Systeme symbolisch kommunizieren konnten, sondern auch WAS, nicht entscheidend alleine dass sie Werkzeuge bilden konnten, sondern auch WIE und WOZU, usw.
  14. Es ist nicht einfach, dieses neue Potential angemessen theoretisch zu beschreiben, da eben die rein strukturellen Elemente nicht genügend aussagestark sind. Rein funktionelle Aspekte auch nicht. Es kommen hier völlig neue Aspekte ins Spiel.

Die Fortsezung gibt es HIER.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

MATHEMATIK UND WIRKLICHKEIT – DISKUTIERT AM BEISPIEL DES BUCHES VON TEGMARK: Our Mathematical Universe (2014) – Teil2

Max Tegmark (2014), Our Mathematical Universe. My Quest of the Ultimate Nature of Reality, New York: Alfred A.Knopf

Nachtrag: 3.Okt.13:55h, Bild zum letzten Abschnitt

KONTEXT

1. Diesem Teil ging ein einleitender Teil 1 voraus. In ihm wird ein erster Horizont aufgespannt. Darin u.a. die These, dass das Universum sich nicht nur mathematisch beschreiben lässt, sondern selbst auch ein mathematisches Objekt sei.
2. Für die weitere Diskussion werden die Kapitel 2-8 zunächst übersprungen und die Aufmerksamkeit gilt den Kapiteln 9ff. In diesen werden die erkenntnistheoretischen und physik- methodischen Voraussetzungen besprochen, die Tegmark in der modernen Physik am Werke sieht.

SELBSTBESCHREIBUNG EINES PHYSIKERS

Konzepte aus Kap.9 Tegmark (2014) herausgezogen und neu angeordnet von G.Doeben-Henisch (2016)

Konzepte aus Kap.9 Tegmark (2014) herausgezogen und neu angeordnet von G.Doeben-Henisch (2016)

3. Wir erinnern uns aus Kapitel 1, dass Tegmark selbst ein Mensch ist, ein homo sapiens (sapiens), der für sich die Methoden der Physik in Anspruch nimmt.
4. Von daher macht es Sinn, dass er sich selbst mit seinen Erkenntnis ermöglichenden Fähigkeiten in den Blick nimmt.
5. In diesem Zusammenhang (vgl. Bild 1) macht er darauf aufmerksam, dass wir nach den neuesten Erkenntnissen der Naturwissenschaften (und der Selbsterfahrung, die er in Beispielen in Form von Selbstexperimenten bemüht), davon ausgehen müssen, dass unsere bewusste Wahrnehmung einer Welt in unserem Körper, in unserem Gehirn stattfindet. Diese bewusste Wahrnehmung bildet für uns die primäre Realität, die man als interne Realität bezeichnen kann, wenn man außerhalb dieser inneren Realität eine externe Realität voraussetzt.
6. Nach allem, was wir heute wissen, übersetzen unsere Sinnesorgane Ereignisse der externen Realität (die in einer angenommenen externen Welt stattfinden), in komplexe Signalverarbeitungsprozesse in unserem Gehirn. Ein kleiner Teil dieser vom Gehirn automatisch – und daher nicht-bewusst – verarbeiteten Signale werden uns bewusst, bilden den Stoff unserer bewussten Wahrnehmung. Er nennt diese bewussten Signale auch Qualia. Sie werden automatisch so vom Gehirn aufbereitet, dass wir beständig z.B. ein konsistentes 3D-Model einer Wirklichkeit zur Verfügung haben, mittels dem wir uns im Raum des Bewusstseins orientieren. Wichtiges Detail: verschiedene Menschen können mit ihren Sinnesorganen u.U. unterschiedliche Signale von der gleichen Signalquelle empfangen (z.B. unterschiedliche Farbwahrnehmung). Trotzdem scheint das interne Modell zum Zwecke der Orientierung zu funktionieren.
7. Die wissenschaftlichen Untersuchungen zum Verhältnis zwischen messbaren externen Ereignissen und der Wahrnehmung dieser Ereignisse basierend auf den weitgehend nicht-bewussten sensorischen Prozessen im Körper deuten an, dass der Körper und das Gehirn keine 1-zu-1 Abbildung der externen Ereignisse liefern, sondern diese auf unterschiedliche Weise verändern: (i) hervorstechend ist, dass nur ein Bruchteil der (heute) messbaren externen Ereignisse erfasst und dann verarbeitet wird (z.B. nur ein kleiner Teil aus dem Wellenspektrum wird erfasst). Wir haben also den Sachverhalt der Auslassung (‚omission‘). (ii) Ferner liefert das Gehirn Eigenschaften in der bewussten Wahrnehmung (z.B. 3D-Modell), die in der auslösenden sensorischen Wahrnehmung (2D) nicht gegeben ist. Diesen Sachverhalt bezeichnet Tegmark als Illusion. (iii) Ferner kann das Gehirn eine Vielzahl von unterschiedlichen Halluzinationen erzeugen (z.B. Erinnerungen, Träume, Fantasien, Wahnvorstellungen …), die weder aktuell in der externen Realität vorkommen noch genau so, wie sie als halluziniertes Ereignis im Bewusstsein auftreten.

THEORIEN

Konzepte Nr.2 aus Kap.9 Tegmark (2014) herausgezogen und neu angeordnet von G.Doeben-Henisch (2016)

Konzepte Nr.2 aus Kap.9 Tegmark (2014) herausgezogen und neu angeordnet von G.Doeben-Henisch (2016)

8. Nach diesen vorbereitenden Überlegungen stellt sich die Frage, wo und wie in diesem Bild der Ort für physikalische Theorien ist?
9. Die große Mehrheit der Philosophen hatte in der Vergangenheit an dieser Stelle die interne Realität, das interne Weltmodell, als möglichen Ort weiterer Theoriebildung vermutet und dazu dann jeweils umfangreichste Überlegungen angestellt, wie man sich diese Maschinerie des bewussten Erkennens vorzustellen habe, damit man in diesem Rahmen das Denken einer physikalischen Theorie rekonstruieren könnte.
10. Tegmark klammert dieses Vorgehensweise vom Start weg aus. Bevor überhaupt ein Gedanke in diese Richtung aufscheinen kann erklärt er, dass der höchste Triumph der Physik darin bestehen würde, dass die Physik mit der externen Realität startet, diese mathematisch beschreibt, und zwar so, dass man innerhalb dieser Beschreibung dann die Entstehung und das Funktionieren der internen Realität ableiten (‚derive‘) kann. (vgl. S.237f)
11. Ihm ist schon bewusst, dass es für eine volle physikalische Theorie dieser Art notwendig wäre, eine vollständig detaillierte Beschreibung des Gehirns, speziell auch des Phänomens des Bewusstseins, mit zu liefern. (vgl. S.238) Aber er meint, man kann sich diese Aufgabe ersparen und den ganzen Komplex der subjektiven (und zugehörigen nicht-bewussten) Prozesse ausklammern (‚decouple‘), weil Menschen die Fähigkeit zeigen, sich trotz und mit ihrer individuellen Subjektivität auf eine Weise miteinander zu verständigen, die auf einer Sicht der externen Welt in der internen Welt beruht, die zwischen Menschen geteilt (‚shared‘) werden kann.
12. Diese zwischen Menschen in der Kommunikation gemeinschaftlichen Sicht der externen Welt (auf der Basis der internen Welt) nennt er Konsensus Realität (‚consensus reality‘).(vgl. S.238f)
13. Die Konsensus Realität verortet er zwischen der externen und der internen Realität.
14. Mit dieser begrifflichen Unterscheidung begründet er für sich, warum eine physikalische Theorie möglich ist, ohne dass man eine Theorie des Bewusstseins hat; er räumt aber ein, dass man natürlich für eine endgültige vollständige (physikalische) Theorie auch eine vollständige Theorie des Bewusstseins samt allen zugehörigen Aspekten bräuchte.
15. Während man sich als Leser noch fragt, wie denn die Physik diese nicht ganz leichte Aufgabe angehen will, erklärt Tegmark ohne weitere Begründung, dass diese delikate Aufgabe nicht von der Physik geleistet werden solle, sondern von der Kognitionswissenschaft (‚cognitive science‘). (vgl. S.238f)
16. Obwohl Tegmark selbst viele Beispiele bringt, die illustrieren sollen, dass es aus Sicht der Physik gerade die Wechselwirkung zwischen der externen und internen Realität war, um auf dem Weg zu einer umfassenden physikalischen Theorie voran zu schreiten (vgl. SS.240ff), delegiert er nun diese delikate Aufgabe an die Kognitionswissenschaft. Warum soll die Kognitionswissenschaft diese delikate Aufgabe lösen können und die Physik nicht? Bedeutet dies, dass die Kognitionswissenschaft ein Teil der Physik ist oder hat sie etwas Besonderes über die Physik hinaus? Letzteres würde seinem Anspruch widersprechen, dass die Physik das Ganze erklärt.
17. Tegmark lässt diese Fragen schlicht offen. Er meint nur, die Physik habe hier noch einen sehr langen Weg zu gehen. (vgl. S.242)
18. Er fällt einfach die Entscheidung, den Aspekt der ersten Realität innerhalb der allgemeinen Theoriebildung in seinem Buch auszuklammern und sich auf die Frage der Rolle der Mathematik in physikalischen Theorien zu beschränken, sofern sie sich mit der externen und der Konsensus Realität beschäftigen.(vgl. S.240)

DISKURS
EIN BISSCHEN ENTTÄUSCHT ….

19. Ich muss gestehen, dass ich als Leser an dieser Stelle des Buches irgendwie enttäuscht bin. Nachdem das Buch mit so viel Elan gestartet ist, so viel wunderbares Wissen aufbietet, um diese Fragen zu erhellen, kommt es an einer entscheidenden Stelle zu einer Art gedanklichen Totalverweigerung. Natürlich kann jeder verstehen – und ich besonders –, dass man aus Zeitgründen eine komplexe Fragestellung vorläufig ausklammert, deren Behandlung ‚nach hinten schiebt‘, aber es ist dennoch schade, nicht als Vorwurf, sondern als Erlebnis.
20. Trotz dieser Einschränkung der Perspektive des weiteren Vorgehens bleiben natürlich noch viele interessante Fragen im Raum, insbesondere das Hauptthema der Rolle der Mathematik in einer physikalischen Theorie verbunden mit der These von Tegmark, dass die externe Realität selbst ein mathematisches Objekt sei.
21. Bevor dieser Aspekt im Blog weiter untersucht wird, soll aber noch ein wenig an dieser Umschaltstelle in der Darstellung von Tegmark verweilt werden. Diese ist zu wichtig, als dass man sein Vorgehen einfach unkommentiert lassen sollte.

INNEHALTEN: EXTERN – INTERN

22. Tegmark geht davon aus, dass eine physikalische Theorie die externe und die Konsensus Realität beschreibt, und dies mit Hilfe der Mathematik.
23. Er stellt einleitend fest, dass wir direkt von der externen Realität aber nichts wissen. Unser Gehirn liefert uns ein Weltmodell W0, das uns als Basis des Verstehens und Verhaltens dient, das aber nicht die Welt ist, wie sie vielleicht jenseits dieses Modells W0 existiert. Die Geschichte des menschlichen Erkennens und die Untersuchungen zum modernen Alltagsverstehen belegen, dass die Erkenntnis, dass unser individuelles Welterleben auf Basis von W0 nicht die Welt sein kann, die jenseits des Gehirns existiert, nicht nur erst wenige tausend Jahre alt ist, sondern es in der Regel nur wenigen Menschen gelingt, dies explizit zu denken, selbst heute (die meisten – alle? – Naturwissenschaftler z.B. sind nicht in der Lage, die mögliche Welt jenseits von W0 unter expliziten Berücksichtigung von W0 zu denken!). Tegmark selbst demonstriert diese Unfähigkeit vor den Augen des Lesers.
24. Er beschreibt zwar empirische (und nicht-empirische) Fakten, die die Annahme der Unterscheidung von W0 und etwas jenseits von W0 nahelegen, aber er macht keine Anstalten, darüber nach zu denken, was dies für empirische Theorien über die Welt jenseits von W0 bedeutet.
25. Wie kann es sein, dass unser Denken in W0 verankert ist, aber doch über eine Welt jenseits von W0 redet, als ob es W0 nicht gibt?
26. Die Evolutionsbiologen sagen uns, dass im Laufe der Evolution von biologischen Systemen deren Gehirne in diesen Systemen so optimiert wurden, dass das jeweilige System nicht durch die internen (automatischen) Berechnungsprozesse des Gehirns abgelenkt wird, sondern nur mit jenen Aspekten versorgt wird, die für das Überleben in der umgebenden Welt (jenseits des Gehirns) wichtig sind; nur diese wurden dem System bewusst. Alles andere blieb im Verborgen, war nicht bewusst. Dies heißt, es war (und ist?) ein Überlebensvorteil, eine Identität von internem Weltmodell W0 und der jeweils umgebenden Welt zu ermöglichen. Hunderttausende von Jahren, Millionen von Jahren war dies überlebensförderlich.
27. In diesem Überlebenskampf war es natürlich auch wichtig, dass Menschen in vielen Situationen und Aufgaben kooperieren. Voraussetzung dafür war eine minimale Kommunikation und dafür eine hinreichend strukturell ähnliche Wahrnehmung von umgebender Welt und deren Aufbereitung in einem internen Modell W0.
28. Kommunikation in einer geteilten Handlungswelt benötigt Signale, die ausgetauscht werden können, die sich mit gemeinsamen wichtigen Sachverhalten assoziieren lassen, die sowohl Teil der äußeren Welt sind wie auch zugleich Teil des internen Modells. Nur durch diese Verbindung zwischen Signalen und signalverbundenen Sachverhalten einerseits und deren hinreichend ähnlichen Verankerung in den individuellen Weltmodellen W0 boten die Voraussetzungen, dass zwei verschiedene Weltmodelle – nämlich eines von einem biologischen System A mit W0_a und eines von einem biologischen System B mit W0_b – miteinander durch kommunikative Akte ausgetauscht, abgestimmt, verstärkt, verändert … werden konnten.
29. Dies ist der mögliche Ort der Konsensus Realität, von der Tegmark spricht.
30. Weil die individuellen Gehirne unterschiedlicher biologischer Systeme der Art homo sapiens (sapiens) eine hinreichend ähnliche Struktur von Signalverarbeitung und Modellgenerierung haben ist es ihnen möglich, Teile ihres Modells W0 mittels Kommunikation auszutauschen. Kommunikativ können sie austauschen, Ob etwas der Fall ist. Kommunikativ können sie sich zu bestimmten Handlungen koordinieren.
31. Die Zuordnung zwischen den benutzten Signalereignissen und den damit assoziierten Sachverhalten ist zu Beginn offen: sie müssen von Fall zu Fall im Bereich von möglichen Alternativen entschieden werden. Dies begründet arbiträre Konventionen, die dann – nach ihrer Einführung – zu pragmatischen Regeln werden können.
32. Die von Tegmark angesprochene Konsensus Realität ist von daher ein hybrides Konstrukt: primär ist es ein Produkt der internen Realität, Teil des internen Weltmodells W0, aber durch die Beziehung zwischen dem internen Modell W0 mit einer unterstellten externen Welt Wx (also z.B. wm0: Wx –→ W0, wm1:W0 –→ Wx*) und der Hypothese, dass diese Abbildungsprozesse bei unterschiedlichen Individuen A und B der gleichen Art homo sapiens (sapiens) hinreichend strukturell ähnlich sind, kann man annehmen, dass W0_a und W0_b strukturell hinreichend ähnlich sind – EQ(W0_a, W0_b) – und eine arbiträre Zuordnung von beliebigen Signalereignissen zu diesen unterstellten Gemeinsamkeiten damit synchronisierbar ist.
33. Man kann an dieser Stelle den fundamentalen Begriff der Zeichenrelation derart einführen, dass man sagt, dass diese grundlegenden Fähigkeit der Assoziierung von Signalereignissen S und zeitgleich auftretenden anderen Ereignissen O in der unterstellten äußeren Welt Wx sich über die Wahrnehmung dann im internen Weltmodell W0 eines biologischen Systems als S‘-O‘-Beziehung repräsentieren lässt. Diese interne Repräsentation einer in der Außenwelt Wx auftretenden Korrelation von Ereignissen S und O ist dann eine Zeichenrelation SR(S‘,O‘). Die an sich arbiträren Signalereignisse S und die davon unabhängigen zeitgleichen Ereignisse O können auf diese Weise in einer internen Beziehung miteinander verknüpft werden. Über diese intern vorgenommene Verknüpfung sind sie dann nicht mehr arbiträr. Ein Signalereignis s aus S und ein anderes Ereignis o aus O erklären sich dann gegenseitig: SR(s‘,o‘) liest sich dann so: das Signalereignis s‘ ist ein Zeichen für das andere Ereignis o‘ und das andere Ereignis o‘ ist die Bedeutung für das Zeichen s‘. Insofern verschiedene Systeme ihre Zeichenrelationen koordinieren entsteht ein Kode, ein Zeichensystem, eine Sprache, mittels deren sie sich auf Basis ihrer internen Weltmodelle W0 über mögliche äußere Welten verständigen können.
34. Die Konsensus Realität wäre demnach jener Teil des Bewusstseins eines biologischen Systems, dessen Phänomene (Qualia) sich über eine hinreichende Korrespondenz mit einer unterstellten Außenwelt Wx mit den internen Modellen W0 anderer Systeme koordinieren lassen.
35. Dass die beteiligten Signalereignisse als Zeichen mittels Symbolen realisiert werden, mittels Ausdrücken über einem Alphabet, später dann mit einem Alphabet, das man einer mengentheoretischen Sprache zuschreiben kann, die zur Grundsprache der modernen Mathematik geworden ist, ist für den Gesamtvorgang zunächst unwesentlich. Entscheidend ist die biologische Maschinerie, die dies ermöglicht, der ‚Trick‘ mit dem Bewusstsein, das das System von der unfassbaren Komplexität der beteiligten automatischen Prozessen befreit, von der Fähigkeit zu Abstraktionen (was hier noch nicht erklärt wurde), von dem fantastischen Mechanismus eines Gedächtnisses (was hier auch noch nicht erklärt wurde), und manchem mehr.
36. Dass Tegmark das Konzept der Konsensus Realität einführt, sich aber die Details dieser Realität ausspart, ist eine Schwachstelle in seiner Theoriebildung, die sich im weiteren Verlauf erheblich auswirken wird. Man kann schon an dieser Stelle ahnen, warum seine These von der äußeren Welt Wx als mathematischem Objekt möglicherweise schon im Ansatz scheitert.

SEMIOTIK GRUNDLEGENDER ALS PHYSIK?

37. Ohne diesen Punkt hier voll zu diskutieren möchte ich an dieser Stelle zu überlegen geben, dass der Erklärungsanspruch der Physik in weiten Teilen sicher berechtigt und unverzichtbar ist. Doch bei der Reflexion auf die Grundlagen einer physikalischen Theorie (die letztlich auch Teil einer wissenschaftlichen Erklärung sein sollte) müssen wir offensichtlich die Physik verlassen. Die klassische und die moderne Physik hat für ihre Existenz und ihr Funktionieren eine Reihe von Voraussetzungen, die nicht zuletzt den Physiker selbst mit einschließen. Sofern dieser Physiker als biologisches System ein Zeichenbenutzer ist, gehen die Gesetzmäßigkeiten eines Zeichenbenutzers als Voraussetzungen in die Physik ein. Sie hinterlassen nachhaltige Spuren in jeder physikalischen Theorie qua Zeichensystem. Diejenige Wissenschaft, die für Zeichen allgemein zuständig war und ist, ist die Semiotik. Bis heute hat die Semiotik zwar noch keine einheitliche, systematische Gestalt, aber dies muss nicht so sein. Man kann die Semiotik genauso wissenschaftlich und voll mathematisiert betreiben wie die moderne Physik. Es hat halt nur noch niemand getan. Aber die Physik hat ja auch noch niemals ihre erkenntnistheoretischen Voraussetzungen vollständig reflektiert. Vielleicht können sich eine neue Semiotik und eine neue Physik die Hand geben für ein gemeinsames Abenteuer des Geistes, was die Denkhemmungen der Vergangenheit vergessen macht. Das Beharren auf tradierten Vorurteilen war schon immer das größte Hindernis für eine tiefere Erkenntnis.

NACHTRAG

Konzepte in Anlehnung an Tegmark (2014) Kap.9 von G.Doeben-Henisch

Konzepte in Anlehnung an Tegmark (2014) Kap.9 von G.Doeben-Henisch

In Ergänzung zum vorausgehenden Text kann es hilfreich sein, sich klar zu machen, dass Tegmark als Physiker ein biologisches System der Art homo sapiens (sapiens) ist, dessen primäre Wirklichkeit in einem internen Modell der Art W0 zu suchen ist. Um sich mit seinen Physikkollegen zu verständigen benutzt er mathematische Texte, die mit bestimmten Messwerten korreliert werden können, die ebenfalls als Zeichen von Messprozeduren generiert werden. Der Zusammenhang der Messwerte mit den mathematischen Texten wird intern (!!!) kodiert. Insofern spielt die Art und Weise der internen Modelle, ihre Beschaffenheit, ihre Entstehung, ihre Abgleichung etc. eine fundamentale Rolle in der Einschätzung der potentiellen Bedeutung einer Theorie. Physikalische Theorien sind von daher grundlegend nicht anders als alle anderen Theorien (sofern diese mathematische Ausdrücke benutzen, was jeder Disziplin freisteht). Sie unterscheiden sich höchstens durch die Art der Messwerte, die zugelassen werden. Sofern eine moderne philosophische Theorie physikalische Messwerte akzeptiert — und warum sollte sie dies nicht tun? — überlappt sich eine philosophische Theorie mit der Physik. Sofern eine moderne philosophische Theorie die Voraussetzungen einer physikalischen Theorie in ihree Theoriebildung einbezieht, geht sie transparent nachvollziehbar über die Physik hinaus. Semiotik sehe ich als Teilaspekt der Philosophie.

Einen Überblick über alle Beiträge des Autors cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themen des Blogs findet sich HIER.

MATHEMATIK UND WIRKLICHKEIT – DISKUTIERT AM BEISPIEL DES BUCHES VON TEGMARK: Our Mathematical Universe (2014)

Max Tegmark (2014), Our Mathematical Universe. My Quest of the Ultimate Nature of Reality, New York: Alfred A.Knopf

KONTEXT

  1. Das Interesse an dem Buch resultiert aus der Einsicht der letzten Jahre, dass eine Beschäftigung mit den entwickelteren empirischen Theorien, hier insbesondere mit der Physik, ohne ein angemessenes Verständnis der benutzten mathematischen Strukturen und Modellen nur von begrenzter Reichweite ist. Ohne die mathematischen Ausdrücke geht heute nichts mehr in der Physik.
  2. Wie sich aber in vielen philosophischen Analysen zur Funktion von Sprache im Kontext von Wissens gezeigt hat, ist das benutzte Mittel, die jeweilige Sprache, nicht neutral: jede Sprache hat ihre eigene Struktur (Logik, Syntax, Semantik,…), die darüber entscheidet, was man wie mit einer Sprache ausdrücken kann. Dazu kommt unser Gehirn, das sowohl die erfassbaren Ereignisse wie auch die Sprache selbst (die auch eine bestimmte Ereignismenge darstellt) auch in einer sehr spezifischen Weise verarbeitet.
  3. [Anmerkung: ein Beispiel im Block zur Reflexion über die Funktion von logischer Sprache sind die Blogeinträge zur Logik von Avicenna. ]
  4. Es kann also von Interesse sein, sich die Funktionsweise der mathematischen Sprache im Kontext moderner physikalischer Theorien anzuschauen.

BUCH VON TEGMARK

Konzepte aus dem Kap.1 von Tegmark (2014) herausgezogen und neu zusammen gestellt

Konzepte aus dem Kap.1 von Tegmark (2014) herausgezogen und neu zusammen gestellt

  1. Als Einstieg zu dieser Frage bietet sich das Buch von Tegmark (2014) an. Denn hier beschreibt ein Vollblutphysiker seine Suche nach den richtigen Antworten auf Grundsatzfragen wie „Woher kam Alles? Wie wir alles enden? Wie groß ist alles?“ (S.7) oder „Was ist wirklich?“ (S.8) aus der Perspektive der modernen Physik, die sich der Sprache der Mathematik bedient.

PHYSIK PLUS

  1. Dabei lässt er mehrfach durchblicken, dass seine Art die Fragen zu stellen und zu beantworten ein wenig abweicht von dem Stil, der in den offiziellen physikalischen Publikationen üblich ist, und dass dies auch der Grund ist, warum er viele Jahre (mehr als 25) quasi ein Doppelleben führen musst: einerseits als Physiker, der in der üblichen Weise publiziert und denkt, und andererseits als philosophierender Physiker, der sich auch Gedanken über die Methode selbst und deren Auswirkungen macht.
  2. In Kapitel 1 deutet er den allgemeinen Rahmen an, in dem er sich in seinem Buch bewegt. (Siehe dazu das Schaubild)

FRAGEN UND METHODEN ZU ANTWORTEN

  1. Ausgehend von der verbreiteten zweifelnden Frage ob das, was wir real erleben, nicht vielleicht doch nur ein Traum oder eine Simulation sei, deutet er an, mit welchen Mitteln die Physik sich diesen Fragen stellt.
  2. Nach Tegmark geht die Physik von der Annahme der externen Realität eines Universums aus, in dem auch die biologische Evolution stattgefunden hat. Unser Körper mit dem Gehirn ist ein Ergebnis davon.
  3. Zu früheren Zeiten (vor der modernen Physik) haben Menschen auch schon die Fragen nach dem Ganzen, dem Woher, dem Wohin gehabt und auf ihre Weise zu beantworten versucht, in Form von Mythen, Legenden oder religiösen Lehren.
  4. Mit der modernen Physik wurde dies anders. In Wechselwirkung zwischen immer differenzierteren Messgeräten und immer komplexeren mathematischen Ausdrücken konnte die atomare Struktur des Universums enthüllt werden, man entdeckte die Unendlichkeit des Universums, schwarze Löcher und vieles mehr.
  5. Parallel zu den Makrostrukturen enthüllte man schrittweise auch die Mikrostrukturen der biologischen Systeme: Atome, die Synapsen einer Gehirnzelle beeinflussen können, diese wiederum können Prozesse im präfrontalen Cortex stimulieren, von dem aus es dann zu bestimmten Entscheidungen kommen kann, die zu konkreten Aktionen führen können.
  6. Das Gehirn im Körper hat seine eigene Wirklichkeit, die er interne Realität bezeichnet im Gegensatz zur äußeren Realität außerhalb des Gehirns.

DISKURS

  1. Neben Tegmark gab (und gibt) es auch viele andere Physiker, die über das physikalische Denken im engeren Sinne hinausgegangen sind. Zu nennen sind hier beispielsweise Erwin Schrödinger (1887 – 1961) (Diskussion zu Schrödingers ‚What is Life?), Werner Karl Heisenberg (1901 – 1976), Pascual Jordan (1902 – 1980), Carl Friedrich Freiherr von Weizsäcker (1912 – 2007), oder Paul Charles William
  2. Davies (1946 – …), (Diskussion zu Davies im Blog), um nur einige zu nennen.
  3. Was Tegmark von den anderen unterscheidet, ist vielleicht seine Fokussierung auf die Rolle der mathematischen Sprache und die – in den folgenden Kapiteln – erläuterte These, dass die Natur als Objekt der mathematischen Sprache selbst ein mathematisches Objekt sei.
  4. Ob sich diese These durchhalten lässt, wird sich zeigen.
  5. Von diesem Diskurs darf man eine weitere Klärung der Rolle der Mathematik im physikalischen Denken erhoffen.

Eine Fortsetzung zu Teil 1 findet sich HIER.

Einen Überblick über alle Beiträge des Autors cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themen des Blogs findet sich HIER.

DAS UNIVERSUM MIT DEN AUGEN VON Lawrence M.Krauss. Gedanken zu seinem Buch A UNIVERS FROM NOTHING. Teil 1

Lawrence M.Krauss, a universe from nothing. why there is something rather than nothing. London: Simon & Schuster UK Ltd, 2012

KONTEXT

  1. In den vorausgehenden Einträgen zu diesem Blog gab es schon einige Beiträge, die sich mit dem Blick von Physikern auf unser Universum beschäftigt haben. Allerdings fast immer mit dem Blick von Physikern auf das biologische Leben, auf die Evolution, auf die Zelle (mit dem Befund, dass die Physik zwar einiges sagen kann, aber bei den entscheidenden Phänomenen letztlich passen muss (noch). Die Perspektive der Physik auf das Ganze, auf das Universum, kam im Blog selbst bislang nicht explizit vor. Allerdings wurde das Standardmodell einer Entwicklung vom BigBang bis hin zur Evolution im Großen und Ganzen durchgehend unterstellt. Da die Physiker – wie in vielen anderen Disziplinen auch verbreitet – in der Regel ‚Physikalisch‘ schreiben, d.h. Eine Amalgam von Alltagssprache, durchmischt mit vielen Fachbegriffen, dazu – im Normalbetrieb – viele Formeln, ist es für einen Fachfremden in der Regel kaum möglich, diese Texte so einfach zu lesen (geschweige denn, sie überhaupt zu finden). Man ist darauf angewiesen, dass ein Physiker gelegentlich versucht, das komplexe Wissen seines Fachs in eine allgemein verständliche Sprache zu fassen. Dies führt zwar zu einem Verlust an fachlicher Genauigkeit, erschließt aber dafür das Verstehen von vielen Fachfremden. Das Buch von Lawrence M.Krauss ist so ein Buch. Im Folgenden wird versucht werden, seine Gedanken aufzugreifen und zu schauen, ob und wie diese in den bisher im Blog erarbeiteten Zusammenhang hinein passen.

VORWORT

  1. Im Vorwort stellt Krauss die Frage ins Zentrum Warum es so ist, dass eher Etwas da ist als Nichts. Seit je her gab es dazu verschiedene Antwortversuche, die in der Zeit vor den modernen Wissenschaften in religiösen oder philosophischen Versionen daher kamen. Je nach den Denkvoraussetzungen der jeweiligen Betrachter vermutete man erste Ursachen, erste Beweger, einen Schöpfer des Ganzen, also irgendetwas, was das Denken zu dieser Zeit so hergab. Krauss geht hier aber nicht auf Details ein. Er belässt es bei ein paar allgemeinen Bemerkungen. Seine eigene Position ist allerdings klar. Für ihn ist es ungewiss, ob wir jemals genügend empirisches Wissen haben werden, um diese Frage klar beantworten zu können. (vgl. S.xiii)
  2. [Anmerkung: Von heute aus betrachtet muss man festhalten, dass sich die Interpreten der Vergangenheit selten Gedanken darüber machten, ob und in welcher Form sie überhaupt über genügend Wissen verfügten, die Frage zu beantworten (deutlich fassbar in den Texten der drei Offenbarungsreligionen). In einem naiven Denken denkt man einfach, ohne sich darüber Rechenschaft zu geben, unter welchen Bedingungen man denkt, was Denken überhaupt ist, usw. Mit dem Erstarken des philosophischen Denken (zu unterschiedlichen Zeiten an unterschiedlichen Orten unterschiedlich stark; wichtiges Beispiel: die antike Philosophie in Griechenland) begannen Philosophen, ihr eigenes Denken zu erforschen. In Ermangelung moderner Erkenntnisse über den Körper, das Gehirn, die Materie waren die Bilder dieses Denkens über das Denken zwar auch einfach, aber es entstanden doch erheblich differenziertere Bilder der Wirklichkeit im Lichte von Denkmodellen. Ein Platon und ein Aristoteles benutzen dann ihre Modelle des Denkens, um über die Welt im Lichte dieser Denkmodelle zu spekulieren. So beeindruckend diese Spekulationen (speziell im Falle des Aristoteles) sind, so wenig hilfreich sind sie aufs Ganze gesehen, weil ihre Voraussetzungen zu viele Schwachstellen aufweisen. Wenn dann eine Offenbarungsreligion wie das Christentum sich für Jahrhunderte mit diesen bedingt gültigen philosophischen Denkmodellen verbindet, werden die resultierenden Aussagen nicht wahrer.]
  3. Krauss liefert sich im Vorwort außerdem ein kleines Scharmützel mit jenen philosophischen und theologischen Positionen, die den Begriff Nichts (’nothing‘) im Gegensatz zum Begriff Irgendetwas (’something‘) so konstruieren wollen, dass das mit dem Begriff ‚Nichts‘ Gemeinte radikal nichts ist, in keiner Weise irgendetwas (Er nennt allerdings keine konkrete Autoren oder Texte). Eine solche Feststellung hält er für eine intellektuelle Bankrotterklärung, da für ihn, Kraus, das mit ‚Nichts‘ Gemeinte genauso etwas Physikalisches ist wie das mit ‚Irgendetwas‘ Gemeinte. Und – unter dieser Voraussetzung – kann es für das mit ‚Nichts‘ Gemeinte, wenn überhaupt, nur eine empirische Definition geben. (vgl. S.xiv)
  4. [Anmerkung: Nimmt man diese letzte Feststellung ernst, dann geht Krauss davon aus, dass das Reden über die Wirklichkeit nur in Begriffen empirischer Wissenschaft stattfinden kann. Diese Annahme ist (wie in vielen Blogbeiträgen zuvor schon angesprochen) eine unzulässige Vereinfachung des menschlichen Erkenntnisstandpunktes. (i) Die empirische Phänomene sind eindeutig nur eine echte Teilmenge der erlebbaren Phänomene überhaupt. Über diese nicht-empirischen Aspekte unserer Wirklichkeit zu sprechen ist nicht nur Alltag legitim, sondern selbst für einen strengen empirischen Wissenschaftsbetrieb bis zu einem gewissen Grad unausweichlich! Die intellektuelle Bankrotterklärung läge in diesem Punkt dann eher bei Krauss und nicht bei den andern. Im übrigen (ii) ist eine moderne empirische Theorie eine Synthese von empirischen Daten und formaler Mathematik als Ausdrucksmittel. Die Mathematik, die eingesetzt wird, enthält Begriffe, die in keiner Weise empirische verifiziert werden können, abgesehen davon, dass die in der Physik benutzte Mathematik grundsätzlich nicht vollständig entscheidbar ist (Goedel 1931, Turing 1936/7). Die moderne Mathematik selbst ist im Ansatz nicht empirisch, sondern vom Grundkonzept her metaphysisch. Darüber haben bislang schon viele Wissenschaftsphilosophen nachgedacht. Krauss offenbar nicht.]
  5. Als stärkste Motivation, dieses Buch zu schreiben, benennt Krauss die Entdeckung, dass sich der größte Teil der Energie im Universum in einem Zustand befindet, der von der Wissenschaft bislang nicht wirklich erklärt werden kann. Diese Entdeckung hat die gesamte Wissenschaft verändert, und auch sein Leben als Physiker. Denn sie führte dazu, dass er sich jahrelang genau diesem Phänomen gewidmet hat und nun über seine Erkenntnisse berichten möchte.

Fortsetzung folgt

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

WO IST DER STANDPUNKT VON JEDEM EINZELNEN? Eine Notiz

ANGEREGT VON

  1. Angeregt von dem Buch von Matt Ridley Ehe Evolution of Everything. How small Changes Transform our World (2015) ergaben sich viele interessante Fragen. Eine ausführlichere Diskussion des Buches wird im Blog noch erfolgen. Vorab aber erste Impressionen zu der speziellen Frage, die sich mir stellte, ob sich für jeden Menschen skizzieren lässt, was eigentlich der individuelle Ausgangspunkt für den gesamten Weltbezug ist (eine Abstimmung dieser Überlegungen mit den vielen vorausgehenden Beiträgen im Blog könnte zusätzlich hilfreich sein).

ALLGEMEINE BEDEINGUNGEN FÜR LEBEN

Verhältnis der Zeitdauer zwischen Alter des Universums (physikalische Natur) mit ca. 13.8 Mrd. Jahren, dem Auftreten biologschen Lebens seit ca. 3.8 Mrd, dem Auftreten von menschlichen Gesellschaften (homo sapiens sapiens) mit ca. 200.000 Jahren sowie der Lebenszeit eines einzelnen Menschen (hier optimistisch auf 100 Jahre gesetzt)

Verhältnis der Zeitdauer zwischen Alter des Universums (physikalische Natur) mit ca. 13.8 Mrd. Jahren, dem Auftreten biologschen Lebens seit ca. 3.8 Mrd, dem Auftreten von menschlichen Gesellschaften (homo sapiens sapiens) mit ca. 200.000 Jahren sowie der Lebenszeit eines einzelnen Menschen (hier optimistisch auf 100 Jahre gesetzt)

  1. Im Lichte des verfügbaren empirischen Wissens könnte man versucht sein, vier Dimensionen aufzuspannen:
  2. Den allgemeinsten Rahmen gibt die Naturgeschichte des Universums mit ca. 13.8 Mrd Jahren bislang, durch die die allgemeinsten Rahmenbedingungen festgelegt werden. Ohne diese zu verstehen kann man eigentlich gar nichts verstehen (Übergang von Energie in den Zustand von Materie mit Bewegung und Raum, Bildung von Atomen, Molekülen im Kontext von Gas- und Sonnenbildungen, Galaxien, usw.).
  3. Innerhalb dieses Rahmens haben sich seit ca. 3.8 Mrd Jahren biologische Strukturen herausgebildet, die unter Beachtung der allgemeinen physikalischen Gesetze eine Eigendynamik entwickelt haben, die sich deutlich von den allgemeinen physikalischen Gesetzen abheben.
  4. Sehr spät – also ca. ab 200.000 Jahren vor unserer Zeit – kann man innerhalb der biologischen Strukturen ein Phänomen beobachten, das mit Populationen des homo sapiens sapiens nur sehr unzulänglich beschrieben ist. Populationen des homo sapiens sapiens (hier abgekürzt hss-Populationen) zeigen eine Dynamik, die sich von der allgemein biologischen Dynamik nochmals deutlich abhebt.
  5. Dies neue Art von hss-Dynamik wird initiiert von jedem einzelnen Mitglied einer hss-Population, also von jedem einzelnen Exemplar eines homo sapiens sapiens; diese hss-Exemplare sollen hier Menschen genannt werden.
  6. Jeder einzelne Mensch (kurz für hss-Exemplar) zeigt spezifische Dynamiken im Vergleich zu allen anderen biologischen Individuen, setzt aber alle allgemeinen biologischen und physikalischen Gesetze voraus. Ohne diese kann man ihn nicht verstehen. Zusätzlich zeigt der Mensch aber besondere Dynamiken, die im Wechselspiel mit anderen Menschen im Rahmen von jeweiligen Gesellschaftssystemen zu immer wieder neuen Konstellationen führen können.
  7. Soweit eine erste Sichtweise aus der Sicht der empirischen Wissenschaften. Bei dieser Sichtweise wird vorausgesetzt, dass es eine Menge von wissenschaftlichen Beobachtern OBS gibt, die alle in gleicher Weise diese empirischen Phänomene sehen und beurteilen können.

EMPIRISCHER BEOBACHTER UNVOLLSTÄNDIG

  1. Wie wir aber heute wissen (können) (Anmerkung: siehe z.B. die 9 Blogeinträge HIER; es gab dazu noch viele weitere Blogeinträge), ist der von den empirischen Wissenschaften unterstellte homogene Beobachter eine starke Idealisierung. Diese Idealisierung ermöglicht zwar die Erklärung vieler Begriffe im Kontext der empirischen Wissenschaften, verdeckt aber die ganze komplexe Maschinerie, die notwendig ist, dass der idealisierte empirische Beobachter überhaupt funktionieren kann.
  2. Bezieht man diese komplexe Maschinerie ein, dann betritt man das aufregende unbekannte Land der aktuellen Forschungen, in denen von der einen Seite aus die empirischen Wissenschaften versuchen, das faszinierende Phänomen des Menschen mit empirischen Mitteln aufzuhellen, auf der anderen Seit die sogenannten Geisteswissenschaften, mit zusätzlichen, nicht-empirischen Methoden. Leider herrscht in diesem Forschungsgebiet des Phänomens Mensch eine große Unübersichtlichkeit, wechselseitig viel Unverständnis und unnötige Verteufelungen, natürlich auch schlichte Abgrenzungskämpfe um selbst möglich viel von den knappen Forschungsgeldern zu bekommen. Das interessanteste Phänomen des bekannten Universums, der Mensch, wird also vielfach zerrieben zwischen den Kämpfen der beteiligten Disziplinen.
  3. Ein beliebter Konfliktpunkt im Wechselspiel der vielen beteiligten Disziplinen ist die grobe Unterscheidung zwischen dem empirischen Standpunkt des Beobachters aus der sogenannten 3.Person-Perspektive und und dem subjektiven, introspektiven Standpunkt des Beobachters (als Selbstbeobachter) aus der sogenannten 1.Person-Perspektive.
  4. Die Kritik der empirischen Disziplinen an Untersuchungen im introspektiven Modus ist natürlich berechtigt, da introspektive Untersuchungen sich interaktiv nur sehr schwer (bis gar nicht) zweifelsfrei kommunizieren und überprüfen lassen.
  5. Auf der anderen Seite kulminiert das Besondere des Phänomens Mensch gerade in der Fähigkeit, auf der Basis seines Körpers mit dem Gehirn eine Art Innensicht des Systems genannt Bewusstsein auszubilden, das den Menschen in die Lage versetzt, genau diese Besonderheit an Dynamik zu entwickeln, die Populationen von Menschen deutlich abhebt von anderen biologischen Populationen. Außerdem besteht zwischen der 3.Person-Perspektive und der 1.Person-Perspektive kein absoluter Gegensatz. Die sogenannte 3.Person-Perspektive ist genuiner Teil des Bewusstseins, also der 1.Person-Perspektive. Mathematisch kann man davon sprechen, dass die Perspektive des empirischen Beobachters eine echte Teilmenge der Perspektive der 1.Person ist. Zum vollen Verständnis des empirischen Beobachters muss man letztlich sogar von dieser Teilmengeneigenschaft Gebrauch machen, sonst kann man das Funktionieren des empirischen Beobachters gar nicht erklären.
  6. Dieses spezifische Abhängigkeitsverhältnis des empirischen Beobachters von dem introspektiven Beobachter wurde bislang in den Wissenschaften kaum (oder gar nicht?) tiefer gehender diskutiert und untersucht. Man belässt es gerne bei der Abgrenzung.

SPEZIFISCHE DYNAMIK DES BIOLOGISCHEN

  1. Kommen wir nochmals zurück zur Behauptung, dass sich die biologischen Strukturen von den allgemeinen physikalischen Strukturen durch eine spezifische Dynamik auszeichnen und innerhalb der biologischen Strukturen sich die menschliche Population auch nochmals durch eine spezifische Dynamik auszeichnet. Viele (die meisten?) Wissenschaftler würden solche Feststellungen eher ablehnen. Die Grundtendenz ist (nachvollziehbar und bis zu einem gewissen Grad angemessen), die Vielfalt der Phänomene auf möglichst wenig Grundprinzipien zurück zu führen. Das ist das Erfolgsprinzip der empirischen Wissenschaften bis heute. Allerdings zeigt die Geschichte der Wissenschaften, dass gerade aufgrund dieses Prinzips nicht alles zu einem Einheitsbrei zusammen gedampft wurde, sondern dass gerade im Versuch der Vereinfachung sich auch Besonderheiten gezeigt haben. Die Vielfalt der heute bekannten Materieteilchen (subatomar, atomar, molekular…) kann man zwar auf allgemeine Prinzipien zurückführen, die schließlich alle im Superbegriff der Energie versinken, aber die Vielfalt der Phänomene im Universum allgemein wie speziell auch auf der Erde mit den biologischen Strukturen kann man nicht erklären, indem man im abstraktesten Allgemeinen verweilt.
  2. Ein Charles Darwin hat (im Kontext vieler anderer Denker, die damals ähnliche Phänomene untersuchten) zwar einerseits die Vielfalt biologischer Phänomene auf einige wenige Prinzipien der möglichen Entstehung zurückgeführt, aber diese Rückführung führte nicht zur Aufhebung der Vielfalt selbst. Nein, die Vielfalt blieb erhalten und es kamen Ideen auf, wie nicht nur diese Vielfalt sondern noch ganze andere Vielfalte entstehen könnten. In gewisser Weise erschien die beobachtbare Vielfalt als Manifestation eines Prinzips, das offensichtlich wirkte und genau durch die wechselnden Vielfalte sichtbar wurde. Dass dieses Prinzip dann den Namen Evolution bekam ist fast nebensächlich, Wichtig ist nur, dass überhaupt ein Prinzip entdeckt werden konnte, das mathematisch als Funktion, Abbildung interpretierbar ist:
  3. evol: BIOL x ENV —> ENV x BIOL
  4. Etwa umschreibar mit: gegebene biologische Systeme (BIOL) in bestimmten Umgebungen (ENV) können neue biologische Systeme hervorbringen und dabei zugleich verändernd auf die Umgebung einwirken. Die spezifischen Aktivitäten, Veränderungen dieser vielfältigen Formen werden hier allgemein als Dynamik bezeichnet.
  5. In dieser Allgemeinheit lässt das Evolutionskonzept noch nahezu nichts Konkretes erkennen, fokussiert aber den Blick darauf, dass der kontinuierliche Strom der Formen nicht rein zufällig stattfindet, sondern von Bedingungen abhängt, die nach einem bestimmten Muster neue Formen hervorbringt. Diese Dynamik deutet damit auf eine bestimmte Prozessstruktur hin, auf eine bestimmte mathematisch beschreibbare Logik des Geschehens, die sich nicht in der Beschreibung der einzelnen Teile erschöpft, sondern nur und gerade in der Beschreibung von Abfolgen und Zusammenhängen, durch die sich diese unterstellte Logik manifestiert.
  6. Der Begriff der Emergenz, der in diesem Zusammenhang oft und gerne benutzt wird, erscheint dem Autor dieser Zeilen zu schwach, um der Konkretheit dieser Logik und ihrer massiven Wirkung gerecht zu werden.
  7. Nach Darwin konnte das postulierte Prinzip der Evolution schrittweise immer weiter konkretisiert werden. Mit der Entdeckung von Zellstrukturen, von Molekülen, speziell dem DNA-Molekül, dem Reproduktionsmechanismus der Zellen mit Hilfe von DNA- und anderen Molekülen, dem epizyklischen Geschehen und vielem mehr konnte man die postulierte Logik des Geschehens an immer konkreteren Strukturen festmachen und damit die unterstellte Prozessstruktur verfeinern. Mittlerweile gibt es sogar weitreichende Modelle, die sogar die Entstehung der komplexen Zellen selbst aus einfacheren Bestandteilen unter bestimmten Umgebungsbedingungen plausibel machen können. Auch hier handelt es sich letztlich mathematisch um Abbildungsprozesse, die die Genese/ Konstruktion von komplexen Strukturen aus einfacheren Elementen unter Beteiligung von Wirkprinzipien andeuten. Die Wirkprinzipien selbst jenseits der beteiligten materiellen Komponenten sind nicht direkt beschreibbar, nur in ihren Wirkungen (so wie auch z.B. die Gravitation sich nur indirekt durch das Verhalten der beobachtbaren Materiekonstellationen erschließen lässt).
  8. Die entscheidend Botschaft ist hier also, dass sich in der Dynamik biologischer Strukturen Wirkprinzipien manifestieren, die charakteristisch für das Biologische sind, die auf implizite Eigenschaften der beteiligten Komponenten hinweisen, die sich nur in bestimmten Konstellationen zeigen. Letztlich sind es Eigenschaften der Materie, die sich überall im Universum zeigen können, wenn entsprechende Bedingungen gegeben sind.

ENDLICHE UNENDLICHKEIT

  1. Während ein einzelner Mensch am Beispiel seines Körpers mit dem klaren Beginn (Geburt) und dem klaren Ende (Tod) das Modell eines endlichen Prozesses am eigenen Leib erleben kann (und natürlich vielfältig im Laufe seines Lebens mit anderen Phänomenen), gibt es aus Sicht eines Menschen aber Phänomene, die sein Leben überdauern, die länger als 100 Jahre andauern. Die Endlichkeit wird damit immer ungreifbarer, erscheint immer mehr wie eine quasi Unendlichkeit. Und im Denken kann ein Mensch den Begriff der Unendlichkeit formen als Gegensatz zur Endlichkeit. Es bleibt zwar offen, ob und wieweit dem der gedanklichen Unendlichkeit irgendeine Realität entspricht, aber zumindest gibt es ein Etwas, ein Gedachtes, als Gegensatz zur konkreten Endlichkeit.

UNTERBRECHUNG

  1. Mit diesem angedeuteten Koordinatensystem kann man nun viele bekannte Phänomene diskutieren und zueinander in Beziehung setzen. Vielleicht geschieht dies mit weiteren Blogeinträgen.

Einen Überblick über alle Blog-Beiträge des Autors cagent nach Titeln findet sich HIER.

BLICK IN DAS INNERE DES UNIVERSUMS – NICK LANE – LIFE ASCENDING – BESPRECHUNG – Teil 2

Nick Lane, „Life Ascending“, London: Profile Books Ltd, 2009 (Paperback 2010)

KONTEXT

  1. Im vorausgehenden Teil 1 wurde nach einer kurzen Einleitung die Entstehung des Lebens im Lichte neuerer Erkenntnisse skizziert. Wer dadurch neugierig geworden ist, sei ermuntert, den Text von Lane und die angegebenen zusätzlichen Artikel und Bücher selbst zu lesen. In dieser Besprechung können nur die großen Linien angesprochen werden und mögliche Zusammenhänge mit dem Thema dieses Blogs. Interessant vielleicht auch die Nachbemerkungen zur Besprechung in Teil 1.
  2. Nachdem in Teil 1 neuere Forschungsergebnisse andeuten, wie sich das biologische Leben (= das Leben) im Rahmen der allgemeinen physikalischen (und chemischen) Gesetze in Form von grundlegenden hoch stabilen metabolischen Prozessketten formieren konnte, stellt sich die Folgefrage, wie der Weg von diesen komplexen, und doch – verglichen mit den späteren biologischen Strukturen – noch so einfachen Strukturen zu den eigentlichen Selbstreproduktionsmechanismen kommen konnte.

DNA – Der Code des Lebens (SS.34-59)

  1. Lane beginnt mit dem Sachverhalt, dass die Reproduktion einer Zelle letztlich gesteuert wird vom sogenannten Genom, das aus einer endlichen Menge von DNA-Molekülen besteht, wobei jedes DNA-Molekül jeweils in einem Doppelstrang ausgeführt ist. In diesem Doppelstrang bildet jedes Element ein Paar aus zwei Basen.
  2. [Anmerkung: ein DNA-Molekül bildet zusammen mit weiteren Elementen ein Chromatin. Ein Chromosom enthält – je nach Zellphase – entweder genau ein Chromatin oder ein Chromatin und seine Kopie (bei der Zellteilung werden diese beiden auf auf zwei neue Zellen als Schwester-Chromatine aufgeteilt). Die Gesamtheit der Chromosome bildet das Genom.]
  3. [Anmerkung: ein Grundelement (Nukleotid) der DNA besteht aus einem Strukturelement (einem Zucker-Phosphat Molekül), an das sich eine Base anlagern kann. Zwei solche Nukleotide können sich dann über die Basen komplementär zu einem Paar verbinden. (vgl. CELL S.3)]
  4. Es gibt vier Basen Adenin (A), Thymin (T), Guanin (G) und Cytosin (C). Dazu gibt es die starke chemische Tendenz, dass A sich nur an T bindet und C nur an G. Dadurch sind die beiden Stränge komplementär. (vgl. S.34f) Die Anordnung nutzt also eine vorgegebene chemische Bindungstendenz aus.
  5. Die Gesamtzahl der Nukleoide in einem menschlichen Genom wird auf ca. 3 Mrd (10^9) geschätzt. Bei ca. 15 Billionen (10^12) Körperzellen [Anmerkung: neuere Schätzungen gehen auf ca. 34 Billionen) bedeutet dies, dass das Genom 15 Billionen Mal (und öfters, da ja Körperzellen absterben und wieder ersetzt werden müssen) kopiert werden muss. Bei einer geschätzten Fehlerrate von 1 Nukleotid in 1 Mrd bedeutet dies, dass bei einer Kopie ca. 3 Fehler auftreten. Der Unterschied zwischen Menschen wird auf ca. 1 Unterschied pro 1000 Nukleotide geschätzt, also ca. 3 Mio; Lane spricht von 6-10 Mio. (vgl. SS.36-38)
  6. Beispiel: Die Trennung vom Schimpansen soll ca. vor 6 Mio Jahren geschehen sein. Die empirisch ermittelte Abweichungen werden mit 1,4% angegeben, also jede Art hat ca. 0.7% ihres Genoms in dieser Zeit verändert [Anmerkung: Bei einer angenommenen Generationendauer von 30 Jahren ergäben sich ca. 1050 Änderungen an Nukleotiden pro Generation auf jeder Seite].(vgl. S.38)
  7. Das Wissen um die Kombinatorik der Basen auf einem DNA-Molekül nützt allerdings letztlich nur dann etwas, wenn man auch weiß, welche potentiellen Strukturen und ihre lebensweltbezogenen Funktionen damit kodiert werden.(vgl. S.39) In der Zeit vor der Entdeckung von Watson und Crick 1953 waren die Details der biochemischen Maschinerie unbekannt.(vgl. S.40f)
  8. Nur langsam entdeckte man, dass die Proteine außerhalb des Zellkerns über die Zwischenstationen Messenger RNA (mRNA) (erste Kopie von DNA-Abschnitten) und Transfer RNA (tRNA) (Rückübersetzung) und Ribosom (Zusammenbau von Aminosäuren anhand der tRNA-Informationen) erzeugt werden. Und nur langsam entdeckte man, dass jeweils vier Nukleotide aus der DNA ein Codon bilden, das für genau eine Aminosäure steht, deren Aneinanderreihung ein Protein (bei kürzeren Formen spricht man von einem Peptid) ergibt. Während 4^4 = 64 Kombinationen mit einem Codon möglich wären, schätzten Crick und Watson damals die Zahl der relevanten Aminosäuren für biogene Proteine auf 20. [Anmerkung: im menschlichen Körper kommen 21 verschiedene Aminosäuren vor. Insgesamt sind heute 23 Aminosäuren bekannt, die bei Proteinen Verwendung finden (wobei heute mehr als 400 Aminosäuren bekannt sind, die biologisch wichtig sind aber nicht in Proteinen vorkommt).] Es stellte sich heraus, dass der Kode redundant ist: es können mehrere verschiedene Codons die gleiche Aminosäure kodieren. Drei von 64 Codons dienen als STOP-Signal. Da dieser Kode universell für alle Lebensformen gilt wird daraus geschlossen, dass alle diese Lebensformen einen gemeinsamen Vorläufer gehabt haben müssen, von dem diese Kodierung übernommen wurde. (vgl. SS.39-45) Crick entwickelte daraus die These (1981), dass das Leben von außerhalb der Erde kam (Raumschiff, Aliens,…), und sich dann hier ausgebreitet hat.
  9. Die Hypothese von Crick wurde durch den Gang der Forschung überholt. Generell erschien die Hypothese von Crick auch nicht sehr plausibel, da das Auftreten von komplexen Molekülen ohne entsprechende Umgebungen wenig Chancen bietet, dass diese Moleküle überleben.(vgl. S.45f)
  10. Realistischer erschienen solche Hypothesen, die aufzeigen können, wie die Elemente von Aminosäuren aus Vorläufermaterial aus vorgegebenen Umgebungen rekrutiert werden konnten.(vgl. S.46)
  11. Und in der Tat, man entdeckte nach und nach, dass es einen Kode in den Codons gibt! Die Codons mit ihren vier Elementen haben Positionen 1-4. Ein einzelnes Codon steht nicht nur irgendwie für eine bestimmte Aminosäure, sondern die Abfolge der Elemente im Codon steuern sehr stark auch den Prozess der Aminosäurebildung! So fand man heraus, dass es folgenden Zusammenhang gibt: ein C an erster Stelle legt fest, dass als erster Baustein bei der Aminosäureherstellung ein alpha-ketoglutarate benutzt werden soll; ein A an erster Stelle legt fest, dass als erster Baustein bei der Aminosäureherstellung ein oxalocetate benutzt werden soll; ein T steht für pyruvate; ein G steht für eine beliebige Anzahl von einfachen Vorläufern.(vgl.S46f und Fußnote 5)
  12. Die zweite Position im Codon reguliert, wo im Spektrum zwischen hydrophob und hydrophil sich die Aminosäure ansiedeln soll: die fünf häufigsten hydrophoben Elemente korrespondieren mit T an Position 2; die meisten hydrophilen Elemente mit dem Element A; G und C stehen für Elemente in der Mitte des Spektrums.(vgl. S.47)
  13. Position 3 und 4 lassen keine feste Kodierung erkennen. Dies deutet darauf hin, dass die frühen Vorformen des DNA-Kodes möglicherweise nur 2 Elemente hatten, die stark deterministisch waren. Experimente mit Punktmutationen zeigen, dass der genetische Kode verglichen mit zufälligen Anordnungen extrem stabil ist. Er stellt eine interessante Kombination dar aus einem sehr konservativem Anteil (Position 1-2), und einem experimentellen Anteil (Positionen 3-4).(vgl. SS.47-49)
  14. Bleibt als Frage, wie kam der Prozess zustande, in dem DNA eine Proteinproduktion steuert, wo aber DNA spezifische Proteine für ihr Funktionieren voraussetzt und die spezifischen Proteine eben DNA?(vgl.S.49)
  15. Eine Lösung deutet sich an über RNA Moleküle: diese sind flexibler und können als Katalysatoren wirken, die zur Bildung jener ersten Proteine geführt haben, die wiederum Vorformen von DNA-Molekülen ermöglichten.(vgl.49-51)
  16. Allerdings, wo kommen diese RNA-Moleküle her? Man weiß, dass RNA-Moleküle sich nur bei hohen Konzentrationen bilden können, da sie beim Zusammenbau Nukleotide verbrauchen. Wo findet man solche hohen Konzentrationen? Die Entdeckung der unterseeischen Schlote eröffnet ein mögliches Szenario. Modellrechnungen zeigten, dass die Wahrscheinlichkeit sehr hoch ist, dass sich in solchen Schloten (speziell in den Poren des Gesteins) solche hohen Konzentrationen von RNA-Molekülen bilden können. Simuliert man RNA-Moleküle isoliert, dann tendieren sie dazu, sich nur mit einer minimalen Struktur fortzupflanzen, nur genau so viele Elemente, wie zur Reproduktion notwendig sind (die berühmten ‚Spiegelmann Monster‘). Dieses Modell ist offensichtlich nicht dazu geeignet, die Bildung komplexer RNA-Moleküle, dazu noch in Kooperation mit Proteinbildung zu erklären. Eine Lösung muss in einem umfassenderen Rahmen gesucht werden, in dem die RNA-Moleküle nur eine Teilkomponenten sind. Dieser umfassenderer Rahmen wurde wieder in der Struktur der unterseeischen Schlote gesehen. Die Poren bilden natürliche Umgebungen, die wie eine Zelle wirken, in der komplexere metabolische Prozesse ablaufen können, in deren Kontext die RNA-Moleküle nur eine Teilfunktion haben.(vgl. S.53-55)
  17. Zum Thema umfassender Rahmen gehören auch die Entdeckungen, dass aufgrund genetischer Strukturen die Eukaryotischen Zellen (jene mit einem Zellkern) von den Archaeen abstammen, diese wiederum haben sehr viel mit den Bakterien gemeinsam. Letztere beiden unterscheiden sich aber bei der DNA Replikation, was so gedeutet wird, dass beide einen gemeinsamen Vorläufer haben müssen, von dem sie sich unterschiedlich weiter entwickelt haben.(vgl.S.55f)
  18. Die Arbeitshypothesen laufen darauf hinaus, dass die flexibleren RNA-Moleküle zwischen Proteinerzeugung und DNA-Bildung vermittelt haben (nach dem Muster von Retroviren?). Erst in dem Maße, wie sich die stabileren DNA-Moleküle bilden konnten, war auf Dauer eine Reproduktion gesichert. Für die beiden chemischen Unterschiede von RNA- und DNA-Molekülen gibt es genügend chemische Bestandteile in der unterseeischen Schlotumgebung, so dass eine DNA-Erzeugung aus RNA-Molekülen prinzipiell möglich erscheint.(vgl. SS.55-59)

DISKURS

  1. Die Details der neuen Erkenntnisse können einen erschlagen, und doch ist dies ja nur die berühmte Spitze des Eisbergs. Hinter diesen Fakten verbergen sich hochkomplexe Prozesse und entsprechend aufwendige Forschungen, die hier natürlich nicht beschrieben werden können. Nick Lane macht das großartig.
  2. Aber, treten wir ein paar Schritte zurück und fragen uns, was sich in diesen vielen Fakten an allgemeineren Strukturen andeutet.
  3. Offensichtlich nimmt man aktuell an, dass man mindestens die folgenden Strukturen unterscheiden sollte:
  4. Die heutigen eukaryotischen Zellen (Z_eu) (Zellen mit einem komplexen Kern und vielen Teilstrukturen inklusive ganzer ehemaliger Bakterien).
  5. Die heutigen Prokarytischen Zellen (Z_pro) als Bakterien (Z_ba) und die Archaeen (Z_ar)
  6. Eine Erzeugungsbeziehung zwischen Archaeen und Eukaryoten (g_ar.eu : Z_ar —> Z_eu)
  7. Bei dieser Erzeugungsbeziehung sind weitere Einflussfaktoren durch horizontalen Genaustausch nicht völlig ausgeschlossen.
  8. Es soll einen gemeinsamen Vorläufer (Z_pre) von Archaeen und Bakterien geben.
  9. Entsprechend muss es auch eine Erzeugungsbeziehung geben: g_pre.ar.ba: Z_pre —> Z_ba u Z_ar.
  10. Diese Strukturen und Erzeugungsbeziehungen haben nicht im Nichts stattgefunden, sondern haben geeignete Umgebungen ENV benötigt, die sowohl in großen Mengen und kontinuierlich die notwendigen Ausgangsmaterialien M0 bereit halten konnten wie auch die notwendigen Temperaturgefälle DT für die Ermöglichung der chemischen Prozesse: ENV = <M0, DT, Z_pre, Z_ba, Z_ar, Z_eu, g_pre.ar.ba, g_ar.eu>
  11. Ferner wird angenommen, dass die allgemeinen physikalisch-chemischen Gesetze (G) gelten und ausschließlich diese für das Auftreten und das Reagieren der verschiedenen beteiligten Materialien zuständig sind, also ENV = <M0, DT, Z_pre, Z_ba, Z_ar, Z_eu, g_pre.ar.ba, g_ar.eu, G>
  12. Dazu gehören auch jene Entstehungsprozesse, die aus den Ausgangsmaterialien M0 die Vorläuferzelle Z_pre hat entstehen lassen, also g_0: ENV x TD x M0 —> Z_pre, also ENV = <M0, DT, Z_pre, Z_ba, Z_ar, Z_eu, g_0, g_pre.ar.ba, g_ar.eu, G>
  13. Für den Bereich der eukaryotischen Zellen Z_eu werden mindestens angenommen DNA-Moleküle, Boten-RNA (mRNA), Transfer RNA (tRNA), ribosomale RNA (ribRNA) und Proteine PROT. Dazu weitere Großstrukturen wie Chromatin(e), Chromosomen, Mitochondrien, usw.
  14. Im Bereich der Erzeugungsprozesse muss man ferner eine Art zeitliche und logische Abhängigkeit annehmen, indem der jeweils spätere Hervorbringungsprozess andere frühere voraussetzt, also: G < g_0 < g_pre.ar.ba < g_ar.eu.
  15. Jeder dieser Hervorbringungsprozesse wiederum zeigt sich nicht im Nichts sondern nur beim Vorhandensein spezifischer Materialien M, die in ihrem beobachtbaren Verhalten phi indirekt das Wirken spezifischer Gesetze manifestieren. Ohne die Beobachtbarkeit spezifischer Materialien und deren Verhalten (Newtons berühmter Apfel, die Planetenbahnen der alten Astronomen, magnetische Kräfte, Vulkanausbrüche, geologische Ablagerungen usw.) wäre es nicht möglich, auf dahinter/ darunter/ damit .. wirkende Kräfte phi zu schließen, die man dann in Form von symbolischen Darstellungen als gesetzmäßige Beziehungen (Relationen, Funktionen, Axiome) beschreibt.
  16. Während das menschliche Denken beim Vorliegen von irgendwelchen beobachtbaren Materialien, deren Eigenschaften und Veränderungen spontan dazu neigt, diese als gegeben, als auftretend, als seiend, als objektiv, als Objekte zu unterstellen, tut sich das gleiche Denken sehr schwer, das durch diese Materialien sichtbare werdende Verhalten phi in gleicher Weise als gegeben, seiend, objektiv vorkommend zu denken.
  17. Obgleich die beobachtbaren Materialien ohne dieses unterstellte Verhalten sich in keiner Weise verändern würden, zögern wir, aus den beobachtbaren Veränderungen auf eine interne Eigenschaft der Materialien zu schließen. Im Falle von tierischen Lebewesen wissen wir mittlerweile, dass das gesamte Verhalten in einem Nervensystem gründet, das im Innern des Systems angeordnet ist und von da aus das Verhalten steuert. Aber wir tun  uns schwer, in analoger Weise anzunehmen, dass das überall beobachtbare Verhalten von Materialien nicht auch von Strukturen abhängig ist, die im Innern der Materialien zu verorten sind.
  18. Bei chemischen Molekülen unterstellt man die atomare Struktur mit den unterschiedlichen Bestandteilen, Ladungen und Reaktionstendenzen, die in Wechselwirkung mit der jeweiligen Umgebung sich spezifisch verändern können.
  19. Bei Atomen bleiben einem nur noch die unterscheidbaren Teilchen, aber auch diese haben mathematisch beschreibbare ( wenngleich in Form von Möglichkeitsräumen) Verhaltenstendenzen.
  20. Dann bleibt als letzter Referenzpunkt nur die reine Energie E. Diese kann man nicht direkt beobachten, nur in ihren Wirkungen. Mit anderen Worten, die Energie E enthält sowohl alle potentiellen Materialeigenschaften wie auch die dazu gehörigen Verhaltenstendenzen. In diesem Sinne repräsentiert die Energie E eine Art Superobjekt, in dem die in der Makrowelt bekannte Unterscheidung zwischen materiellen Strukturen und Verhalten nicht mehr gilt. Energie als Superobjekt beinhaltet Materie und deren Verhalten in einem. Um diesen Sachverhalt auszudrücken, ist die bekannte Formel von Einstein e = mc^2 möglicherweise zu ungenau. Sie bietet keine Möglichkeit, zwischen materiellen Strukturen und Verhalten zu unterscheiden. Das beobachtbare Verhalten ist aber genau die Sprache, in der sich das Innere der Dinge mitteilt. Alles,was uns Menschen fasziniert, das sind die Erscheinungen der Veränderungen, ihre Vielfalt, ihre Abfolge. Liebe enthüllt sich nur im Gewandte solcher Veränderungen, genauso wie Hass oder Treue. Wissen ist eingeflochten in eine Vielzahl von Strukturen und deren Veränderungen.
  21. Sowohl die Entwicklung des Universums vor dem ersten Auftreten von Leben wie erst recht dann mit dem Auftreten biologischer Strukturen ist ein Prozess immer komplexerer Verhaltensweisen, die in ihrer Dynamik Gesetze, Regeln, Strukturen erkennen lassen, die den Blick immer tiefer in das Innere aller Dinge öffnen. Das ist eigentlich unfassbar fantastisch, aber es scheint niemand besonders zu rühren.

Fortsetzung folgt

WEITERE QUELLEN/ LINKS (Selektiv)

  • Freie Protein-Datenbank: http://www.ebi.ac.uk/pdbe/ (siehe auch http://proteopedia.org/wiki/index.php/Main_Page )
  • Visualisierung von Proteindaten: https://de.wikipedia.org/wiki/Jmol und http://wiki.jmol.org/index.php/Jmol_Application#Starting_Jmol_Application
  • Proteine (Peptide): https://de.wikipedia.org/wiki/Protein
  • Aminosäuren: https://de.wikipedia.org/wiki/Aminos%C3%A4uren
  • Alpha-Ketoglutarate: https://en.wikipedia.org/wiki/Alpha-Ketoglutaric_acid
  • oxalocetate: https://en.wikipedia.org/wiki/Oxaloacetic_acid
  • Pyruvate: https://en.wikipedia.org/wiki/Pyruvic_acid
  • Punktmutation: https://de.wikipedia.org/wiki/Punktmutation
  • Spiegelmann Monster: https://de.wikipedia.org/wiki/Spiegelmans_Monster
  • Bakterien: https://de.wikipedia.org/wiki/Bakterien
  • Achaeen: https://de.wikipedia.org/wiki/Archaeen
  • Eukaryoten: https://de.wikipedia.org/wiki/Eukaryoten
  • Retroviren: https://de.wikipedia.org/wiki/Retroviren
  • Chromosom: https://de.wikipedia.org/wiki/Chromosom
  • Chromatin: https://de.wikipedia.org/wiki/Chromatin
  • CELL: B.Alberts, A.Johnson, J.Lewis (und andere), Molecular Biology of THE CELL, 6.Aufl., 2015, New York: Garland Science, Taylor and Francis Group, LLC.
  • V.Storch, U.Welsch, M.Wink (und andere), Evolutionsbiologie,3.überarbeitete und aktualisiere Aufl., 2013, Berlin – Heidelberg: Springer-Verlag
  • Francis Harry Compton Crick, Nobelpreisrede: http://www.nobelprize.org/nobel_prizes/medicine/laureates/1962/crick-lecture.html
  • Francis Harry Compton Crick Life Itself: Its Origin and Nature (Simon & Schuster, 1981) ISBN 0-671-25562-2
  • DNA WikiEN: https://en.wikipedia.org/wiki/DNA
  • RNA: https://de.wikipedia.org/wiki/Ribonukleins%C3%A4ure
  • Harold Morowitz: https://en.wikipedia.org/wiki/Harold_J._Morowitz (ein großes Thema: Wechselwirkung von Thermodynamik und Leben)
  • Michael J.Russel et al: http://www.gla.ac.uk/projects/originoflife/html/2001/pdf_articles.htm: The Origin of Life research project by Michael J. Russell & Allan J. Hall , University of Glasgow, May 2011
  • Krebs-Zyklus: https://en.wikipedia.org/wiki/Citric_acid_cycle
  • Martin W, Russell MJ., On the origin of biochemistry at an alkaline hydrothermal vent. , Philos Trans R Soc Lond B Biol Sci. 2007 Oct 29; 362(1486):1887-925.
  • Martin W, Baross J, Kelley D, Russell MJ., Hydrothermal vents and the origin of life., Nat Rev Microbiol. 2008 Nov; 6(11):805-14.
  • Harold Morowitz und Eric Smith , Energy flow and the organization of life , Journal Complexity archive, Vol. 13, Issue 1, September 2007, SS. 51 – 59 ,John Wiley & Sons, Inc. New York, NY, USA

Einen Überblick über alle Blogeinträge des Autors cagent nach Titeln findet sich HIER.

Buch: Die andere Superintelligenz. Oder: schaffen wir uns selbst ab? – Kapitel 5 – neu – Version 2

VORBEMERKUNG: Der folgende Text ist ein Vorabdruck zu dem Buch Die andere Superintelligenz. Oder: schaffen wir uns selbst ab?, das im November 2015 erscheinen soll.

Was ist Leben?

Erst die Erde

Etwa 9.2 Mrd Jahre nach dem sogenannten Big Bang kam es zur Entstehung unseres Sonnensystems mit der Sonne als wichtigstem Bezugspunkt. Nur ca. 60 Mio Jahre später gab es unsere Erde. Die Zeitspanne, innerhalb der Spuren von Leben auf der Erde bislang identifiziert wurden, liegt zwischen -4 Mrd Jahre von heute zurück gerechnet bis ca. -3.5 Mrd Jahre. Oder, vom Beginn der Erde aus gesehen, ca. 540 Mio Jahre bis ca. 1 Mrd Jahre nach der Entstehung der Erde.

Alte Bilder vom Leben

Wenn man vom Leben spricht, von etwas Belebtem im Gegensatz zum Unbelebtem, fragt man sich sofort, wie man ‚Leben‘ definieren kann? In der zurückliegenden Geschichte gab es viele Beschreibungs- und Definitionsversuche. Einer, der heute noch begrifflich nachwirkt, ist die Sicht der Philosophie der Antike (ca. -600 bis 650) . Hier wurde das ‚Atmen‘ (gr. ‚pneo‘) als charakteristisches Merkmal für ‚Lebendiges‘ genommen, wodurch es vom ‚Unbelebtem‘ abgegrenzt wurde. Aus dem ‚Atmen‘ wurde zugleich ein allgemeines Lebensprinzip abgeleitet, das ‚Pneuma‘ (im Deutschen leicht missverständlich als ‚Geist‘ übersetzt, im Lateinischen als ’spiritus‘), das sich u.a. im Wind manifestiert und ein allgemeines kosmologisches Lebensprinzip verkörpert, das sowohl die Grundlage für die psychischen Eigenschaften eines Lebewesens bildet wie auch für seine körperliche Lebendigkeit. In der Medizin gab es vielfältige Versuche, das Pneuma im Körper zu identifizieren (z.B. im Blut, in der Leber, im Herzen, im Gehirn und den Nerven). Im philosophischen Bereich konnte das Pneuma ein heißer Äther sein, der die ganze Welt umfasst. Eine andere Auffassung sieht das Pneuma zusammengesetzt aus Feuer und Luft, woraus sich alle Körper der Welt bilden. Das Pneuma wird auch gesehen als die ‚Seele‘, die allein das Leben des Körpers ermöglicht. Bei den Stoikern wird das Pneuma-Konzept zum allumfassenden Begriff einer Weltseele gesteigert. Mit der Zeit vermischte sich der Pneuma-Begriff mit dem Begriff ’nous‘ (Kurzform für ’noos‘)(Englisch als ‚mind‘ übersetzt; Deutsch ebenfalls als ‚Geist‘), um darin die kognitiv-geistige Dimension besser auszudrücken. Weitere einflussreiche begriffliche Koordinierungen finden statt mit dem lateinischen ‚mens‘ (Deutsch auch übersetzt mit ‚Geist‘) und dem hebräischen ‚ruach‘ (im Deutschan ebenfalls mit ‚Geist‘ übersetzt; bekannt in der Formulierung ‚Der Geist Gottes (= ‚ruach elohim‘) schwebte über den Wassern‘; in der Septuaginta, der griechischen Übersetzung der hebräischen Bibel, heißt es ‚pneuma theou‘ (= der Geist Gottes)) (Anmerkung: Diese Bemerkungen sind ein kleiner Extrakt aus der sehr ausführlichen begriffsgeschichtlichen Herleitung in Sandkühler 2010)

Die Zelle im Fokus

War es für die antiken Philosophen, Mediziner und Wissenschaftler noch praktisch unmöglich, die Frage nach den detaillierten Wirkprinzipien des ‚Lebens‘ genauer zu beantworten, erarbeitete sich die moderne Naturwissenschaft immer mehr Einsichten in die Wirkprinzipien biologischer Phänomene (bei Tieren, Pflanzen, Mikroben, molekularbiologischen Sachverhalten), so dass im Laufe des 20.Jahrhunderts klar wurde, dass die Gemeinsamkeit aller Lebensphänomene auf der Erde in jener Superstruktur zu suchen ist, die heute (biologische) Zelle genannt wird.

Alle bekannten Lebensformen auf der Erde, die mehr als eine Zelle umfassen (wir als Exemplare der Gattung homo mit der einzigen Art homo sapiens bestehen aus ca. 10^13 vielen Zellen), gehen zu Beginn ihrer körperlichen Existenz aus genau einer Zelle hervor. Dies bedeutet, dass eine Zelle über alle notwendigen Eigenschaften verfügt, sich zu reproduzieren und das Wachstum eines biologischen Systems zu steuern.

So enthält eine Zelle (Anmerkung: Für das Folgende benutze ich B.Alberts et.al (2008)) alle Informationen, die notwendig sind, um sowohl sich selbst zu organisieren wie auch um sich zu reproduzieren. Die Zelle operiert abseits eines chemischen Gleichgewichts, was nur durch permanente Aufnahme von Energie realisiert werden kann. Obwohl die Zelle durch ihre Aktivitäten die Entropie in ihrer Umgebung ‚erhöht‘, kann sie gegenläufig durch die Aufnahme von Energie auch Entropie verringern. Um einen einheitlichen Prozessraum zu gewährleisten, besitzen Zellen eine Membran, die dafür sorgt, dass nur bestimmte Stoffe in die Zelle hinein- oder herauskommen.

Keine Definition für außerirdisches Leben

Obgleich die Identifizierung der Zelle samt ihrer Funktionsweise eine der größten Errungenschaften der modernen Wissenschaften bei der Erforschung des Phänomens des Lebens darstellt, macht uns die moderne Astrobiologie darauf aufmerksam, dass eine Definition der Lebensphänomene mit Einschränkung des Blicks auf die speziellen Bedingungen auf der Erde nicht unproblematisch ist. Wunderbare Bücher wie „Rare Earth“ von Peter Douglas Ward (Geboren 1949) und Donald Eugene Brownlee (Geboren 1943) „ASTROBIOLOGY. A Multidisciplinary Approach“ von Jonathan I.Lunine (Geb. 1959) machen zumindest sichtbar, wo die Probleme liegen könnten. Lunine diskutiert in Kap.14 seines Buches die Möglichkeit einer allgemeineren Definition von Leben explizit, stellt jedoch fest, dass es aktuell keine solche eindeutige allgemeine Definition von Leben gibt, die über die bekannten erdgebundenen Formen wesentlich hinausgeht. (Vgl. ebd. S.436)

Schrödingers Vision

Wenn man die Charakterisierungen von Leben bei Lunine (2005) in Kap.14 und bei Alberts et.al (2008) in Kap.1 liest, fällt auf, dass die Beschreibung der Grundstrukturen des Lebens trotz aller Abstraktionen tendenziell noch sehr an vielen konkreten Eigenschaften hängen.

Erwin Rudolf Josef Alexander Schrödinger (1887-1961), der 1944 sein einflussreiches Büchlein „What is Life? The Physical Aspect of the Living Cell“ veröffentlichte, kannte all die Feinheiten der modernen Molekularbiologie noch nicht . Schrödinger unterzog das Phänomen des Lebens einer intensiven Befragung aus Sicht der damaligen Physik. Auch ohne all die beeindruckenden Details der neueren Forschung wurde ihm klar, dass das hervorstechendste Merkmal des ‚Biologischen‘, des ‚Lebendigen‘ die Fähigkeit ist, angesichts der physikalisch unausweichlichen Zunahme der Entropie einen gegensätzlichen Trend zu realisieren; statt wachsender Unordnung als Entropie diagnostizierte er eine wachsende Ordnung als negative Entropie, also als etwas, was der Entropie entgegen wirkt.

Diesen Gedanken Schrödingers kann man weiter variieren und in dem Sinne vertiefen, dass der Aufbau einer Ordnung Energie benötigt, mittels der Freiheitsgrade eingeschränkt und Zustände temporär ‚gefestigt‘ werden können.

Fragt sich nur, warum?

Alberts et.al (2008) sehen das Hauptcharakteristikum einer biologischen Zelle darin, dass sie sich fortpflanzen kann, und nicht nur das, sondern dass sie sich selbstmodifizierend fortpflanzen kann. Die Realität biologischer Systeme zeigt zudem, dass es nicht nur um ‚irgendeine‘ Fortpflanzung ging, sondern um eine kontinuierlich optimierende Fortpflanzung.

Metastrukturen

Nimmt man diese Eckwerte ernst, dann liegt es nahe, biologische Zellen als Systeme zu betrachten, die einerseits mit den reagierenden Molekülen mindestens eine Objektebene [O] umfasst und in Gestalt der DNA eine Art Metaebene [M]; zwischen beiden Systemen lässt sich eine geeigneten Abbildung [R] in Gestalt von Übersetzungsprozessen realisieren, so dass die Metaebene M mittels Abbildungsvorschrift R in eine Objektebene O übersetzt werden kann (R: M \longmapsto O). Damit eine Reproduktion grundsätzlich gelingen kann, muss verlangt werden, dass das System mit seiner Struktur ‚lang genug‘ stabil ist, um solch einen Übersetzungsprozess umsetzen zu können. Wie diese Übersetzungsprozesse im einzelnen vonstatten gehen, ist letztlich unwichtig. Wenn in diesem Modell bestimmte Strukturen erstmals realisiert wurden, dann fungieren sie als eine Art ‚Gedächtnis‘: alle Strukturelemente von M repräsentieren potentielle Objektstrukturen, die jeweils den Ausgangspunkt für die nächste ‚Entwicklungsstufe‘ bilden (sofern sie nicht von der Umwelt ‚aussortiert‘ werden).

Die Rolle dieser Metastrukturen lässt sich letztlich nicht einfach mit den üblichen chemischen Reaktionsketten beschreiben; tut man es dennoch, verliert man die Besonderheit des Phänomens aus dem Blick. Eine begriffliche Strategie, um das Phänomen der ‚wirkenden Metastrukturen‘ in den Griff zu bekommen, war die Einführung des ‚Informationsbegriffs‘.

Information

Grob kann man hier mindestens die folgenden sprachlichen Verwendungsweisen des Begriffs ‚Information‘ im Kontext von Informationstheorie und Molekularbiologie unterscheiden:

  1. Unreflektiert umgangssprachlich (‚Information_0‘)
  2. Anhand des Entscheidungsaufwandes (Bit) (‚Information_1‘)
  3. Rein statistisch (a la Shannon 1948) (‚Information_2‘)
  4. Semiotisch informell (ohne die Semiotik zu zitieren) (‚Semantik_0‘)
  5. Als komplementär zur Statistik (Deacon) (‚Semantik_1‘)
  6. Als erweitertes Shannonmodell (‚Semantik_2‘)

Information_0

Die ‚unreflektiert umgangssprachliche‘ Verwendung des Begriffs ‚Information‘ (hier: ‚Information_0‘) brauchen wir hier nicht weiter zu diskutieren. Sie benutzt den Begriff Information einfach so, ohne weitere Erklärungen, Herleitungen, Begründungen. (Ein Beispiel Küppers (1986:41ff))

Information_1

Die Verwendung des Begriffs Information im Kontext eines Entscheidungsaufwandes (gemessen in ‚Bit‘), hier als ‚Information_1‘ geht auf John Wilder Tukey (1915-2000) zurück.

Information_2

Shannon (1948) übernimmt zunächst diesen Begriff Information_1, verzichtet dann aber im weiteren Verlauf auf diesen Informationsbegriff und führt dann seinen statistischen Informationsbegriff ein (hier: ‚Information_2‘), der am Entropiekonzept von Boltzmann orientiert ist. Er spricht dann zwar immer noch von ‚Information‘, bezieht sich dazu aber auf den Logarithmus der Wahrscheinlichkeit eines Ereignisses, was alles und jedes sein kann. Ein direkter Bezug zu einem ’speziellen‘ Informationsbegriff (wie z.B. Information_1) besteht nicht. Man kann die logarithmierte Wahrscheinlichkeit eines Ereignisses als ‚Information‘ bezeichnen (hier: ‚Information_2‘), aber damit wird der Informationsbegriff inflationär, dann ist alles eine Information, da jedes Ereignis mindestens eine Wahrscheinlichkeit besitzt. (Leider benutzt auch Carl Friedrich von Weizsäcker (1971:347f) diesen inflationären Begriff (plus zusätzlicher philosophischer Komplikationen)). Interessanterweise ist es gerade dieser inflationäre statistische Informationsbegriff Information_2, der eine sehr starke Resonanz gefunden hat.

Semantik 0

Nun gibt es gerade im Bereich der Molekularbiologie zahlreiche Phänomene, die bei einer Beschreibung mittels eines statistischen Informationsbegriffs wichtige Momente ihres Phänomens verlieren. (Dazu eine kleine Übersicht bei Godfrey-Smith, Kim Sterelny (2009)) Ein Hauptkritikpunkt war und ist das angebliche Fehlen von Bedeutungselementen im statistischen Modell von Shannon (1948). Man spricht auch vom Fehlen einer ‚Semantik‘. Allerdings wird eine Diskussion der möglichen Bedeutungsmomente von Kommunikationsereignissen unter Verwendung des Begriffs ‚Semantik‘ auch oft unreflektiert alltagssprachlich vorgenommen (hier: Semantik_0′), d.h. es wird plötzlich von Semantik_0 gesprochen (oft noch erweitert um ‚Pragmatik‘), ohne dass die Herkunft und Verwendung dieses Begriffs in der Wissenschaft der Semiotik weiter berücksichtigt wird. (Ein Beispiel für solch eine verwirrende Verwendungsweise findet sich z.B. wieder bei Weizsäcker (1971:350f), wo Information_0, Information_2 sowie Semantik_0 miteinander frei kombiniert werden, ohne Berücksichtigung der wichtigen Randbedingungen ihrer Verwendung; ganz ähnlich Küppers (1986:61ff); zur Semiotik siehe Noeth (2000)). Ein anderes neueres Beispiel ist Floridi (2015:Kap.3+4) Er benutzt zwar den Begriff ‚Semantik‘ extensiv, aber auch er stellt keinen Bezug zur semiotischen Herkunft her und verwendet den Begriff sehr speziell. Seine Verwendung führt nicht über den formalen Rahmen der statistischen Informationstheorie hinaus.

Semantik 1

Sehr originell ist das Vorgehen von Deacon (2007, 2008, 2010). Er diagnostiziert zwar auch einen Mangel, wenn man die statistische Informationstheorie von Shannon (1948) auf biologische Phänomene anwenden will, statt sich aber auf die schwierige Thematik einer expliziten Semantik einzulassen, versucht er über die Ähnlichkeit des Shannonschen statistischen Informationsbegriffs mit dem von Boltzmann einen Anschluss an die Thermodynamik zu konstruieren. Von dort zum Ungleichgewicht biologischer Systeme, die durch Arbeit und Energieaufnahme ihr Gleichgewicht zu halten versuchen. Diese Interaktionen des Systems mit der Umgebung modifizieren die inneren Zustände des Systems, die wiederum dann das Verhalten des Systems ‚umweltgerecht‘ steuern. Allerdings belässt es Deacon bei diesen allgemeinen Annahmen. Die ‚Abwesenheit‘ der Bedeutung im Modell von Shannon wird über diese frei assoziierten Kontexte – so vermutet man als Leser – mit den postulierten internen Modifikationen des interagierenden Systems begrifflich zusammengeführt. Wie dies genau gedacht werden kann, bleibt offen.

Semantik 2

So anregend die Überlegungen von Deacon auch sind, sie lassen letztlich offen, wie man denn – auch unter Berücksichtigung des Modells von Shannon – ein quasi erweitertes Shannonmodell konstruieren kann, in dem Bedeutung eine Rolle spielt. Hier eine kurze Skizze für solch ein Modell.

Ausgehend von Shannons Modell in 1948 besteht die Welt aus Sendern S, Empfängern D, und Informationskanälen C, über die Sender und Empfänger Signale S eingebettet in ein Rauschen N austauschen können (<S,D,S,N,C> mit C: S —> S x N).

Ein Empfänger-Sender hat die Struktur, dass Signale S in interne Nachrichten M dekodiert werden können mittels R: S x N —> M. Umgekehrt können auch Nachrichten M in Signale kodiert werden mit T: M —> S. Ein minimaler Shannon Sender-Empfänger hat dann die Struktur <M, R, T>. So gesehen funktionieren R und T jeweils als ‚Schnittstellen‘ zwischen dem ‚Äußeren‘ und dem ‚Inneren‘ des Systems.

In diesem minimalen Shannonmodell kommen keine Bedeutungen vor. Man kann allerdings annehmen, dass die Menge M der Nachrichten eine strukturierte Menge ist, deren Elemente Paare der Art (m_i,p_i) in M mit ‚m_i‘ als Nachrichtenelement und ‚p_i‘ als Wahrscheinlichkeit, wie oft dieses Nachrichtenelement im Kanal auftritt. Dann könnte man Shannons Forml H=-Sum(p_i * log2(p_i)) als Teil des Systems auffassen. Das minimale Modell wäre dann <M, R, T, H>.

Will man ‚Bedeutungen‘ in das System einführen, dann muss man nach der Semiotik einen Zeichenbegriff für das System definieren, der es erlaubt, eine Beziehung (Abbildung) zwischen einem ‚Zeichenmaterial‚ und einem ‚Bedeutungsmaterial‚ zu konstruieren. Nimmt man die Signale S von Shannon als Kandidaten für ein Zeichenmaterial, fragt sich, wie man das Bedeutungsmaterial B ins Spiel bringt.

Klar ist nur, dass ein Zeichenmaterial erst dann zu einem ‚Zeichen‘ wird, wenn der Zeichenbenutzer in der Lage ist, dem Zeichenmaterial eine Bedeutung B zuzuordnen. Eine einfache Annahme wäre, zu sagen, die dekodierten Nachrichten M bilden das erkannte Zeichenmaterial und der Empfänger kann dieses Material irgendwelchen Bedeutungen B zuordnen, indem er das Zeichenmaterial M ‚interpretiert‚, also I : M —> B. Damit würde sich die Struktur erweitern zu <B, M, R, T, H, I>. Damit nicht nur ein Empfänger ‚verstehen‘ kann, sondern auch ‚mitteilen‘, müsste der Empfänger als Sender Bedeutungen auch wieder ‚umgekehrt lesen‘ können, also -I: B —> M. Diese Nachrichten könnten dann wieder mittels T in Signale übersetzt werden, der Kanal sendet diese Signale S angereichert mit Rauschen N zum Empfänger, usw. Wir erhalten also ein minimal erweitertes Shannon Modell mit Bedeutung als <B, M, R, T, H, I, -I>. Ein Sender-Empfänger kann also weiterhin die Wahrscheinlichkeitsstruktur seiner Nachrichten auswerten; zusätzlich aber auch mögliche Bedeutungsanteile.

Bliebe als Restfrage, wie die Bedeutungen B in das System hineinkommen bzw. wie die Interpretationsfunktion I entsteht?

An dieser Stelle kann man die Spekulationen von Deacon aufgreifen und als Arbeitshypothese annehmen, dass sich die Bedeutungen B samt der Interpretationsbeziehung I (und -I) in einem Adaptionsprozess (Lernprozess) in Interaktion mit der Umgebung entwickeln. Dies soll an anderer Stelle beschrieben werden.

Für eine komplette Beschreibung biologischer Phänomene benötigt man aber noch weitere Annahmen zur Ontogense und zur Phylogense. Diese seien hier noch kurz skizziert. (Eine ausführliche formale Darstellung wird anderswo nachgeliefert).

Ontogenese

Von der Lernfähigkeit eines biologischen Systems muss man die Ontogenese unterscheiden, jenen Prozess, der von der Keimzelle bis zum ausgewachsenen System führt.

Die Umsetzung der Ontogenese in einem formalen Modell besteht darin, einen Konstruktionsprozess zu definieren, das aus einem Anfangselement Zmin das endgültige System Sys in SYS erstellen würde. Das Anfangselement wäre ein minimales Element Zmin analog einer befruchteten Zelle, das alle Informationen enthalten würde, die notwendig wären, um diese Konstruktion durchführen zu können, also Ontogenese: Zmin x X —> SYS. Das ‚X‘ stünde für alle die Elemente, die im Rahmen einer Ontogenese aus der Umgebung ENV übernommen werden müssten, um das endgültige system SYS = <B, M, R, T, H, I, -I> zu konstruieren.

Phylogenese

Für die Reproduktion der Systeme im Laufe der Zeiten benötigte man eine Population von Systemen SYS, von denen jedes System Sys in SYS mindestens ein minimales Anfangselement Zmin besitzt, das für eine Ontogenese zur Verfügung gestellt werden kann. Bevor die Ontogenese beginnen würde, würden zwei minimale Anfangselemente Zmin1 und Zmin2 im Bereich ihrer Bauanleitungen ‚gemischt‘. Man müsste also annehmen, dass das minimale System um das Element Zmin erweitert würde SYS = <B, M, Zmin, R, T, H, I, -I>.

Erstes Zwischenergebnis

Auffällig ist also, dass das Phänomen des Lebens

  1. trotz Entropie über dynamische Ungleichgewichte immer komplexere Strukturen aufbauen kann.
  2. innerhalb seiner Strukturen immer komplexere Informations- und Bedeutungsstrukturen aufbaut und nutzt.

So wie man bislang z.B. die ‚Gravitation‘ anhand ihrer Wirkungen erfasst und bis heute erfolglos zu erklären versucht, so erfassen wir als Lebende das Leben anhand seiner Wirkungen und versuchen bis heute auch erfolglos, zu verstehen, was hier eigentlich passiert. Kein einziges physikalisches Gesetzt bietet auch nur den leisesten Anhaltspunkt für dieses atemberaubende Geschehen.

In dieser Situation den Menschen als eine ‚vermutlich aussterbende Art‘ zu bezeichnen ist dann nicht einfach nur ‚gedankenlos‘, sondern im höchsten Maße unwissenschaftlich, da es letztlich einer Denkverweigerung nahe kommt. Eine Wissenschaft, die sich weigert, über die Phänomene der Natur nachzudenken, ist keine Wissenschaft.

Fortsetzung Folgt.

QUELLEN

  1. H.J. Sandkühler (Hg.), 2010, „Enzyklopädie Philosophie“, Hamburg: Felix Meiner Verlag, Band 1: Von A bis H, Kapitel: Geist, SS.792ff
  2. B.Alberts et.al (Hg.), 2008, „Molecular Biology of the CELL“, Kap.1, 5.Aufl., New York: Garland Science, Taylor & Francis Group
  3. Peter Douglas Ward und `Donald Eugene Brownlee (2000),“Rare Earth: Why Complex Life Is Uncommon in the Universe“, New York: Copernikus/ Springer,
  4. Jonathan I.Lunine (2005), „ASTROBIOLOGY. A Multidisciplinary Approach“, San Francisco – Boston – New York et al.: Pearson-Addison Wesley
  5. Zu Schroedinger 1944: Based on Lectures delivered under the auspices of the Institute at Trinity College, Dublin, in February 1943, Cambridge: University Press. 1944. Ich selbst habe die Canto Taschenbuchausgabe der Cambridge University von 1992 benutzt. Diese Ausgabe enthält ‚What is Life?‘, ‚Mind from Matter‘, sowie autobiographischen Angaben und ein Vorwort von Roger Penrose
  6. Anmerkung zu Schroedinger 1944: Sowohl James D. Watson (2003) wie auch ähnlich Francis Crick (1990) berichten, dass Schrödingers Schrift (bzw. einer seiner Vorträge) sie für ihre Erforschung der DNA stark angeregt hatte.
  7. James D.Watson und A.Berry(2003), „DNA, the Secret of Life“, New York: Random House
  8. Francis Crick (1990),„What Mad Pursuit: A Personal View of Scientific Discovery“, Reprint, Basic Books
  9. Peter Godfrey-Smith und Kim Sterelny (2009) Biological Information“, in: Stanford Enyclopedia of Philosophy
  10. Carl Friedrich von Weizsäcker (1971), „Die Einheit der Natur“, München: Carl Hanser Verlag
  11. Bernd-Olaf Küppers (1986), „Der Ursprung biologischer Information. Zur Naturphilosophie der Lebensentstehung“, München – Zürich: Piper Verlag.
  12. Claude E. Shannon, A mathematical theory of communication. Bell System Tech. J., 27:379-423, 623-656, July, Oct. 1948
  13. Claude E. Shannon; Warren Weaver (1949) „The mathematical theory of communication“. Urbana – Chicgo: University of Illinois Press.
  14. Noeth, W., Handbuch der Semiotik, 2. vollst. neu bearb. und erw. Aufl. mit 89 Abb. Stuttgart/Weimar: J.B. Metzler, xii + 668pp, 2000
  15. Luciano Floridi (2015) Semantic Conceptions of Information, in: Stanford Enyclopedia of Philosophy
  16. Deacon, T. (2007), Shannon-Boltzmann-Darwin: Redfining information. Part 1. in: Cognitive Semiotics, 1: 123-148
  17. Deacon, T. (2008), Shannon-Boltzmann-Darwin: Redfining information. Part 2. in: Cognitive Semiotics, 2: 167-194
  18. Terrence W.Deacon (2010), „What is missing from theories of information“, in: INFORMATION AND THE NATURE OF REALITY. From Physics to Metaphysics“, ed. By Paul Davies & Niels Henrik Gregersen, Cambridge (UK) et al: Cambridge University Press, pp.146 – 169

Einen Überblick über alle Blogbeiträge des Autors cagent nach Titeln findet sich HIER.

Buch: Die andere Superintelligenz. Oder: schaffen wir uns selbst ab? – Kapitel 4-neu

VORBEMERKUNG: Der folgende Text ist ein Vorabdruck zu dem Buch Die andere Superintelligenz. Oder: schaffen wir uns selbst ab?, das im November 2015 erscheinen soll.

Wie alles anfing

Die Überlegungen im vorausgehenden Kapitel beziehen sich auf das, was heute ist, auf die Gegenwart. Wie können z.B. Philosophen die Innensicht ihres Bewusstseins beschreiben; wie können Psychologen das beobachtbare Verhalten untersuchen. Was können die Gehirnforscher über die Struktur und die Funktionen des Gehirns feststellen. Diese Aufgabe ist groß genug, dass man damit mehr als ein Leben ausfüllen kann. Hätte man diese Beschreibungsaufgaben vollständig erfüllt — bislang fehlt da noch einiges –, würden dennoch wichtige Teile am Bild fehlen, vielleicht sogar die wichtigsten, ohne die das Ganze nicht verständlich ist: der reale Entstehungsprozess; wie es zum heutigen Zustand kommen konnte? Wie ist es möglich, dass sich solch komplexen Strukturen im Universum, als Leben auf der Erde herausbilden konnten, ohne dass man eine ‚äußere‘ Einwirkung erkennen kann? Was soll das Ganze? Wohin wird dies führen? Wohin kann dies führen? Welche Rolle spielen wir Menschen dabei? Sind wir nur eines von vielen vorübergehenden Phänomenen des Lebens, das wieder vergehen wird, bevor es bemerkt wurde?

Zeichen der Veränderung

Beginnend mit dem 19.Jahrhundert kam es in Westeuropa zu grundlegenden Änderungen im bis dahin vorwiegend christlich-biblisch geprägten Menschen- und Weltbild. Immer mehr Phänomene in der Veränderung von Lebensformen im Kontext unterschiedlicher Ablagerungsschichten im Gestein und Erdreich wurden entdeckt (Anmerkung: Aus meiner Sicht ein sehr hilfreiches Buch für diese Zeit ist u.a. Peter J.Bowler, „Evolution. The History of an Idea“, Berkeley, Los Angeles (CA): University of California Press, 1983, rev.ed. 1989).

Im Falle der Fossilien waren es berühmte Naturforscher wie z.B. Cuvier (1769 — 1832) , Étienne Geoffroy Saint-Hilaire (1772 – 1844) und Charles Robert Darwin (1809 — 1882), die neben der Vielfalt auch die Veränderungen in den unterschiedlichsten geologischen Schichten erkannten. Im Fall der geologischen Schichten waren es Männer wie William Smith (1769 — 1839), Roderick Impey Murchison (1792 — 1871), Adam Sedgwick (1785 — 1873), John Phillips (1800 – 1874) und Charles Lyell (1797 — 1875), die es schafften, erste Klassifikation von Erdschichten und deren chronologischer Abfolge mit Korrelation zu Fossilien aufzustellen. Insgesamt entstanden durch viele verschiedene, z.T. kontrovers diskutierte, Untersuchungen die ersten Umrisse eines Bildes, in dem die aktuelle Gestalt der Erde und der Lebensformen eine Folge von Veränderungen, eine Geschichte, beinhalten. Die Details dieser Geschichte (Vulkanismus, Klimaänderungen, Plattentecktonik, Baupläne,…) waren in ihren genauen Wirkungen lange Zeit zwar nicht eindeutig entscheidbar, ‚dass‘ die Erde und das Leben auf der Erde aber Veränderungen durchlaufen hatten und immer noch durchlaufen, das erschien jedoch immer mehr unabweislich.

Wie lange zurück reichte diese Geschichte? Neue thermodynamische Überlegungen von William Thomson, besser bekannt als Lord Kelvin (1824 – 1907), schränkten den zur Verfügung stehenden absoluten Zeitraum für die Entwicklung der Erde und des gesamten Universums im Laufe seines Lebens immer mehr ein, schließlich bis auf eine zweistellige Millionenzahl. Wie viele seiner Zeitgenossen ging er davon aus, dass die Erde und die Sonne sich kontinuierlich abkühlen, ohne dass neue Energie zur Verfügung steht, die dieser Abkühlung entgegen wirken könnte. Es brauchte die ersten Jahrzehnte des 20.Jh. um mit Hilfe der neuen Erkenntnisse aus der (Nuklear-)Physik bzw. aus dem Spezialgebiet der Teilchenphysik verstehen zu können, dass Sterne und Planeten eigene Energievorräte besitzen und über Prozesse verfügen, durch die diese Energie in Form von beobachtbaren Veränderungen (Sonnenstrahlen, Klima, Vulkanismus, Erdbeben, …) wirksam werden können.

Immer kleiner

1905 hatte Albert Einstein ganz allgemein u.a. die Äquivalenz von Masse und Energie mit seiner bekannten Formel E=mc^{2} aufgezeigt, es brauchte aber noch weiterer gehöriger Anstrengungen, bis im Februar 1939 Lise Meitner (1878 – 1968) eine theoretische Beschreibung des ersten Kernspaltungs-Experiments veröffentlichen konnte, das Otto Hahn Ende Dezember 1938 zusammen mit seinem Assistent Fritz Straßman durchgeführt hatte. Im gleichen Jahr konnte Hans Albrecht Bethe (1906 – 2005) sein theoretisches Modell der Kernfusionsprozesse in der Sonne veröffentlichen (für die er 1967 den Nobelpreis bekam). Damit war die Tür zur Erkenntnis der verborgenen Energie in der Materie, in den Sternen, im Universum soweit geöffnet, dass dem Forscher ein glutheißer Atem entgegen schlug.

Es folgten stürmische Jahre der vertiefenden Erforschung der nuklearen Zusammenhänge, stark geprägt von den militärisch motivierten Forschungen zum Bau von Nuklearwaffen. Immer mehr Teilchen wurden im Umfeld des Atoms entdeckt, bis es dann ab den 70iger Jahren des 20.Jh zum sogenannten Standardmodell kam.

Obwohl sich dieses Standardmodell bislang in vielen grundlegenden Fragen sehr bewährt hat, gibt es zahlreiche fundamentale Phänomene (z.B. die Gravitation, die Expansion des Universums, dunkle Materie), für die das Modell noch keine erschöpfende Erklärung bietet.

Big Bang – Zeitpunkt Null

Ausgestattet mit den Erkenntnissen der modernen Physik lassen sich die Hypothesen aus dem 19.Jahrhundert zur Welt als Prozess ausdehnen auf das ganze Universum. Fasst man alle heutigen Erkenntnisse zusammen, wie dies in der sogenannten
Big Bang Theorie geschieht, nach 1990 gefasst als Lambda-CDM-Modell, führt dies auf ein Ereignis vor jeder physikalisch messbaren Zeit zurück. Ein solches Ereignis gilt den Physikern als eine Singularität. Da es im Universum auch andere Formen von Singularitäten gibt, nenne ich jene Singularität, mit der das bekannte Universum begann, hier die erste Singularität.

Durch die Weiterentwicklung der Relativitätstheorie von Albert Einstein konnten Stephen William Hawking (geb.1942),
George Francis Rayner Ellis (geb.1939) und Roger Penrose (geb.1931) aufzeigen, dass die Größen Raum und Zeit mit der ersten Singularität beginnen.

Von heute aus gesehen trat die erste Singularität vor 13.8 Mrd Jahren auf. Beginnend mit einer unendlich extremen Dichte und Hitze begann aus dem Ereignis heraus eine Ausdehnung (Raum und Zeit), die begleitet war von einer zunehmenden Abkühlung. Gleichzeitig kam es zur Herausbildung von subatomaren Teilchen, aus denen sich einfache Atome formten (Anmerkung: Die Entstehung der ersten Atome wird in der Zeitspanne 10 Sek – 20 Min verortet.). Gigantische Ansammlungen dieser ersten Elemente führten dann aufgrund der Gravitation zu Verdichtungen, aus denen Sterne und Galaxien hervorgingen (Anmerkung: Erste Sterne, die das dunkle Weltall erleuchteten werden nach ca. 100 Mio Jahren angenommen. Erste Galaxien etwa 1 Mrd Jahre später.). In den Sternen fanden Kernfusionsprozesse statt, die im Gefolge davon zur Bildung von immer schwereren Atomen führten. Ferner wird seit etwa 6.5 Mrd Jahren eine Beschleunigung bei der Ausdehnung des Universums beobachtet. Man vermutet, dass dies mit der ‚dunklen Energie‘ zu tun hat. Viele Fragen sind offen. Nach letzten Messungen geh man davon aus, dass das bekannte Universums zu 73% aus dunkler Energie besteht, zu 23% aus dunkler Materie, zu 4.6% aus ’normaler‘ Materie und zu weniger als 1% aus Neutrinos (Anmerkung: Jarosik, N. et al. (WMAP Collaboration) (2011). „Seven-Year Wilkinson Microwave Anisotropy Probe (WMAP) Observations: Sky Maps, Systematic Errors, and Basic Results“. NASA/GSFC. p. 39, Table 8. Retrieved 4 December 2010).

Fortsetzung mit Kapitel 5

Einen Überblick über alle Blogbeiträge des Autors cagent nach Titeln findet sich HIER.