K.G.DENBIGH: AN INVENTIVE UNIVERSE — Relektüre — Teil 3

K.G.Denbigh (1975), „An Inventive Universe“, London: Hutchinson & Co.

BISHER

Im Teil 1 der Relektüre von Kenneth George Denbighs Buch „An Inventive Universe“ hatte ich, sehr stark angeregt durch die Lektüre, zunächst eher mein eigenes Verständnis von dem Konzept ‚Zeit‘ zu Papier gebracht und eigentlich kaum die Position Denbighs referiert. Darin habe ich sehr stark darauf abgehoben, dass die Struktur der menschlichen Wahrnehmung und des Gedächtnisses es uns erlaubt, subjektiv Gegenwart als Jetzt zu erleben im Vergleich zum Erinnerbaren als Vergangen. Allerdings kann unsere Erinnerung stark von der auslösenden Realität abweichen. Im Lichte der Relativitätstheorie ist es zudem unmöglich, den Augenblick/ das Jetzt/ die Gegenwart objektiv zu definieren. Das individuelle Jetzt ist unentrinnbar subjektiv. Die Einbeziehung von ‚Uhren-Zeit’/ technischer Zeit kann zwar helfen, verschiedene Menschen relativ zu den Uhren zu koordinieren, das grundsätzliche Problem des nicht-objektiven Jetzt wird damit nicht aufgelöst.

In der Fortsetzung 1b von Teil 1 habe ich dann versucht, die Darlegung der Position von Kenneth George Denbighs Buch „An Inventive Universe“ nachzuholen. Der interessante Punkt hier ist der Widerspruch innerhalb der Physik selbst: einerseits gibt es physikalische Theorien, die zeitinvariant sind, andere wiederum nicht. Denbigh erklärt diese Situation so, dass er die zeitinvarianten Theorien als idealisierende Theorien darstellt, die von realen Randbedingungen – wie sie tatsächlich überall im Universum herrschen – absehen. Dies kann man daran erkennen, dass es für die Anwendung der einschlägigen Differentialgleichungen notwendig sei, hinreichende Randbedingungen zu definieren, damit die Gleichungen gerechnet werden können. Mit diesen Randbedingungen werden Start- und Zielzustand aber asymmetrisch.

Auch würde ich hier einen Nachtrag zu Teil 1 der Relektüre einfügen: in diesem Beitrag wurde schon auf die zentrale Rolle des Gedächtnisses für die Zeitwahrnehmung hingewiesen. Allerdings könnte man noch präzisieren, dass das Gedächtnis die einzelnen Gedächtnisinhalte nicht als streng aufeinanderfolgend speichert, sondern eben als schon geschehen. Es ist dann eine eigene gedankliche Leistungen, anhand von Eigenschaften der Gedächtnisinhalte eine Ordnung zu konstruieren. Uhren, Kalender, Aufzeichnungen können dabei helfen. Hier sind Irrtümer möglich. Für die generelle Frage, ob die Vorgänge in der Natur gerichtet sind oder nicht hilft das Gedächtnis von daher nur sehr bedingt. Ob A das B verursacht hat oder nicht, bleibt eine Interpretationsfrage, die von zusätzlichem Wissen abhängt.

Im Teil 2 ging es um den Anfang von Kap.2 (Dissipative Prozesse) und den Rest von Kap.3 (Formative Prozesse). Im Kontext der dissipativen (irreversiblen) Prozesse macht Denbigh darauf aufmerksam, dass sich von der Antike her in der modernen Physik eine Denkhaltung gehalten hat, die versucht, die reale Welt zu verdinglichen, sie statisch zu sehen (Zeit ist reversibel). Viele empirische Fakten sprechen aber gegen die Konservierung und Verdinglichung (Zeit ist irreversibel). Um den biologischen Phänomenen gerecht zu werden, führt Denbigh dann das Konzept der ‚Organisation‘ und dem ‚Grad der Organisiertheit‘ ein. Mit Hilfe dieses Konzeptes kann man Komplexitätsstufen unterscheiden, denen man unterschiedliche Makroeigenschaften zuschreiben kann. Tut man dies, dann nimmt mit wachsender Komplexität die ‚Individualität‘ zu, d.h. die allgemeinen physikalischen Gesetze gelten immer weniger. Auch gewinnt der Begriff der Entropie im Kontext von Denbighs Überlegungen eine neue Bedeutung. Im Diskussionsteil halte ich fest: Im Kern gilt, dass maximale Entropie vorliegt, wenn keine Energie-Materie-Mengen verfügbar sind, und minimale Entropie entsprechend, wenn maximal viele Energie-Materie-Mengen verfügbar sind. Vor diesem Hintergrund ergibt sich das Bild, dass Veränderungsprozesse im Universum abseits biologischer Systeme von minimaler zu maximaler Entropie zu führen scheinen (dissipative Prozesse, irreversible Prozesse, …), während die biologischen Systeme als Entropie-Konverter wirken! Sie kehren die Prozessrichtung einfach um. Hier stellen sich eine Fülle von Fragen. Berücksichtigt man die Idee des Organiationskonzepts von Denbigh, dann kann man faktisch beobachten, dass entlang einer Zeitachse eine letztlich kontinuierliche Zunahme der Komplexität biologischer Systeme stattfindet, sowohl als individuelle Systeme wie aber auch und gerade im Zusammenspiel einer Population mit einer organisatorisch aufbereiteten Umgebung (Landwirtschaft, Städtebau, Technik allgemein, Kultur, …). Für alle diese – mittlerweile mehr als 3.8 Milliarden andauernde – Prozesse haben wir bislang keine befriedigenden theoretischen Modelle

KAPITEL 4: DETERMINISMUS UND EMERGENZ (117 – 148)

Begriffsnetz zu Denbigh Kap.4: Determinismus und Emergenz

Begriffsnetz zu Denbigh Kap.4: Determinismus und Emergenz

  1. Dieses Kapitel widmet sich dem Thema Determinismus und Emergenz. Ideengeschichtlich gibt es den Hang wieder, sich wiederholende und darin voraussagbare Ereignisse mit einem Deutungsschema zu versehen, das diesen Wiederholungen feste Ursachen zuordnet und darin eine Notwendigkeit, dass dies alles passiert. Newtons Mechanik wird in diesem Kontext als neuzeitliche Inkarnation dieser Überzeugungen verstanden: mit klaren Gesetzen sind alle Bewegungen berechenbar.
  2. Dieses klare Bild korrespondiert gut mit der christlichen theologischen Tradition, nach der ein Schöpfer alles in Bewegung gesetzt hat und nun die Welt nach einem vorgegebenen Muster abläuft, was letztlich nur der Schöpfer selbst (Stichwort Wunder) abändern kann.
  3. Die neuzeitliche Wissenschaft hat aber neben dem Konzept des Gesetzes (‚law‘) auch das Konzept Theorie entwickelt. Gesetze führen innerhalb einer Theorie kein Eigenleben mehr sondern sind Elemente im Rahmen der Theorie. Theorien sind subjektive Konstruktionen von mentalen Modellen, die versuchen, die empirischen Phänomene zu beschreiben. Dies ist ein Näherungsprozess, der – zumindest historisch – keinen eindeutigen Endpunkt kennt, sondern empirisch bislang als eher unendlich erscheint.
  4. Eine moderne Formulierung des deterministischen Standpunktes wird von Denbigh wie folgt vorgeschlagen: Wenn ein Zustand A eines hinreichend isolierten Systems gefolgt wird von einem Zustand B, dann wird der gleiche Zustand A immer von dem Zustand B gefolgt werden, und zwar bis in die letzten Details.(S.122)
  5. Diese Formulierung wird begleitend von den Annahmen, dass dies universell gilt, immer, für alles, mit perfekter Präzision.
  6. Dabei muss man unterscheiden, ob die Erklärung nur auf vergangene Ereignisse angewendet wird (‚ex post facto‘) oder zur Voraussage benutzt wird. Letzteres gilt als die eigentliche Herausforderung.
  7. Wählt man die deterministische Position als Bezugspunkt, dann lassen sich zahlreiche Punkte aufführen, nach denen klar ist, dass das Determinismus-Prinzip unhaltbar ist. Im Folgenden eine kurze Aufzählung.
  8. Die Interaktion aller Teile im Universum ist nirgendwo (nach bisherigem Wissen) einfach Null. Zudem ist die Komplexität der Wechselwirkung grundsätzlich so groß, dass eine absolute Isolierung eines Teilsystems samt exakter Reproduktion als nicht möglich erscheint.
  9. Generell gibt es das Problem der Messfehler, der Messungenauigkeiten und der begrenzten Präzision. Mit der Quantenmechanik wurde klar, dass wir nicht beliebig genau messen können, dass Messen den Gegenstand verändert. Ferner wurde klar, dass Messen einen Energieaufwand bedeutet, der umso größer wird, je genauer man messen will. Ein erschöpfendes – alles umfassende – Messen ist daher niemals möglich.
  10. Im Bereich der Quanten gelten maximal Wahrscheinlichkeiten, keine Notwendigkeiten. Dies schließt nicht notwendigerweise ‚Ursachen/ Kausalitäten‘ aus.
  11. Die logischen Konzepte der mentalen Modelle als solche sind nicht die Wirklichkeit selbst. Die ‚innere Natur der Dinge‘ als solche ist nicht bekannt; wir kennen nur unsere Annäherungen über Messereignisse. Das, was ‚logisch notwendig‘ ist, muss aus sich heraus nicht ontologisch gültig sein.
  12. Neben den Teilchen sind aber auch biologische Systeme nicht voraussagbar. Ihre inneren Freiheitsgrade im Verbund mit ihren Dynamiken lassen keine Voraussage zu.
  13. Aus der Literatur übernimmt Denbigh die Komplexitätshierarchie (i) Fundamentale Teilchen, (ii) Atome, (iii) Moleküle, (iv) Zellen, (v) Multizelluläre Systeme, (vi) Soziale Gruppen.(vgl. S.143)
  14. Traditioneller Weise haben sich relativ zu jeder Komplexitätsstufe spezifische wissenschaftliche Disziplinen herausgebildet, die die Frage nach der Einheit der Wissenschaften aufwerfen: die einen sehen in den Eigenschaften höherer Komplexitätsstufen emergente Eigenschaften, die sich nicht auf die einfacheren Subsysteme zurückführen lassen; die Reduktionisten sehen die Wissenschaft vollendet, wenn sich alle komplexeren Eigenschaften auf Eigenschaften der Ebenen mit weniger Komplexität zurückführen lassen. Während diese beiden Positionen widersprüchlich erscheinen, nimmt das Evolutionskonzept eine mittlere Stellung ein: anhand des Modells eines generierenden Mechanismus wird erläutert, wie sich komplexere Eigenschaften aus einfacheren entwickeln können.

DISKUSSION

  1. Fasst man alle Argument zusammen, ergibt sich das Bild von uns Menschen als kognitive Theorientwickler, die mit ihren kognitiven Bildern versuchen, die Strukturen und Dynamiken einer externen Welt (einschließlich sich selbst) nach zu zeichnen, die per se unzugänglich und unerkennbar ist. Eingeschränkte Wahrnehmungen und eingeschränkte Messungen mit prinzipiellen Messgrenzen bilden die eine Begrenzung, die daraus resultierende prinzipielle Unvollständigkeit aller Informationen eine andere, und schließlich die innere Logik der realen Welt verhindert ein einfaches, umfassendes, eindeutiges Zugreifen.
  2. Die mangelnde Selbstreflexion der beteiligten Wissenschaftler erlaubt streckenweise die Ausbildung von Thesen und Hypothesen, die aufgrund der möglichen Methoden eigentlich ausgeschlossen sind.
  3. Die noch immer geltende weitverbreitete Anschauung, dass in der Wissenschaft der Anteil des Subjektes auszuklammern sei, wird durch die vertiefenden Einsichten in die kognitiven Voraussetzungen aller Theorien heute neu in Frage gestellt. Es geht nicht um eine Infragestellung des Empirischen in der Wissenschaft, sondern um ein verstärktes Bewusstheit von den biologischen (beinhaltet auch das Kognitive) Voraussetzungen von empirischen Theorien.
  4. In dem Maße, wie die biologische Bedingtheit von Theoriebildungen in den Blick tritt kann auch die Besonderheit der biologischen Komplexität wieder neu reflektiert werden. Das Biologische als Entropie-Konverter (siehe vorausgehenden Beitrag) und Individualität-Ermöglicher jenseits der bekannten Naturgesetze lässt Eigenschaften der Natur aufblitzen, die das bekannte stark vereinfachte Bild kritisieren, sprengen, revolutionieren.
  5. Die Idee eines evolutionären Mechanismus zwischen plattem Reduktionismus und metaphysischem Emergenz-Denken müsste allerdings erheblich weiter entwickelt werden. Bislang bewegt es sich im Bereich der Komplexitätsebenen (iii) Moleküle und (iv) Zellen.

Fortsetzung mit TEIL 4

QUELLEN

  1. Kenneth George Denbigh (1965 – 2004), Mitglied der Royal Society London seit 1965 (siehe: https://en.wikipedia.org/wiki/List_of_Fellows_of_the_Royal_Society_D,E,F). Er war Professor an verschiedenen Universitäten (Cambridge, Edinbugh, London); sein Hauptgebet war die Thermodynamik. Neben vielen Fachartikeln u.a. Bücher mit den Themen ‚Principles of Chemical Equilibrium, ‚Thermodynamics of th Steady State‘ sowie ‚An Inventive Universe‘.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

EMERGING MIND – Mögliche Konsequenzen

Letzte Änderung: 9.April 2015, 12:10h – Minimale Korrekturen; Lesbarkeit verbessert durch Abstände; Zwischenüberschriften

1) Die ganzen Überlegungen zum ‚Emerging Mind‘ sind noch sehr anfangshaft, spekulativ. Andererseits, angesichts der vielen ungelösten Fragen, ohne diese Arbeitshypothese und die interessanten Zusammenhänge mit dieser Arbeitshypothese ist es eigentlich unmöglich, diese Arbeitshypothese nicht weiter zu denken. Fehler zeigten sich ja im allgemeinen am ehesten dann, wenn man versucht, eine Hypothese konsequent anzuwenden und sie auf diese Weise immer mehr ‚Überprüfungen‘ unterzieht.

EMPIRISCHES UNIVERSUM ALS FOLGE VON STRUKTUREN

2) Bisheriger Ausgangspunkt ist ja die Annahme einer Prozesskette S*(t+n) = f(S(t)) mit ‚t‘ als einem Zeitpunkt, ‚S‘ als einer identifizierbaren Struktur zu diesem Zeitpunkt und ‚f‘ als eines funktionalen Zusammenhanges, der die Struktur ‚S‘ in die Struktur ‚S*‘ überführt.

3) In vorausgehenden Einträgen hatte ich exemplarisch mögliche Strukturen identifiziert beginnend mit dem Energieausbruch E des BigBang, der dann in der nachfolgenden Abkühlung immer mehr Strukturen ‚hervorgebracht‘ (=f?) hat: Quanten [Q], Atome [At], Moleküle [Mol], usw. Man bekommt dann eine Prozesskette der Art EMPIRISCHER-KOSMOS = S_Q(t+n1) = f(S_E(0)), S_At(t+n1+n2) = f(S_Q(t+n1) ), usw. wobei die Energie eine Art ‚Nullstruktur‘ ist verglichen mit den folgenden Strukturausprägungen.

4) Bedenkt man ferner, dass jede Funktion ‚f‘ in der ‚Realität‘ eine ‚reale Abbildung‘ sein muss, d.h. eine ‚Operation‘, die ‚real etwas bewirkt‘, dann bedeutet dies, dass man parallel zu den Strukturen S_i(), die man zu verschiedenen Zeitpunkten unterscheiden kann, für die Veränderungsoperation ‚f‘ (von der noch unklar ist, ob es immer die ‚gleiche‘ ist), einen ‚Träger‘ annehmen muss, ein ‚Medium‘, das diese Ausführung ermöglicht. In der klassischen Makrophysik gibt es neben den unterscheidbaren Makrostrukturen ’nichts Konkretes‘, was als Träger in Frage kommt ausser den ‚beobachtbaren Kräften‘, die wir durch ihre spezifischen ‚Manifestationen‘ ‚indirekt‘ erkennen und die wir hypothetisch in Form von ‚Gesetzen‘ benennen und damit ‚dingfest‘ machen. Im Licht der Quantenphysik (was sich bislang vielleicht eher noch als ein ‚Halbdunkel‘ darstellt, das wir noch kaum verstehen…) muss man annehmen, dass die Wahrscheinlichkeitsfelder ihre Kohärenz immer wieder durch ‚Kräfte‘ verlieren, die dann zu den tatsächlich beobachtbaren Makroereignissen führen. Diese in der Quantenfeld lokalisierten hypothetischen Kräfte bieten sich als Kandidaten für den Operator ‚f‘ an, der die unterschiedlichen Strukturbildungen E → S_Q → S_At → … ermöglicht.

ENERGIE: EINMAL UND IMMER WIEDER

5) Neben vielen interessanten Aspekten ist bemerkenswert, dass diese Prozesskette EMPIRISCHER-KOSMOS bis zur Strukturform der Moleküle durch eine einmalige Energiezufuhr (’statisch‘) diese Strukturen erhält; jenseits der Moleküle S_Mol, ab der Strukturform ‚Zelle‘ S_Cell, benötigen diese komplexe Strukturen kontinuierlich eine beständige Zufuhr von Energie (‚dynamisch‘) in Form von chemisch gebundener Energie, die dann mittels Metabolismus ‚freigesetzt‘ und für verschiedene energieintensive Prozesse genutzt wird. Mit fortschreitender Komplexität der Strukturformen (Pflanzen, Tiere, Hominiden, …) wird der Aufwand immer grösser und die Formen von Energiegewinnung, -transport, -speicherung, -verwertung immer komplexer.

ENTSTEHUNG VON ZEICHEN INNERHALB DER MATERIE

6) Ferner ist bemerkenswert, dass bei fortschreitender Komplexität der Strukturformen sich solche molekular basierte Strukturen bilden können, die dann Repräsentationen auf einer höheren Ebene realisieren können, chemische Ereignisse, die als Zeichen funktionieren, die Bedeutungsbeziehungen realisieren können (= semiotischer Raum, Semiose, Zeichenprozesse). Damit ist es möglich, sich von der Konkretheit molekularer Strukturen in gewisser Weise zu befreien und im semiotischen Raum abstrakte Strukturen aufzubauen, die für beliebige Strukturen stehen können. Nicht nur lassen sich damit die vorfindlichen molekularen Strukturen ‚abbilden‘, ‚modellieren‘, sondern man kann mit ihnen ‚herumspielen‘, sie beliebig ‚variieren‘, ‚kombinieren‘, und damit den realen Augenblick ‚transzendieren‘. Im semiotischen Raum kann die reale Gegenwart durch eine erinnerbare Vergangenheit und eine potentielle Zukunft erweitert werden. Dieser Prozess ist schleichend und gewinnt in den höheren Säugetieren, bei den Hominiden und speziell beim homo sapiens sapiens einen vorläufigen Höhepunkt.

BESCHLEUNIGUNG DER KOMMUNIKATION

7) Seit der Verfügbarkeit des semiotischen Raumes innerhalb eines Systems kann man eine dramatische Beschleunigung in der Kommunikation und Koordinierung zwischen den Teilnehmern beobachten, Explosion an Werkzeug, Verfahren, Regeln, Organisation usw.

FLEXIBILISIERUNG DER ENERGIEZUFUHR

8) Die nächste grosse Revolution findet statt, als es gelingt, die molekül-basierten semiotischen Räume mit Hilfe von atomar-basierten Technologien in den wesentlichen Signal- und Zeicheneigenschaften zu kopieren (= Computer), so dass nun die Bildung von ‚künstlichen (technischen) semiotischen Räumen‘ möglich wurde, in Kombination mit einer globalen Vernetzung (= Computernetzwerke, Internet, WWW). Während molekül-basierte semiotische Räume chemisch gebundene Energie zu ihrem ‚Betrieb‘ benötigen, benötigen die atomar-basierten semiotischen Räume Energie in Form von technisch manipulierbaren Potentialunterschieden (= Elektrizität). Diese Form ist universeller und flexibler.

STEIGERUNG DER KOMPLEXITÄT

9) Seit der Verfügbarkeit von künstlichen — auf elektrischer Energie basierenden — semiotischen Räumen konnte die Komplexitätsentwicklung sowohl in ihrer inhärenten Komplexität wie auch in der Geschwindigkeit ihrer Entwicklungen weiter gesteigert werden.

MODIFIKATIONEN DES VERÄNDERUNGSOPERATORS

10) Interessant ist, dass der Veränderungsoperator ‚f‘ nun deutlich unterschieden werden kann. Während der Übergang von der Struktur ‚vor dem HS (‚homo sapiens‘)‘ – also etwa S_PreHs(t) – zur Struktur S_Hs(t+n) noch mit dem Operator ‚f‘ geschrieben werden kann S_Hs(t+n) = f(S_PreHs(t)) ist der Übergang von der Struktur S_Hs zu der neuen Struktur S_NetComp(t) von S_Hs vorgenommen worden, also S_NetComp(t+n) = f_hs(S_Hs(t+n)). Dies ist möglich, weil die impliziten semiotischen Räume von Hs die Definition von Operatoren ermöglichen, die dann ‚umgesetzt‘ werden können. Allerdings wird man wohl annehmen müssen, dass in diese Umsetzung f_hs wohl auch das allgemeine ‚f‘ mit eingeht, also genauer S_NetComp(t+n) = f_hs u f(S_Hs(t+n)).

11) Aktuell sind die künstlichen technischen Strukturen S_NetComp noch nicht in der Lage, sich selber zu vervielfältigen. Grundsätzlich ist nicht zu sehen, warum dies nicht eines Tages möglich sein sollte.

12) Klar ist allerdings, dass der Veränderungsoperator ‚f‘ nun als zusätzliche Teilkomponente f_NetComp enthält, also S_Future(t+n) = f u f_NetComp(S_Past(t)).

PROJEKTION IN DIE ZUKUNFT

13) So mächtig die Kombination ‚f u f_NetComp‘ wirkt, so fragil ist das Ganze. Würde aus irgendwelchen Gründen mal kein Strom verfügbar sein, dann würde S_NetComp vollständig ausfallen und damit würden schon heute weite Bereiche der ‚Zivilisation‘ weitgehend zusammenbrechen.

14) Ein weiterer Aspekt deutet sich an: aufgrund der heute verfügbaren Daten wissen wir, dass der aktuelle Körper des Menschen nur ein ‚Durchgangsstadium‘ markiert. Viele Millionen Jahre vorher sah dieser Körper anders aus und gehen wir weiter zurück, dann verlieren sich die heute bekannten Strukturen in immer fremdartigeren Formen, die kaum noch etwas mit der heutigen Gestalt zu tun haben. Umgekehrt müssen wir also davon ausgehen, dass sich – auch ohne unser Zutun – die aktuelle Körperform weiter verändern wird.

15) Dazu kommt der Aspekt, dass wir mittels des impliziten semiotischen Raumes wie auch durch die heute extern verfügbaren künstlichen semiotischen Räume samt hochentwickelter Werkzeuge den Umbau der aktuellen Körperformen aktiv betreiben könnten (und möglicherweise auch sollten?).

16a) Andererseits stellt sich aber die Grundsatzfrage, ob die Linie der molekülbasierten Körper überhaupt weiterverfolgt werden sollte. Die künstlichen semiotischen Räume mit der Energieversorgung durch flexiblen Strom bieten u.U. auf Dauer bessere Chancen, sich im Universum zu behaupten. Dies rührt dann aber an der Grundsatzfrage, ob die materielle Hülle einer Struktur (im Falle des HS sein molekülbasierter Körper) tatsächlich wichtig ist.

VERORTUNG DES GEISTES

16b) Wenn die Arbeitshypothese stimmt, dass die entscheidenden Operatoren ‚f‘ letztlich von den realisierten Strukturen unabhängig sind, sondern sich nur unter Verfügbarkeit solcher materieller Strukturen ‚zeigen‘, dann würde es für diese(n) Operator ‚f‘ egal sein, ob das ‚Medium‘ chemische Moleküle sind oder atombasierte Strukturen. Nicht das Medium repräsentiert den Geist, sondern der Geist wird anlässlich verfügbarer Strukturen ’sichtbar‘. Die Annahme wäre also etwa die, dass ‚Geist‘ subset E und ‚f‘ in ‚Geist‘ als dem vorab gegebenem ‚Medium‘ gründet; innerhalb von diesem Geist können Veränderungsoperatoren angewendet werden.

17) Der ‚Geist‘ wäre in diesem Sinne das (für uns) vorweg schon immer Gegebene, das quasi ‚Untötbare‘, und nur in dem Maße, wie es hinreichend geeignete Strukturen (welcher Art auch immer) gibt, kann sich dieser Geist durch seine ‚Wirkungen‘ (= Manifestationen, Ereignisse, Wirkungen, Phänomene) zeigen (für uns, die wir aktuell eine spezifische Struktur haben und mit dieser spezifischen Struktur nur ganz bestimmte Dinge erkennen können!!!).

18) Damit wäre jede bekannte Lebensform eine Form von ‚Geistesmanifestation‘, nur unterschiedlich differenziert. Niemand hätte einem anderen irgendetwas voraus.

19) Bizarre Ethiken, die aus dem darwinischen Evolutionsbegriff irgendwelche ‚Vorteile‘ herauszurechnen versuchten, würden sich – falls diese neue Arbeitshypothese stimmen würde – als sehr kurzsichtig erweisen. In der Evolution geht es nicht um das ‚Recht des Stärkeren‘, sondern um den Aufbau solcher komplexer Strukturen, die immer mehr von dem ‚Geist‘ sichtbar machen, der schon immer da ist und von dem jede partielle individuelle Struktur immer nur ein kleines Zipfelchen sichtbar machen kann. Klar ist in diesem Szenario auch, dass der einzelne als solcher keine grundlegende Bedeutung besitzt, höchstens in dem Sinne, dass er dazu beiträgt, das gemeinsame Ganze voran zu bringen. Der Kult um persönlichen Besitz, persönliche Macht, individuelle Schönheit und ‚Ruhm‘ hat hier keinen Platz. Er wirkt seltsam bizarr, fremdartig, lächerlich. Die Zukunft wird den symbiotischen Gemeinschaften gehören, wo die Fähigkeiten von jedem maximal entwickelt und in ein gemeinsames Ziel eingebunden werden können. Insofern bleibt Individualität wichtig, aber nur als Teil eines gemeinsamen Ganzen.

Siehe auch die neue Emerging Mind Webseite!

Einen Überblick über alle bisherigen Beiträge nach Titeln findet sich HIER.

Randbemerkung: Komplexitätsentwicklung (Singularität(en))

1. Momentan überschlagen sich die Ideen, die hier niedergeschrieben sein wollen; dies wirkt wie eine leichte Paralyse. Denkt man an die eine Idee, melden sich gleich drei andere und wollen auch gedacht sein…. hier wenigstens eine kleine Notiz.
2. Bisher gab es in diesem Blog immer wieder Überlegungen zur Zunahme von struktureller Komplexität im Laufe der Geschichte des bekannten Universums. Sehr ausdrücklich z.B. schon am 15.Oktober 2011.
3. Das Problem bei solchen Deutungsversuchen ist natürlich die Auswahl der Eigenschaftsbündel, die man für den Begriff ‚Komplexität‘ für relevant hält. Es gibt bislang sehr unterschiedliche Komplexiätsbegriffe, die nicht so ohne weiteres vereinheitlicht werden können. Es wäre eine eigene Arbeit, diese Begriffe sauber formal zu analysieren. In beschränktem Umfang tue ich das in meinen Arbeiten dynamischen Wissen (Beginn einer neuen Version des Skripts).
4. Andererseits gewinnt man oft nur Fortschritte, wenn man mit den bekannten Möglichkeiten einfach mal ‚herumspielt‘ und unterschiedliche Varianten ausprobiert. Dies habe ich seit Oktober 2011 immer wieder mal getan. Eine solche ‚Testanordnung‘ findet sich in den beiden folgenden Bildern.
5. Beiden Bildern liegen die gleichen Annahmen zugrunde, sie sind nur unterschiedlich angeordnet. Die Daten stammen aus verschiedenen Büchern und aus den englischen Wikipedia-Artikeln zur Entstehung des Universums (die Artikeln in der englischen Wikipedia sind überwiegend gut bis sehr gut).

Notizen zur Komplexitätsentwicklung im bekannten Universum. Die Achse links zeigt links unten die Gegenwart =0 Jahre, links oben den Beginn des bekannten Universums bei -13,77 Milliarden Jahre (Quellen für Zahlen:u.a. Englische Wikipedia). Die Achse oben zeigt von links nach rechts einige mögliche Komplexitätsausprägungen. Erklärungen: siehe Text.

Notizen zur Komplexitätsentwicklung im bekannten Universum. Die Achse links zeigt links unten die Gegenwart =0 Jahre, links oben den Beginn des bekannten Universums bei -13,77 Milliarden Jahre (Quellen für Zahlen:u.a. Englische Wikipedia). Die Achse oben zeigt von links nach rechts einige mögliche Komplexitätsausprägungen. Erklärungen: siehe Text.

Ausgewählte Komplexitätsereignisse seit Beginn der Erde

Ausgewählte Komplexitätsereignisse seit Beginn der Erde. Man beachte, (i) dass hier ein spezieller Komplexitätsbegriff gewählt wurde, und (ii) dass diese Auflistung einen zunächst explorativen Charakter hat.

6. Diesen Bildern liegen folgende Annahmen zugrunde: Die Bildung komplexer Moleküle, wie sie die Vorläufer zur Zellbildung darstellen, geschah in der kurzen Zeit zwischen der Erdendstehung und dem Auftreten erster Zellen, also zwischen -4,55 Mrd und -3,8 Mrd Jahren. Wann genau die Bedingungen auf der Erde so waren, dass sich überhaupt im großen Maßstab und dauerhaft komplexere Molekülmengen bilden konnten, ist im Nachhinein nicht ganz eindeutig zu entscheiden. Die Schätzungen gehen so in Richtung ab -4 Mrd Jahren. Dies bedeutet, dass es vom Beginn des bekannten Universums (ca. -13,77Mrd Jahre) bis zu diesen Molekülmengen ca. 9.77 Mrd Jahre gebraucht hat. Das sind etwa 71% der Gesamtzeit des bekannten Universums.
7. Von diesen ersten Molekülmengen bis zu den ersten Zellen vergingen dann ca. 200.000 Mio Jahre (Korrektur: 200 Mio!) , das sind ca. 1.45% der Gesamtzeit.
8. Das Auftreten von Vielzellern wird auf die Zeit ab -1Mrd Jahre datiert, also ca. 2,8 Mrd Jahre später, das entspricht ca.20.33% der Gesamtzeit.
9. Der Begriff ‚Organismen mit Organen‘ ist ein bischen ad hoc. Dahinter steckt die Annahme, dass der Aufbau komplexer Systeme jenseits ‚bloßer Vielzelligkeit‘ nach einer ‚modularen Struktur‘ verlangt. Organe kann man in diesem Sinne als ‚Module‘ betrachten, die in sich hochkomplex sind, die sich aber nach ‚außen‘ über ‚Schnittstellen‘ zu noch komplexeren Einheiten organisieren lassen. Spätestens mit der Besiedlung des Landes vom Meer aus vor -0.7 Mrd Jahre gab es Lebewesen, die solche komplexen Strukturen besaßen, also spätestens 300.000 Mio (Korrektur: 300 Mio)  Jahre später, d.h. nach ca. 2,17% der Gesamtzeit.
10. Die bisherigen Eigenschaften beziehen sich auf die ’strukturelle Organisation‘ des Körpers, für die wir ansatzweise Erklärungsmodelle besitzen (‚ansatzweise‘, nicht vollständig!). Die nachfolgenden Eigenschaftsbündel heben demgegenüber ab auf Eigenschaften des Verhaltens, die als Hinweise auf eine steigende Komplexität der inneren Organisation bilden können.
11. Ein Meilenstein ist hier sicher das Auftreten des homo sapiens sapiens ca. -200.000 Jahre, der sich durch sein Verhalten gegenüber den anderen Organismen durch eine höhere Intelligenz abhebt. Die Zeitspanne von den Multiorgan-Systemen bis zum homo sapiens sapiens beträgt ca. 5,08 % der Gesamtzeit.
12. Die nachfolgenden Strukturereignisse folgen dann in so kurzen Zeitabständen, dass sie sich als Bruchteile der Gesamtzeit immer wenigere ausdrücken lassen, so klein sind sie. Erste ‚Städte‘ werden auf ca. -9000 Jahre datiert, das sind ca. 190.000 Jahre nach dem Auftreten des homo sapiens sapiens, also ca. 0.0014% der Gesamtzeit später.
13. Die Verbreitung eines verteilten netzbasierten Wissens und Kommunizierens begann vor ca. 40 Jahren, als ca. 8960 Jahre später, d.h. nach ca. 0,00006% der Gesamtzeit.
14. Dies sind nur wenige Daten (man könnte diese Aufstellung sicher verfeinern). Aber man kann schon erkennen, dass es hier eine Art ‚Beschleunigung‘ dergestalt gibt, dass die Abstände bis zur Hervorbringung eines neuen Komplexitätsmerkmals immer kürzer werden. Dies zeigt die nächste Kurve: in dieser wurden einfach die obigen Abstände in % der Gesamtzeit eingetragen.

Kurve der Beschleunigung für die Komplexitätsbilldung: Links % der Gesamtzeit des bekannten Universums, unten die Ereignispunkte. Erklärung: im t Text

Kurve der Beschleunigung für die Komplexitätsbilldung: Links % der Gesamtzeit des bekannten Universums, unten die Ereignispunkte. Erklärung: im
Text

15. Diese Beschleunigung erinnert natürlich an die schon lange andauernde Diskussion über die Technologische Singularität, in der im Kern darauf abgehoben wird, dass die technologische Entwicklung künstliche (maschinelle) Formen von Intelligenz entstehen lassen wird, die die körpergebundene menschliche Intelligenz übersteigen wird und die – das ist der entscheidende Punkt – sich mit den verbesserten technologischen Möglichkeiten auch menschenunabhängig schneller weiterentwickeln kann. Dies wird zu einer weiteren Beschleunigung der Entwicklung führen, deren finalen Fortgang niemand mehr voraussagen kann. Dies bedeutet aber rein logisch, dass ein Fortbestand und eine Weiterentwicklung der menschlichen Intelligenz in diesem Gesamtkontext nicht von vornherein ausgeschlossen ist.
16. Denn, auch die Weiterentwicklung der menschlichen Intelligenz als Teil des Gesamtphänomens ‚Leben‘ ist ja vom heutigen Stand aus betrachtet in keiner Weise klar. Dass das Thema ‚Intelligenz‘ als Teil des Themas ‚Leben‘ in irgendeiner Weise schon an einem ‚Endpunkt‘ wäre, ist in keiner Weise abgemacht. Im Gegenteil, sieht man die bisherige Entwicklung (soweit wir sie bislang überhaupt verstehen können), so ist ja schon diese Entwicklung von einem Format, einer Komplexität, einer zeitlichen Ausdehnung, die unser aktuelles körpergebundenes Denken vollständig überfordert. Schon jetzt erarbeiten wir uns ja die leitenden gedanklichen Bilder nur mit Hilfe komplexer Maschinen und im Zusammenwirken vieler hundert Tausender, wenn nicht gar Millionen, von Gehirnen. Jedes Bild im Kopf eines einzelnen Gehirns ist ja weitgehend schon vermittelt und bezogen auf die Bilder in anderen Gehirnen, symbolisch aufgeschrieben, gespeichert, übersetzt, vielfältigst eingebettet, so dass wir in keiner Weise mehr nur von einer Einzelerkenntnis sprechen können, wenngleich das einzelne Gehirn sehr wohl noch sein individuelles, einzelnes Erkenntniserleben hat.
17. Aus der logischen Unmöglichkeit, den ‚Inhalt‘ der Singularity Hypothese voll denken zu können folgt u.a. auch das ‚Verbot‘, zu früh zu negative Schlüsse daraus zu ziehen, um sich dadurch möglicherweise um genau jene wichtigen Erkenntnisse zu bringen, die für uns alle wichtig sind. So ist es möglicherweise gefährlich, dass es sehr machtorientierte Denkzentren sind, die die Singularityhypothese vorschnell in ihrem einseitigen partikulären Machtdenken zu interpretieren und in ihrem Sinne zu manipulieren versuchen. Denn, wenn überhaupt, dann geht es bei der künftigen Entwicklung um das Leben schlechthin, um das Ganze, möglicherweise um etwas außerordentlich Rares im ganzen Universum. Denn, wenngleich die mathematische Wahrscheinlichkeit das prinzipielle Auftreten von Leben irgendwo im Universum grundsätzlich nicht ausschließen kann, so gilt auch umgekehrt, dass wir wissen, dass aus der reinen Wahrscheinlichkeit kein einziges konkretes Ereignis als reales folgen muss. Das tatsächliche Ereignis bleibt das Besondere, genau wie der Übergang von der Kohärenz der Quantenwelt zur konkreten dekohärenten Makrowelt unseres körpergebundenen Erlebens bislang jede Erklärung versagt. Für das Konkrete gibt es weder eine Erklärung noch eine Notwendigkeit. Das schiere Faktum des Konkreten ist die Ungeheuerlichkeit schlechthin, die allererste und die ungeheuerlichste Singularität (Ontologische Ur-Singularität), die es für unseren erlebend-erkennenden Wissensraum bislang gab und gibt.
18. Um also die sich andeutende ’neue‘ Singularität — eine vergleichsweise ‚kleine‘ und sehr ’schlichte‘– zu verstehen, sollte wir erst einmal unsere Hausaufgaben lösen und versuchen, die bisherige Ur-Singularität, nämlich das Universum, wie es zur Zeit auftritt, sich ereignet, zu verstehen. Innerhalb dieser Ur-Singularität beginnen wir eine Komplexitätswerdung zu erahnen, zu ertasten, anfangshaft zu denken, die sich abhebt vor einem allgemeinen ‚Rauschen‘. In unserer einfachen Alltagswelt ist all das, was sich von einem Rauschen abhebt, etwas ‚Geordnetes‘, ‚Bedeutungsvolles‘, etwas ‚Gewolltes‘. Im Nicht-Rauschen zeigt sich die Struktur des Daseins, u.a. unsere Körper, u.a. die Gedanken in unserem Gehirn, das Lächeln im Gesicht des anderen, gesprochene Worte.
19. ‚Musik‘ ist das, was jenseits des Rauschens geschieht. Während Rauschen nervt, weh tut, aggressiv machen kann, beunruhigt, können wir ‚Musik‘ als etwas ‚Schönes‘, ‚Wohltuendes‘ erleben. ‚Rauschen‘ ist eine Verdichtung von Zufällen. Wo der Zufall durchbrochen wird durch ‚Regelhaftes‘, beginnt sich Rauschen aufzulösen, weicht das ‚Unbestimmte‘ einem ‚Bestimmten‘.
20. In diesem Sinne ist das Auftreten von Strukturen, die bestimmte Eigenschaften mit sich bringen, das Durchbrechen des reinen Zufalls, des Unbestimmten. Im Sich-Ereignen von Strukturen ‚zeigt sich etwas‘. ‚Teilt sich etwas mit‘; man kann auch von ‚Offenbarung‘ sprechen. Jede sich ereignende Struktur ist eine Form von ‚Mitteilung‘ über das bloße ‚Rauschen‘ hinaus.
21. Bedenkt man, welch ungeheurer Aufwand getrieben wird, um im Rahmen des SETI-Programms (Search for Extra-Terrestrial Intelligence) nach ‚Mustern‘ in den elektromagnetischen Ereignissen des Universum zu suchen, die man als ‚Botschaften‘ deuten könnte, dann kann es schon wundern, warum wir die Muster, die wir schon haben, die wir selber darstellen, nicht als solche daraufhin untersuchen, welche ‚Botschaften‘ diese darstellen? Während die SETI-Botschaften nur vergleichsweise einfache Muster sein können, sind die Muster = Strukturen des Lebens selbst, die sich aus dem allgemeinen Rauschen ‚herausgeschält‘ haben, von einer unfassbaren Komplexität. Das ‚biologische Leben selbst‘ kann man als eine ‚Botschaft‘ begreifen, die sich in der Weite der Ur-Singularität, sprich des konkreten Universum als einzige bekannte Konkretheit eines Quantenraumes, zeigt. Das schiere Faktum dieser einzigartigen Ur-Singularität bedeutet noch nicht ihr ‚Verstehen‘! Als Teil dieser einzigartigen Singularität ’sind wir‘, aber dieses Dasein impliziert nicht automatisch ein volles Verständnis eben dieses Daseins. Obgleich die bisherige Geschichte (soweit wir sie verstehen) andeutet, dass eine Besonderheit dieser gewordenen Singularität ist, dass sie in Gestalt des Lebens begonnen hat, ’sich selbst zu verstehen‘ indem sie ’sich selbst konsumiert‘. Das ‚Leben‘ existiert ja nur durch ständigen Verbrauch von Energie zum Aufbau und Erhalt seiner Strukturen, die beginnen zu erkennen. Je mehr wir erkennen, um so mehr Energie (sprich: gewordenen Strukturen) verbrauchen wir, was bedeutet, in dem Masse wir wir durch Verbrauch von Energie erkennen, werden wir genau das, was uns in diesem Zustand möglich macht, vorhandene freie Energie, aufbrauchen. Bildhaft: im Zunehmen unseres eigenen Seins im Erkennen lösen wir unser Gegenüber im Erkennen auf. Das bekannte Universum in Form von Energie verwandelt sich in Erkanntes und verschwindet damit als etwas vom Erkannten Verschiedenes. Was wird mit dem ‚Erkannten‘ geschehen?
22. Alles sehr spekulativ. Aber wir sind mitten in diesem Prozess. Er findet statt, ob wir wollen oder nicht. Unser Verstehen ist ganz am Anfang. Die bisherigen Überlegungen zur technologischen Singularität sind – nach meinem Verständnis – viel zu simpel. Die wirklich interessanten Faktoren sind noch gar nicht berücksichtigt.

Eine Fortsetzung findet sich HIER.

Einen Überblick über alle bisherigen Blogeinträge nach Titeln findet man HIER

REDUKTIONISMUS, EMERGENZ, KREATIVITÄT, GOTT – S.A.Kauffman – Teil 6

Vorheriger Beitrag Teil 5

Letzte Änderungen: 15.April 2013, 09:30h

WARNUNG – SPEKULATIV

1. Auf den Seiten 197-229 versucht Kauffman, die Besonderheiten des Phänomens ‚Geist‘ mit den Denkmodellen der Quantenphysik zu reflektieren. Und er warnt seine Leser, dass dieses Kapitel seines Buches vermutlich die wissenschaftlich unsicherste Passage im ganzen Buch sei.(vgl.S.197, 222). Auch macht er darauf aufmerksam, dass es mit Roger Penrose schon andere gab, die Ähnliches zu denken versucht haben.
2. [Anmerkung: Wer den Beitrag über Penrose in der englischen Wikipedia liest, wird feststellen, dass Penrose und seine Partner Hameroff in ihrer Hypothesenbildung sehr weit gehen und damit eine eigenständige Diskussion auf internationaler Ebene ausgelöst haben. Im Kontext ‚Quantenphysik‘ und ‚Bewusstsein/ Geist‘ wird auch Niels Bohr erwähnt sowie Eugen Wigner. Bei letzterem ist der Zusammenhang offensichtlich; bei Planck konnte ich es noch nicht verifizieren.]

NEUROWISSENSCHAFTEN ‚KLASSISCH‘

3. Ausgangspunkt für dieses Kapitel ist die Position der Neurowissenschaftler, so wie Kauffman sie sieht: sie nehmen das Gehirn als eine Ansammlung von Neuronen, die untereinander auf biochemische Weise im nicht-quantenphysikalischen Sinne kausal verknüpft sind; dies entspricht einem geschlossenen Raum kausaler Verknüpfung, in dem es zu jedem Ereignis eine erschöpfende Ursache gibt. Das, was wir im Alltag ‚Geist‘, ‚Bewusstsein‘ (inklusive ‚freiem Willen‘) nennen, ist in diesem Modell eine Eigenschaft dieser kausalen Maschinerie. Daraus ergibt sich dann, dass das ‚Bewusstsein‘ nicht diese kausale Maschinerie beeinflusst, sondern die kausale Maschinerie erzeugt die Phänomene des Bewusstseins bzw. das Bewusstsein überhaupt. Einen freien Willen gibt es in diesem Szenario daher nicht. Dies bedeutet, dass die einzelnen Menschen nicht moralisch verantwortlich sein können für das, was sie tun.(vgl. S.197f)

KEIN ABSOLUTER KAUSALER RAUM

4. Dieses sehr einfache, deterministische Bild vorausgesetzt [Anmerkung: was selbst ohne Quantenphysik m.E. so kaum haltbar ist] spekuliert Kauffman, welche neuen Perspektiven sich ergeben würden, wenn man die quantenphysikalischen Grundlagen aller Makrophänomene ernst nehmen würde. Da der quantenphysikalische Raum grundsätzlich ‚akausal‘ ist, würden letztlich alle ’scheinbar kausalen‘ Prozesse sich in einem umfassenden ‚akausalen Rauschen‘ auflösen. Letztlich wäre gar nichts mehr ‚kausal‘. Ob daraus tatsächlich etwas ‚Konstruktives‘ folgen würde, lässt Kauffman offen, aber zumindest wäre die vereinfachende ‚Abschliessung‘ aller interessanten empirischen Phänomene in einer deterministischen Feinstruktur aufgebrochen.(vgl. S.199)
5. [Anmerkung: Dass die bloße Annahme eines akausalen quantenphysikalischen Raumes als ‚Grundlage für alles‘ in gewisser Weise noch nichts erklärt, kann man an der Tatsache erkennen, dass nahezu alles, was das menschliche Weltbild ausmacht, auf ‚Regelmäßigkeiten‘ basiert, die sich vom allgemeinen ‚Rauschen‘ abheben. Dies bedeutet, dass der akausale quantenphysikalische Raum ‚als solcher‘ von sich aus nicht automatisch Erklärungen liefert, er bietet nur einen ‚Ausgangspunkt‘ für mögliche Erklärungen ‚regelmäßiger‘ Phänomene, die wir in diesem Zusammenhang als ‚emergent‘ begreifen, d.h. als Phänomene, die im akausalen quantenphysikalischen Raum ‚gründen‘, die aber in ihrem Zusammenhang und ihrer Komplexität Eigenschaften des quantenphysikalischen Raumes sichtbar machen, die allein aus seinen ‚Bestandteilen‘ nicht so ohne weiteres abgeleitet werden können. ]

IDENTITÄTSTHEORIE UND SO

6. Kaufmann zitiert in diesem Kontext beiläufig noch die Positionen der ‚Identitätstheorie‘, des ‚Dualismus‘, den ‚radikalen Idealismus eines Berkeley, zwei Sprachphilosophen Ryle und Searl, sowie zwei neuere Philosophen Flanagan und Churchland.
7. Zentral erscheint mir seine Bemerkung, dass das Faktum der ‚Bewusstheit als solcher‘ (‚awareness itself‘) unabhängig von allen angebotenen Interpretationsmodellen das primäre Phänomen darstellt, das es zu erklären und zu gewichten gilt. Die persönliche Erfahrung jedes einzelnen ist ‚privat‘ im strengsten Sinne; niemand anderes kann sie einsehen. Und was immer wir uns an Erklärungsmodellen erarbeiten, sie alle setzen diese Privatheit des subjektiven Erlebens als primäre Basis voraus.(vgl. S.199)
8. Kauffman zitiert Descartes in diesem Kontext als jener Philosoph, der das Selbstbewusstsein in Form eines sich gewissen Denkens als primären, einzig nicht bezweifelbaren Punkt aller Erkenntnis angenommen hatte Descartes (1596-1650). In seinen weiteren Reflexionen und Analysen hatte Descartes dann die Konkretheit, Veränderlichkeit und Zufälligkeit des Körpers, der ganzen Körperwelt und der darauf aufbauenden Wahrnehmung als ontologisch verschieden zu der Klarheit, Allgemeingültigkeit und Zuverlässigkeit des Denkens zum Ausgangspunkt genommen für das Postulat, dass das Denken einer anderen Substanz als jener der veränderlichen Körperwelt zugehöre. Daraus ergab sich für ihn eine Art ‚Dualismus‘ des Veränderlichen gegenüber dem Unveränderlichen. Diese Dualismus-Hypothese brachte eine Reihe von Denkproblemen mit sich.(vgl.S.199)
9. Aufgrund der fortschreitenden Erkenntnisse, wie der Körper, speziell das Nervensystem und hier das Gehirn, funktionieren, hat sich heute vielfach die Hypothese von der ‚Identität von Gehirn und Geist‘ durchgesetzt (hier als Oberbegriff für die verschiedenen Spielarten einer Gehirn-Geist-Identätstheorie. Diese Identitätstheorie schließt die Dualismus-Hypothese von Descartes aus. Kauffman sagt, dass er diese Gehirn-Geist-Identitätstheorie übernimmt, sie aber dann mit dem quantenphysikalischen Modell vereinen möchte.(vgl.S.199) In diesem Kontext sollte man auch die klassische Neurobiologie nennen, für die Kauffman als Vertreter Christof Koch zitiert. Diese nimmt an, dass es zu allen Phänomenen des Bewusstseins entsprechende neuronale Strukturen und Prozesse gibt, die kausal verantwortlich sind für das Auftreten der bewussten Ereignisse. Im Detail stellen sich hier eine Menge von ungelösten Fragen. Auch kann man von den neurologischen Daten D_nn in keiner Weise direkt auf Phänomene (= Ereignisse des individuellen Bewusstseins) D_ph schliessen. Ein geeigneter theoretischer Rahmen fehlt. (vgl. S.202f)
10. [Anmerkung: Wie schon verschiedentlich in diesem Blog angemerkt, ist die Bezeichnung ‚Geist-Identitätstheorie‘ aus philosophischer Sicht mindestens unglücklich in der Wortwahl. Da die Neurowissenschaften empirisch Daten D_nn aus der 3.Person-Perspektive haben, Daten zum Selbstbewusstsein D_ph aber nur in der 1.Person vorliegen, haben wir zwei verschiedene Datenbereiche, die ontologisch vollständig verschieden sind (D_nn cut D_ph = 0). Hier von einer ‚Identität‘ zu reden ist sehr irreführend und sachlich falsch. Denkbar wäre, dass es zu jedem Datenbereich eine Theorie TH(D_nn), TH(D_ph) gibt (bis heute hat dies aber noch niemand geschafft), und sich zwischen den verschiedenen Theorien irgendwelche Abbildungsbeziehungen konstruieren lassen (wer wird der erste sein?). Rein formal hätten wir dann irgendwelche ‚Morphismen‘, deren ontologische Deutungen dennoch keine Identität zulassen würden. Es scheint, dass sich die Philosophen die Sache mit der Identitätstheorie etwas einfach machen. Eine solche korrigierte Formalisierung führt aber weder zurück zu einem Dualismus a la Descartes noch zu einem Idealismus a la George Berkeley (1685-1753). Dies sollte an anderer Stelle weiter diskutiert werden.]

SPRACHNAHE PHILOSOPHIE

11. Kauffman erwähnt auch noch die ’sprachnahen‘ Philosophen Gilbert Ryle (1900 – 1976) und John Searle (1932 – ), die bei ihren Analysen des Verhaltens (einschließlich Sprechens) auf eine Einbeziehung des Begriffs ‚Bewusstsein‘ verzichteten mit der Begründung, dass der Begriff ‚Bewusstsein‘ kaum klar zu fassen sei. Damit wiederholen Sie aber eigentlich nur Positionen von Ludwig Wittgenstein (1889 – 1951), der die Problematik jeglicher sprachlicher Bedeutung zuvor schon in vielfältigen Analysen aufgedeckt hatte.(vgl.S.200)
12. [Anmerkung: entsprechend der allgemeinen Erkenntnistheorie, die den Überlegungen in diesem Blog zugrunde liegen, haben wir es grundsätzlich mit drei heterogenen Datenbereichen zu tun (D_nn, D_ph, D_sr (= Verhalten, 3.Person)), deren saubere Aufarbeitung und Integration in einer umfassenden Theorie bis heute nicht einmal in Ansätzen vorliegt. Es gibt ja nicht einmal Konsensus über die Besonderheit dieser drei Datenbereiche geschweige denn einen Konsens, dass und wie man damit umgehen soll. Diesen Mangel an erkenntnistheoretischem und dann auch wissenschaftstheoretischem Konsens merkt man überall auf Schritt und tritt.]
13. Kauffman erwähnt auch noch die Philosophen Paricia Smith Churchland (1943-) und Owen Flanagan (1949 – ) im Kontext der Diskussionen zur ‚Einheit des Bewusstseins‘. Während das Bewusstsein in der subjektiven Perspektive als ‚eines‘ erscheint deuten die medizinischen Befunde drauf hin, dass sich das Bewusstsein aus vielen Teilleistungen zusammensetzt, die einzeln und partiell verändert werden oder ganz ausfallen können, ohne dass deswegen das subjektive Gefühl eines ‚einzigen einen Bewusstseins‘ verschwindet.(vgl. S.200)

STARKE KI

14. Es wird dann die sogenannte ‚Starke Künstliche Intelligenz-Hypothese‘ erwähnt, die annimmt, dass bei einer genügend großen Anzahl von verknüpften rechnenden Elementen ‚ab einem bestimmten Punkt automatisch‘ ‚Selbstbewusstsein‘ entstehen würde. Als einziges hartes Argument gegen diese Hypothese führt Kauffman die die Hypothese an, dass die starke KI-Hypothese voraussetze, dass diese intelligenz ‚algorithmisch‘ sein müsse und dass nach Kauffman der ‚Geist‘ (‚mind‘) vermutlich niht algorithmisch sei.(vgl. S.201f)
15. [Anmerkung: Die Formulierung der starken KI-Hypothese (’strong artificial intelligence hypothesis‘, ’strong ai-hypothesis‘) geht zurück auf den Philsophen John Searl (s.o.) und ist alles andere als sehr klar. Nicht nur sind die verwendeten Begriffe in sich oft unscharf, sondern – wie die sehr ausufernde Diskussion zeigt – ist die ganze Problemstellung alles andere als klar. Mit einem Satz festzustellen, dass sich das Problem erledigt habe, weil klar sei, dass der ‚Geist‘ nicht algorithmisch sei, stellt daher möglicherweise eine grobe Vereinfachung dar. Abgesehen davon spring Kaufman von dem Begriff ‚Selbstbewusstsein‘ einfach zum Begriff ‚Geist‘ dabei unterstellend, dass beide Begriffe hinreichend ähnlich seien. Das aber ist eine schwierige Frage. Ich sehe keinen einfachen Zusammenhang zwischen beiden Begriffen. ]

SELBSTBEWUSSTSEIN UND QUANTENPHYSIK

16. Den nächsten sehr langen Abschnitt leitet Kauffman ein mit der Bemerkung, dass er und Penrose davon ausgehen, dass das Selbstbewusstsein (‚consciousness‘) von sehr speziellen physikalischen Bedingungen abhängt. [Anmerkung: Eine Assoziation zu Descartes kühner Arbeitshypothese, die denkende Materie (res extensa) mit der kontingenten Materie (res extensa) über die ‚Zirbeldrüse‘ verknüpft zu denken, drängt sich unwillkürlich auf. Descartes wusste nicht wirklich, was dieses ‚Selbstbwusstsein‘ mit dem ‚Ich denke‘ genau ist; es erschien ihm ‚anders‘ als die kontingente materielle Körperwelt. Um diesen logischen Bruch denkerisch zu kitten erfand Descartes die Hypothese mit der Zirbeldrüse. Niemand würde sie heute so nehmen, wie Descartes sich das gedacht hatte. Doch das Vorgehen von Kauffman an dieser Stelle wirkt ähnlich. Bislang konnte er in keiner Weise erklären, was er wirklich mit ‚Selbstbewusstsein‘ oder gar ‚Geist‘ meint. Dennoch entwickelt er eine neue Hypothese, dass bestimmte quantenphysikalische Besonderheiten die Grundlage für eben jenes Unbekannte sein könnten… Rein logisch ersetzt hier die Spekulation über die Quantenphysik den cartesischen Begriff der Zirbeldrüse ohne zu große Aussicht auf mehr Klarheit (allerdings erweitert sich der Raum möglicher Hypothesen natürlich erheblich und ich stimme Kauffman soweit zu, dass jede tatsächlich weiterführende Antwort nur unter Einbeziehung der Quantenphysik funktionieren wird). ](vgl. S.203f)
17. Das leitende ‚Motiv‘ für die Einbeziehung der Quantenphysik ist das schon zuvor mehrfach erwähnte Argument, dass der menschliche Geist (‚mind‘) ’nicht algorithmisch‘ sei, was nach Kauffman nicht impliziert, dass er völlig ‚akausal‘ (‚acausal‘) sei. [Man beachte, das er beständig zwischen den Begriffen ‚Geist‘ (‚mind‘) und ‚Selbstbewusstsein‘ (‚consciousness‘) hin und her springt obgleich beide Begriffe nach meinem Verständnis sehr verschieden sind und beide Begriffe bislang sich jeder Definition weitgehend entziehen. Man könnte stattdessen auch einfach von ‚S‘ und ‚G‘ reden, diese wechselweise vertauschen und davon sprechen, dass sie nicht algorithmisch seien. Die argumentative Luft, in der sich Kauffman hier bewegt, ist sehr dünn geworden. Daneben ist auch die Aussage, ‚G‘ bzw. ‚S‘ sei nicht algorithmisch letztlich kaum zu verstehen. Ist doch mehr oder weniger unklar, was es heißen würde, dass S-G ‚algorithmisch‘ seien (das hatte Kauffman zuvor nicht wirklich erklärt. Aber er hat dafür argumentiert, dass es nicht so sei…).] (vgl. S.204)
18. Die Einbeziehung der Quantenphysik führt zu dem generellen Paradox, dass die Quantenwelt als solche nur aus Wahrscheinlichkeitsverteilungen besteht, die als solche ‚akausal‘ sind, während die ‚reale = makroskopische‘ Welt aktuelle konkrete Instanzen präsentiert, die in bestimmten Perspektiven ‚kausale Muster‘ erkennen lassen.(vgl. S.204f) Kauffman zitiert dann Richard Feynman (1918 – 1988) mit Beispielen, die diese Eigenschaften illustrieren sollen. Der entscheidende Punkt aber ist der Übergang vom unbeschränkten Quantenzustand zu einer ‚Aktualisierung‘, bei der/ in der wichtige Quanteninformationen verlorengehen. Als Erklärungsversuch für diesen Übergang verweist Kauffman auf die Dekohärenztheorie als zur Zeit am meisten akzeptierte theoretische Beschreibung dieser Aktualisierungsphänomene.(vgl. SS.205-208)
19. Es ist genau dieses Dekohärenzphänomen was Kauffman dann aufgreift, um damit die Interaktion zwischen einem ‚quantenphysikalischen kohärentem selbstbewussten Geist (qkSG)‘ und ‚Aktualisierungen in der klassischen physikalischen Welt‘ zu interpretieren.[Anmerkung: War zuvor schon der Status der Begriffe ‚Selbstbewusstsein (S)‘ und ‚Geist (G)‘ je für sich schon unklar, wird diese Unklarheit durch die Kombination ’selbstbewusster Geist (SG)‘ (‚conscious mind‘) nicht unbedingt besser.] Auf jeden Fall ist die Einwirkung dieses qkSG auf die Materie nicht kausal. Andererseits stellt Kauffman fest, dass der Vorgang der Dekohärenz bislang kaum verstanden ist. (vgl. S.208) [Anmerkung: Damit verknüpft sich die unklare Bedeutung von SG mit der Unklarheit der postulierten Dekohärenz. ] Dann setzt Kauffman den bislang kaum fassbaren Begriff qkSG mit der ‚res cogitans‘ von Descartes gleich und die aktualisierte Materie mit der ‚res extensa‘.(vgl. S.209). [Anmerkung: Dies ist eine stimulierende Überlegung, aber wenn vor der Einführung von qkSG schon keine wirkliche Bedeutung für SG – geschweige denn qkSG – verfügbar war, dann führt uns diese Gleichsetzung auch nicht weiter. Descartes hatte keine wirkliche Definition für seine ‚res cogitans‘. Bei ihm war es eine Vermischung von phänomenalen Eigenschaften erweitert um Spekulationen über eine mögliche allgemeine (ideale) Natur des ‚Geistes‘, ein Begriff, der als solcher keine wirkliche Bedeutung besitzt. Möglicherweise könnte man in einer ‚Metatheorie‘ zur Phänomenologie ein paar allgemeinere Begriffe ‚jenseits der Phänomene‘ einführen, ihr ontologischer Status wäre aber unklar. Descartes hat dies nicht getan und ich kenne auch keinen anderen Philosophen, der dies bislang wirklich geschafft hat. Den cartesischen Begriff ‚res cogitans‘ hier zu benutzen täuscht daher eine Bedeutung vor, die es so nicht gibt.]
20. In diesem Kontext führt Kauffman auch den Begriff ‚immateriell‘ (‚immaterial‘) ein und definiert ihn als eine mögliche Eigenschaft im quantenphysikalischen Raum, die ’nicht objektiv real‘ ist. (vgl. S.209)
21. Interessant ist auch das Phänomen, dass ein kohärenter quantenphysikalischer Zustand beim Auftreten von Dekohärenz nicht aufgehoben werden muss. Es gibt Beispiele dafür, dass Dekohärenz auftreten kann und der kohärente Zustand bleibt weiter bestehen bzw. dass es Mechanismen gibt, Kohärenz/ Dekohärenz kontrolliert zu nutzen. Dazu gehören auch neuere Modelle, wie Quanten-Computer funktionieren könnten. (vgl. SS.210-214) Aufgrund eigener Untersuchungen hält Kauffman es für möglich, dass jede Zelle so strukturiert ist, dass kohärente quantenphysikalische Austauschprozesse zwischen den Proteinen möglich sind. (vgl. S.220) Das Phänomen der Qantenverknüpftheit (‚quantum entanglement‘) verweist zusätzlich auf das Phänomen, dass Quanten in beliebiger Entfernung voneinander gemeinsame Eigenschaften haben können. (vgl. S.222)

REDUKTIONISMUS ABGEMILDERT DURCH EMERGENZ

22. Kauffman stellt dann nochmals fest, dass im Falle, dass seine Überlegungen zur Quantennatur des Geistes stimmen würden, also die angenommene Verlagerung des Geistes in den Quantenraum, der über Kohärenz/ Dekohärenz mit dem makroskopischen Raum der Körper interagiert, dass diese Annahme auch eine Art ‚Reduktionismus‘ darstellen würde, einen Reduktionismus, den er zu Beginn seines Buches ja gerade bekämpft hat. Er schwächt dann aber ab, indem er darauf verweist, dass sich aus diesem Reduktionismus von Geist auf quantenphysikalische Strukturen nichts deterministisch ableiten lässt. Nahezu alle Phänomene der biologischen Evolution repräsentieren Strukturen, die sich in dieser Konkretheit aus dem vorausgesetzten quantenphysikalischen Raum nicht voraussagen lassen. (vgl. S.222f)

DIE HARTEN ARGUMENTE GEGEN DEN GEIST HARREN EINER ANTWORT

23. Abschließend zu seinem Kapitel über die Hypothese, den ’selbstbewussten Geist‘ quantenphysikalisch zu interpretieren, listet Kauffman nochmals drei zentrale philosophische Argumente gegen die Annahme eines ‚Geistes‘ als unterschieden vom Gehirn an, die beantwortet sein wollen.
24. Als erstes verweist er nochmals auf den Ephiphänomenalismus, der die geistigen Phänomene als Begleiterscheinungen einer aktiven neuronalen Maschinerie sieht, da es bislang an überzeugenden Argumenten fehlt, die erklären, wie der ‚Geist‘ (für den es als solchen keine überzeugende Beschreibung gibt), auf das Gehirn, auf den Körper einwirken kann.(vgl. S.224) Dazu gehört auch das Problem, dass es völlig unklar sei, wie ‚Geist‘ direkt auf ‚Geist‘ wirken könne ohne Einbeziehung neuronaler Prozesse. (vgl. S.224f) Kauffman verweist darauf, dass, könnte man die Hypothese einer quantenphysikalischen Interpretation eines selbstbewussten Geistes qkSG beweisen, sich diese Probleme auflösen würden, da ein qkSG auf vielfache Weise mit sich selbst interagieren könnte ohne über den Umweg neuronaler Prozesse und doch zugleich auch über Dekohärenz neuronale Prozesse beeinflussen könnte. (vgl. S.225f)
25. Als zweites Problem erwähnt Kauffman das Problem der subjektiven Erfahrung selbst, oft das Problem der Qualia (DE)/ Qualia (EN) genannt. Hier sagt Kauffman, dass es bislang völlig unklar ist, ob und wie eine quantenphysikalische Interpretation von Geist hier neue Interpretationsansätze liefern kann. [Anmerkung: Schaut man in die Wikipediastichworte – sowohl in der deutschsprachigen wie auch in der englischsprachigen Version – nach, wird man schnell feststellen können, dass die Sachlage in diesem Bereich nur als ‚verworren‘ bezeichnet werden kann.] Allerdings bemerkt Kauffman zurecht, dass wir aus der Tatsache, dass momentan noch keiner eine schlüssige Erklärung auf der Basis der Quantenphysk anbieten kann, auch nicht folgt, dass es keine gibt. Aktuell ist nicht auszuschließen, dass es später mal eine brauchbare Erklärung geben kann. (cgl. S.226f)
26. Das dritte und letzte genannte Problem ist das Phänomen des freien Willens (EN)/ freien Willens (DE). Kauffman thematisiert zunächst den Aspekt des ‚Nicht-Determiniert-Seins‘ als einer Forderung an das Gegebensein eines freien Willens. Würde die quantenphysikalische Interpretation stimmen, dann sähe er hier eine Möglichkeit, das Determinismusproblem zu lösen. Bezüglich des zweiten Aspekts der ‚moralischen Verantwortung‘ bleibt er einen Hinweis schuldig. (vgl.S.227f) [Anmerkung: Liest man sich in die Wikipediastichworte ein, so sieht man nicht nur, dass es – wie meistens – zwischen der deutschen und der englischen Version große Unterschiede gibt, sondern wie vielschichtig und damit letztlich unklar das Konzept des freien Willens ist. Generell spielt es in der Alltagskultur der westlichen Länder eine zentrale Rolle, insbesondere im Rechtssystem, aber seine philosophische Behandlung ist alles andere als zufriedenstellend.]
27. Damit ist das Ende der beiden Kapitel über den Geist erreicht. Trotz vieler kritischer Anmerkungen im Detail – eine abschließende Reflexion wird noch folgen – waren dies außerordentlich anregende Kapitel. Für Kauffman war es wichtig, zu zeigen, dass das Phänomen des ‚Selbstbewusstseins‘ [hier lässt er den Begriff ‚Geist‘ wieder mal weg] ein natürliches Phänomen ist, ein genuiner Teil der Evolution, den zu erklären, es keines ‚Schöpfergottes‘ (‚creator god‘) brauche.(vgl. S.229)
28. [Anmerkung: Seinen Schlusssatz, dass man für dies alles keine Annahme über einen ‚Schöpfergott‘ brauche, macht natürlich nur Sinn, wenn man den Begriff ‚Schöpfergott‘ in einer Weise definiert, der den bekannten naturwissenschaftlichen Daten zum evolutionären Prozess widerspricht. Dies muss aber keinesfalls so sein. Denn schon in der jüdisch-christlichen Tradition gibt es ja nicht einen einzigen, klar definierten Gottesbegriff, sondern die vielen verschiedenen Schriften der Bibel zeichnen sehr unterschiedliche Bilder. Dazu kommt, dass nirgends explizit von der Evolution die Rede ist, da ja die Menschen zu den Zeiten, als die Texte der Bibel verfasst worden sind, von all dem nichts wussten. Und die wenigen Texte, die direkt Bezug nehmen auf die Entstehung der bekannten Welt – insbesondere die beiden sogenannten ‚Schöpfungsberichte‘ zu Beginn des Buches Genesis – sind sprachlich und inhaltlich so verschieden (weil sie aus verschiedenen Zeiten von verschiedenen Autoren stammen), dass sich jede weiterreichende Interpretation auf der Basis dieser beiden Texte verbietet. Zumindest in der christlichen Tradition gibt es kein klar definiertes Bild eines Schöpfergottes, das den neueren naturwissenschaftlichen Erkenntnissen entgegen stehen würde (wobei man bedenken sollte, dass sich innerhalb der Wissenschaft die naturwissenschaftlichen Bilder von der Welt mindestens seit Galilei immer wieder und stark verändert haben. Gerade in unserer Zeit durchläuft die Wissenschaft in vielen Bereichen wieder einmal grundlegende Korrekturen, deren Ende noch gar nicht abzusehen sind). Das Wenige, was sich von einem christlichen Gottesbegriff ableiten lässt deutet eher auf eine Art ‚Koevolution von Allem‘ hin, in der dem Leben (speziell dem Menschen?) eine besondere Rolle zugedacht ist. Worin die genau besteht, ist eher unklar und muss von den Handelnden selbst schrittweise ermittelt werden (falls es überhaupt eine mögliche Klärung gibt). Ich habe nicht den Eindruck, dass sich innerhalb des Christentums irgendjemand für diese Klärung des Gesamtzusammenhangs ernsthaft interessiert. Man hört höchstens immer wieder von obskuren Abwehrschlachten von sogenannten ‚Fundamentalisten‘, die offensichtlich ihre eigene Bibel nicht kennen.]

Die Fortsetzung findet sich HIER: Teil 7.

Ein Überblick über alle bisherigen Blogeinträge nach Titeln findet sich HIER

EMERGENTE PHÄNOMENE, BEOBACHTER, GEIST -Teil 2

(Dieser Beitrag bildet die Forsetzung von Überlegungen aus einem vorhergehenden Beitrag)

Eine Schema, wie Leben im Universum entstehen konnte (in späteren Blogeinträgen weiter verfeinert)

Eine Schema, wie Leben im Universum entstehen konnte (in späteren Blogeinträgen weiter verfeinert)

UPDATE EVOLUTION

In einem Diagramm vom Dezember 2009 (siehe Bilde oben) hatte ich eine ‚Gesamtschau‘ der Evolution ‚in einem Bild‘ versucht. Dabei hatte ich eine Aufteilung in ’subatomar‘ und ‚atomar und komplexer‘ vorgenommen. Die Überlegungen kreisten seitdem meistens um die Phänomene oberhalb der atomaren Komplexitätsebene. Dabei schälten sich dann diverse interessante Problemstellungen heraus. In den letzten Monaten war es vor allem das Problem der ‚Emergenz‘, das mich mehr und mehr beschäftigte (sofern die normale Arbeit dazu überhaupt Zeit lies). In mehreren Anläufen, Texten und Vorträgen kam ich bis zu dem Punkt, dass die sich in den emergenten Phänomenen zeigende Funktionalität in keiner Weise durch Rekurs auf die beteiligten Komponenten alleine erklärbar ist (kein ‚Reduktionismus‘, (z.B. der molekulare Prozess der Selbstreproduktion in struktureller Entsprechung zum mathematischen Konzept einer Turingmaschine)) sondern eine Funktionalität auf einer ‚höheren Ebene‘ voraussetzt. Als möglicher ‚Raum für Funktionalitäten‘ bietet sich hier aber nur jener ‚Raum‘ an, innerhalb dessen es zu diesen Prozessen kommt. Hier gibt es nur den Raum der Atome bzw. den subatomaren Bereich. Die heutige Physik beschreibt diesen Raum u.a. mit den Mitteln der Quantenphysik. Als Nichtphysiker hält man dazu gewöhnlich einen gebührenden Abstand (die für die Beschreibung quantenphysikalischer Phänomene benutzte Mathematik ist für einen Nicht-Quantenphysiker in der Regel ‚unverdaulich‘; Ausnahme aber z.B. die Vorlesungen von Feynman (siehe Lit. unten).

QUANTENPHYSIK

An dieser Stelle kam eine entscheidende Anregung bei der fortdauernden Lektüre (jetzt wieder) von Kauffman (‚Reinventing…). Im Kap.13 des Buches referiert er wichtige Positionen der Philosophie des Geistes (einschließlich neurobiologischer Interpretationen), zeigt deren logischen Aporien bei der Erklärung von ‚Geist‘ und ‚Bewusstsein‘ durch Reduktion auf neuronale Aktivitäten auf und spielt dann diverse theoretische Szenarien durch, für die er Erkenntnisse der Quantenphysik benutzt. Zuerst fand ich dies eigentümlich, aber bei weiterem Lesen und Nachdenken habe ich den Eindruck, dass diese Überlegungen höchst interessant sind und nach allem, was ich bislang weiß, den einzig erkennbaren theoretischen Ansatzpunkt liefern, der im Einklang mit den empirischen Wissenschaften steht und doch der Besonderheit der emergenten Phänomene Bewusstsein und Geist eventuell gerecht werden könnte.

Quantum space and Classical Space; Below bodies being open in the direction of quantum space

Quantum space and Classical Space; Below bodies being open in the direction of quantum space

Die Grundidee ist recht simpel. Die empirisch-mathematischen Details beliebig schwierig. Ich habe folgendes verstanden (siehe Handskizze):

1. Im Bereich der subatomaren Teilchen (Quanten) lässt sich nur noch messen, wenn man dabei das zu messende Objekt verändert (Heisenberg, Unschärferelation). Viele kreative Experimente (siehe dazu z.B. das Büchlein von Feynman) legen die Interpretation nahe, dass die Teilchen sich in einem kontinuierlichen Raum möglicher Zustände aufhalten, in dem sie alle Zustände (aus unserer Sicht) quasi ‚gleichzeitig‘ einnehmen (mit unterschiedlichen Wahrscheinlichkeiten). Alles, was ‚geht‘ (Freiheitsgrade), ‚wird gemacht‘. Durch Versuchsanordnungen wird der Möglichkeitsraum punktuell ‚eingeengt‘ und der Raum ‚passt sich‘ den Versuchsanordnungen ‚an‘. Man ‚misst als Phänomen, was sich bei Unterstellung der wahrscheinlichen Verteilungen ergeben würde. Dazu gehören viele spezielle Effekte, die ich hier beiseite lasse.
2. Neben diesem Quantenraum als ‚grundlegender Realität‘ für die messbaren Phänomene gibt es aber auch den konkret realisierten physikalischen Zustand, wie wir ihn als ‚real uns umgebende Welt‘ erfahren. Dieser ‚klassische physikalische Raum‘ erscheint von dem Quantenraum mit seinen floatenden Möglichkeiten ‚abgekoppelt‘ (‚decoherent‘). Er stellt genau eine von unzählig vielen Möglichkeiten dar, was ‚hätte passieren können‘. Abkopplung heißt hier u.a. ‚Verlust an Informationen‘, herausgenommen aus dem ‚Phasenraum‘ der floatenden Möglichkeiten.
3. Trotz der Realität des konkreten klassischen physikalischen Raumes müssen wir annehmen, dass damit der parallel bestehende Quantenraum nicht vollständig aufgehoben wird; er besteht weiter, wahrt eine Kontinuität, bildet weiter die ‚Grundlage‘ für neue ‚Realisierungen‘.
4. Soweit ich bislang sehe ist diese ‚Koexistenz‘ von Quantenraum und konkreter Realisierung bislang nicht vollständig geklärt, speziell nicht die Frage, wie beständig Realisierungen (Dekohärenzen) stattfinden können, ohne den Quantenraum aufzuheben. Darüberhinaus ist nicht wirklich klar, warum es genau zu den bestimmten Realisierungen kommt, die aus unserer Beobachtersicht gewisse ‚Regeln‘ einhalten, obgleich der Quantenraum aus sich heraus nicht auf eine bestimmte Realisierungen abonniert ist.

META-FUNKTIONALITÄT

Die vorausgehenden Überlegungen sind natürlich extrem vereinfachend, lassen dadurch aber vielleicht die großen Linien hervortreten.

Bezogen auf die von mir geäußerte Vermutung, dass die emergenten Phänomene durch vorauszusetzende Funktionalitäten erklärt werden müssen würde durch Einbeziehung des Quantenraums zumindest dahingehend eine Verstärkung erfahren, dass der Quantenraum beliebig komplexe Funktionalitäten ‚beherbergen‘ kann. Aber hier stehen wir noch ziemlich am Anfang.

Kauffman bringt in seinem Buch mehrere Beispiele (z.B. S.210f, Photosynthese), wo anhand konkreter biologischer (chemischer, physikalischer) Prozesse nachgewiesen werden konnte, wie diese konkreten Prozesse nur erklärbar sind durch die Annahme des zugleich bestehenden Quantenraumes.

GEFANGEN IM KÖRPER ALS KOGNITIVE TÄUSCHUNG

Macht man sich diese Fundierung aller Makrophänomene im Quantenraum klar, dann folgt daraus, dass die scheinbare ‚Gefangenheit‘ unseres ‚Geistes‘ in einem konkreten, endlichen Körper, nur eine scheinbare ist. Der Körper ist (mit viel Fantasie auf der Handskizze in der unteren Hälfte erkennbar) in dieser Sicht nur so eine Art ‚Ausstülpung‘ des Quantenraumes an einem bestimmten Punkt in eine ‚vorübergehende Konkretisierung‘ bei gleichzeitiger Aufrechterhaltung der Einbettung in den Quantenraum. Dies bedeutet, bei näherer Betrachtung, dass jeder Mensch ‚in Richtung des Quantenraumes‘ ‚offen‘ ist. Dies wiederum bedeutet, dass jeder Mensch durch seine Einbettung in den Quantenraum mit jedem Punkt des bekannten Universums direkt kommunizieren kann. Diese Kommunikation — so sie stattfindet — verläuft mindestens mit Lichtgeschwindigkeit. Anders gewendet, sofern wir in den Quantenraum ‚eingebettet‘ sind ist jeder von uns zum übrigen Raum hin ‚vollständig offen‘. Im Quantenraum gibt es keine lokale Abgrenzung. Diese wird nur mit Hilfe des transienten Körpers für eine verschwindend kurze Zeit künstlich eingerichtet, um punktuell ‚Individualitäten‘ sichtbar zu machen.

Warum der Quantenraum diese punktuellen transienten ‚Ausstülpungen‘ vornimmt erschließt sich uns bislang nicht. Aber wir stehen ja auch mit dem Erkennen hier erst ganz am Anfang.

LITERATURHINWEISE
Richard P. Feynman (Author), A. Zee (Introduction), „QED: The Strange Theory of Light and Matter“, Publisher: Princeton University Press (April 4, 2006), ISBN-10: 0691125759, ISBN-13: 978-0691125756

Gerd Doeben-Henisch, Kurze Review online: http://www.amazon.com/gp/cdp/memberreviews/A1D6994DSB8K4M/ref=cm_cr_dp_auth_rev?ie=UTF8&sort_by=MostRecentReview

Kauffman, S.A., Reinventing the Sacred. A new View of Science, Reason, and Religion. New York: Basic Books, 2008 (Paperback 2010)

Eine Übersicht über alle bisherigen Blogeinträge anhand der Themen findet sich HIER