Archiv der Kategorie: Quantenphysik

Thomas Görnitz (2006) Quanten Sind Anders – Kurzkommentar.

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 21.August 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

Angeregt durch die Lektüre des Buches von Thomas Görnitz, Quanten Sind Anders: Die verborgene Einheit der Welt, Spektrum Akademischer Verlag, Heidelberg: 2006, habe ich zunächst mal einen kurzen Kommentar direkt bei amazon geschrieben (alternative Adresse).

Hier der Text des Kommentars:

SCHREIBEN ODER NICHT SCHREIBEN?

Ich habe offen gestanden länger überlegt, ob ich einen kurzen Kommentar zu diesem Buch schreiben sollte oder nicht. Einerseits ist das Thema ‚Quantentheorie‘ weiterhin wichtig und ich habe nicht den Endruck, dass die einschlägigen Konzepte mittlerweile zum ‚Alltagswissen‘ unserer Gesellschaft gehören; andererseits unternimmt Görnitz den – letztlich mutigen und verdienstvollen – Versuch, dieses schwierige Thema mit anderen Wissensbereichen wie unserer Alltagserfahrung, mit der Philosophie, der Psychologie der Biologie, und der Mathematik und Logik zu verknüpfen. Und es sind gerade diese eigentlich so notwendigen ‚Grenzgänge‘ zu anderen Disziplinen, die mir als Leser Schwierigkeiten bereitet haben und noch immer bereiten.

Zu dieser grundlegenden Thematik kommt der durchgängige Darstellungsstil: Görnitz arbeitet viel mit Vereinfachungen, Andeutungen, Verweise auf spätere Behandlungen im Buch. Dies ist bisweilen begrüßenswert, aber wenn es bei den Vereinfachungen bleibt, wenn dann die späteren Behandlungen doch keine Antwort liefern, dann kann dies ein bisschen frustrierend wirken. Ich war mehrfach versucht, mein Lesen einzustellen, habe dann aber irgendwie durchgehalten.

Dieses ‚Durchhalten‘ hat mir immerhin die Einsicht beschert, dass Thomas Görnitz bei allen Vereinfachungen und Grenzgängen zumindest in seinem Hauptgebiet der Quantenmechanik samt er zugehörigen Mathematik unzweifelhaft ein großer Kenner ist der sich grundlegende und weitreichende Gedanken gemacht hat. Aufgrund seiner Fachkenntnisse hätte er zu dem Thema ‚Quantenmechanik und Mathematik‘ eine Menge sagen können, wird doch gerade hier die Abhängigkeit des Denkens von der benutzen Sprache (hier: der mathematischen Sprache) in einer Weise deutlich wie sie kaum noch zu überbieten ist. Eng damit verknüpft ist das ganze Problem der ‚empirischen Überprüfbarkeit‘ von quantenmechanischen Aussagen.

PHILOSOPHISCHER AUSFALL

Leider kommt es in letzter Konsequenz dann nicht zu solchen spannenden Reflexionen. Es zeigt sich hier, dass Thomas Görnitz von der modernen Wissenschaftsphilosophie offenbar nur wenig kennt (er erwähnt moderne Wissenschaftstheorie einmal auf S.55, tendenziell abschätzig). Seine philosophischen Kenntnisse erklären das Programm Kants noch immer zu einem interessanten Kandidaten, ohne die ganze moderne Diskussion zu erwähnen, in denen die kantischen transzendentalen Bedingungen durch die Erkenntnisse der Evolutionsbiologie auf mögliche konkrete, sehr dynamische Voraussetzungen hin verflüssigt wurden. Obgleich er das bahnbrechende Buch von Edelmann von 1983 ‚Bright Air, Brilliant Fire. On the Matter of the Mind‘ positiv erwähnt, hält er an der künstlichen Trennung von Natur- und Geisteswissenschaften fest. Sein Art von Logik zu reden, entspricht dem Konzept der klassischen aristotelischen Logik ohne scheinbar zu bemerken, dass die moderne Logik parallel zur modernen Mathematik ebenfalls eine explosionsartige Entwicklung genommen hat. Neben einer ‚klassischen‘ zweiwertigen Variante gibt es in der modernen Logik beliebig viele mehr-wertige Logiken, dazu eine kaum abgrenzbare Menge von unterschiedlichen Folgerungsbegriffen und unterschiedlichen Sprachtypen. Unter anderem bedingt durch die eben erwähnten Einschränkungen seiner Sehweise kommt Görnitz u.a. zu einer Sicht des ‚Beobachters‘ im Theorieprozess, die man nur als ‚vereinfachend‘ bezeichnen kann. Dies aber korrumpiert dann letztlich seine eigenen Grundlagen.

SEHR VIELE ANREGUNGEN – PROBLEMATISCHE GRUNDANNAHMEN

Die ausführlichen historischen Beschreibungen zur Geschichte der Naturwissenschaften und dann der späteren Quantenmechanik als Teil der Naturwissenschaften kann man sehr wohl als informativ und anregend empfinden, aber die Einbettung dieser Informationen in bestimmte philosophische und psychologische Grundannahmen, die als solche kaum reflektiert werden, wirft viele Fragen auf.

Neben der schon angesprochenen Begrenztheit der philosophischen Perspektive werden ebenfalls beständig psychologische Sachverhalte benutzt, ohne dass es irgendwo zu einer nennenswerten Auseinandersetzung mit den Methoden der modernen Psychologie kommt geschweige denn mit den grundlegenden Wechselwirkungen zwischen empirischer Psychologie, Biologie (inklusive Neurowissenschaften) und Phänomenologie. Die Überlegungen zur Wechselwirkung zwischen quantentheoretischen Erkenntnissen und dem ‚menschlichen Geist‘ verbleiben dadurch in einem begrifflich ungeklärten Rahmen und wirken auf diese Weise eher ‚aufgesetzt‘.

SEHR SCHADE

Die Grundannahmen der Quantentheorie und die zugehörigen mathematischen Konzepte blitzen auf, lassen erahnen, was Görnitz zu sagen hat, aber die Art und Weise der Einbettung in andere Disziplinen, in grenzüberschreitende Überlegungen, wirkt schwach, ist nicht überzeugend. Dies ist sehr schade.

AUTOR UND PUBLIKUM

Wenn man ein Buch aus der Sicht des Lesers wahrnimmt, besteht natürlich immer die Gefahr, dass man im Buch etwas anderes sieht, als der Autor selbst intendiert hatte. Würde ich die vielen Seiten mit Notizen benutzen, die ich mir während der Lektüre gemacht habe, dann würde dieser Kommentar zu einer Ansammlung vieler Details verkommen. Der Versuch, sich auf ein paar allgemeine Aspekte zu beschränken, kann hingegen schnell ungerecht werden. Daher hier noch ein ganz anderer Gedanke.

Wenn man in Rechnung stellt, wie wenig heute in der normalen schulischen Ausbildung und im Allgemeinwissen Naturwissenschaft, insbesondere auch Mathematik, repräsentiert sind, dass es geradezu als ‚chic‘ gilt, davon möglichst nichts zu verstehen, dann stellt sich für einen Experten aus diesen Gebieten die Frage, wie soll er seine Geschichte erzählen? Einfach mit Mathematik so loszulegen, wie man es tun müsste, um die Sachverhalten angemessen zu beschreiben, geht nicht. Jeder Versuch, es dann mit ‚Alltagsverständnis‘ zu versuchen, mit möglichst ‚mathematikfreien‘ Formulierungen, mit Alltagsbeispielen, wird der eigentlichen Sache dann mehr oder weniger NICHT gerecht. Will man trotzdem nicht schweigen, beginnt ein begrifflicher Weg, der im Prinzip nur scheitern kann. Andererseits, wagt man es nicht, verharrt man im Schweigen, wird das Alltagswissen auch nicht besser. So gesehen empfinde ich die Unternehmung von Thomas Görnitz sehr mutig und sehe darin einen wichtigen Versuch, das alltagssprachlich eigentlich ‚Nicht-Sagbare‘ doch ‚irgendwie‘ zu sagen. Diejenigen, die die Grenzen des Gesagten aufgrund ihrer Kompetenzen erkennen können, können aus diesen Grenzen letztlich immer viel lernen. Von daher habe ich mich für 4 Sterne entschieden und nicht für 2-3. Mich hat das Buch trotz aller Fragen, die es in mir hervorgerufen hat – oder gerade wegen dieser? –, sehr angeregt.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

DESCARTES IMPLODIEREN LASSEN. Dualität mutiert zur Monade

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062
14.Juli 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

IDEE

Bei der Lektüre des Buches ’Quanten sind anders’ (2006) von Görnitz [1] bin ich auf den Seiten 27-49 über Erklärungen gestolpert, die man so zwar eigentlich in allen heutigen Interpretationen zu Descartes wiederfindet, die aber deswegen nicht unbedingt richtig sein müssen. Möglicherweise angeregt durch den Erklärungskontext bei Görnitz sowie meinen eigenen Überlegungen in verschiedenen Zusammenhängen (u.a. in den Rekonstruktionen von Stace, insbesondere ab Teil 3  und 4) erscheint mir die schnelle Etikettierung von Descartes Ansatz als Dualist nur bedingt hilfreich, zumindest wenn man über ihn vom heutigen Wissensstand aus spricht.

I. DESCARTES

a) Descartes klassisch interpretiert: Vereinfachend kann man die klassische Interpretation von Descartes in zwei Punkten zusammenfassen.1) Bei der Suche nach einem ’Ankerpunkt’ für sein Denken meinte Descartes in der ’Gewissheit seiner eigenen Denktätigkeit’ einen Punkt gefunden zu haben , von dem aus sich alles weitere – die verschiedenen wechselnden Inhalte und Formen – sortieren und diskutieren lassen. 2) Von diesem markierten Denkpunkt aus hat er dann versucht, diese beiden ’Pole’ seiner Bewusstheit– das ’Sich-im-Denken-gewiss-sein’ und die ’wechselnden Inhalte’ – seinsmäßig (ontologisch) zu ’interpretieren. Eine solche Interpretation in Form von spezifischen ’Zuordnungen’ folgt nicht zwingend aus den Phänomenen des Ausgangspunktes. Diese Zuordnung stellt eine freie Auswahl aus verschiedenen Denkmöglichkeiten dar.

Descartes wählte für seine freie Zuordnung (Deutung,Interpretation, Kodierung) die Begriffe ’res cogitans’ und ’res extensa’, die zur damaligen Zeit in verschiedenen philosophischen Konzepten verfügbar waren. Und er ordnete dann seine ’Gewissheit’ der ’res cogitans’ zu und die wechselnden Inhalte und Formen der ’res extensa’. Belässt man es bei dieser Interpretation, dann spaltet sich in der Tat die Wirklichkeit in zwei ontologisch unterschiedliche Seinsbereiche auf, deren Beziehung untereinander logisch größte Probleme aufwirft.

Dass Descartes selbst hier eine Lösung über eine postulierte ’Zirbeldrüse’ andachte (was die logischen Probleme faktisch nicht löste), soll uns hier weiter nicht beschäftigen.

2b) Descartes neu interpretiert: Nach dem heutigen Wissensstand können wir annehmen, dass das bewusste Denken sich – wie genau, das ist noch nicht vollständig geklärt – in Verbindung mit dem ’Gehirn’ abspielt. Das Gehirn ist ein Organ unseres Körpers und wäre im Sinne Descartes der ’res extensa’ zuzuordnen. Anstatt nun eine weiter ’Substanz’ zu postulieren, die ’res cogitans’, wie es Descartes tat (und vermutlich aufgrund seines Wissensstandes auch gar nicht anders konnte), könnten wir heute sagen, dass das bewusste Denken, die Selbstgewissheit, eine ’Eigenschaft des Gehirns’ ist, genauer eine ’Funktion des Gehirns’. Damit wären ’res cogitans’ und ’res extensa’ nicht mehr zwei ontologisch unverbundene Seinsweisen sondern die ’res cogitans’ wird zu einer Eigenschaft, zu einer Funktion der ’res extensa’. Die res extensa, als ’Sammelbecken’ von statischen Eigenschaften, wird mit der ’res cogitans’ zu jenem’ dynamischen Etwas’ als das wir heute die ’Materie (= res extensa)’ erleben und erforschen. Statt einer klassischen Dualität haben wir dann eine dynamische ’Monadizität’, eine Art ’Implosion‘ der res cogitans in die res extensa hinein (Anmerkung: In direkte Antwort zu Descartes waren es speziell Spinoza und Leibniz, die seinen dualistischen Ansatz ablehnend-kritisch sahen. In der Einleitung zum 5.Kapitel seiner Ethik hat Spinoza [2] den Ansatz von Descartes analysiert und als nicht akzeptabel verworfen. Sein eigener Lösungsansatz versucht die ’Einheit’ von Denken und Körper durch Annahme einer in Gott gründenden ’einen Substanz’ zu retten, die in vielen Punkten ebenso wenig nachvollziehbar ist wie Descartes Rettungsversuch über die Zirbeldrüse. (Für die weitere kritische Diskussion von Spinoza siehe auch Decher (2015) [3]:SS.101-108) Der Lösungsansatz von Leibniz in seiner ’Monadologie’ [4] kommt einem systematisch-modernen Denken weiter entgegen, doch bringt er auch als Letztbegründung wieder Gott ins Spiel (vgl. Decher (2015) [3]:SS.110-117). Würde man diesen Faktor bei Leibniz ’herausrechnen’, dann erscheint seine Monadologie in einem interessanten Licht. Der hier benutze Begriff der ’Monadizität’ setzt das Wort ’Monadologie’ voraus.).

Im Denken selbst erscheint zwar ’Denken’ und ’Inhalt’ als etwas Getrenntes, aber ’ontologisch’ ist das Denken (die klassische ’res cogitans’) eine ’inhärente Eigenschaft’ des Körpers, der Materie (die klassische ’res extensa’). Eine Zirbeldrüse im Sinne des Descartes wird damit überflüssig.

c) Geist-Materie: Bislang wird der Begriff ‚Geist-Materie‘ kaum benutzt.  Mit dieser neuen implodierten Einheit von Denken und Sein lösen sich viele klassische Probleme, die aus einer speziellen Interpretation der primären Phänomene resultierten, es stellen sich aber ganz neue, möglicherweise noch radikalere Herausforderungen. Denn jetzt wird das ’Bewusstsein’, das ’Sich-Selbst-Denken’ zu einer genuinen Eigenschaft der Materie. Während die einen darin eine ’Abwertung’ des Denkens und des ’Geistigen’ sehen, werden die anderen darin eine ’Aufwertung’ des Körperlichen, des Materiellen sehen (oder auch, ganz im Gegenteil, eine ‚Verwässerung‘ des Materiebegriffs).

Die moderne Physik, hier allen voraus die Quantenphysik, hat schon längst die Positionen der klassischen Physik und damit eines deterministischen Objektdenkens aufgebrochen. Die schöne heile Welt der abgrenzbaren Objekte, der deterministischen Verhältnisse, wurde mit den neuen Forschungen quasi weggesprengt. Der fließende Übergang von Energie und Materie, das Verschwinden aller Determinismen, bei einer gleichzeitig zu beobachtenden Dynamik des bekannten Universums, das sich nicht als reines ’Chaos’ präsentiert, sondern als eine Quelle gerichteter und steigender Komplexität, allerdings nicht deterministisch, sondern ’frei’ … dies wirft tonnenweise Fragen auf, die bislang nicht einmal im Ansatz geklärt sind. Historisch mag man Descartes als jenen Meilenstein ansehen, an dem die Aporie des klassischen Geist-Materie Denkens sein historisches Maximum erreicht hat, das aber dann mit der modernen Quantenphysik (wann genau?) seine denkerische Transformation hinein in eine neue ontologische Geist-Materie-Einheit erlebte.

Im Prinzip war das klassische griechische Denken davon nicht weit entfernt, aber es fehlten ihnen damals einfach die notwendigen Daten.

d) Nachbemerkungen: Görnitz erwähnt in der Kritik an Descartes Dualismus auch zwei der heutigen Standardeinwände gegen Descartes Gewissheitsansatz: Freud mit seinem Unbewussten und Gödel mit seiner Unentscheidbarkeit hinreichend komplexer formaler Systeme (vgl. Görnitz S.45). Im Lichte der neuen Interpretation erscheinen mir beide Hinweise nicht zielführend zu sein.

Die Tatsache, dass ein Großteil der Vorgänge in unserem Körper – möglicherweise muss man heute sogar sagen: der überwiegende Teil – nicht im Zugriff des Bewusstseins liegt, muss nicht notwendigerweise ein Totschlagargument gegen die Position der Gewissheit von Descartes sein. Die ’Gewissheit im Denken’ bezieht sich ja gerade nicht auf die wahrnehmbaren ’Inhalte’ des Denkens, die variieren, die ganz unterschiedlichen Wirkursachen zu verdanken sind, sondern auf die Fähigkeit, in diesem Wandel einen Bezugspunkt zu haben, relativ zu dem der Wandel überhaupt ’bewusst’ sein kann. Dass das ’Unbewusste’ sich ’auswirken’ kann – in seinen Auswirkungen dann sehr wohl bewusst’ –unterscheidet es nicht von jeder beliebigen anderen bewusst wahrnehmbaren Wirkung von irgendwelchen anderen Wirkursachen. Entscheidend ist vielmehr, dass der Mensch über jene Form von Bewusstsein verfügt, die die Andersartigkeit der Phänomene wie auch ihren Wandel ’bemerken’ kann. Diese formale Bewusstheit wird ergänzt um ein –weitgehend unbewusst arbeitendes – Gedächtnis (eine Funktion des Gehirns), das auf ’automatische’ (vom Gehirn vorgegebene) Weise den Strom der Phänomene selektiert, abstrahiert, assoziiert und vieles mehr. In diesem Zusammenspiel von ’Sich-Selbst-Bewusst-Sein-können‘ und der ’ordnenden Funktion’ des Gedächtnisses kann das sich seiner bewusste Subjekt den Strom der Phänomene (wodurch auch immer verursacht) soweit ’sortieren’, dass Muster, Regel erkennbar werden, die Zeitreihen erlauben, mittels denen das punktuelle Bewusstsein sich denkerisch in Räume und Zeiten hinein ausdehnen kann, die es selbst in einem komplexen Geschehen vorkommend erscheinen lassen.

Dass diese Bewusstheit samt Ordnungstätigkeit sich ’täuschen’ kann ist zwar bekannt, aber – wie wir heute wissen können – bis zu einem gewissen Grad ’ausgleichbar’, speziell dann, wenn die einzelnen Gehirne gelernt haben, ’im Verbund’ zu denken.

Auch der berühmte Unentscheidbarkeitsbeweis von Kurt Gödel (1931) [5] scheint hier fehl am Platz zu sein. Gödel bezieht sich nicht auf Phänomene des Bewusstseins sondern auf die Möglichkeit, die Eigenschaften eines formalen Systems (Anmerkung: Er benutzte das System der Arithmetik. ) formal so zu beschreiben, dass alle (=Vollständigkeit) wahren(=speziell ausgezeichnete) Aussagen dieses Systems formal ableitbar sind. Aufgrund der inhärenten Doppelstruktur eines solchen formalen Beweises von Objektsprache (das zu beschreibenden System) und Metasprache (die Sprache des Beweises), die dann die Objektsprache in der Metasprache nachvollziehen muss, kann es grundsätzlich keinen vollständigen Beweis geben. Dies liegt einfach an der Struktur eines solchen Beweises. Dieser beweistheoretische Sachverhalt, auf den Gödel in wunderbarer Weise hingewiesen hat (was später von Turing (1936/7) [6] auf eine andere Weise ebenfalls gezeigt worden ist), berührt die Überlegungen von Descartes in keiner Weise. Vielmehr ist der metalogische Beweis von Gödel (und auch von Turing (und von vielen anderen)) ein wunderbares Beispiel, wie die Struktur des Selbstbewusstseins im Zusammenspiel mit dem (denkenden) Gedächtnis gerade in der Lage ist, die Eigenschaften solcher formaler Systeme und der metalogischen Beweise nicht nur zu vollziehen, sondern sie auf eine Weise zu vollziehen, die dann andere Gehirne mit ihrem Bewusstsein nachvollziehen können.

Diese relative Struktur des Bewusstseins (und des zugehörigen Gehirns) ist genau die Stärke des menschlichen Denkens. Im Prinzip wissen wir im Augenblick nichts, aber in einem kontinuierlichen Prozess können wir immer mehr Strukturen aufbauen, die uns die Möglichkeit verschaffen, ’im Prinzip’ ’Alles’ wissen zu können. In diesem Zusammenhang hat die Menschheit gelernt, dass ihre Gehirne bei anwachsender Komplexität der äußeren Welt – die weitgehend vom Menschen mit verursacht ist – trotz aller Wunderbarkeit des Gehirns an physische, und damit endliche Grenzen, der Verarbeitung stößt. Glücklicherweise hat die Menschheit mittlerweile programmierbare Maschinen erfunden (die Computer), beherrscht ihre Vernetzung, so dass die menschlichen Gehirne ihre physischen Grenzen im Prinzip mittels dieser programmierbaren Maschinen wieder ein Stück überwinden könnten. Aktuell hat man aber den Eindruck, dass die Menschheit sich noch schwer tut, diese neue Technologie in maximal symbiotischer Weise konstruktiv einzusetzen.

4 QUELLEN

[1] T. Goernitz, Quanten Sind Anders: Die verborgene Einheit der Welt, 1st ed. Heidelberg: Spektrum Akademischer Verlag,2006.

[2] Spinoza, “Werke. Bd 1+2, lateinisch – deutsch,” Darmstadt, 1967.

[3] F. Decher, Handbuch der Philosophie des Geistes, 1st ed. Darmstadt: WBG Wissenschaftliche Buchgesellschaft, 2015.

[4] G. Leibniz, Monadologie und andere metaphysische Schriften, Französisch-Deutsch, 1st ed., J. Schneider, Ed. Hamburg:Felix Meiner Verlag, 2002.

[5] K. Goedel, “Über formal unentscheidbare Saetze der principia mathematica und verwandter Systeme, I,” Monatshefte fuer Mathematik und Physik, vol. 38, pp. 173–98, 1931.

[6] A. M. Turing, “On computable numbers, with an application to the Entscheidungsproblem,” Proceedings of the London Mathematical Society, vol. 42, no. 2, p. 230–265, 1936-7.

KONTEXT BLOG

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER

Die Wiederentdeckung Gottes auf dem Planeten Erde für alle denkbaren Universen. Essay. Teil 3

PDF

ÜBERBLICK

Voraus ging ein anderer  Beitrag, siehe HIER.

Im Folgenden weitere Aspekte zur Wiederentdeckung Gottes auf dem Planet Erde … Wir sind da. Die Dinge sind da. Wir selbst sind ein ‚Ding‘. Raum und Zeit. Konservierte Zeit.

WAS DA IST

Naturgesetz im Alltag

  1. Wenn etwas, was da ist, so da ist, weil es nach unserem Verständnis einem ‚Naturgesetz‘ folgt, dann ist es nach unserem alltäglichen Verständnis erzwungener Maßen da, notwendigerweise, deterministisch. Bei gleichen Voraussetzungen würde es immer genau so sich wiederholen. Der berühmte Apfel löst sich aus dem Baum, fällt ’nach unten‘ und bleibt liegen.

Gegenstand im Raum

  1. Und es ist auch wahr, dass in unserem alltäglichem Erleben der Apfel nicht isoliert vorkommt sondern als abgrenzbares Etwas in dem, was wir ‚Raum‘ nennen; an derselben Stelle, an der sich der Apfel befindet, kann kein zweiter Apfel sein, und der Apfel hat eine ‚Umgebung‘, die wir hemdsärmelig mit ‚Oben‘, ‚Unten‘, ‚links‘, ‚rechts‘, ‚vorne‘ und ‚hinten‘ usw. beschreiben. In unserem alltäglichen Raum fällt der Apfel immer nach ‚unten‘, nie nach ‚oben‘.
  2. Auf den Apfel können wir als Gegenstand, als Objekt hinweisen, ihn abgrenzen von seiner Umgebung; auf den Raum können wir nicht direkt hinweisen; der Raum ist kein Objekt wie der Apfel. Der Raum ist wie eine Art ‚Behälter‘ aber ohne Begrenzung. Für uns erscheint der Raum in der alltäglichen Erfahrung quasi ‚unendlich‘. Wir sprechen über den Raum relativ durch Bezug über das, was ‚in dem Raum‘ vorkommt. Wir kennen ‚Objekte‘ nur als ‚in einem Raum vorkommend‘. Die Erfahrung von Objekten und Raum ist simultan.
  3. Was ist, wenn jemand blind ist, absolut nichts sieht? Ist der Raum dann weg?
  4. Wenn wir unsere Augen schließen können wir (im Normalfall (was ist ’normal?)) mit unseren Händen Oberflächen spüren, denen wir durch Bewegung unserer Finger, Hände, Arme, eventuell auch des Körpers, folgen können. Die Bewegung unseres Körpers verändern die jeweilige ‚Stellung‘ von Körperteilen, Muskeln, Knochen… Diese ‚Stellungen‘ sind subjektiv, sie spiegeln sich ‚in uns selbst‘ wieder; wir können sie im Erleben unterscheiden. ‚In uns‘ versammeln wir alle diese Erlebnisse unterschiedlicher Stellungen und können sie ‚in Beziehung‘ setzen: wenn das Objekt selbst sich nicht verändert, dann sind diese Stellungen nicht beliebig. Das Verhältnis der verschiedenen erlebbaren Stellungen bildet ein Beziehungsgeflecht, das man auch als ‚räumlich‘ interpretieren kann, das dann auch ein ‚oben‘, ‚unten‘, ‚links‘ und ‚rechts‘ usw. zulässt. Die unterschiedlichen Stellungen markieren dann in diesem Beziehungsgeflecht eine ‚Position‘. Mit anderen Worten: auch ohne Sehen, nur mit unseren körperlichen Bewegungen zusammen mit den Tastempfindungen ist unser Erleben von etwas anderem, von Gegenständen, von Objekten, mit der ‚Vorstellung eines Raumes‘ verbunden.
  5. Wenn wir ‚Sehen‘ und ‚Tasten‘ können, dann lässt sich der ‚Seh-Raum‘ und der ‚Tast-Raum‘ miteinander in Beziehung setzen.

Wir sind auch ein Objekt

  1. Eine Besonderheit ist, dass wir in beiden Räumen ‚uns selbst‘, ‚unseren Körper‘ als Teil des Raumes, als Gegenstand neben anderen Gegenständen erleben können. Wir erleben uns als Gegenstand, als Objekt in einem ‚Raum‘ von vielen Objekten. Die Gegenstände erscheinen als ‚endlich‘, der Raum als ‚unendlich‘.

Sprache kann verbinden

  1. Wenn wir weder sehen noch tasten können, wird es schwierig. Mir persönlich versagt da die Vorstellung, und unsere Sprache verliert den Weltbezug, den sie braucht, um zwischen verschiedenen Menschen zu funktionieren. Was immer ein einzelner Mensch ‚in sich‘ erlebt, sofern jeder Mensch als Objekt in einem Raum von Objekten vorkommt, den er mit einem anderen Menschen teilt, so lange kann er mittels der Sprache ein gemeinsames Bezugssystem aufspannen, innerhalb dessen er sich selbst und sein Erleben ‚verorten‘ kann.

Zeit subjektiv

  1. Die Situation des fallenden Apfels lässt aber noch mehr erkennen. Es ist nicht nur ein ‚Raum‘, der sich mit dem Apfel zum Erleben bringt, es ist auch etwas, das wir ‚Zeit‘ nennen.
  2. Wie selbstverständlich sagen wir im Alltag, dass der Apfel ‚zuerst‘ am Baum war, und ‚dann‘, ’später‘ auf dem Boden lag. Wir verfügen (als Menschen) über die Fähigkeit, nicht nur den ‚jeweiligen Augenblick‘ erleben zu können, sondern wir können auch ‚vergangene Augenblicke erinnern‘, weil wir uns Erlebnisse ‚merken‘ können (nicht unbedingt 1-zu-1), und weil wir ‚vergangene Augenblicke‘ erinnern können, können wir zwischen einem ‚aktuellen Augenblick‘ und einem ‚erinnerten Augenblick‘ vergleichen. Im aktuellen Augenblick liegt der Apfel z.B. auf dem Boden, wir können aber erinnern, dass es einen Augenblick gab, da war der Apfel noch am Baum, also ‚vorher‘ an einer anderen Position im Raum als ‚jetzt‘.

Konservierte Zeit

  1. Diese Unterscheidung von ‚vorher‘ und ’nachher‘ relativ zu einem ‚jetzt‘ können wir erleben, weil wir erinnern können. In der Welt des Raumes für sich, ohne das menschliche Erleben, gibt es nur ein Jetzt! Die Raumwelt ist reine Gegenwart, allerdings, wenn man die Gegenwart der Raumwelt ‚lesen‘ kann, dann kann man in der Gegenwart der Raumwelt ‚Hinweise‘ finden, ‚Indizien‘, die auf eine ‚andere (vorausgehende) Gegenwart‘ hindeuten können. In der Gegenwart des Raumes ist die Zeit des Entstehens quasi ‚konserviert‘, ‚eingefroren‘, ‚eingebrannt‘ in die Welt. Die Raumwelt enthält ihre ‚Geschichte‘ quasi ‚in sich selbst‘, ‚an sich‘.
  2. Am Beispiel des fallenden Apfels ‚lernt‘ schon jedes Kind, dass Äpfel, die am Boden liegen, vorher am Baum hingen und dann irgendwann herunter fallen. Wenn also ein Kind einen Apfel liegen sieht, erinnert es sich an die ‚Regel‘ die es gelernt hat, und schließt vom Apfel am Boden mittels dieser Regel darauf, dass es ‚vorher‘ einen Zustand gegeben hat, bei dem der Apfel am Baum war. Mit der gelernten Regel wird der Apfel am Boden zu einem Anzeichen, einem Hinweis, einem Indiz, dass es vorher einen anderen Zustand gegeben hat.
  3. Es war eine große Sternstunde der menschlichen Wissenschaft, als die Geologen — wie jedes Kind — lernten, in der Gegenwart der Erde ‚Spuren‘, ‚Hinweise‘, ‚Indizien‘ zu entdecken, die darauf hindeuteten, dass aktuelle Erdschichten ‚Ablagerungen‘ sind aus vorausgehenden Zeiten, und dass diese Ablagerungen mit ihren spezifischen Eigenschaften Hinweise enthalten auf die Besonderheiten dieser vorausgehenden Zeiten.
  4. So konnten die Geologen durch Vulkane der Gegenwart lernen, wie ihre Ablagerungen aussehen, und dadurch auf Vulkane der Vergangenheit schließen. Durch die Meere der Gegenwart konnte man auf Meere der Vergangenheit schließen, die oft da waren, wo heute Land ist oder gar Wüste. Und sie entdeckten, dass die heutigen Kontinente in Bewegung sind; dass sie vor vielen Millionen Jahren anders angeordnet waren. Dass sich das Klima im Laufe von vielen Milliarden Jahren mehrfach dramatisch geändert hatte; es gab allein in den letzten 2.5 Millionen Jahren abwechselnd 50 Kalt- und Warmzeiten, und insgesamt gab es viele große Eiszeiten mit Dauern von Millionen von Jahren. Dabei schwankte die ‚Höhe‘ des Meeresspiegels um viele hundert Meter. Und vieles mehr.
  5. Parallel zu den Geologen konnten dann auch die Biologen die Funde aus den verschiedenen Ablagerungen verschiedenen Zeiten zuordnen und so schrittweise entdecken, dass die Formen des Lebens sich seit mindestens 3.5 Milliarden Jahre beständig verändert haben. Von unfassbar klein und vielfältig bis immer komplexer, mit großen dramatischen Einbrüchen bedingt durch dramatische Veränderungen der Geologie und des Klimas (Supervulkanausbrüche, Asteroideneinfall auf der Erdoberfläche, lange Eiszeiten, Trockenheiten, …). Seit kurzem können die Biologen auch über die Struktur der Zellen und Moleküle Beziehungen zwischen den verschiedenen Lebensformen über ihre direkte biologische Abstammung aufgrund ihrer ‚Baupläne‘ untersuchen; vorher waren sie allein auf den Körperbau und das Aussehen (den Phänotyp) angewiesen.
  6. Und noch mehr. Parallel zu Geologie und Biologie haben auch die Physiker entdeckt, dass es in der Gegenwart des physikalischen Universums Hinweise auf eine mögliche Vergangenheit gibt. Und, wie so oft, wenn erst einmal eine Entdeckung gemacht wird, zieht diese viele weitere nach sich. Schrittweise konnte man rekonstruieren, dass das Universum sich immer noch ausdehnt, von daher zurück verweist auf einen physikalischen Anfangspunkt, den man ‚Big Bang‘ nannte, von dem aus sich Energie in Teilchen verwandelte, Atome, Moleküle, dazu gigantische Gaswolken, Sternenbildung, Bildung von Galaxien und Superclustern, Neuwerdung von Sternen, aber auch das Sterben von Sternen, Verschmelzung von Galaxien, und vieles mehr.
  7. Zu beachten ist hier, dass die subjektive Zeit des Erlebens und die Zeit der Physik zwei verschiedene Sachverhalte bezeichnen.

Technische Zeit: Uhren

  1. Die subjektive Zeit des Erlebens basiert auf der Erinnerung von vorausgehenden Augenblicken und erlaubt durch Vergleich von aktuellem Jetzt und erinnertem Jetzt eine ‚relative‘ Bestimmung von ‚Vorher‘ und ‚Nachher‘. Dieses ‚Vorher-Nachher‘ lässt sich mit konkreten Objekten und deren Eigenschaften verknüpfen, z.B. auch mit periodischen Vorgängen in unserem Erlebnisraum wie ‚Wachen – Schlafen‘, ‚Tag und Nacht‘, ‚Jahreszeiten‘ oder auch Vorrichtungen zur künstlichen Erzeugung von periodischen Ereignissen, die wir ‚Uhren‘ nennen.
  2. In der Physik gibt es kein ’subjektives Erleben‘ (nur indirekt, über das Erleben der Physiker, das aber ausgeklammert werden soll). Wenn die Physik von ‚Zeit‘ spricht, dann nur als ein theoretischer Begriff innerhalb einer formalen Theorie, die sich mit einer definierten Messprozedur zur empirischen Welt in Beziehung setzen lässt. Und hier gibt es in der Physik mindestens zwei Szenarien.
  3. In dem einen Szenario hat die Physik z.B. die Zeitdauer von ‚1 Sekunde‘ an Eigenschaften einer technischen Vorrichtung gekoppelt, die man ‚Atomuhr‘ nennt. Innerhalb eines bestimmten Genauigkeitsgrades sind alle Atomuhren ‚gleich‘ (andererseits, wenn eine Atomuhr in Nordamerika steht, eine andere in Europa, wieder eine andere in Asien, usw., dann erfordert die Abstimmung der ‚Gleichzeitigkeit‘ eine Kommunikation zwischen den Betreibern der Atomuhren. Diese Kommunikation erfolgt mittels elektromagnetischer Wellen durch die Atmosphäre. Diese Kommunikation ist um Dimensionen langsamer und ungenauer als die Atomuhren selbst. Dennoch sprechen die zuständigen ‚Behörden für die Zeit‘ (meistens die nationalen metrologischen Institute) von einer gleichen Zeit. (Es ist eine interessante Aufgabe, zu verstehen, wie dies möglich ist). Ferner ist zu beachten, dass der Alltag der Menschen primär natürlich nicht von den Atomuhren bestimmt wird, sondern von den Tag-Nacht Perioden und den Jahreszeiten, auf die auch alle Kalender aufbauen. Die Physik muss also ihre Atomuhren-Zeit mit den Erdzeiten abgleichen. Da die Erdzeiten nicht vollständig exakt zu der Atomzeit passen, müssen immer wieder ‚Zeit-Ausgleiche‘ vorgenommen werden. Im Alltag haben wir die Kalender und unsere ‚Normaluhren‘, hinter der Oberfläche haben wir aber eine exakte Atomzeit, die den Physikern hilft, die Zeit des Alltags immer wieder auszutarieren.

Die Zeit des Lichts

  1. Mitten in einem schier unendlich erscheinenden Universums wird das Beobachten zu einem Problem: wenn alles in Bewegung ist, wo ist der gemeinsame, stabile Bezugspunkt? Im Alltag setzen wir voraus, dass die Situation, das Land, die Erde ’stabil‘ genug ist, so dass wir diese Umgebung als gemeinsamen Bezugspunkt benutzen können (Landkarten, Navis, …). Im Universum gibt es aber keinen festen Punkt; alles bewegt sich, auch der Beobachter auf der Erde, die sich um sich selbst dreht, die sich zur Sonne hin unterschiedlich neigt, die sich um die Sonne bewegt, und der Beobachter bewegt sich auf der Erde, vielleicht fliegt er mit einem Flugzeug, einem Raumschiff … Woran soll man sich hier noch festmachen?
  2. Glücklicherweise konnten die Physiker herausfinden, dass das Licht eine konstante Geschwindigkeit c hat (siehe: \url{https://de.wikipedia.org/wiki/Lichtgeschwindigkeit}). Je nach dem umgebenden Medium kann sich diese zwar verringern, aber man kann für jedes Medium ermitteln, wie stark das Licht verlangsamt wird, so dass man am Ende heraus rechnen kann, wie schnell das Licht unterwegs war und ist. Mit diesem Wissen kann man unter Berücksichtigung der verschiedenen Beobachter dann Entfernungen fixieren und eine Gleichzeitigkeit ermitteln. Im mathematischen Konzept der Raum-Zeit hat Einstein diesen Überlegungen mit seiner speziellen Relativitätstheorie (SRT) einen konzeptuellen Rahmen gegeben.
  3. Wie schon angemerkt, kann die Umgebung des Lichts dessen Geschwindigkeit verändern. Eine besondere Beeinflussung geschieht auch durch die sogenannte ‚Gravitation‘, die durch die Masse der Körper aufeinander stattfindet. Die Gravitation kann den Weg des Lichts im Raum beeinflussen, indem es dieses ‚ablenkt‘. Das Licht breitet sich dann nicht ‚gerade‘ aus, sondern wird ‚gebogen‘. Für einen Beobachter bewirkt dies, dass er die Lichtquelle (ein Stern) mit einer anderen Form/ Gestalt wahrnimmt, als sie tatsächlich hat. Um diese besondere Wirkung der Gravitation berücksichtigen zu können hat Einstein dann den begrifflichen Rahmen der speziellen Relativitätstheorie zur allgemeinen Relativitätstheorie (ART) erweitert.  Das Konzept der Raum-Zeit wurde durch den Aspekt der Raum-Zeit-Krümmung erweitert, d.h. man gab dem physikalischen Phänomen der Beeinflussung der Lichtbahn durch die Gravitation eine mathematische Deutung als ‚Krümmung‘ in einem geometrischen Modell.
  4. Obwohl mit der speziellen wie mit der allgemeinen Relativitätstheorie bislang sehr viele physikalische Phänomene ‚erklärt‘ werden konnten, indem man sagen konnte, dass das B, was man im aktuellen Augenblick beobachten kann, von einem vorausgehenden A kommt, und der Weg von A nach B durch die spezielle oder der allgemeinen Relativitätstheorie beschrieben werden kann, herrscht in der Physik die Überzeugung, dass man noch nicht am Ende der theoretischen Erklärungen angekommen sei, da eine Vereinigung der Quantenphysik und der allgemeinen Relativitätstheorie noch ausstehe.

UND WIR?

  1. Wenn man den Gesprächen der Physiker lauscht, dann kann man ergriffen werden von einem großen Wundern und Staunen über dieses Universum, seinen unfassbaren Dimensionen, die uns umgeben. Zugleich kann es auch nieder schmettern, das Gefühl einer tiefen Verlorenheit erzeugen, wir, auf dieser Erde, so winzig in einer Galaxie, diese so winzig in einem Meer von Galaxien, alles auseinander fliegend … und man selbst so klein, so endlich in der Zeit. Was sind schon 100 Jahre Lebenszeit angesichts dieser Millionen, ja Milliarden von Jahren?

Fortsetzung folgt.

Pausenmusik 🙂

KONTEXT BLOG

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER

ONTOLOGIE DES BEWUSSTSEINS – Nachbemerkung zu Craik

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 29.Juli 2017
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

PDF

Übersicht
Craik führt in seinem Buch eine breit angelegte Diskussion im Spannungsfeld von Philosophie, Psychologie, Physiologie, Physik und Technik, die einige Hauptthemen erkennen lässt: ein Plädoyer für ein kausales Verständnis der realen Welt, für die Rekonstruktion von Bewusstsein durch Rückgriff auf das Nervensystem, für die zentrale Rolle mentaler Modelle, sowie für die wichtige Rolle von Sprache in allem Erklären. Dies gibt Anlass, den ontologischen Status des Bewusstseins nochmals zu präzisieren.

I. KONTEXT

In einem vorausgehenden Blogeintrag hatte ich kurz einige der Hauptthemen aus dem Buch ’The Nature of Explanation’ (1943) von Craig vorgestellt und kurz kommentiert. In diesem Buch weist Craik zurecht darauf hin, dass eine Erklärung der geistigen/ mentalen/ kognitiven Phänomene des Menschen ohne Rückgriff auf das ermöglichende Gehirn unvollständig sind. Eine introspektive Beschreibung solcher Phänomene beschreibt die Oberfläche dieser Phänomene, wenn sie gut gemacht ist, auch noch deren Dynamik, aber sie kann sie nicht wirklich erklären, da derjenige Kontext, der kausal für diese Phänomene verantwortlich zu sein scheint (harte Beweise gibt es nicht, siehe weiter unten), das menschliche Gehirn, in solch einer phänomenalen Beschreibung nicht berücksichtigt wird (bisher nicht!).

Dieser überdeutliche Hinweis seitens Craig wird durch vielfache Überlegungen untermauert. Was aber fehlt ist ein klares Konzept, wie denn eine philosophisch-wissenschaftliche Beschreibung des Sachverhalts methodisch vorgenommen werden müsste, um allen Aspekten Rechnung zu tragen. Obwohl Craig alle wesentlich beteiligten Disziplinen explizit nennt (Philosophie, Psychologie, Physiologie, Physik) und er sich in diesen Bereichen gut auskennt, lässt er das genaue Verhältnis dieser Disziplinen zueinander offen.

II. MULTIPLE SICHTEN

Multiple Sichten auf den Menschen und sein Umfeld
Multiple Sichten auf den Menschen und sein Umfeld

1) Vielleicht kann es in dieser Situation helfen, sich bewusst zu machen, welch Faktoren in dieser Erkenntnissituation beteiligt sind und wie diese (grob) aufeinander bezogen sind.
2) Im Schaubild 1 sind diese Faktoren angedeutet. Die Perspektive, aus der heraus dieses Bild entstanden ist, ist zunächst die der empirischen Wissenschaften, dann ergänzt um eine introspektive Perspektive.
3) Die Physik erzählt uns die Geschichte vom Universum, seiner Entstehung seit dem Big-Bang Ereignis, seiner Struktur, die u.a. unsere Heimatgalaxie, die Milchstraße, enthält. Innerhalb der Milchstraße gibt es u.a. unser Sonnensystem mit der Erde, unserem Heimatplaneten. Die Biologie erzählt uns die Geschichte von der Entstehung des biologischen Lebens auf der Erde, die Entwicklung all der unzähligen Arten (von denen die meisten wieder ausgestorben sind), bis hin zum homo sapiens, den wir repräsentieren.
4) Um den Menschen herum gibt es zahllose wissenschaftliche Disziplinen, die unterschiedliche Aspekte des homo sapiens untersuchen. Die Physiologie hat uns darüber belehrt, dass der menschliche Körper mit all seinen komplexen Organen letztlich aus einzelnen Zellen besteht, die auf unterschiedliche Weise im Körper als Zellverbände kooperieren und dabei kommunizieren.
5) Was man bei der Betrachtung der beeindruckenden Gesamtleistung aber niemals vergessen darf, ist, dass alle Zellen zu jedem Zeitpunkt aus Molekülen bestehen, diese wiederum aus Atomen, diese wiederum aus sub-atomaren Teilchen. Jede dieser identifizierbaren Einheiten folgt eigenen, spezifischen Gesetzen des Verhaltens.
Diese Verhaltensweisen sind so spezifisch, dass es sinnvoll ist, hier entsprechend den jeweiligen Einheiten von unterschiedlichen Organisationsebenen zu sprechen, mit steigender Komplexität.
6) Diese Unterscheidung nach Organisationsebenen (denen unterschiedliche Komplexitätsebenen entsprechen), ist hilfreich, wenn man die Interaktion zwischen allen Einheiten betrachtet. Das Herz z.B. ist in einer Hinsicht eine ’Pumpe’, die das Blut durch die Adern pumpt. Es ist über Zellen auch mit dem Gehirn verbunden, das den Zustand des Herzens ’kontrolliert’ und durch elektrische-chemische Impulse beeinflussen kann. Die einzelnen Zellen, die den Zellverband ’Herz’ bilden, sind ferner für sich genommen individuelle, autonome Systeme, die untereinander durch Stoffwechselprozesse (Energieversorgung, …) verbunden sind, die absterben und durch  neue ersetzt werden, und vieles mehr. Je nach Zustand der Umgebung einer Zelle, welche Moleküle, Atome dort vorkommen, kann dies auch die Zelle stören, zerstören. Die Zelle kann auch selbst Störungen aufweisen.
7) Insofern alle Moleküle auch Atome sind mit subatomaren Einheiten, unterliegen diese Atome jederzeit den unterschiedlichen Wechselwirkungen, die zwischen Atomen und subatomaren Einheiten im gesamten Universum möglich sind. Wie die Physik uns heute erzählen kann, gibt es hier vielfältige Wechselwirkungen im quanten-mechanischen Bereich, die über den Bereich eines einzelnen menschlichen Körpers weit hinausgehen, die bis in die Dimension der Milchstraße reichen.
8) Dies alles gilt natürlich auch für den Zellverband, der unser Nervensystem mit dem Gehirn bildet. Das Gehirn ist Teil des Gesamtkörpers; es liegt im Körper. Das Gehirn, so erzählen die Gehirnforscher heute, hat trotz der Flexibilität, Plastizität seiner Zellen in sich eine Struktur, die unterschiedliche funktionelle Einheiten abgrenzen lässt, die sowohl in sich wie auch miteinander sowohl über elektro-chemische Weise kommunizieren wie auch nur chemisch. Dabei werden die quantenmechanischen Wechselbeziehungen normalerweise nicht berücksichtigt.
9) Lässt man die quantenmechanischen Wechselbeziehungen außen vor, dann kann das Gehirn mit der Umgebung des Körpers nur über Zellen kommunizieren, die elektro-chemische oder chemische Signale austauschen. Dazu gibt es spezielle Sinneszellen, die externe Energieereignisse in interne neuronale Energieereignisse übersetzen, und diese dann auf unterschiedliche Weise von Zelle zu Zelle weiter reichen. Dieser Prozess ist niemals 1-zu-1 sondern bringt mehrfache Transformationen und Abstraktionen mit sich. In der Regel werden zudem nicht Signale von einzelnen Sinneszellen benutzt, sondern meistens viele Hunderte, Tausend, Hunderttausende oder gar Millionen gleichzeitig und parallel. Diese werden auf unterschiedliche Weise miteinander verrechnet. Wie das Gehirn es schafft, ohne direkten Kontakt mit der externen Welt aus diesen vielen Abermillionen gleichzeitigen Einzelsignalen brauchbare Muster, Zusammenhänge und Abläufe zu extrahieren und damit ein komplexes Verhalten zu steuern, das enthüllt sich nur langsam.
10) Aus empirischer Sicht ist die Geschichte hier zu Ende. Im Schaubild 1 gibt es aber noch die Größe Bewusstsein. Wie kommt die ins Spiel?

III. BEWUSSTSEIN

1) Aus empirischer Sicht (Physiologie, Gehirnforschung, Biologie, Physik, Chemie, Molekularbiologie, Genetik, empirische Psychologie,…) kann man die Zellen, Zellverbände, ihre Eigenschaften beobachten, messen, und das Verhalten dieser Einheiten auf der Basis dieser Messwerte beschreiben, auch mit kausalen Beziehungen, zunehmend auch mit partiellen Modellen. Dabei wurden und werden zahlreiche interessante Wechselbeziehungen aufgedeckt z.B. zwischen Zellen und deren Molekülen, gar Atomen. In dieser Perspektive gibt es aber keinerlei Phänomene, die irgendetwas mit dem sogenannten Bewusstsein zu tun haben. In einer empirischen Perspektive gibt es prinzipiell keinerlei Möglichkeiten, bewusstseinsrelevante Phänomene zu beobachten und zu beschreiben.
2) Selbst die moderne empirische Psychologie ist methodisch beschränkt auf messbare Sachverhalte, die sie letztlich nur im Bereich des beobachtbaren Verhaltens finden kann, neuerdings erweiterbar mit physiologischen Daten, sodass man in einer neuro-psychologischen Vorgehensweise beobachtbare Verhaltensdaten mit Körperdaten und speziell Gehirndaten in Beziehung setzen kann. Dies hat zu einer erheblichen Ausweitung der möglichen Erklärungsleistung geführt. Aber auch in der Perspektive einer Neuro-Psychologie gibt es streng genommen keinerlei Phänomene, die man als bewusstseins-relevant bezeichnen könnte.
3) Wissenschaftstheoretisch (andere sprechen von Wissenschaftsphilosophisch) beschränkt sich der Begriff Bewusstsein auf eine spezielle Form von Innensicht des Gehirns, wie wir sie bislang explizit nur von Exemplaren des homo sapiens kennen, da dieser mittels des Werkzeugs symbolische Sprache Aussagen, Beschreibungen
liefern kann, die indirekt Zeugnis geben von Sachverhalten, die sich auf diese Innensicht des Gehirns beziehen. Die Innensicht des Gehirns ist einer empirischen Beobachtung nicht direkt zugänglich (auch wenn man in zahllosen neuro-psychologischen Abhandlungen immer wieder das Wort ’Bewusstsein’ findet, auch z.B, in der Wortschöpfung ’neuronales Korrelat des Bewusstseins’; wissenschaftsphilosophisch ist dies Unsinn; es kann aber möglicherweise einen gewissen ’heuristischen’ Wert innerhalb wissenschaftlicher Untersuchungen haben.)
4) Dass wir überhaupt von Bewusstsein sprechen liegt daran, dass alle Exemplare des homo sapiens (und vermutlich nahezu alle biologischen Systeme) über diese bemerkenswerte Fähigkeit einer Innensicht des Gehirns verfügen, die die Betroffenen mit einem kontinuierlichen Strom von Ereignissen versorgt. Um diese Ereignisse aus der Innensicht des Gehirns von den Ereignissen der empirischen Wissenschaften abzugrenzen, sprechen die Philosophen spätestens seit dem Philosophen Edmund Husserl (1859 – 1938) von phänomenalen Ereignissen statt einfach von Ereignissen. Dies hat damit zu tun, dass Edmund Husserl und alle weiteren Anhänger einer bewusstseinsbasierten Philosophie die Ereignisse in der Innensicht des Gehirns generell als Phänomene (Ph) bezeichnet haben.
5) Da jeder Mensch qua Mensch im normalen Erkenntniszustand sich primär im Modus der Innensicht des Gehirns befindet (was anderes hat er auch gar nicht zur Verfügung) hat er zwar direkten Zugang zu den Phänomenen seines Erlebnisstroms, aber er hat nahezu keine Möglichkeit, den Begriff ’Bewusstsein’ intersubjektiv, objektiv zu definieren. Der einzelne Mensch hat zwar Zugang zu seinen Phänomenen, aber eben nur zu seinen; das gilt für jeden Menschen in gleicher Weise. Sofern verschiedene Menschen eine gemeinsame Sprache sprechen und in dieser Sprache z.B. den Begriff ’Bewusstsein’ einführen, können sie die Wortmarke ’Bewusstsein’ zwar untereinander vorstellen, sie können aber niemals ein intersubjektives Objekt aufzeigen, auf das sich die Wortmarke ’Bewusstsein’ beziehen könnte. Nach zehntausenden Jahren von menschlicher Existenz (wissenschaftlich gibt es den homo sapiens ca. 200.000 Jahre) gibt es so etwas wie ein explizites Sprechen mit dem Begriff ’Bewusstsein’ vielleicht 400 – 500 Jahre, höchstens. Ausführlich und systematisch vielleicht erst seit ca. 150 Jahren. Und bis heute erwecken die vielen Sprachspiele, in denen die Wortmarke ’Bewusstsein’ vorkommt, nicht den Eindruck, als ob allen Beteiligten so richtig klar ist, was sie da tun.

IV. SUBJEKTIV – EMPIRISCH

1) Die Tatsache, dass Menschen sich zunächst und primär im Modus der Innensicht des Gehirns vorfinden, ist einerseits – biologisch – normal, da sich explizite und leistungsfähige Nervensysteme und Gehirne erst relativ spät entwickelt haben, aber dann für die biologischen Systeme, die darüber verfügen konnten, zu einer der wertvollsten Eigenschaften des Überlebens und dann auch überhaupt Lebens auf der Erde wurden.
Jedes biologische System bekommt durch die Innensicht seines Gehirns eine Reihe von wertvollen (allerdings meist hochkomplexe) Informationen, mittels deren es seine aktuelle Situation, seine Geschichte, und seine mögliche Zukunft immer besser ausrechnen kann. Beim homo sapiens kommt dazu eine spezielle Kommunikationsfähigkeit hinzu. Gerade die besonderen Eigenschaften des Nervensystems beim Menschen haben dem homo sapiens eine gigantische Überlegenheit über nahezu alle anderen biologischen Systeme gegeben. Für den homo sapiens ist dies eine Erfolgsgeschichte, nicht für die anderen Arten, die der homo sapiens entweder ausgerottet oder stark dezimiert hat oder für seine Zwecke brutal knechtet.
2) Durch die immense Zunahme der Population des homo sapiens aufgrund seiner immer verfeinerten Technik und Kultur gab es, beginnend vor ca. 2500 bis 3000 Jahren und dann andauernd bis ca. vor 500 Jahren (letztlich andauernd bis heute) immer größere Konflikte mit dem Reden über die Welt. Der Reichtum der Phänomene in der Innensicht des Gehirns ermöglicht in Kombination mit der symbolischen Sprache immer komplexere Beschreibungen von phänomenal möglichen Sachverhalten, denen aber nicht notwendigerweise etwas in der (empirischen, objektiven, intersubjektiven) Außenwelt entsprechen musste. Das menschliche Gehirn kann in der Innensicht mühelos abstrakt-virtuelle Strukturen erzeugen, denen direkt nichts in der Außenwelt entsprechen muss. Dies kann zu Verwirrungen führen, zu Fehlern, Katastrophen (man denke z.B. an die vorwissenschaftliche Medizin oder Physik oder …).
3) An diesem – in gewisser Weise ’natürlichem’ – Kulminationspunkt von denkerisch-sprachlicher Blütezeit und Diskrepanz zwischen gedachten Bedeutungen und empirisch, realer Bedeutung entdeckten immer mehr Menschen, dass eine Unterscheidung der menschlichen Rede in jene Redewendungen, die sich auf reale Aspekte der Welt beziehen, und jene, die ’anders’ sind, von hohem praktischen Nutzen wäre. Die Idee einer empirischen (wissenschaftlichen) Sprache wurde geboren: empirisch wissenschaftlich sollten fortan nur noch jene Redewendungen gelten, die sich auf Gegebenheiten der realen Außenwelt beziehen lassen. Und damit dies
intersubjektiv, objektiv zweifelsfrei sei, wurde zusätzlich postuliert, dass sich diese Gegebenheiten nach einem vereinbarten Vergleichsverfahren mit einem vereinbarten Standard wissenschaftlich messen lassen. Nur solche Aussagen sollten künftig als wissenschaftlich relevante Fakten/ Daten akzeptiert werden.
4) Damit gab es nun zwar wissenschaftliche Fakten, aber es war nicht verbindlich geklärt, in welcher Form man diese Fakten dann zu komplexeren Aussagen über Beziehungen, Beziehungsnetzwerken (Modelle, Theorien) nutzen könnte. Faktisch benutzen die meisten mathematische Formeln zur abstrakten Beschreibung von empirischen Sachverhalten, die dann durch die empirischen Fakten fundiert wurden. Was genau aber eine wissenschaftliche empirische Theorie ist, dies wurde bis in die Gegenwart nicht restlos geklärt (trotz Wissenschaftstheorie oder Philosophy of Science. Noch heute kann man in jeder sogenannten wissenschaftlichen Zeitschrift Artikel finden, in denen die Autoren sichtlich keine Vorstellung haben, was letztlich eine wissenschaftlich empirische Theorie ist!)
5) Ein negativer (wenngleich unnötiger) Nebeneffekt der Entstehung wissenschaftlich empirischer Redeformen war die (zunächst sinnvolle) Abgrenzung gegenüber den nicht-wissenschaftlichen Redeformen, die dann aber im weiteren Verlauf zu einer Aufspaltung des Denkens in wissenschaftlich und nicht wissenschaftlich führte mit dem besonderen Akzent, dass das nicht-wissenschaftliche Reden (von den empirischen Wissenschaftlern) grundsätzlich negativ belegt wurde. Aufgrund der historischen Lebensformen, Machtausübungen, Unterdrückungen kann man diese stark abgrenzende Haltung der Wissenschaft gegenüber den nicht wissenschaftlichen Redeformen aus der Vergangenheit verstehen. Heute dagegen wirkt diese Abgrenzung mehr und mehr kontra-produktiv.
6) Man sollte sich immer wieder bewusst machen, dass die Erfindung der empirischen Redeformen durch Verknüpfung des Redens mit definierten Vergleichsverfahren im intersubjektiven Bereich die grundsätzliche Ausgangssituation des Erkennens nicht verändert hat. Auch ein empirischer Wissenschaftler lebt primär mit dem Ereignisstrom in der Innensicht des Gehirns. Da kommt er trotz Einführung der Verknüpfung mit Messverfahren auch nicht heraus. Man kann sich dies so veranschaulichen: Ausgangspunkt für jeden Menschen ist die Menge seiner phänomenalen Ereignisse (Ph) in der Innensicht. Diese differenziert sich in aktuelle sinnliche (externe wie interne) Wahrnehmung vermischt mit den aktuell verfügbaren Gedächtnisinhalten, die diese Wahrnehmungen automatisch interpretieren. Diejenigen Phänomene, die mit intersubjektiven Messverfahren korrespondieren, bleiben trotzdem Ereignisse in der Innensicht des Gehirns; nennen wir sie Ph_emp . Als Phänomene bilden sie
dann eine Teilmenge von allen Phänomenen (Ph), also Ph_emp ⊆ Ph. Der empirische Wissenschaftler steigt also nicht grundsätzlich aus dem Club der Phänomenologen aus, sondern er folgt einer methodisch motivierten Beschränkung, wann und wie er wissenschaftlich über die empirische Welt spricht.
7) Auch in dieser Betrachtungsweise wird nochmals klar, dass eine wissenschaftliche Definition eines Begriffs ’Bewusstsein’ niemals möglich sein wird, da es grundsätzlich keine intersubjektiven Messverfahren geben kann.
8) Allerdings sollte durch diese Überlegungen auch klar werden, dass eine grundsätzliche Ausklammerung einer Beschäftigung mit der Innensicht des Gehirns und des möglichen Wechselspiels zwischen phänomenalen und empirisch-phänomenalen Ereignissen von allerhöchstem Interesse sein sollte. Denn das Gesamtphänomen Innensicht des Gehirns ist eines der erstaunlichsten Phänomene im gesamten bekannten Universum und es wäre eine Bankrotterklärung jeglichen menschlichen Erkenntnisstrebens, würde man sich dem Phänomen verschließen, nur weil die bisher vereinbarten wissenschaftlichen Redeformen dieses Phänomen ausschließen. Wissenschaft muss nicht notwendigerweise bei den empirischen Sachverhalten enden.

 KONTEXTE

Frühe Überlegungen zu diesem Thema gab es schon 2009 HIER.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

K.G.DENBIGH: AN INVENTIVE UNIVERSE — Relektüre — Teil 3

K.G.Denbigh (1975), „An Inventive Universe“, London: Hutchinson & Co.

BISHER

Im Teil 1 der Relektüre von Kenneth George Denbighs Buch „An Inventive Universe“ hatte ich, sehr stark angeregt durch die Lektüre, zunächst eher mein eigenes Verständnis von dem Konzept ‚Zeit‘ zu Papier gebracht und eigentlich kaum die Position Denbighs referiert. Darin habe ich sehr stark darauf abgehoben, dass die Struktur der menschlichen Wahrnehmung und des Gedächtnisses es uns erlaubt, subjektiv Gegenwart als Jetzt zu erleben im Vergleich zum Erinnerbaren als Vergangen. Allerdings kann unsere Erinnerung stark von der auslösenden Realität abweichen. Im Lichte der Relativitätstheorie ist es zudem unmöglich, den Augenblick/ das Jetzt/ die Gegenwart objektiv zu definieren. Das individuelle Jetzt ist unentrinnbar subjektiv. Die Einbeziehung von ‚Uhren-Zeit’/ technischer Zeit kann zwar helfen, verschiedene Menschen relativ zu den Uhren zu koordinieren, das grundsätzliche Problem des nicht-objektiven Jetzt wird damit nicht aufgelöst.

In der Fortsetzung 1b von Teil 1 habe ich dann versucht, die Darlegung der Position von Kenneth George Denbighs Buch „An Inventive Universe“ nachzuholen. Der interessante Punkt hier ist der Widerspruch innerhalb der Physik selbst: einerseits gibt es physikalische Theorien, die zeitinvariant sind, andere wiederum nicht. Denbigh erklärt diese Situation so, dass er die zeitinvarianten Theorien als idealisierende Theorien darstellt, die von realen Randbedingungen – wie sie tatsächlich überall im Universum herrschen – absehen. Dies kann man daran erkennen, dass es für die Anwendung der einschlägigen Differentialgleichungen notwendig sei, hinreichende Randbedingungen zu definieren, damit die Gleichungen gerechnet werden können. Mit diesen Randbedingungen werden Start- und Zielzustand aber asymmetrisch.

Auch würde ich hier einen Nachtrag zu Teil 1 der Relektüre einfügen: in diesem Beitrag wurde schon auf die zentrale Rolle des Gedächtnisses für die Zeitwahrnehmung hingewiesen. Allerdings könnte man noch präzisieren, dass das Gedächtnis die einzelnen Gedächtnisinhalte nicht als streng aufeinanderfolgend speichert, sondern eben als schon geschehen. Es ist dann eine eigene gedankliche Leistungen, anhand von Eigenschaften der Gedächtnisinhalte eine Ordnung zu konstruieren. Uhren, Kalender, Aufzeichnungen können dabei helfen. Hier sind Irrtümer möglich. Für die generelle Frage, ob die Vorgänge in der Natur gerichtet sind oder nicht hilft das Gedächtnis von daher nur sehr bedingt. Ob A das B verursacht hat oder nicht, bleibt eine Interpretationsfrage, die von zusätzlichem Wissen abhängt.

Im Teil 2 ging es um den Anfang von Kap.2 (Dissipative Prozesse) und den Rest von Kap.3 (Formative Prozesse). Im Kontext der dissipativen (irreversiblen) Prozesse macht Denbigh darauf aufmerksam, dass sich von der Antike her in der modernen Physik eine Denkhaltung gehalten hat, die versucht, die reale Welt zu verdinglichen, sie statisch zu sehen (Zeit ist reversibel). Viele empirische Fakten sprechen aber gegen die Konservierung und Verdinglichung (Zeit ist irreversibel). Um den biologischen Phänomenen gerecht zu werden, führt Denbigh dann das Konzept der ‚Organisation‘ und dem ‚Grad der Organisiertheit‘ ein. Mit Hilfe dieses Konzeptes kann man Komplexitätsstufen unterscheiden, denen man unterschiedliche Makroeigenschaften zuschreiben kann. Tut man dies, dann nimmt mit wachsender Komplexität die ‚Individualität‘ zu, d.h. die allgemeinen physikalischen Gesetze gelten immer weniger. Auch gewinnt der Begriff der Entropie im Kontext von Denbighs Überlegungen eine neue Bedeutung. Im Diskussionsteil halte ich fest: Im Kern gilt, dass maximale Entropie vorliegt, wenn keine Energie-Materie-Mengen verfügbar sind, und minimale Entropie entsprechend, wenn maximal viele Energie-Materie-Mengen verfügbar sind. Vor diesem Hintergrund ergibt sich das Bild, dass Veränderungsprozesse im Universum abseits biologischer Systeme von minimaler zu maximaler Entropie zu führen scheinen (dissipative Prozesse, irreversible Prozesse, …), während die biologischen Systeme als Entropie-Konverter wirken! Sie kehren die Prozessrichtung einfach um. Hier stellen sich eine Fülle von Fragen. Berücksichtigt man die Idee des Organiationskonzepts von Denbigh, dann kann man faktisch beobachten, dass entlang einer Zeitachse eine letztlich kontinuierliche Zunahme der Komplexität biologischer Systeme stattfindet, sowohl als individuelle Systeme wie aber auch und gerade im Zusammenspiel einer Population mit einer organisatorisch aufbereiteten Umgebung (Landwirtschaft, Städtebau, Technik allgemein, Kultur, …). Für alle diese – mittlerweile mehr als 3.8 Milliarden andauernde – Prozesse haben wir bislang keine befriedigenden theoretischen Modelle

KAPITEL 4: DETERMINISMUS UND EMERGENZ (117 – 148)

Begriffsnetz zu Denbigh Kap.4: Determinismus und Emergenz
Begriffsnetz zu Denbigh Kap.4: Determinismus und Emergenz
  1. Dieses Kapitel widmet sich dem Thema Determinismus und Emergenz. Ideengeschichtlich gibt es den Hang wieder, sich wiederholende und darin voraussagbare Ereignisse mit einem Deutungsschema zu versehen, das diesen Wiederholungen feste Ursachen zuordnet und darin eine Notwendigkeit, dass dies alles passiert. Newtons Mechanik wird in diesem Kontext als neuzeitliche Inkarnation dieser Überzeugungen verstanden: mit klaren Gesetzen sind alle Bewegungen berechenbar.
  2. Dieses klare Bild korrespondiert gut mit der christlichen theologischen Tradition, nach der ein Schöpfer alles in Bewegung gesetzt hat und nun die Welt nach einem vorgegebenen Muster abläuft, was letztlich nur der Schöpfer selbst (Stichwort Wunder) abändern kann.
  3. Die neuzeitliche Wissenschaft hat aber neben dem Konzept des Gesetzes (‚law‘) auch das Konzept Theorie entwickelt. Gesetze führen innerhalb einer Theorie kein Eigenleben mehr sondern sind Elemente im Rahmen der Theorie. Theorien sind subjektive Konstruktionen von mentalen Modellen, die versuchen, die empirischen Phänomene zu beschreiben. Dies ist ein Näherungsprozess, der – zumindest historisch – keinen eindeutigen Endpunkt kennt, sondern empirisch bislang als eher unendlich erscheint.
  4. Eine moderne Formulierung des deterministischen Standpunktes wird von Denbigh wie folgt vorgeschlagen: Wenn ein Zustand A eines hinreichend isolierten Systems gefolgt wird von einem Zustand B, dann wird der gleiche Zustand A immer von dem Zustand B gefolgt werden, und zwar bis in die letzten Details.(S.122)
  5. Diese Formulierung wird begleitend von den Annahmen, dass dies universell gilt, immer, für alles, mit perfekter Präzision.
  6. Dabei muss man unterscheiden, ob die Erklärung nur auf vergangene Ereignisse angewendet wird (‚ex post facto‘) oder zur Voraussage benutzt wird. Letzteres gilt als die eigentliche Herausforderung.
  7. Wählt man die deterministische Position als Bezugspunkt, dann lassen sich zahlreiche Punkte aufführen, nach denen klar ist, dass das Determinismus-Prinzip unhaltbar ist. Im Folgenden eine kurze Aufzählung.
  8. Die Interaktion aller Teile im Universum ist nirgendwo (nach bisherigem Wissen) einfach Null. Zudem ist die Komplexität der Wechselwirkung grundsätzlich so groß, dass eine absolute Isolierung eines Teilsystems samt exakter Reproduktion als nicht möglich erscheint.
  9. Generell gibt es das Problem der Messfehler, der Messungenauigkeiten und der begrenzten Präzision. Mit der Quantenmechanik wurde klar, dass wir nicht beliebig genau messen können, dass Messen den Gegenstand verändert. Ferner wurde klar, dass Messen einen Energieaufwand bedeutet, der umso größer wird, je genauer man messen will. Ein erschöpfendes – alles umfassende – Messen ist daher niemals möglich.
  10. Im Bereich der Quanten gelten maximal Wahrscheinlichkeiten, keine Notwendigkeiten. Dies schließt nicht notwendigerweise ‚Ursachen/ Kausalitäten‘ aus.
  11. Die logischen Konzepte der mentalen Modelle als solche sind nicht die Wirklichkeit selbst. Die ‚innere Natur der Dinge‘ als solche ist nicht bekannt; wir kennen nur unsere Annäherungen über Messereignisse. Das, was ‚logisch notwendig‘ ist, muss aus sich heraus nicht ontologisch gültig sein.
  12. Neben den Teilchen sind aber auch biologische Systeme nicht voraussagbar. Ihre inneren Freiheitsgrade im Verbund mit ihren Dynamiken lassen keine Voraussage zu.
  13. Aus der Literatur übernimmt Denbigh die Komplexitätshierarchie (i) Fundamentale Teilchen, (ii) Atome, (iii) Moleküle, (iv) Zellen, (v) Multizelluläre Systeme, (vi) Soziale Gruppen.(vgl. S.143)
  14. Traditioneller Weise haben sich relativ zu jeder Komplexitätsstufe spezifische wissenschaftliche Disziplinen herausgebildet, die die Frage nach der Einheit der Wissenschaften aufwerfen: die einen sehen in den Eigenschaften höherer Komplexitätsstufen emergente Eigenschaften, die sich nicht auf die einfacheren Subsysteme zurückführen lassen; die Reduktionisten sehen die Wissenschaft vollendet, wenn sich alle komplexeren Eigenschaften auf Eigenschaften der Ebenen mit weniger Komplexität zurückführen lassen. Während diese beiden Positionen widersprüchlich erscheinen, nimmt das Evolutionskonzept eine mittlere Stellung ein: anhand des Modells eines generierenden Mechanismus wird erläutert, wie sich komplexere Eigenschaften aus einfacheren entwickeln können.

DISKUSSION

  1. Fasst man alle Argument zusammen, ergibt sich das Bild von uns Menschen als kognitive Theorientwickler, die mit ihren kognitiven Bildern versuchen, die Strukturen und Dynamiken einer externen Welt (einschließlich sich selbst) nach zu zeichnen, die per se unzugänglich und unerkennbar ist. Eingeschränkte Wahrnehmungen und eingeschränkte Messungen mit prinzipiellen Messgrenzen bilden die eine Begrenzung, die daraus resultierende prinzipielle Unvollständigkeit aller Informationen eine andere, und schließlich die innere Logik der realen Welt verhindert ein einfaches, umfassendes, eindeutiges Zugreifen.
  2. Die mangelnde Selbstreflexion der beteiligten Wissenschaftler erlaubt streckenweise die Ausbildung von Thesen und Hypothesen, die aufgrund der möglichen Methoden eigentlich ausgeschlossen sind.
  3. Die noch immer geltende weitverbreitete Anschauung, dass in der Wissenschaft der Anteil des Subjektes auszuklammern sei, wird durch die vertiefenden Einsichten in die kognitiven Voraussetzungen aller Theorien heute neu in Frage gestellt. Es geht nicht um eine Infragestellung des Empirischen in der Wissenschaft, sondern um ein verstärktes Bewusstheit von den biologischen (beinhaltet auch das Kognitive) Voraussetzungen von empirischen Theorien.
  4. In dem Maße, wie die biologische Bedingtheit von Theoriebildungen in den Blick tritt kann auch die Besonderheit der biologischen Komplexität wieder neu reflektiert werden. Das Biologische als Entropie-Konverter (siehe vorausgehenden Beitrag) und Individualität-Ermöglicher jenseits der bekannten Naturgesetze lässt Eigenschaften der Natur aufblitzen, die das bekannte stark vereinfachte Bild kritisieren, sprengen, revolutionieren.
  5. Die Idee eines evolutionären Mechanismus zwischen plattem Reduktionismus und metaphysischem Emergenz-Denken müsste allerdings erheblich weiter entwickelt werden. Bislang bewegt es sich im Bereich der Komplexitätsebenen (iii) Moleküle und (iv) Zellen.

Fortsetzung mit TEIL 4

QUELLEN

  1. Kenneth George Denbigh (1965 – 2004), Mitglied der Royal Society London seit 1965 (siehe: https://en.wikipedia.org/wiki/List_of_Fellows_of_the_Royal_Society_D,E,F). Er war Professor an verschiedenen Universitäten (Cambridge, Edinbugh, London); sein Hauptgebet war die Thermodynamik. Neben vielen Fachartikeln u.a. Bücher mit den Themen ‚Principles of Chemical Equilibrium, ‚Thermodynamics of th Steady State‘ sowie ‚An Inventive Universe‘.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

EMERGING MIND – Mögliche Konsequenzen

Letzte Änderung: 9.April 2015, 12:10h – Minimale Korrekturen; Lesbarkeit verbessert durch Abstände; Zwischenüberschriften

1) Die ganzen Überlegungen zum ‚Emerging Mind‘ sind noch sehr anfangshaft, spekulativ. Andererseits, angesichts der vielen ungelösten Fragen, ohne diese Arbeitshypothese und die interessanten Zusammenhänge mit dieser Arbeitshypothese ist es eigentlich unmöglich, diese Arbeitshypothese nicht weiter zu denken. Fehler zeigten sich ja im allgemeinen am ehesten dann, wenn man versucht, eine Hypothese konsequent anzuwenden und sie auf diese Weise immer mehr ‚Überprüfungen‘ unterzieht.

EMPIRISCHES UNIVERSUM ALS FOLGE VON STRUKTUREN

2) Bisheriger Ausgangspunkt ist ja die Annahme einer Prozesskette S*(t+n) = f(S(t)) mit ‚t‘ als einem Zeitpunkt, ‚S‘ als einer identifizierbaren Struktur zu diesem Zeitpunkt und ‚f‘ als eines funktionalen Zusammenhanges, der die Struktur ‚S‘ in die Struktur ‚S*‘ überführt.

3) In vorausgehenden Einträgen hatte ich exemplarisch mögliche Strukturen identifiziert beginnend mit dem Energieausbruch E des BigBang, der dann in der nachfolgenden Abkühlung immer mehr Strukturen ‚hervorgebracht‘ (=f?) hat: Quanten [Q], Atome [At], Moleküle [Mol], usw. Man bekommt dann eine Prozesskette der Art EMPIRISCHER-KOSMOS = S_Q(t+n1) = f(S_E(0)), S_At(t+n1+n2) = f(S_Q(t+n1) ), usw. wobei die Energie eine Art ‚Nullstruktur‘ ist verglichen mit den folgenden Strukturausprägungen.

4) Bedenkt man ferner, dass jede Funktion ‚f‘ in der ‚Realität‘ eine ‚reale Abbildung‘ sein muss, d.h. eine ‚Operation‘, die ‚real etwas bewirkt‘, dann bedeutet dies, dass man parallel zu den Strukturen S_i(), die man zu verschiedenen Zeitpunkten unterscheiden kann, für die Veränderungsoperation ‚f‘ (von der noch unklar ist, ob es immer die ‚gleiche‘ ist), einen ‚Träger‘ annehmen muss, ein ‚Medium‘, das diese Ausführung ermöglicht. In der klassischen Makrophysik gibt es neben den unterscheidbaren Makrostrukturen ’nichts Konkretes‘, was als Träger in Frage kommt ausser den ‚beobachtbaren Kräften‘, die wir durch ihre spezifischen ‚Manifestationen‘ ‚indirekt‘ erkennen und die wir hypothetisch in Form von ‚Gesetzen‘ benennen und damit ‚dingfest‘ machen. Im Licht der Quantenphysik (was sich bislang vielleicht eher noch als ein ‚Halbdunkel‘ darstellt, das wir noch kaum verstehen…) muss man annehmen, dass die Wahrscheinlichkeitsfelder ihre Kohärenz immer wieder durch ‚Kräfte‘ verlieren, die dann zu den tatsächlich beobachtbaren Makroereignissen führen. Diese in der Quantenfeld lokalisierten hypothetischen Kräfte bieten sich als Kandidaten für den Operator ‚f‘ an, der die unterschiedlichen Strukturbildungen E → S_Q → S_At → … ermöglicht.

ENERGIE: EINMAL UND IMMER WIEDER

5) Neben vielen interessanten Aspekten ist bemerkenswert, dass diese Prozesskette EMPIRISCHER-KOSMOS bis zur Strukturform der Moleküle durch eine einmalige Energiezufuhr (’statisch‘) diese Strukturen erhält; jenseits der Moleküle S_Mol, ab der Strukturform ‚Zelle‘ S_Cell, benötigen diese komplexe Strukturen kontinuierlich eine beständige Zufuhr von Energie (‚dynamisch‘) in Form von chemisch gebundener Energie, die dann mittels Metabolismus ‚freigesetzt‘ und für verschiedene energieintensive Prozesse genutzt wird. Mit fortschreitender Komplexität der Strukturformen (Pflanzen, Tiere, Hominiden, …) wird der Aufwand immer grösser und die Formen von Energiegewinnung, -transport, -speicherung, -verwertung immer komplexer.

ENTSTEHUNG VON ZEICHEN INNERHALB DER MATERIE

6) Ferner ist bemerkenswert, dass bei fortschreitender Komplexität der Strukturformen sich solche molekular basierte Strukturen bilden können, die dann Repräsentationen auf einer höheren Ebene realisieren können, chemische Ereignisse, die als Zeichen funktionieren, die Bedeutungsbeziehungen realisieren können (= semiotischer Raum, Semiose, Zeichenprozesse). Damit ist es möglich, sich von der Konkretheit molekularer Strukturen in gewisser Weise zu befreien und im semiotischen Raum abstrakte Strukturen aufzubauen, die für beliebige Strukturen stehen können. Nicht nur lassen sich damit die vorfindlichen molekularen Strukturen ‚abbilden‘, ‚modellieren‘, sondern man kann mit ihnen ‚herumspielen‘, sie beliebig ‚variieren‘, ‚kombinieren‘, und damit den realen Augenblick ‚transzendieren‘. Im semiotischen Raum kann die reale Gegenwart durch eine erinnerbare Vergangenheit und eine potentielle Zukunft erweitert werden. Dieser Prozess ist schleichend und gewinnt in den höheren Säugetieren, bei den Hominiden und speziell beim homo sapiens sapiens einen vorläufigen Höhepunkt.

BESCHLEUNIGUNG DER KOMMUNIKATION

7) Seit der Verfügbarkeit des semiotischen Raumes innerhalb eines Systems kann man eine dramatische Beschleunigung in der Kommunikation und Koordinierung zwischen den Teilnehmern beobachten, Explosion an Werkzeug, Verfahren, Regeln, Organisation usw.

FLEXIBILISIERUNG DER ENERGIEZUFUHR

8) Die nächste grosse Revolution findet statt, als es gelingt, die molekül-basierten semiotischen Räume mit Hilfe von atomar-basierten Technologien in den wesentlichen Signal- und Zeicheneigenschaften zu kopieren (= Computer), so dass nun die Bildung von ‚künstlichen (technischen) semiotischen Räumen‘ möglich wurde, in Kombination mit einer globalen Vernetzung (= Computernetzwerke, Internet, WWW). Während molekül-basierte semiotische Räume chemisch gebundene Energie zu ihrem ‚Betrieb‘ benötigen, benötigen die atomar-basierten semiotischen Räume Energie in Form von technisch manipulierbaren Potentialunterschieden (= Elektrizität). Diese Form ist universeller und flexibler.

STEIGERUNG DER KOMPLEXITÄT

9) Seit der Verfügbarkeit von künstlichen — auf elektrischer Energie basierenden — semiotischen Räumen konnte die Komplexitätsentwicklung sowohl in ihrer inhärenten Komplexität wie auch in der Geschwindigkeit ihrer Entwicklungen weiter gesteigert werden.

MODIFIKATIONEN DES VERÄNDERUNGSOPERATORS

10) Interessant ist, dass der Veränderungsoperator ‚f‘ nun deutlich unterschieden werden kann. Während der Übergang von der Struktur ‚vor dem HS (‚homo sapiens‘)‘ – also etwa S_PreHs(t) – zur Struktur S_Hs(t+n) noch mit dem Operator ‚f‘ geschrieben werden kann S_Hs(t+n) = f(S_PreHs(t)) ist der Übergang von der Struktur S_Hs zu der neuen Struktur S_NetComp(t) von S_Hs vorgenommen worden, also S_NetComp(t+n) = f_hs(S_Hs(t+n)). Dies ist möglich, weil die impliziten semiotischen Räume von Hs die Definition von Operatoren ermöglichen, die dann ‚umgesetzt‘ werden können. Allerdings wird man wohl annehmen müssen, dass in diese Umsetzung f_hs wohl auch das allgemeine ‚f‘ mit eingeht, also genauer S_NetComp(t+n) = f_hs u f(S_Hs(t+n)).

11) Aktuell sind die künstlichen technischen Strukturen S_NetComp noch nicht in der Lage, sich selber zu vervielfältigen. Grundsätzlich ist nicht zu sehen, warum dies nicht eines Tages möglich sein sollte.

12) Klar ist allerdings, dass der Veränderungsoperator ‚f‘ nun als zusätzliche Teilkomponente f_NetComp enthält, also S_Future(t+n) = f u f_NetComp(S_Past(t)).

PROJEKTION IN DIE ZUKUNFT

13) So mächtig die Kombination ‚f u f_NetComp‘ wirkt, so fragil ist das Ganze. Würde aus irgendwelchen Gründen mal kein Strom verfügbar sein, dann würde S_NetComp vollständig ausfallen und damit würden schon heute weite Bereiche der ‚Zivilisation‘ weitgehend zusammenbrechen.

14) Ein weiterer Aspekt deutet sich an: aufgrund der heute verfügbaren Daten wissen wir, dass der aktuelle Körper des Menschen nur ein ‚Durchgangsstadium‘ markiert. Viele Millionen Jahre vorher sah dieser Körper anders aus und gehen wir weiter zurück, dann verlieren sich die heute bekannten Strukturen in immer fremdartigeren Formen, die kaum noch etwas mit der heutigen Gestalt zu tun haben. Umgekehrt müssen wir also davon ausgehen, dass sich – auch ohne unser Zutun – die aktuelle Körperform weiter verändern wird.

15) Dazu kommt der Aspekt, dass wir mittels des impliziten semiotischen Raumes wie auch durch die heute extern verfügbaren künstlichen semiotischen Räume samt hochentwickelter Werkzeuge den Umbau der aktuellen Körperformen aktiv betreiben könnten (und möglicherweise auch sollten?).

16a) Andererseits stellt sich aber die Grundsatzfrage, ob die Linie der molekülbasierten Körper überhaupt weiterverfolgt werden sollte. Die künstlichen semiotischen Räume mit der Energieversorgung durch flexiblen Strom bieten u.U. auf Dauer bessere Chancen, sich im Universum zu behaupten. Dies rührt dann aber an der Grundsatzfrage, ob die materielle Hülle einer Struktur (im Falle des HS sein molekülbasierter Körper) tatsächlich wichtig ist.

VERORTUNG DES GEISTES

16b) Wenn die Arbeitshypothese stimmt, dass die entscheidenden Operatoren ‚f‘ letztlich von den realisierten Strukturen unabhängig sind, sondern sich nur unter Verfügbarkeit solcher materieller Strukturen ‚zeigen‘, dann würde es für diese(n) Operator ‚f‘ egal sein, ob das ‚Medium‘ chemische Moleküle sind oder atombasierte Strukturen. Nicht das Medium repräsentiert den Geist, sondern der Geist wird anlässlich verfügbarer Strukturen ’sichtbar‘. Die Annahme wäre also etwa die, dass ‚Geist‘ subset E und ‚f‘ in ‚Geist‘ als dem vorab gegebenem ‚Medium‘ gründet; innerhalb von diesem Geist können Veränderungsoperatoren angewendet werden.

17) Der ‚Geist‘ wäre in diesem Sinne das (für uns) vorweg schon immer Gegebene, das quasi ‚Untötbare‘, und nur in dem Maße, wie es hinreichend geeignete Strukturen (welcher Art auch immer) gibt, kann sich dieser Geist durch seine ‚Wirkungen‘ (= Manifestationen, Ereignisse, Wirkungen, Phänomene) zeigen (für uns, die wir aktuell eine spezifische Struktur haben und mit dieser spezifischen Struktur nur ganz bestimmte Dinge erkennen können!!!).

18) Damit wäre jede bekannte Lebensform eine Form von ‚Geistesmanifestation‘, nur unterschiedlich differenziert. Niemand hätte einem anderen irgendetwas voraus.

19) Bizarre Ethiken, die aus dem darwinischen Evolutionsbegriff irgendwelche ‚Vorteile‘ herauszurechnen versuchten, würden sich – falls diese neue Arbeitshypothese stimmen würde – als sehr kurzsichtig erweisen. In der Evolution geht es nicht um das ‚Recht des Stärkeren‘, sondern um den Aufbau solcher komplexer Strukturen, die immer mehr von dem ‚Geist‘ sichtbar machen, der schon immer da ist und von dem jede partielle individuelle Struktur immer nur ein kleines Zipfelchen sichtbar machen kann. Klar ist in diesem Szenario auch, dass der einzelne als solcher keine grundlegende Bedeutung besitzt, höchstens in dem Sinne, dass er dazu beiträgt, das gemeinsame Ganze voran zu bringen. Der Kult um persönlichen Besitz, persönliche Macht, individuelle Schönheit und ‚Ruhm‘ hat hier keinen Platz. Er wirkt seltsam bizarr, fremdartig, lächerlich. Die Zukunft wird den symbiotischen Gemeinschaften gehören, wo die Fähigkeiten von jedem maximal entwickelt und in ein gemeinsames Ziel eingebunden werden können. Insofern bleibt Individualität wichtig, aber nur als Teil eines gemeinsamen Ganzen.

Siehe auch die neue Emerging Mind Webseite!

Einen Überblick über alle bisherigen Beiträge nach Titeln findet sich HIER.

REDUKTIONISMUS – EMERGENZ – KREATIVITÄT – GOTT: S.A.Kaufman – Epilog

1. Es gibt nur wenige Bücher, denen ich so viel Zeit für eine Diskussion gewidmet habe (was nicht heißt, dass es nicht auch andere Bücher gibt, die großartig sind oder denen man viel Zeit widmen sollte). Und, diesen Blog mit ‚Epilog‘ zu überschreiben gibt nicht die ganze Wahrheit wieder. Das Wort ‚Epilog‘ könnte den Eindruck erwecken als ob die Sache damit ‚abgeschlossen‘ sei, etwas, das ‚hinter‘ uns liegt. Dem ist aber nicht so, in keiner Weise. Die Gedanken, die Kauffman in seinem Buch aufblitzen läßt sind eher wie ‚Blitze‘, die in einer großen Dunkelheit für einen kurzen Moment in der Nacht Dinge sichtbar werden lassen, an die man ’normalerweise‘ so nicht denkt.
2. Gewiss kann man an seinem Buch auch viel Kritik üben: streckenweise sehr langatmig, viele Formulierungen wiederholen sich immer wieder, die Quellen sind oft nicht klar, es fehlt eine strenge Systematik, die alle Teile erfasst, sehr Wissenschaftliches paart sich teilweise mit sehr Spekulativem, usw. Alles dies ist richtig. Aber betrachtet man alles zusammen, nimmt man alle Aussagen als Teile eines großen Akkords, dann blitzt in all den Fragmenten eine Gesamtsicht auf, die – nach allem, was ich kenne, weiß und verstehe – sehr ungewöhnlich ist, originell, wissenschaftlich sehr begründet und – vor allem – Dinge zusammen bringt, die für gewöhnlich getrennt sind.

EIN AUßERGEWÖHNLICHES BUCH

3. Insofern würde ich sagen, ja, es ist ein sehr außergewöhnliches Buch.

KRITIK AN EINER ZU ENGEN WISSENSCHAFTLICHEN WELTSICHT

4. Es gibt immer wieder Wissenschaftler die ihre eigene Disziplin kritisieren. Aber es ist selten. Meist sind es Nobelpreisträger, die keine Angst mehr haben müssen, dass die eigene Zunft Sie danach sozial ausgrenzt. Kauffman ist kein Nobelpreisträger, und doch hat er den Mut, dies zu tun. Dies liegt nach meiner Einschätzung vor allem darin begründet, dass er nicht nur innerhalb einer einzigen Disziplin geforscht hat, sondern in verschiedenen Disziplinen, mehr noch, er hat sich nicht nur ‚innerhalb‘ der Paradigmen bewegt, sondern er hat sich mit Phänomenen beschäftigt, die es verlangt haben, auch immer ‚über‘ die anzuwendenden Methoden nachzudenken. Dadurch sind ihm natürlich die Schwachstellen des Vorgehens aufgefallen, dadurch hat er begonnen, über alternative Sichten nachzudenken.
5. Eine der zentralen Schwachstelle trägt den Namen ‚Physikalischer Reduktionismus‘. Damit verbindet sich die Auffassung, dass es zur Erklärung der Phänomene in dieser Welt ausreiche, diese in eine kausale Beziehung zu setzen zu den ‚zugrunde liegenden elementaren Bestandteilen‘; als solche elementaren Bestandteile gelten Moleküle, Atome, und subatomaren Partikel. Diese Art von ‚wissenschaftlicher (reduzierender) Erklärung‘ macht aus der Gesamtheit aller Phänomene ein Wirkungsfeld von elementaren (letzlich physikalischen) Teilchen und elementaren Kräften.
6. Kauffman hat durch seine vielfältigen Arbeiten aber den Eindruck gewonnen, dass bei dieser Erklärungsweise sehr viele Besonderheiten der Phänomene oberhalb der Atome (ab einem bestimmten Komplexitätsgrad vielleicht sogar alle Besonderheiten) auf der Strecke bleiben. Sie werden epistemisch ‚unsichtbar‘. Für einfache Gemüter ist dies OK. Für differenzierter denkende Menschen, wie Kauffman einer ist, stellen sich hier aber Fragen. Und es ist genau hier wo sich die besondere Qualität von Kauffman zeigt: er stellt sehr viele Fragen, er geht ihnen auf vielfältige Weise nach, und kommt dann zum Ergebnis, dass eine reduktionistische Sicht letztlich genau die interessanten Phänomene zerstört. Nicht das Zurückfragen nach möglichen elementaren Bestandteilen ist der Fehler, sondern der Verzicht auf eine Beschäftigung mit der Makroebene selbst, mit der Komplexität, die sich gerade in den Makrophänomenen manifestiert.

NICHTVORAUSSAGBARKEIT

7. In für den Leser z.T. sehr mühevollen, aber von der Sache her sehr wohl berechtigten, Analysen unterschiedlichster Phänomenbereiche (grob: Biologie, Wirtschaft, Physik) gelingt es Kauffman immer wieder aufzuzeigen, dass eine reduzierende Betrachtungsweise genau das verfehlt, übersieht, was dieses Phänomen ausmacht. Und in all seinen vielfältigen Beispielen ist es u.a. die ‚Nichtvoraussagbarkeit‘, die man überall feststellen kann. Es beginnt bei der generellen ‚Nichtergodizität‘ des Universums als Ganzem, es setzt sich fort im Bereich der Molekülbildungen, der Zellentstehung, der Herausbildung von Lebensformen, in der generellen Nichtvoraussagbarkeit von Gehirnaktivitäten, die wechselseitigen Beeinflussungen von Naturprozessen im allgemeinen und biologischen Formen als Besonderem (Evolution, Ko-Evolution), die Wechselwirkungen unter biologischen Akteuren, die Wechselwirkungen eines wirtschaftlichen Verhaltens, die ihrer Natur nach in keiner Weise mehr voraussagbar sind, und vieles mehr. Wer die Sehweise von Kauffman übernimmt für den wird die Welt sehr vielfältig, sehr besonderes, sehr dynamisch, grundsätzlich nicht voraussagbar.

QUANTENPHYSIK

8. Kauffman macht sich die Mühe, die Eigenschaft der Nichtvoraussagbarkeit auf sehr vielen Ebenen aufzuzeigen. Letztlich wurzelt sie aber schon in der Grundlage von allem, im ‚Medium‘ von aller erfahrbaren Wirklichkeit, die die Wissenschaft als ‚Quantenwelt‘ enttarnt hat. Die aus dem menschlichen Alltag bekannte Raum-Zeit-Welt mit ihren Makroeigenschaften ist ein Artefakt unseres Körpers und des darin eingebetteten Gehirns, das uns mit Erkenntnissen über diese Welt versorgt. ‚Hinter‘ den alltäglichen Phänomenen existiert nach den heutigen wissenschaftlichen Erkenntnissen aber eine Welt von Quanten, deren mathematische Beschreibung uns darüber belehrt, dass es sich hier nur noch um Wahrscheinlichkeitsfelder handelt: Was zu einem bestimmten Zeitpunkt an einem bestimmten Ort an Eigenschaften gegeben sein soll lässt sich grundsätzlich nur als ein Wert in einer Wahrscheinlichkeitsverteilung angeben. Zusätzlich enthüllt diese Quantenwelt Eigenschaften von Wechselwirkungen zwischen den Quanten, die mit der Alltagserfahrung nicht kompatibel sind (so können z.B. Quanten in einer Geschwindigkeit und über Entfernungen interagieren, die in der Alltagswelt unmöglich sind).
9. Nimmt man die quantenphysikalische Sicht ernst, dann hat man ein großes Problem, nämlich die ‚Koexistenz‘ von Quantenwelt und physikalischer Makrowelt zu erklären. Die Konkretheit der alltäglichen Makrowelt bildet quantenphysikalisch eine ‚Dekohärenz‘, die zu erklären bislang schwerfällt. Dazu kommt, dass diese Dekohärenz aus Sicht des Alltags ‚andauert‘, dass aber zugleich die Kohärenz der Quantenwelt nicht aufgehoben wird. Hier herrscht bislang ein großes Schweigen der Physik.
10. Kauffman vermutet vor dem Hintergrund der Quantenwelt, dass wir viele Eigenschaften des Gehirns möglicherweise nur durch Rückgriff auf diese Quantenwelt wirklich verstehen können; Genaues kann er nicht sagen, obgleich er Autoren zitiert, die (ähnlich wie Descartes mit seiner Zirbeldrüse) versuchen, konkrete Strukturen in der Biochemie der neuronalen Maschinerie zu identifizieren, die für die ‚Übersetzung der Quanteneffekte‘ in die Makrowelt eines Gehirns verantwortlich sind. Man kann sich über diese Erklärungsversuche lustig machen, zeigen sie aber doch auch, dass selbst die besten Denker unserer Zeit bislang hier vor mehr Rätseln stehen als Antworten.

KREATIVITÄT, HEILIGES, GOTT

11. Eine Kehrseite von Nichtvoraussagbarkeit ist die ‚Kreativität‘. Denn um immer wieder neue Ereignisse, Ereignisketten, Strukturen, komplexe Wechselwirkungen hervorbringen zu können, benötigt man Verhaltensweisen, Rahmenbedingungen, die das ermöglichen. Kauffman meint in der Vielfalt dieser nicht voraussagbaren Prozessen eine ‚Kreativität‘ ‚am Werke‘ zu sehen, die sich vom physikalischen Anfang des Universums, über Materiebildung, Sternenbildungen, Galaxien, Sonnensystem, Leben auf der Erde usw. in gleicher Weise manifestiert. Eine Kreativität, die geradezu eine ‚innere Eigenschaft‘ unseres Universums zu sein scheint. Und dass es genau diese Kreativität ist, die das eigentlich zu erklärende Phänomen bildet, das, an dem sich alle Wissenschaften zu messen haben. Es überrascht dann nicht, wenn Kauffman für diese Zentraleigenschaft des Universums den Begriff ‚Heiliges‘ (’sacred‘) vorschlägt, und im zweiten Schritt (oder im ersten, das lässt sich hier nicht genau sagen), den Begriff ‚Gott‘ (‚god‘).

KRITIK WEGEN GOTT?

12. Speziell an dieser Stelle könnte man Kritik laut werden lassen. Schließlich haben genau die Begriffe ‚Gott‘ und ‚Heiliges‘ in der menschlichen Geschichte in nahezu allen Kulturen seit mindestens 2000 – 3000 Jahren eine lange und vielschichtige Tradition. Die Kritik bestände darin, Kauffman vorzuwerfen, dass er sich nicht genügend um die Vermittlung zwischen seiner Verwendungsweise der Begriffe ‚Gott‘ und ‚Heiliges‘ und der vielfältigen Verwendungsweisen dieser Begriffe in der bisherigen kulturellen Geschichte gekümmert habe. Dies sei eigentlich eines Wissenschaftlers unwürdig.
13. Einerseits würde ich diese Kritik auch erheben. Andererseits muss man aber auch klar sehen, dass die Aufgabe eines konstruktiven Dialoges zwischen dem Erklärungsansatz von Kauffman und den bisherigen Verwendungsweisen des Begriffs ‚Gott‘ und ‚Heiliges‘ (z.B. in der jüdischen, dann in der jüdisch-christlichen, und dann noch in der jüdisch-christlich-islamischen Tradition) eine gewaltige Aufgabe ist, die kaum ein Mensch alleine leisten kann, sondern vermutlich sehr vieler Menschen bedarf, die zudem vermutlich über mehrere Generationen hinweg solch einen Reflexionsprozess leisten müssten.
14. Ich persönlich sehe zwischen dem Kern eines jüdisch-christlichen (vermutlich auch jüdisch-christlichen-islamischen) Gottesbegriffs und dem Ansatz von Kauffman keinerlei Gegensatz. Aber ich bin Theologe, Philosoph und Wissenschaftler und habe mich mehrere Jahrzehnte mit diesen Fragen beschäftigt. Für jemanden, der diese Gelegenheit nicht hatte, ist diese Fragestellung möglicherweise eher ‚undurchdringlich‘ und von daher kaum entscheidbar.

UND SONST

15. Diese wenigen Gedanken können die Breite und Tiefe, die Vielfalt der Gedanken von Kauffman in seinem Buch nicht einmal annähernd wiedergeben. Wer sich also von den hier angeschnittenen Themen angesprochen fühlt, sollte dieses Buch unbedingt selber lesen. Allerdings sage ich ganz offen: das Buch ist hart zu lesen, z.T. wegen des spezifischen Inhalts, z.T. wegen einer nicht ganz straffen Systematik, z.T. wegen vieler Wiederholungen bestimmter Gedanken. Aber ich halte es trotz dieser Schwächen für eine sehr, sehr wichtiges Buch. Mir persönlich hat es eine Menge an Klärungen gebracht.

SYNOPSYS DER EINTRÄGE ZU KAUFFMAN

REDUKTIONISMUS – EMERGENZ – KREATIVITÄT – GOTT: S.A.Kaufman – Teil1. Zusammenstellung vieler Phänomene und Erkenntnisse, die die Position eines physikalischen Reduktionismus in Frage stellen. Dann Verlagerung zu den grundlegenden Mechanismen des Biologischen und Vorstellen des autokatalytischen Modells zur Modellierung biologischer Emergenz.

REDUKTIONISMUS – EMERGENZ – KREATIVITÄT – GOTT: S.A.Kaufman – Teil2. Es werden dann wichtige Konzepte vorgestellt und diskutiert: Agentenschaft, Arbeit und Information. Information ist zu wenig, Arbeit ist mehr als Wärme, Agentenschaft impliziert Werte.

REDUKTIONISMUS – EMERGENZ – KREATIVITÄT – GOTT: S.A.Kaufman – Teil 3. Anhand der Begriffe ‚Adaption‘. ‚Präadaption‘ sowie ‚Ko-Evolution‘ versucht er die Behauptung von der Nichtvoraussagbarkeit des Universums zu motivieren. Dazu das sehr starke Argument von der ‚Nichtergodizität‘ des Universums. Erste Einführung des Begriffs ‚Kreativität‘.

REDUKTIONISMUS – EMERGENZ – KREATIVITÄT – GOTT: S.A.Kaufman – Teil 4. Zitiert prominente Modelle, die den Anspruch erheben, das wirtschaftliche Geschehen zu beschreiben. Diskutiert die Grenzen dieser Modelle. Stellt seine autokatalytischen Modellierungsversuche vor. Zeigt die prinzipiellen Grenzen auf, die eine Beschreibung wirtschaftlicher Vorgänge unmöglich macht.

REDUKTIONISMUS – EMERGENZ – KREATIVITÄT – GOTT: S.A.Kaufman – Teil 5. Es folgen einige allgemeine Einschätzungen zu ‚Seele‘, ‚Geist‘ und ‚Wissenschaften‘, die nicht klar einordenbar sind. Längere Diskussion zur Algorithmisierung und Nichtalgorithisierung von Geist, Geirn als physikalischem Prozess, kognitiven Modellen und deren Grenzen, Geist und Bedeutung.

REDUKTIONISMUS – EMERGENZ – KREATIVITÄT – GOTT: S.A.Kaufman – Teil 6. Zunächst einmal Warnung, da das Folgende sehr spekulativ sei. Ordnet die Neurowissenschaften der klassischen Sicht der Physik zu. Ein quantenphysikalischer Ansatz wäre besser. Erinnerung an Positionen der Phiilosophie und deren eigene Fragwürdigkeit. Erwähnt die Position der sogenannten ’starken KI‘. Quantenphysik, ‚Geist‘, ‚Selbstbewusstsein‘, Möglichkeiten und Grenzen. Emergenz statt Reduktionismus. Drei harte Argumente gegen den Geist ‚Epiphänomenalismus‘, ‚Qualia‘ und ‚freier Wille‘. ‚Geist‘ als Phänomen der ‚Natur‘. Eigener Gottesbegriff.

REDUKTIONISMUS – EMERGENZ – KREATIVITÄT – GOTT: S.A.Kaufman – Teil 7. Zusammenfassung der bisherien Erkenntnisse und wiederholt Einführung eines eigenen Gotesbegriffs (kritische Anmerkung dazu). Prinzipielle Unabgeschlossenheit allen Wissens. Wissenschaft und Nicht-Wissenschaft: ‘Kunst’ als Form der Kreativität gehört letztlich zum inneren Prinzip des kreativ-evolutionären Geschehens. Nochmals ‚Gott‘ (und kritische Anmerkugen). Faktum des Bösen. Begriff der ‚Agentenschaft‘ führt zu ‚Bedeutung‘ und ‚Werten‘, Ethik. Kritisiert den ‘Deontologismus’ und den ‘Konsequentialismus’ innerhalb der Ethik. Werte als ‚Pareto-Optimum‘. Globale Ethik. Nochmals ‚Gott‘ und ‚Heiligkeit‘

Ein Überblick zu allen bisherigen Einträgen des Blogs nach Titeln findet sich HIER

REDUKTIONISMUS, EMERGENZ, KREATIVITÄT, GOTT – S.A.Kauffman – Teil 6

Vorheriger Beitrag Teil 5

Letzte Änderungen: 15.April 2013, 09:30h

WARNUNG – SPEKULATIV

1. Auf den Seiten 197-229 versucht Kauffman, die Besonderheiten des Phänomens ‚Geist‘ mit den Denkmodellen der Quantenphysik zu reflektieren. Und er warnt seine Leser, dass dieses Kapitel seines Buches vermutlich die wissenschaftlich unsicherste Passage im ganzen Buch sei.(vgl.S.197, 222). Auch macht er darauf aufmerksam, dass es mit Roger Penrose schon andere gab, die Ähnliches zu denken versucht haben.
2. [Anmerkung: Wer den Beitrag über Penrose in der englischen Wikipedia liest, wird feststellen, dass Penrose und seine Partner Hameroff in ihrer Hypothesenbildung sehr weit gehen und damit eine eigenständige Diskussion auf internationaler Ebene ausgelöst haben. Im Kontext ‚Quantenphysik‘ und ‚Bewusstsein/ Geist‘ wird auch Niels Bohr erwähnt sowie Eugen Wigner. Bei letzterem ist der Zusammenhang offensichtlich; bei Planck konnte ich es noch nicht verifizieren.]

NEUROWISSENSCHAFTEN ‚KLASSISCH‘

3. Ausgangspunkt für dieses Kapitel ist die Position der Neurowissenschaftler, so wie Kauffman sie sieht: sie nehmen das Gehirn als eine Ansammlung von Neuronen, die untereinander auf biochemische Weise im nicht-quantenphysikalischen Sinne kausal verknüpft sind; dies entspricht einem geschlossenen Raum kausaler Verknüpfung, in dem es zu jedem Ereignis eine erschöpfende Ursache gibt. Das, was wir im Alltag ‚Geist‘, ‚Bewusstsein‘ (inklusive ‚freiem Willen‘) nennen, ist in diesem Modell eine Eigenschaft dieser kausalen Maschinerie. Daraus ergibt sich dann, dass das ‚Bewusstsein‘ nicht diese kausale Maschinerie beeinflusst, sondern die kausale Maschinerie erzeugt die Phänomene des Bewusstseins bzw. das Bewusstsein überhaupt. Einen freien Willen gibt es in diesem Szenario daher nicht. Dies bedeutet, dass die einzelnen Menschen nicht moralisch verantwortlich sein können für das, was sie tun.(vgl. S.197f)

KEIN ABSOLUTER KAUSALER RAUM

4. Dieses sehr einfache, deterministische Bild vorausgesetzt [Anmerkung: was selbst ohne Quantenphysik m.E. so kaum haltbar ist] spekuliert Kauffman, welche neuen Perspektiven sich ergeben würden, wenn man die quantenphysikalischen Grundlagen aller Makrophänomene ernst nehmen würde. Da der quantenphysikalische Raum grundsätzlich ‚akausal‘ ist, würden letztlich alle ’scheinbar kausalen‘ Prozesse sich in einem umfassenden ‚akausalen Rauschen‘ auflösen. Letztlich wäre gar nichts mehr ‚kausal‘. Ob daraus tatsächlich etwas ‚Konstruktives‘ folgen würde, lässt Kauffman offen, aber zumindest wäre die vereinfachende ‚Abschliessung‘ aller interessanten empirischen Phänomene in einer deterministischen Feinstruktur aufgebrochen.(vgl. S.199)
5. [Anmerkung: Dass die bloße Annahme eines akausalen quantenphysikalischen Raumes als ‚Grundlage für alles‘ in gewisser Weise noch nichts erklärt, kann man an der Tatsache erkennen, dass nahezu alles, was das menschliche Weltbild ausmacht, auf ‚Regelmäßigkeiten‘ basiert, die sich vom allgemeinen ‚Rauschen‘ abheben. Dies bedeutet, dass der akausale quantenphysikalische Raum ‚als solcher‘ von sich aus nicht automatisch Erklärungen liefert, er bietet nur einen ‚Ausgangspunkt‘ für mögliche Erklärungen ‚regelmäßiger‘ Phänomene, die wir in diesem Zusammenhang als ‚emergent‘ begreifen, d.h. als Phänomene, die im akausalen quantenphysikalischen Raum ‚gründen‘, die aber in ihrem Zusammenhang und ihrer Komplexität Eigenschaften des quantenphysikalischen Raumes sichtbar machen, die allein aus seinen ‚Bestandteilen‘ nicht so ohne weiteres abgeleitet werden können. ]

IDENTITÄTSTHEORIE UND SO

6. Kaufmann zitiert in diesem Kontext beiläufig noch die Positionen der ‚Identitätstheorie‘, des ‚Dualismus‘, den ‚radikalen Idealismus eines Berkeley, zwei Sprachphilosophen Ryle und Searl, sowie zwei neuere Philosophen Flanagan und Churchland.
7. Zentral erscheint mir seine Bemerkung, dass das Faktum der ‚Bewusstheit als solcher‘ (‚awareness itself‘) unabhängig von allen angebotenen Interpretationsmodellen das primäre Phänomen darstellt, das es zu erklären und zu gewichten gilt. Die persönliche Erfahrung jedes einzelnen ist ‚privat‘ im strengsten Sinne; niemand anderes kann sie einsehen. Und was immer wir uns an Erklärungsmodellen erarbeiten, sie alle setzen diese Privatheit des subjektiven Erlebens als primäre Basis voraus.(vgl. S.199)
8. Kauffman zitiert Descartes in diesem Kontext als jener Philosoph, der das Selbstbewusstsein in Form eines sich gewissen Denkens als primären, einzig nicht bezweifelbaren Punkt aller Erkenntnis angenommen hatte Descartes (1596-1650). In seinen weiteren Reflexionen und Analysen hatte Descartes dann die Konkretheit, Veränderlichkeit und Zufälligkeit des Körpers, der ganzen Körperwelt und der darauf aufbauenden Wahrnehmung als ontologisch verschieden zu der Klarheit, Allgemeingültigkeit und Zuverlässigkeit des Denkens zum Ausgangspunkt genommen für das Postulat, dass das Denken einer anderen Substanz als jener der veränderlichen Körperwelt zugehöre. Daraus ergab sich für ihn eine Art ‚Dualismus‘ des Veränderlichen gegenüber dem Unveränderlichen. Diese Dualismus-Hypothese brachte eine Reihe von Denkproblemen mit sich.(vgl.S.199)
9. Aufgrund der fortschreitenden Erkenntnisse, wie der Körper, speziell das Nervensystem und hier das Gehirn, funktionieren, hat sich heute vielfach die Hypothese von der ‚Identität von Gehirn und Geist‘ durchgesetzt (hier als Oberbegriff für die verschiedenen Spielarten einer Gehirn-Geist-Identätstheorie. Diese Identitätstheorie schließt die Dualismus-Hypothese von Descartes aus. Kauffman sagt, dass er diese Gehirn-Geist-Identitätstheorie übernimmt, sie aber dann mit dem quantenphysikalischen Modell vereinen möchte.(vgl.S.199) In diesem Kontext sollte man auch die klassische Neurobiologie nennen, für die Kauffman als Vertreter Christof Koch zitiert. Diese nimmt an, dass es zu allen Phänomenen des Bewusstseins entsprechende neuronale Strukturen und Prozesse gibt, die kausal verantwortlich sind für das Auftreten der bewussten Ereignisse. Im Detail stellen sich hier eine Menge von ungelösten Fragen. Auch kann man von den neurologischen Daten D_nn in keiner Weise direkt auf Phänomene (= Ereignisse des individuellen Bewusstseins) D_ph schliessen. Ein geeigneter theoretischer Rahmen fehlt. (vgl. S.202f)
10. [Anmerkung: Wie schon verschiedentlich in diesem Blog angemerkt, ist die Bezeichnung ‚Geist-Identitätstheorie‘ aus philosophischer Sicht mindestens unglücklich in der Wortwahl. Da die Neurowissenschaften empirisch Daten D_nn aus der 3.Person-Perspektive haben, Daten zum Selbstbewusstsein D_ph aber nur in der 1.Person vorliegen, haben wir zwei verschiedene Datenbereiche, die ontologisch vollständig verschieden sind (D_nn cut D_ph = 0). Hier von einer ‚Identität‘ zu reden ist sehr irreführend und sachlich falsch. Denkbar wäre, dass es zu jedem Datenbereich eine Theorie TH(D_nn), TH(D_ph) gibt (bis heute hat dies aber noch niemand geschafft), und sich zwischen den verschiedenen Theorien irgendwelche Abbildungsbeziehungen konstruieren lassen (wer wird der erste sein?). Rein formal hätten wir dann irgendwelche ‚Morphismen‘, deren ontologische Deutungen dennoch keine Identität zulassen würden. Es scheint, dass sich die Philosophen die Sache mit der Identitätstheorie etwas einfach machen. Eine solche korrigierte Formalisierung führt aber weder zurück zu einem Dualismus a la Descartes noch zu einem Idealismus a la George Berkeley (1685-1753). Dies sollte an anderer Stelle weiter diskutiert werden.]

SPRACHNAHE PHILOSOPHIE

11. Kauffman erwähnt auch noch die ’sprachnahen‘ Philosophen Gilbert Ryle (1900 – 1976) und John Searle (1932 – ), die bei ihren Analysen des Verhaltens (einschließlich Sprechens) auf eine Einbeziehung des Begriffs ‚Bewusstsein‘ verzichteten mit der Begründung, dass der Begriff ‚Bewusstsein‘ kaum klar zu fassen sei. Damit wiederholen Sie aber eigentlich nur Positionen von Ludwig Wittgenstein (1889 – 1951), der die Problematik jeglicher sprachlicher Bedeutung zuvor schon in vielfältigen Analysen aufgedeckt hatte.(vgl.S.200)
12. [Anmerkung: entsprechend der allgemeinen Erkenntnistheorie, die den Überlegungen in diesem Blog zugrunde liegen, haben wir es grundsätzlich mit drei heterogenen Datenbereichen zu tun (D_nn, D_ph, D_sr (= Verhalten, 3.Person)), deren saubere Aufarbeitung und Integration in einer umfassenden Theorie bis heute nicht einmal in Ansätzen vorliegt. Es gibt ja nicht einmal Konsensus über die Besonderheit dieser drei Datenbereiche geschweige denn einen Konsens, dass und wie man damit umgehen soll. Diesen Mangel an erkenntnistheoretischem und dann auch wissenschaftstheoretischem Konsens merkt man überall auf Schritt und tritt.]
13. Kauffman erwähnt auch noch die Philosophen Paricia Smith Churchland (1943-) und Owen Flanagan (1949 – ) im Kontext der Diskussionen zur ‚Einheit des Bewusstseins‘. Während das Bewusstsein in der subjektiven Perspektive als ‚eines‘ erscheint deuten die medizinischen Befunde drauf hin, dass sich das Bewusstsein aus vielen Teilleistungen zusammensetzt, die einzeln und partiell verändert werden oder ganz ausfallen können, ohne dass deswegen das subjektive Gefühl eines ‚einzigen einen Bewusstseins‘ verschwindet.(vgl. S.200)

STARKE KI

14. Es wird dann die sogenannte ‚Starke Künstliche Intelligenz-Hypothese‘ erwähnt, die annimmt, dass bei einer genügend großen Anzahl von verknüpften rechnenden Elementen ‚ab einem bestimmten Punkt automatisch‘ ‚Selbstbewusstsein‘ entstehen würde. Als einziges hartes Argument gegen diese Hypothese führt Kauffman die die Hypothese an, dass die starke KI-Hypothese voraussetze, dass diese intelligenz ‚algorithmisch‘ sein müsse und dass nach Kauffman der ‚Geist‘ (‚mind‘) vermutlich niht algorithmisch sei.(vgl. S.201f)
15. [Anmerkung: Die Formulierung der starken KI-Hypothese (’strong artificial intelligence hypothesis‘, ’strong ai-hypothesis‘) geht zurück auf den Philsophen John Searl (s.o.) und ist alles andere als sehr klar. Nicht nur sind die verwendeten Begriffe in sich oft unscharf, sondern – wie die sehr ausufernde Diskussion zeigt – ist die ganze Problemstellung alles andere als klar. Mit einem Satz festzustellen, dass sich das Problem erledigt habe, weil klar sei, dass der ‚Geist‘ nicht algorithmisch sei, stellt daher möglicherweise eine grobe Vereinfachung dar. Abgesehen davon spring Kaufman von dem Begriff ‚Selbstbewusstsein‘ einfach zum Begriff ‚Geist‘ dabei unterstellend, dass beide Begriffe hinreichend ähnlich seien. Das aber ist eine schwierige Frage. Ich sehe keinen einfachen Zusammenhang zwischen beiden Begriffen. ]

SELBSTBEWUSSTSEIN UND QUANTENPHYSIK

16. Den nächsten sehr langen Abschnitt leitet Kauffman ein mit der Bemerkung, dass er und Penrose davon ausgehen, dass das Selbstbewusstsein (‚consciousness‘) von sehr speziellen physikalischen Bedingungen abhängt. [Anmerkung: Eine Assoziation zu Descartes kühner Arbeitshypothese, die denkende Materie (res extensa) mit der kontingenten Materie (res extensa) über die ‚Zirbeldrüse‘ verknüpft zu denken, drängt sich unwillkürlich auf. Descartes wusste nicht wirklich, was dieses ‚Selbstbwusstsein‘ mit dem ‚Ich denke‘ genau ist; es erschien ihm ‚anders‘ als die kontingente materielle Körperwelt. Um diesen logischen Bruch denkerisch zu kitten erfand Descartes die Hypothese mit der Zirbeldrüse. Niemand würde sie heute so nehmen, wie Descartes sich das gedacht hatte. Doch das Vorgehen von Kauffman an dieser Stelle wirkt ähnlich. Bislang konnte er in keiner Weise erklären, was er wirklich mit ‚Selbstbewusstsein‘ oder gar ‚Geist‘ meint. Dennoch entwickelt er eine neue Hypothese, dass bestimmte quantenphysikalische Besonderheiten die Grundlage für eben jenes Unbekannte sein könnten… Rein logisch ersetzt hier die Spekulation über die Quantenphysik den cartesischen Begriff der Zirbeldrüse ohne zu große Aussicht auf mehr Klarheit (allerdings erweitert sich der Raum möglicher Hypothesen natürlich erheblich und ich stimme Kauffman soweit zu, dass jede tatsächlich weiterführende Antwort nur unter Einbeziehung der Quantenphysik funktionieren wird). ](vgl. S.203f)
17. Das leitende ‚Motiv‘ für die Einbeziehung der Quantenphysik ist das schon zuvor mehrfach erwähnte Argument, dass der menschliche Geist (‚mind‘) ’nicht algorithmisch‘ sei, was nach Kauffman nicht impliziert, dass er völlig ‚akausal‘ (‚acausal‘) sei. [Man beachte, das er beständig zwischen den Begriffen ‚Geist‘ (‚mind‘) und ‚Selbstbewusstsein‘ (‚consciousness‘) hin und her springt obgleich beide Begriffe nach meinem Verständnis sehr verschieden sind und beide Begriffe bislang sich jeder Definition weitgehend entziehen. Man könnte stattdessen auch einfach von ‚S‘ und ‚G‘ reden, diese wechselweise vertauschen und davon sprechen, dass sie nicht algorithmisch seien. Die argumentative Luft, in der sich Kauffman hier bewegt, ist sehr dünn geworden. Daneben ist auch die Aussage, ‚G‘ bzw. ‚S‘ sei nicht algorithmisch letztlich kaum zu verstehen. Ist doch mehr oder weniger unklar, was es heißen würde, dass S-G ‚algorithmisch‘ seien (das hatte Kauffman zuvor nicht wirklich erklärt. Aber er hat dafür argumentiert, dass es nicht so sei…).] (vgl. S.204)
18. Die Einbeziehung der Quantenphysik führt zu dem generellen Paradox, dass die Quantenwelt als solche nur aus Wahrscheinlichkeitsverteilungen besteht, die als solche ‚akausal‘ sind, während die ‚reale = makroskopische‘ Welt aktuelle konkrete Instanzen präsentiert, die in bestimmten Perspektiven ‚kausale Muster‘ erkennen lassen.(vgl. S.204f) Kauffman zitiert dann Richard Feynman (1918 – 1988) mit Beispielen, die diese Eigenschaften illustrieren sollen. Der entscheidende Punkt aber ist der Übergang vom unbeschränkten Quantenzustand zu einer ‚Aktualisierung‘, bei der/ in der wichtige Quanteninformationen verlorengehen. Als Erklärungsversuch für diesen Übergang verweist Kauffman auf die Dekohärenztheorie als zur Zeit am meisten akzeptierte theoretische Beschreibung dieser Aktualisierungsphänomene.(vgl. SS.205-208)
19. Es ist genau dieses Dekohärenzphänomen was Kauffman dann aufgreift, um damit die Interaktion zwischen einem ‚quantenphysikalischen kohärentem selbstbewussten Geist (qkSG)‘ und ‚Aktualisierungen in der klassischen physikalischen Welt‘ zu interpretieren.[Anmerkung: War zuvor schon der Status der Begriffe ‚Selbstbewusstsein (S)‘ und ‚Geist (G)‘ je für sich schon unklar, wird diese Unklarheit durch die Kombination ’selbstbewusster Geist (SG)‘ (‚conscious mind‘) nicht unbedingt besser.] Auf jeden Fall ist die Einwirkung dieses qkSG auf die Materie nicht kausal. Andererseits stellt Kauffman fest, dass der Vorgang der Dekohärenz bislang kaum verstanden ist. (vgl. S.208) [Anmerkung: Damit verknüpft sich die unklare Bedeutung von SG mit der Unklarheit der postulierten Dekohärenz. ] Dann setzt Kauffman den bislang kaum fassbaren Begriff qkSG mit der ‚res cogitans‘ von Descartes gleich und die aktualisierte Materie mit der ‚res extensa‘.(vgl. S.209). [Anmerkung: Dies ist eine stimulierende Überlegung, aber wenn vor der Einführung von qkSG schon keine wirkliche Bedeutung für SG – geschweige denn qkSG – verfügbar war, dann führt uns diese Gleichsetzung auch nicht weiter. Descartes hatte keine wirkliche Definition für seine ‚res cogitans‘. Bei ihm war es eine Vermischung von phänomenalen Eigenschaften erweitert um Spekulationen über eine mögliche allgemeine (ideale) Natur des ‚Geistes‘, ein Begriff, der als solcher keine wirkliche Bedeutung besitzt. Möglicherweise könnte man in einer ‚Metatheorie‘ zur Phänomenologie ein paar allgemeinere Begriffe ‚jenseits der Phänomene‘ einführen, ihr ontologischer Status wäre aber unklar. Descartes hat dies nicht getan und ich kenne auch keinen anderen Philosophen, der dies bislang wirklich geschafft hat. Den cartesischen Begriff ‚res cogitans‘ hier zu benutzen täuscht daher eine Bedeutung vor, die es so nicht gibt.]
20. In diesem Kontext führt Kauffman auch den Begriff ‚immateriell‘ (‚immaterial‘) ein und definiert ihn als eine mögliche Eigenschaft im quantenphysikalischen Raum, die ’nicht objektiv real‘ ist. (vgl. S.209)
21. Interessant ist auch das Phänomen, dass ein kohärenter quantenphysikalischer Zustand beim Auftreten von Dekohärenz nicht aufgehoben werden muss. Es gibt Beispiele dafür, dass Dekohärenz auftreten kann und der kohärente Zustand bleibt weiter bestehen bzw. dass es Mechanismen gibt, Kohärenz/ Dekohärenz kontrolliert zu nutzen. Dazu gehören auch neuere Modelle, wie Quanten-Computer funktionieren könnten. (vgl. SS.210-214) Aufgrund eigener Untersuchungen hält Kauffman es für möglich, dass jede Zelle so strukturiert ist, dass kohärente quantenphysikalische Austauschprozesse zwischen den Proteinen möglich sind. (vgl. S.220) Das Phänomen der Qantenverknüpftheit (‚quantum entanglement‘) verweist zusätzlich auf das Phänomen, dass Quanten in beliebiger Entfernung voneinander gemeinsame Eigenschaften haben können. (vgl. S.222)

REDUKTIONISMUS ABGEMILDERT DURCH EMERGENZ

22. Kauffman stellt dann nochmals fest, dass im Falle, dass seine Überlegungen zur Quantennatur des Geistes stimmen würden, also die angenommene Verlagerung des Geistes in den Quantenraum, der über Kohärenz/ Dekohärenz mit dem makroskopischen Raum der Körper interagiert, dass diese Annahme auch eine Art ‚Reduktionismus‘ darstellen würde, einen Reduktionismus, den er zu Beginn seines Buches ja gerade bekämpft hat. Er schwächt dann aber ab, indem er darauf verweist, dass sich aus diesem Reduktionismus von Geist auf quantenphysikalische Strukturen nichts deterministisch ableiten lässt. Nahezu alle Phänomene der biologischen Evolution repräsentieren Strukturen, die sich in dieser Konkretheit aus dem vorausgesetzten quantenphysikalischen Raum nicht voraussagen lassen. (vgl. S.222f)

DIE HARTEN ARGUMENTE GEGEN DEN GEIST HARREN EINER ANTWORT

23. Abschließend zu seinem Kapitel über die Hypothese, den ’selbstbewussten Geist‘ quantenphysikalisch zu interpretieren, listet Kauffman nochmals drei zentrale philosophische Argumente gegen die Annahme eines ‚Geistes‘ als unterschieden vom Gehirn an, die beantwortet sein wollen.
24. Als erstes verweist er nochmals auf den Ephiphänomenalismus, der die geistigen Phänomene als Begleiterscheinungen einer aktiven neuronalen Maschinerie sieht, da es bislang an überzeugenden Argumenten fehlt, die erklären, wie der ‚Geist‘ (für den es als solchen keine überzeugende Beschreibung gibt), auf das Gehirn, auf den Körper einwirken kann.(vgl. S.224) Dazu gehört auch das Problem, dass es völlig unklar sei, wie ‚Geist‘ direkt auf ‚Geist‘ wirken könne ohne Einbeziehung neuronaler Prozesse. (vgl. S.224f) Kauffman verweist darauf, dass, könnte man die Hypothese einer quantenphysikalischen Interpretation eines selbstbewussten Geistes qkSG beweisen, sich diese Probleme auflösen würden, da ein qkSG auf vielfache Weise mit sich selbst interagieren könnte ohne über den Umweg neuronaler Prozesse und doch zugleich auch über Dekohärenz neuronale Prozesse beeinflussen könnte. (vgl. S.225f)
25. Als zweites Problem erwähnt Kauffman das Problem der subjektiven Erfahrung selbst, oft das Problem der Qualia (DE)/ Qualia (EN) genannt. Hier sagt Kauffman, dass es bislang völlig unklar ist, ob und wie eine quantenphysikalische Interpretation von Geist hier neue Interpretationsansätze liefern kann. [Anmerkung: Schaut man in die Wikipediastichworte – sowohl in der deutschsprachigen wie auch in der englischsprachigen Version – nach, wird man schnell feststellen können, dass die Sachlage in diesem Bereich nur als ‚verworren‘ bezeichnet werden kann.] Allerdings bemerkt Kauffman zurecht, dass wir aus der Tatsache, dass momentan noch keiner eine schlüssige Erklärung auf der Basis der Quantenphysk anbieten kann, auch nicht folgt, dass es keine gibt. Aktuell ist nicht auszuschließen, dass es später mal eine brauchbare Erklärung geben kann. (cgl. S.226f)
26. Das dritte und letzte genannte Problem ist das Phänomen des freien Willens (EN)/ freien Willens (DE). Kauffman thematisiert zunächst den Aspekt des ‚Nicht-Determiniert-Seins‘ als einer Forderung an das Gegebensein eines freien Willens. Würde die quantenphysikalische Interpretation stimmen, dann sähe er hier eine Möglichkeit, das Determinismusproblem zu lösen. Bezüglich des zweiten Aspekts der ‚moralischen Verantwortung‘ bleibt er einen Hinweis schuldig. (vgl.S.227f) [Anmerkung: Liest man sich in die Wikipediastichworte ein, so sieht man nicht nur, dass es – wie meistens – zwischen der deutschen und der englischen Version große Unterschiede gibt, sondern wie vielschichtig und damit letztlich unklar das Konzept des freien Willens ist. Generell spielt es in der Alltagskultur der westlichen Länder eine zentrale Rolle, insbesondere im Rechtssystem, aber seine philosophische Behandlung ist alles andere als zufriedenstellend.]
27. Damit ist das Ende der beiden Kapitel über den Geist erreicht. Trotz vieler kritischer Anmerkungen im Detail – eine abschließende Reflexion wird noch folgen – waren dies außerordentlich anregende Kapitel. Für Kauffman war es wichtig, zu zeigen, dass das Phänomen des ‚Selbstbewusstseins‘ [hier lässt er den Begriff ‚Geist‘ wieder mal weg] ein natürliches Phänomen ist, ein genuiner Teil der Evolution, den zu erklären, es keines ‚Schöpfergottes‘ (‚creator god‘) brauche.(vgl. S.229)
28. [Anmerkung: Seinen Schlusssatz, dass man für dies alles keine Annahme über einen ‚Schöpfergott‘ brauche, macht natürlich nur Sinn, wenn man den Begriff ‚Schöpfergott‘ in einer Weise definiert, der den bekannten naturwissenschaftlichen Daten zum evolutionären Prozess widerspricht. Dies muss aber keinesfalls so sein. Denn schon in der jüdisch-christlichen Tradition gibt es ja nicht einen einzigen, klar definierten Gottesbegriff, sondern die vielen verschiedenen Schriften der Bibel zeichnen sehr unterschiedliche Bilder. Dazu kommt, dass nirgends explizit von der Evolution die Rede ist, da ja die Menschen zu den Zeiten, als die Texte der Bibel verfasst worden sind, von all dem nichts wussten. Und die wenigen Texte, die direkt Bezug nehmen auf die Entstehung der bekannten Welt – insbesondere die beiden sogenannten ‚Schöpfungsberichte‘ zu Beginn des Buches Genesis – sind sprachlich und inhaltlich so verschieden (weil sie aus verschiedenen Zeiten von verschiedenen Autoren stammen), dass sich jede weiterreichende Interpretation auf der Basis dieser beiden Texte verbietet. Zumindest in der christlichen Tradition gibt es kein klar definiertes Bild eines Schöpfergottes, das den neueren naturwissenschaftlichen Erkenntnissen entgegen stehen würde (wobei man bedenken sollte, dass sich innerhalb der Wissenschaft die naturwissenschaftlichen Bilder von der Welt mindestens seit Galilei immer wieder und stark verändert haben. Gerade in unserer Zeit durchläuft die Wissenschaft in vielen Bereichen wieder einmal grundlegende Korrekturen, deren Ende noch gar nicht abzusehen sind). Das Wenige, was sich von einem christlichen Gottesbegriff ableiten lässt deutet eher auf eine Art ‚Koevolution von Allem‘ hin, in der dem Leben (speziell dem Menschen?) eine besondere Rolle zugedacht ist. Worin die genau besteht, ist eher unklar und muss von den Handelnden selbst schrittweise ermittelt werden (falls es überhaupt eine mögliche Klärung gibt). Ich habe nicht den Eindruck, dass sich innerhalb des Christentums irgendjemand für diese Klärung des Gesamtzusammenhangs ernsthaft interessiert. Man hört höchstens immer wieder von obskuren Abwehrschlachten von sogenannten ‚Fundamentalisten‘, die offensichtlich ihre eigene Bibel nicht kennen.]

Die Fortsetzung findet sich HIER: Teil 7.

Ein Überblick über alle bisherigen Blogeinträge nach Titeln findet sich HIER

REDUKTIONISMUS, EMERGENZ, KREATIVITÄT, GOTT – S.A.Kauffman – Teil 3

Vorausgehender Teil 2

Letzte Änderung (mit Erweiterung): 24.März 2013

ZUSAMMENFASSUNG TEIL 1-2:

(1) Nach einer Charakterisierung des ‚Reduktionismus‘ am Beispiel der modernen Physik führte Kauffman verschiedene Argumente gegen diesen Reduktionismus an. Daraus und aus weiteren Argumenten formte er dann Argumente für die Nichtreduzierbarkeit des Biologischen auf das Physikalische. Diese führten dann zurück zum Ursprung des Lebens, zur unglaublichen Komplexität dieses Anfang und zugleich der anhaltenden Schwierigkeit, diesen Anfang plausibel erklären zu können. Kauffman präsentiert dabei auch ein eigenes Modell, das Modell der autokatalytischen Mengen, das — zumindest mathematisch – viele der wichtigen Fragen zu erklären scheint. Die dann folgenden Gedanken sind sehr ‚dicht‘ und kombinieren mehrere komplexe Konzepte: z.B. Begriffe wie ‚Bedeutung‘, ‚Wert‘, ‚Handeln‘, ‚Handelnder‘, ‚Zeichen‘ als wichtige Eigenschaften des Biologischen. Dazu die Frage nach möglichen Vorläufern, nach ‚allerersten Handelnden‘, sozusagen ‚Protoagenten‘. Zusätzlich wird angenommen, dass sich auf das Verhalten eines biologischen Systems der Begriff ‚zielgerichtet‘ anwenden lässt, der weitere Begriffe wie ‚Bedeutung‘, ‚Wert‘, ‚Absicht‘ und ‚Handelnder‘ impliziert. Schon auf der Ebene einer einzelnen Zelle sieht Kauffman alle wichtigen Eigenschaften als gegeben an: Zellen können ‚entdecken‘ (‚detect‘), sie haben eine ‚Wahl‘ (‚choice‘), und sie können ‚handeln‘ (‚act‘). Zusätzlich können sie sich ‚reproduzieren‘ und können mindestens einen ‚Arbeitszyklus‘ (‚work cycle‘ (im Sinne einer Carnot-Maschine) ausführen. Zusätzlich aber, und dies hebt Kauffman hervor, benötigen diese Systeme die Fähigkeit, diese Zufuhr von freier Energie zu organisieren. Dazu gehört die Fähigkeit der ‚Speicherung‘ von Energie und der Selbstreproduktion. Kauffman schlägt vor, diese ‚Zielgerichtetheit‘, die ein außenstehender Betrachter in solch einem evolutionären Prozess ‚erkennen‘ kann, als eine spezifische Eigenschaft solcher Systeme zu sehen, die er ‚Handlungsfähigkeit‘ (‚agency‘) nennt. Am Beispiel eines einfachen Bakteriums verdeutlicht Kauffman diese Begriffe weiter und führt an dieser Stelle fundamentale Begriffe kognitiver Prozesse ein wie ‚Semiose‘, ‚Zeichen‘, ‚Bedeutung‘, Absicht‘ usw. In diesem Zusammenhang erwähnt Kauffman nochmals David Hume (1711 – 1776), der die philosophische These aufgestellt hatte, dass man aus einem einfache ‚Sein‘, aus bloßen ‚Fakten‘, kein ‚Sollen‘ ableiten kann. Die zuvor von Kauffman vorgelegte Interpretation eines Proto-Handelnden würde dies einerseits bestätigen (der Gradient als solcher impliziert nichts), aber andererseits würde deutlich, dass ein Faktum (der Gradient) innerhalb der Beziehung zu einem System, das diesen Gradienten als ‚Zeichen‘ für etwas ‚interpretieren‘ kann, das für das System einen ‚Wert‘ darstellt, in den ‚Kontext eines Sollens‘ geraten kann, das vom interpretierenden System ausgeht. Während Arbeit für einen Physiker nach Kauffman beschrieben werden kann als eine ‚Kraft die über eine Distanz wirken kann‘, reicht dies nach Peter Atkins (Chemiker) nicht aus: Arbeit nimmt auch Bezug auf ‚Einschränkungen‘ (‚constraints‘), durch die die Freiheitsgrade verringert werden und diese Einschränkungen wiederum erlauben neue Arbeit. Er nennt dies das ‚Vorantreiben der Organisation von Prozessen‘ (‚propagating the organization of processes‘). Er erwähnt in diesem Zusammenhang den Unterschied zwischen ‚Wärme‘ (‚heat‘) und ‚Arbeit (‚work‘). Die maximale Verschiedenheit von Bewegungen in einem Gas liegt vor, wenn die Moleküle eine maximale Bewegungsfreiheit haben, also ein Minimum an Einschränkungen. Dieser Zustand erzeugt ‚Wärme‘ aber leistet keine ‚Arbeit‘. Um ‚Arbeit‘ zu verrichten muss man die Freiheitsgrade ‚einschränken‘. Kauffman kritisiert ferner das sehr verbreitete Konzept der ‚Information‘ nach Shannon bzw. das algorithmische Informationskonzept von Kolmogorov und meint, dass dieser Informationsbegriff zu kurz greift. Beiden Konzepten ist gemeinsam, dass sie letztlich nur nach der Menge der Informationen fragen, die übermittelt wird, aber vollständig offen lassen, ‚was‘ Information denn letztlich ist.
(2) [ANMERKUNG: Schon die bisherigen Ausführungen zeigen, dass Kauffmans Reflexionen sich komplexer Begriffe (‚Handelnder‘, ‚Semiose‘,…) bedienen, die er von ‚außen‘ an das ‚Phänomen‘ heranträgt. Die Phänomene selbst ‚zwingen‘ diese Begriffe ’nicht‘ auf; als reflektierender Beobachter kann man aber bei Kenntnis solcher Konzepte ‚Ansatzpunkte im Phänomen‘ sehen, die die Anwendung solcher Begriffe ’nahelegen‘. Folgt man seinen Deutungsvorschlägen, dann kann man in der Tat zwischen den Phänomenen und den vorgeschlagenen Begriffen eine Reihe von Zusammenhängen ‚erkennen‘, die die ‚reinen Fakten‘ in ‚komplexe Phänomene‘ ‚verwandeln‘, die sich einer aktuell möglichen physikalischen Interpretation entziehen.]
(3) Auf den SS.101-119 untersucht Kauffman unter der Überschrift ‚Order for Free‘ verschiedene mathematische Modelle, die emergente Phänomene simulieren. Auf die technischen Details gehe ich hier nicht weiter ein. [Anmk: Ich werde diese Modelle ab SS2013 im Rahmen meiner Vorlesungen testen und dann gelegentlich nochmal darüber berichten. Für die zentralen Aussagen der folgenden Kapitel spielen die Details keine Rolle.]

NICHTERGODISCHES UNIVERSUM

(4) Auf den SS 120-128 untersucht Kauffman das ‚Nichtergodische Universum‘ (Nonergodic Universe‘). Mit ‚Ergodizität‘ (‚Ergodicity‘) ist eine gewisse ‚Gleichheit‘ gemeint, die sich in der Gesamtheit der Ereignisse feststellen lässt, die unter Voraussetzung einer ‚Endlichkeit‘ eine ‚Wiederholbarkeit‘ impliziert. ‚Nichtergodizität‘ meint dann, dass nicht alle Ereignisse gleich häufig sind; damit wird das, was tatsächlich vorkommt, ‚besonders‘. Und Kauffman geht davon aus, dass die Entwicklung des Universums in allen bekannten Phasen in diesem Sinne besonders, ‚einzigartig‘ (‚unique‘) ist und sich hierin ’nicht wiederholt‘. (vgl. S.120f)
(5) Mittels einer Modellrechnung versucht er dies zu verdeutlichen: er nimmt das Beispiel von Proteinen mit jeweils L=200 Aminosäurebausteinen (tatsächliche Proteine können erheblich länger sein). Nimmt man an, dass 20 verschiedene Aminosäurebausteine verfügbar sind, dann ergibt sich die Menge aller möglichen Kombinationen als 20^200, dies entspricht 1.6 * 10^260. Als Alter des Universums nimmt er 10^17 s an. Ferner nimmt Kauffman beispielhaft an, dass für die Bildung eines Moleküls 10^-15 s benötigt würden. Er errechnet dann die Zahl von 10^67 Wiederholungen der gesamten Geschichte des Universums, um alle möglichen Poteine zu bilden [Anmk1: ich hatte 1.6*10^213 errechnet]. [Anmk2: Die Annahme von Kauffman setzt voraus, dass die Proteine nacheinander gebildet werden. Würde man annehmen, dass der Bildungsprozess parallel stattfinden würde, könnten natürlich zur gleichen Zeit viel mehr Proteine gebildet werden. Nimmt man – sehr idealisierend – an, dass sich innerhalb von 10^-15 s 10^80 Proteine bilden würden, dann wären dies innerhalb eines Durchlaufs des Universums vom BigBang bis heute 10^112 verschiedene Proteine. Das entspräche einem verschwindend kleinen Prozentsatz von 9.95*10^-111 % aller möglichen Proteine (der Länge 20). Das würde bedeuten, dass die Geschichte des gesamten Universums auch in diesem extrem unwahrscheinlichen Fall paralleler Erzeugung noch 1.6*10^148 mal wiederholt werden müsste, um alle möglichen Proteine der bescheidenen Länge L=200 zu bilden. Die Annahme eines ergodischen Universums für den Bereich der biogenen Moleküle erscheint also als stark unzutreffend.]
(6) Und Kauffman merkt an, dass dieser nicht-ergodische Charakter sich auf alle komplexen Phänomene oberhalb der Atome erstreckt.(vl. S.123). [Anmk: In Abwandlung der Kauffmanschen Überlegungen zu den autokatalytischen Prozessen könnte man auch folgende Überlegung formulieren: bei allen Prozessen, in denen sich komplexe Strukturen aus einfacheren Strukturen bilden, beobachten wir, dass in einem bestimmten Raumgebiet R_i sich eine spezifische Anfangsmenge S_j von Strukturen gebildet hat, deren Nachfolgezustand nf(S_j)=S_(j+1) sich durch Stattfinden bestimmter endlicher Veränderungen ’nf‘ (Operationen) bilden. D.h. die Menge der möglichen nachfolgenden Strukturen ist nachhaltig bestimmt durch die vorausgehende Stufe. Dadurch wird die Menge der ‚formal möglichen‘ Strukturen eingeschränkt auf die Menge der ‚historisch möglichen‘ Strukturen. Dies kann ’negativ‘ wirken im Sinne einer unnötigen Beschränkung. Man kann diesen Prozess aber auch so verstehen, dass die zu einem bestimmten Zeitpunkt ‚erreichten‘ Strukturen eine Art ‚Strukturgedächtnis‘ bilden von dem, was möglich ist. Die nachfolgenden Zeitpunkte müssen also nicht bei ‚Punkt Null‘ anfangen sondern können die ‚bisherigen Erfahrungen‘ nutzen. Das wiederum wäre im Sinn einer ‚Wissensbildung‘ ein ‚positiver‘ Fortschritt und wäre genau jene Form von ‚Beschleunigung‘, die die realen evolutionären Prozesse von den formalen Modellen reiner Zufälle unterscheidet. Da sich ferner nur solche Strukturen auf Dauer behaupten können, die sich im Kontext ‚bewähren‘, weil sie den ‚Gegebenheiten entsprechen‘, bilden solche ‚memorierten Strukturen‘ nicht nur eine ’neutrale, zufallsgesteuerte‘ Selektion, sondern eine ‚ko-evolutive‘ Entwicklung im Sinne eines strukturellen ‚Echos‘ auf das, was durch die Vorgabe der jeweiligen Umgebung ‚erwartet‘ wird.] Und nach weiteren spekulativen Modellexperimenten (vgl. S.123ff) folgert er dann, dass durch das Aufkommen von nichtergodischen = historischen Prozessen die Gewinnung von zureichenden Wahrscheinlichkeiten im realen Universum prinzipiell nicht möglich ist (höchstens unter sehr speziellen Randbedingungen). Damit gewinnt das Universum einen sowohl nicht-zufälligen Charakter und besitzt doch – quasi paradox — zugleich eine Nichtvoraussagbarkeit.(vgl.S.127f)

ADAPTION, PRÄADAPTION, KO-EVOLUTION

(7) Im folgenden Kapitel ‚Breaking The Galilean Spell‘ (etwa: Das Brechen von Galileis Zauber)(SS.129-149) versucht Kauffman nicht nur das, was er den ‚Zauber Galileis‘ nennt, ‚auszutreiben‘ (vgl.S.131), sondern auch – positiv – die Grundlage zu legen für seine ‚Wiederentdeckung des Heiligen‘.(vgl. S.130) Zur Erinnerung: Der ‚Zauber Galileis‘ besteht für Kauffman darin, dass die neue Form der wissenschaftlichen Beschreibbarkeit der Natur, die – natürlich nicht nur – mit Galilei begann und dann in den empirischen Wissenschaften (mit Newton, Schroedinger, mit Einstein usw.) eine ungeheuerliche Erfolgsgeschichte geschrieben hat, den Eindruck entstehen lies, als ob man das Verhalten der Natur mit einigen wenigen Gesetzen mathematisch vollständig beschreiben kann. Zeigten schon die Ausführungen in den vorausgehenden Kapiteln zur ‚Nichtergodizität‘ des Universums, dass diese Beschreibbarkeit nicht vollständig sein kann, so bringt jetzt Kauffmann nochmals speziell die biologische Evolution ins Spiel. Seine Hauptthese lautet: Das Biologische ist radikal nichtvorhersagbar und endlos kreativ. (vgl.S.130).
(8) Die zentralen Begriffe hier sind ‚Adaptation‘ und dann ‚Präadaptation‘. Mit ‚Adaptation‘ ist generell der Prozess gemeint, dass bestimmte genetisch kodierte Eigenschaften sich im Laufe der Interaktion mit den jeweiligen Umgebungen nicht nur generell ‚verändern‘ können, sondern dass es bestimmte Eigenschaften sind, die sich im Laufe der Zeit auf diese Weise ‚passend‘ zu einer bestimmten Umgebung ‚herausbilden‘. Diese biologische Eigenschaften (Kauffman macht dies am Beispiel der Entwicklung des Organs Herz fest) sind nach Kauffman weder erkenntnismäßig noch ontologisch mit den bekannten physikalischen Gesetzen voraussagbar. (vgl. S.131) Der Grund hierfür ist der Mangel an wiederkehrenden Eigenschaften. Weder sind jene Konstellationen voraussagbar, die zur Herausbildung des Herzens geführt haben, noch konnte man die dann tatsächliche Herausbildung des Herzens voraussagen, da die jeweiligen genetischen Kombinationen (nach Kauffman) prinzipiell nicht voraussagbar sind. ‚Prädaptation‘ ist eine Art Verfeinerung des Begriffs ‚Adaptation‘ dahingehend, dass es innerhalb einer genetischen Information Teilinformationen geben kann, die über lange Zeit hin keine besondere ‚Bedeutung‘ besaßen, bis irgendwann eine Konstellation Auftritt in der es plötzlich eine interessante ‚Verwendung‘ gibt. (vgl. S.131f) Berücksichtigt man den zusätzlichen Umstand, dass Adaptationsprozesse zeitgleich mit unzählig vielen anderen Adaptationsprozessen verlaufen, dann bilden solche Phänomene des sich ‚wechselseitig die Bälle Zuspielens‘ die Grundlage für das, was wir ‚Koevolution‘ nennen. Ein Adaptationsprozess alleine könnte noch so viele ‚Ansatzpunkte‘ (präadaptive Voraussetzungen) bieten; eine bestimmte Entwicklung würde nur stattfinden, wenn entsprechend parallel andere Entwicklungen zeitgleich auch verfügbar wären. Die in der Wechselwirkung sich dann zeigenden neuen Eigenschaften sagen etwas aus, über die beteiligten Prozesse, sind aber natürlich nicht voraussagbar im Sinne der klassischen Physik. Für eine Voraussagbarkeit würde man ein umfassendes Wissen aller möglichen künftigen Umgebungen benötigen samt der zugehörigen beteiligten adaptiven Prozesse. Nach Kauffman hat dieses Wissen niemand, es nicht verfügbar, also kann man auch nichts voraussagen. (vgl. S.132f).
(9) [Anmk: An dieser Stelle ist Vorsicht geboten. Zwar liegt hier sicher keine Voraussagbarkeit im Sinne der klassischen Physik vor, aber die klassische Physik wurde ja schon längst um die Quantenphysik erweitert. In der Quantenphysik weiß man deutlich weniger als im Falle von biologischen adaptiven Prozessen, und dennoch kann man quantenphysikalisch vieles ‚erklären‘. Ich halte es für möglich und wahrscheinlich, zu einer Theoriebildung im Zwischenbereich von Quantenphysik und klassischer Physik zu kommen, die mit beiden Bereichen ‚kompatibel‘ ist und die in der Tat die klassisch nicht voraussagbaren biologischen adaptiven Phänomene ‚erklären‘ und in gewisser Weise auch ‚voraussagen‘ kann. Dazu müsste man nur den Theoriebegriff entsprechend anpassen, was bislang – so scheint es – einfach noch niemand getan hat. Warum eigentlich nicht?]

KREATIVITÄT

(10) Durch diese wechselseitigen Abhängigkeiten der biologischen adaptiven Entwicklungen voneinander sind sie nicht nur schwer (bis garnicht) voraussagbar, sondern sie sind auch fragil, anfällig für ein kommendes Scheitern, wenn bestimmte Randbedingungen wieder wegfallen, die sie voraussetzen. (vgl. S.133) Identifiziert man diese ‚partiell gesetzlose‘ Situation mit ‚Kreativität‘ in dem Sinne, dass in einer ‚offenen‘ Situation beständig ’neue‘ Strukturen generiert werden, dann ist diese ‚endlose (‚ceaseless‘) Kreativität eine Form, die man mit dem Begriff ‚Gott‘ in Verbindung bringen kann, sozusagen eine natürliche Form von ‚Heiligkeit‘ (’sacred‘). (vgl.S.135) [Anmk: das englische Wort ’sacred‘, das Kauffman benutzt, ist eigentlich ein Adjektiv und kommt alleine als Substantiv eigentlich nicht vor. Er benutzt es aber so, wie wir im Deutschen das Wort ‚das Heilige‘ benutzen.]
(11) Auf die Frage, ob man die Gesetzeslosigkeit der biologischen adaptiven Prozesse ‚beweisen‘ könne, mein Kauffman mit Hinweis auf Goedels Unvollständigkeitsbeweis, dass die Voraussetzung für solch einen Beweis nicht gegeben seien, da mit der beständigen Erzeugung neuer nicht voraussagbarer Fakten kein vollständiges abgeschlossenes System vorliege, das einen solchen Beweis erlaube. (vgl.S.135)[Anmk: Das scheint mir zu wenig. Es geht ja hier nicht um die Fakten im einzelnen, sondern um die strukturellen Rahmenbedingungen, unter denen bestimmte Fakten auftreten bzw. nicht auftreten. Ich sehe zwar momentan auch niemanden, der einen solchen Beweis dafür oder dagegen bislang geführt hat, aber ich würde momentan nicht ausschließen wollen, dass wir zumindest mehr sagen können, als es Kauffman hier tut. Immerhin legt er hier den Finger auf die ‚Wunde’… ]

Teil 4

Einen Überblick über alle vorausgehenden Einträge in den Blog nach Themen findet sich HIER

EMERGENTE PHÄNOMENE, BEOBACHTER, GEIST -Teil 2

(Dieser Beitrag bildet die Forsetzung von Überlegungen aus einem vorhergehenden Beitrag)

Eine Schema, wie Leben im Universum entstehen konnte (in späteren Blogeinträgen weiter verfeinert)
Eine Schema, wie Leben im Universum entstehen konnte (in späteren Blogeinträgen weiter verfeinert)

UPDATE EVOLUTION

In einem Diagramm vom Dezember 2009 (siehe Bilde oben) hatte ich eine ‚Gesamtschau‘ der Evolution ‚in einem Bild‘ versucht. Dabei hatte ich eine Aufteilung in ’subatomar‘ und ‚atomar und komplexer‘ vorgenommen. Die Überlegungen kreisten seitdem meistens um die Phänomene oberhalb der atomaren Komplexitätsebene. Dabei schälten sich dann diverse interessante Problemstellungen heraus. In den letzten Monaten war es vor allem das Problem der ‚Emergenz‘, das mich mehr und mehr beschäftigte (sofern die normale Arbeit dazu überhaupt Zeit lies). In mehreren Anläufen, Texten und Vorträgen kam ich bis zu dem Punkt, dass die sich in den emergenten Phänomenen zeigende Funktionalität in keiner Weise durch Rekurs auf die beteiligten Komponenten alleine erklärbar ist (kein ‚Reduktionismus‘, (z.B. der molekulare Prozess der Selbstreproduktion in struktureller Entsprechung zum mathematischen Konzept einer Turingmaschine)) sondern eine Funktionalität auf einer ‚höheren Ebene‘ voraussetzt. Als möglicher ‚Raum für Funktionalitäten‘ bietet sich hier aber nur jener ‚Raum‘ an, innerhalb dessen es zu diesen Prozessen kommt. Hier gibt es nur den Raum der Atome bzw. den subatomaren Bereich. Die heutige Physik beschreibt diesen Raum u.a. mit den Mitteln der Quantenphysik. Als Nichtphysiker hält man dazu gewöhnlich einen gebührenden Abstand (die für die Beschreibung quantenphysikalischer Phänomene benutzte Mathematik ist für einen Nicht-Quantenphysiker in der Regel ‚unverdaulich‘; Ausnahme aber z.B. die Vorlesungen von Feynman (siehe Lit. unten).

QUANTENPHYSIK

An dieser Stelle kam eine entscheidende Anregung bei der fortdauernden Lektüre (jetzt wieder) von Kauffman (‚Reinventing…). Im Kap.13 des Buches referiert er wichtige Positionen der Philosophie des Geistes (einschließlich neurobiologischer Interpretationen), zeigt deren logischen Aporien bei der Erklärung von ‚Geist‘ und ‚Bewusstsein‘ durch Reduktion auf neuronale Aktivitäten auf und spielt dann diverse theoretische Szenarien durch, für die er Erkenntnisse der Quantenphysik benutzt. Zuerst fand ich dies eigentümlich, aber bei weiterem Lesen und Nachdenken habe ich den Eindruck, dass diese Überlegungen höchst interessant sind und nach allem, was ich bislang weiß, den einzig erkennbaren theoretischen Ansatzpunkt liefern, der im Einklang mit den empirischen Wissenschaften steht und doch der Besonderheit der emergenten Phänomene Bewusstsein und Geist eventuell gerecht werden könnte.

Quantum space and Classical Space; Below bodies being open in the direction of quantum space
Quantum space and Classical Space; Below bodies being open in the direction of quantum space

Die Grundidee ist recht simpel. Die empirisch-mathematischen Details beliebig schwierig. Ich habe folgendes verstanden (siehe Handskizze):

1. Im Bereich der subatomaren Teilchen (Quanten) lässt sich nur noch messen, wenn man dabei das zu messende Objekt verändert (Heisenberg, Unschärferelation). Viele kreative Experimente (siehe dazu z.B. das Büchlein von Feynman) legen die Interpretation nahe, dass die Teilchen sich in einem kontinuierlichen Raum möglicher Zustände aufhalten, in dem sie alle Zustände (aus unserer Sicht) quasi ‚gleichzeitig‘ einnehmen (mit unterschiedlichen Wahrscheinlichkeiten). Alles, was ‚geht‘ (Freiheitsgrade), ‚wird gemacht‘. Durch Versuchsanordnungen wird der Möglichkeitsraum punktuell ‚eingeengt‘ und der Raum ‚passt sich‘ den Versuchsanordnungen ‚an‘. Man ‚misst als Phänomen, was sich bei Unterstellung der wahrscheinlichen Verteilungen ergeben würde. Dazu gehören viele spezielle Effekte, die ich hier beiseite lasse.
2. Neben diesem Quantenraum als ‚grundlegender Realität‘ für die messbaren Phänomene gibt es aber auch den konkret realisierten physikalischen Zustand, wie wir ihn als ‚real uns umgebende Welt‘ erfahren. Dieser ‚klassische physikalische Raum‘ erscheint von dem Quantenraum mit seinen floatenden Möglichkeiten ‚abgekoppelt‘ (‚decoherent‘). Er stellt genau eine von unzählig vielen Möglichkeiten dar, was ‚hätte passieren können‘. Abkopplung heißt hier u.a. ‚Verlust an Informationen‘, herausgenommen aus dem ‚Phasenraum‘ der floatenden Möglichkeiten.
3. Trotz der Realität des konkreten klassischen physikalischen Raumes müssen wir annehmen, dass damit der parallel bestehende Quantenraum nicht vollständig aufgehoben wird; er besteht weiter, wahrt eine Kontinuität, bildet weiter die ‚Grundlage‘ für neue ‚Realisierungen‘.
4. Soweit ich bislang sehe ist diese ‚Koexistenz‘ von Quantenraum und konkreter Realisierung bislang nicht vollständig geklärt, speziell nicht die Frage, wie beständig Realisierungen (Dekohärenzen) stattfinden können, ohne den Quantenraum aufzuheben. Darüberhinaus ist nicht wirklich klar, warum es genau zu den bestimmten Realisierungen kommt, die aus unserer Beobachtersicht gewisse ‚Regeln‘ einhalten, obgleich der Quantenraum aus sich heraus nicht auf eine bestimmte Realisierungen abonniert ist.

META-FUNKTIONALITÄT

Die vorausgehenden Überlegungen sind natürlich extrem vereinfachend, lassen dadurch aber vielleicht die großen Linien hervortreten.

Bezogen auf die von mir geäußerte Vermutung, dass die emergenten Phänomene durch vorauszusetzende Funktionalitäten erklärt werden müssen würde durch Einbeziehung des Quantenraums zumindest dahingehend eine Verstärkung erfahren, dass der Quantenraum beliebig komplexe Funktionalitäten ‚beherbergen‘ kann. Aber hier stehen wir noch ziemlich am Anfang.

Kauffman bringt in seinem Buch mehrere Beispiele (z.B. S.210f, Photosynthese), wo anhand konkreter biologischer (chemischer, physikalischer) Prozesse nachgewiesen werden konnte, wie diese konkreten Prozesse nur erklärbar sind durch die Annahme des zugleich bestehenden Quantenraumes.

GEFANGEN IM KÖRPER ALS KOGNITIVE TÄUSCHUNG

Macht man sich diese Fundierung aller Makrophänomene im Quantenraum klar, dann folgt daraus, dass die scheinbare ‚Gefangenheit‘ unseres ‚Geistes‘ in einem konkreten, endlichen Körper, nur eine scheinbare ist. Der Körper ist (mit viel Fantasie auf der Handskizze in der unteren Hälfte erkennbar) in dieser Sicht nur so eine Art ‚Ausstülpung‘ des Quantenraumes an einem bestimmten Punkt in eine ‚vorübergehende Konkretisierung‘ bei gleichzeitiger Aufrechterhaltung der Einbettung in den Quantenraum. Dies bedeutet, bei näherer Betrachtung, dass jeder Mensch ‚in Richtung des Quantenraumes‘ ‚offen‘ ist. Dies wiederum bedeutet, dass jeder Mensch durch seine Einbettung in den Quantenraum mit jedem Punkt des bekannten Universums direkt kommunizieren kann. Diese Kommunikation — so sie stattfindet — verläuft mindestens mit Lichtgeschwindigkeit. Anders gewendet, sofern wir in den Quantenraum ‚eingebettet‘ sind ist jeder von uns zum übrigen Raum hin ‚vollständig offen‘. Im Quantenraum gibt es keine lokale Abgrenzung. Diese wird nur mit Hilfe des transienten Körpers für eine verschwindend kurze Zeit künstlich eingerichtet, um punktuell ‚Individualitäten‘ sichtbar zu machen.

Warum der Quantenraum diese punktuellen transienten ‚Ausstülpungen‘ vornimmt erschließt sich uns bislang nicht. Aber wir stehen ja auch mit dem Erkennen hier erst ganz am Anfang.

LITERATURHINWEISE
Richard P. Feynman (Author), A. Zee (Introduction), „QED: The Strange Theory of Light and Matter“, Publisher: Princeton University Press (April 4, 2006), ISBN-10: 0691125759, ISBN-13: 978-0691125756

Gerd Doeben-Henisch, Kurze Review online: http://www.amazon.com/gp/cdp/memberreviews/A1D6994DSB8K4M/ref=cm_cr_dp_auth_rev?ie=UTF8&sort_by=MostRecentReview

Kauffman, S.A., Reinventing the Sacred. A new View of Science, Reason, and Religion. New York: Basic Books, 2008 (Paperback 2010)

Eine Übersicht über alle bisherigen Blogeinträge anhand der Themen findet sich HIER