Archiv der Kategorie: Graph

REDUKTIONISMUS, ERMERGENZ, KREATIVITÄT, GOTT – S.A.Kauffman – Teil 1

ZUSAMMENHANG MIT DEM BLOG

Letzte Korrekturen: 23.März 2013

(1)Der Zusammenhang mit dem Blog besteht darin, dass im Blog der klassische Widerspruch zwischen ‚Geist‘ auf der einen Seite und ‚Materie‘ auf der anderen von vielen Seiten neu reflektiert wird. Dabei zeigte sich u.a. dass durch die Einbeziehung der neueren Erkenntnisse über das Biologische und seiner Entstehung die Phänomene des Biologischen zu einer neuen Sicht der Materie und der Energie führen können, zu einer Sicht, die deutlich macht, dass die klassische Sicht der Physik sich immer mehr als unbefriedigend erweist. Ergänzt wurden diese Reflexionen durch frühere Einträge im Blog, in denen auch die Sicht des ‚Geistes‘ aus Sicht der Philosophie dahingehend ‚aufgebrochen‘ worden sind, dass auch die klassische Philosophie im Lichte der neueren Erkenntnisse zum Leben ihre eigenen Erkenntnisvoraussetzungen neu bedenken kann und auch muss (dies wurde spätestens seit dem Vortrag in Bremerhaven offenbar!). Zwar bedeutet die Einbeziehung naturwissenschaftlicher Erkenntnisse eine ‚Verletzung‘ des klassischen philosophischen – und insbesondere des phänomenologischen – Paradigmas, aber es bedeutet keine vollständige Auflösung noch gar eine ‚Zerstörung‘ der Philosophie, sondern – möglicherweise – eine notwendige ‚Erneuerung‘, die schließlich dazu führen kann, die unselige Trennung zwischen Geistes- und Naturwissenschaften aufzuheben. Diese Trennung erscheint im neuen Denken als ein ‚Artefakt‘ des klassischen Denkens aufgrund falscher Voraussetzungen.
(2) Diese veränderte Sicht auf das Verhältnis zwischen ‚Geist‘ und ‚Materie/ Energie‘ wirkt sich auch aus auf eine veränderte Sicht zum Glauben an das mit ‚Gott‘ Gemeinte, zur Rolle der Religionen und Kirchen (siehe z.B. den Blog zum 24.Dez.2012 und seinen Teil 2).
(3)In diesem Zusammenhang bin ich auf das Buch von Stuart Alan Kauffman gestossen „Reinventing The Sacred. A new View of Science, Reason, and Religion.“ (etwa: Die Wiederentdeckung des Heiligen. Eine neue Sicht der Wissenschaft, des Verstandes und der Religion). Veröffentlicht 2008 (siehe weitere Angaben zu Kauffman unten).

EINSTIEG IN DAS BUCH

(4) Die Einleitung und das erste Kapitel sind ein wenig ’schleppend‘ und ich war schon fast versucht, es wieder weg zu legen, aber dann ab S.10 nimmt das Bucht deutlich Fahrt auf. Und ich habe den Eindruck, dieses Buch kann helfen, die neue Sicht insbesondere im Bereich Physik und Biologie weiter zu differenzieren. Außerdem hat das Buch die unangenehme Eigenschaft, dass Kauffman praktisch nirgends richtig zitiert. Es gibt zwar im Anhang verschiedene Quellenangaben, aber im Text werden die Namen von Autoren oder deren Aussagen zwar erwähnt, aber es gibt keine klare Quellenangaben. Das ist schade, ärgerlich und erschwert das Nachlesen (in diesem Blog mache ich das zwar auch sehr oft, aber es ist auch ein Blog und keine offizielle Veröffentlichung).
(5) Das große Thema des Buches ist nach Kauffman die Unzulänglichkeit einer Physik (bzw. der ganzen Naturwissenschaft), sofern sie sich ‚reduktionistisch‘ versteht, d.h. die Wirklichkeit ausschließlich interpretiert als Rückführung aller Phänomene auf eine Ansammlung von Teilchen. Dieser Denkweise hält er Fakten entgegen, die aus seiner Sicht etwas anderes repräsentieren: die ‚Emergenz‘ des Biologischen, das sich von der Molekülebene aus bis hin zu den komplexen gesellschaftlichen Ausprägungen als eine Form des ‚Zusammenwirken‘ zeigt, die sich nicht aus den physikalischen Gesetzen ableiten lässt, aber dennoch ‚real‘ ist. D.h. es gibt Realität, die uns alle bestimmt, die sich nicht physikalisch (bzw. allgemeiner ’naturwissenschaftlich‘) erklären lässt.
(6) In diesem ‚irreduziblen‘ Phänomen des ‚Biologischen‘ sieht Kauffman eine ‚Kreativität‘ am Werk, die typisch ist für diese Phänomene und er möchte den Begriff ‚Gott‘ für diese das ganze Universum durchwaltende ‚Kreativität‘ benutzen, sozusagen das mit ‚Gott‘ Gemeinte als das sich überall ‚kreativ‘ Zeigende und darin sich Manifestierende (vgl. z.B. S.XI). In diesem Verständnis sieht er einen Anknüpfungspunkt an den weltweiten Glauben an einen Schöpfergott (‚creator god‘), speziell natürlich in der jüdisch-christlichen Tradition (vgl. S.XII). Damit wird das Göttliche stückweise ‚empirisch‘, was neue Ansatzpunkte liefert für ein in der Welt lokalisierte ‚Spiritualität (’spirituality‘), für eine Wiederentdeckung des ‚Heiligen‘ (’sacred‘).(vgl. S.XII)
(7) Den ‚Reduktionismus‘ sieht er schon in den Anfängen der Wissenschaft (Galilei, Descartes, Newton, Laplace) gegeben (vgl. S.2), er kulminiert in der modernen Sicht, dass die Physik letztlich annimmt, dass wir ‚am Grunde‘ der Materie nur ‚Partikel oder Strings haben, die sich in Bewegung befinden‘ (vgl. S.3). Aber mit dieser Basis lässt sich die Vielfalt der biologischen Phänomene nicht beschreiben, auf keinen Fall ‚voraussagen‘. (vgl. S.3ff) Und von daher kann er sagen, dass diese (biologischen) Phänomene (dazu gehören auch die gesellschaftlichen Ausprägungen, insbesondere die Wirtschaft) jenseits der bisherigen Naturgesetze liegen. (Vgl. S.5)
(8) Für Kauffman charakteristisch am Biologischen ist neben seiner vollständigen Nicht-Voraussagbarkeit dass es sich trotz nicht vorhandener Gesetze quasi von selbst organisiert, eine große Vielfalt entwickelt, dabei aber kohärent bleibt.(vgl. S.6) Eine Besonderheit des Biologischen in ihrem selbstorganisatorischen Auftreten ist auch die Eigenschaft der ‚Agentenschaft‘ (‚agency‘), die einhergeht mit Fragen von ‚Werten‘ (‚values‘) und des ‚Tuns‘ (‚doings‘). Biologische Systeme sind nicht ’neutral‘, sondern sie sehen in allem ‚Werte‘. (vgl. SS.6-9)
(9) Und in diesem Kontext der sich überall zeigenden Kreativität wiederholt er seinen Vorschlag aus dem Vorwort, dass das mit ‚Gott‘ Gemeinte zu sehen ist als dasjenige, was sich in all dem manifestiert. Dazu gehört auch eine entsprechende ‚Mystik‘.(vgl. S.6,9)

REDUKTIONISMUS (VERSUCH DER ZURÜCKFÜHRUNG ALLER PHÄNOMENE AUF EINFACHSTE ELEMENTE)

(10)Der Punkt ohne Wiederkehr der Reduktionisten sind die einfachsten, kleinsten Elemente/ Teilchen/ Strings mit ihrer ‚Selbstbewegung‘, hinter und neben denen nichts mehr geht. Kauffman zitiert hier u.a. das Diktum des (großen?) Physikers Weinberg „Je mehr wir das Universum verstehen, umso bedeutungsloser wird es.“(vgl. S.10)
(11)Diese Art des reduktionistischen Denkens weist vielerlei Schwachstellen und Ungereimtheiten auf. Ungereimtheiten, die nah betrachtet eigentlich schon eher eklatante Denkfehler sind, bei denen man sich nur wundern kann, dass Nobelpreisträger sie nicht wahrhaben wollen. Doch zunächst wiederholt Kaufffman einige dieser Ungereimtheiten auf den SS.10-18. Mit der Fixierung des Blicks auf letzte kleinste Elemente gibt es keine ‚Handelnde‘ (‚agency‘) mehr, damit keine ‚Werte‘ und keine ‚Bedeutung‘. Eine ‚teleologische Sprache‘ ist verpönt. Newtons Gesetze induzieren einen umfassenden Determinismus (allerdings noch mit einer umkehrbaren Zeit!). Theistische Gottesauffassungen tendieren nun zu ‚Deistischen‘ (Gott als ‚Uhrmacher‘-Typ…); Gott interveniert nicht mehr. (vgl.S.15) Ein ‚freier Wille‘ wird fragwürdig. Wie soll der Geist mit einem mechanistischen Körper interagieren? Descartes kreiert den expliziten Dualismus.(vgl. S.15)

ARGUMENTE GEGEN EINEN NAIVEN REDUKTIONISMUS

(12)Kauffman zitiert auf den SS.19-21 den Physiker und Nobelpreisträger Philip W.Anderson, der in einer Arbeit 1972 darauf aufmerksam gemacht hat, dass es mit steigender Komplexität in der Anordnung der Atome in Moleküle ‚Symmetriebrüche‘ dahingehend gibt, dass die Lokalisierung der Atome in diesen Verbindungen ab einem bestimmten Punkt nicht mehr in alle mögliche Richtungen stattfindet, sondern nur noch in bestimmte (man spricht von ‚Chiralität‘ im Sinne von ‚Rechts-‚ oder ‚Linkshändigkeit‘). Dies bedeutet, dass auf einer ‚höheren‘ Organisationsebene ‚Phänomene‘ ‚real‘ werden, die sich nicht aus den einzelnen ‚Bestandteilen‘ ‚ableiten‘ lassen. Ein Reduktionismus würde hier nicht nur nichts erklären, sondern würde – im Gegenteil – reale Phänomene ‚leugnen‘.
(13)Kauffman zitiert auf den SS.22f nochmals Anderson mit einer Überlegung zur Berechenbarkeit und dass dieser Berechenbarkeitsbegriff nicht auf physikalischen Eigenschaften beruht. Hier gehen nach meinem Verständnis aber verschiedene Dinge durcheinander. (i) Die Vermischung des Konzepts ‚Turingmaschine‘ von Turing mit dem Rechnerarchitekturkonzept von von Neumann: Turing hatte keine Rechnerarchitektur beschrieben sondern ein logisch-mathematisches Konzept für Berechenbarkeit formuliert, das keinerlei Annahmen bzgl. einer bestimmten Architektur trifft (im Gegensatz zu von Neumann); (ii) die Anführung der Unentscheidbarkeits- und Unvollständigkeitsbeweise von Goedel und Turing an dieser Stelle wirken ein wenig ‚Beziehungslos‘; man weiß nicht so richtig, was sie hier sollen; (iii) die Beweise mit Hilfe der Turingmaschine sind nicht an konkrete physikalische Eigenschaften geknüpft: dies benutzt Anderson/ Kauffman als Argumente gegen den Reduktionismus. Hier zeigen sich Eigenschaften auf einer ‚höheren Ebene‘, die sich nicht auf einzelne Bestandteil zurückführen lassen.
(14)Kauffman erwähnt auf SS.23f das philosophische Konzept der ’supervenience‘ (von vielen einzelnen Aussagen auf einer ‚tieferen‘ Ebene auf eine Aussage auf einer ‚höheren‘ Ebene schließen, wobei die ‚höhere‘ Ebene ‚types‘ (Typen, Klassen) verkörpert und die tiefere (Realisierungs-)Ebene ‚token‘ (Instanzen, Elemente der Klassen). Diese Einlassung bleibt allerdings zu vage, um ihre Tragweite beurteilen zu können.
(15)Kauffman zitiert dann einen anderen Nobelpreisträger, den Physiker Robert Laughlin (SS.24f). Am Beispiel von Gasen und festen Körpern macht Laughlin darauf aufmerksam, dass viele reale Eigenschaften von solchen großen Aggregaten nur messbar und definierbar sind auf der Ebene der Gesamtaggregate; eine Rückführung auf die einzelnen Bestandteile macht keinen Sinn.
(16)Kauffman zitiert ferner (S.25) den Physiker Leo Kadanoff (kein Nobelpreisträger, aber lange Jahre Präsident der amerikanischen Gesellschaft der Physiker (‚American Physical Society (APS)‘). Er konnte aufzeigen, dass die Navier-Stokes Gleichungen für das Verhalten von Flüssigkeiten, die nicht quantenmechanisch abgeleitet werden können, von einem idealisierten (mathematischen) Modell abgeleitet werden können. Auch diese Eigenschaften hängen also nicht ab von den zugrunde liegenden Elementen/ Teilchen/ Strings.
(17)Auf den SS.25-27 erwähnt Kauffman das Beispiel der klassischen Thermodynamik von Sadi Carnot, nach dem (2.Hauptsatz der Thermodynamik) die Entropie in einem geschlossenen System nur zunehmen kann. Dies bedeutet, dass die Zeit nur eine Richtung kennt. Damit entsteht ein Widerspruch zur klassischen Mechanik von Newton, in der die Zeit sowohl ‚vorwärts‘ wie auch ‚rückwärts‘ laufen konnte. Boltzman, Gibbs und andere haben zwar versucht, diesen Widerspruch durch Einführung der statistischen Mechanik zu lösen (alle Elemente streben dem Zustand einer ‚höheren Wahrscheinlichkeit‘ zu), aber diese Begründung erfolgt nicht aus den Elementen selbst, sondern aufgrund von Zusammenhängen, die über die einzelnen Elemente hinausgehen (Kauffman zitiert stattdessen ein anderes Argument, das mich nicht überzeugt).
(18)Auf den SS.27f diskutiert Kauffman das Problem der Naturkonstanten. Das Standard-Modell der Physik vereint mit der allgemeinen Relativitätstheorie können das bekannte Universum nur erklären, wenn sie 23 spezielle Naturkonstanten annehmen. Die konkreten Werte dieser Konstanten lassen sich nicht irgend woher aus einem Modell generisch ableiten, sondern müssen speziell, von Hand, bestimmt werden. Verändert man einzelne Werte auch nur geringfügig, dann hätten wir ein vollständig anderes Universum. Nach dem Physiker Lee Smolin würde schon eine Abweichung in der Größenordnung von (1/10)^27 das Universum ‚lebensunfreundlich‘ machen. (Vgl.S.28). Diese speziellen Makroeigenschaften lassen sich in keiner Weise aus den bekannten Eigenschaften der einzelnen Elemente/ Teilchen/ Strings ableiten. Sie zeigen sich nur im Zusammenhang.
(19)Mögliche Antworten (vgl. S.28f) sind das starke und das schwache anthropische Prinzip: (i) Im starken anthropischen Prinzip wird ein Schöpfer-Gott angenommen, der die Welt genauso geschaffen hat, wie sie nun mal für ‚Leben‘ günstig ist. Dies ist aber keine überzeugende Antwort. (ii) Im schwachen anthropischen Prinzip nimmt man eine Vielzahl von Welten an. Einige von diesen haben die Parameter so, wie sie für das Leben ‚günstig‘ sind; unser Universum ist eines davon.
(20)Die Annahme einer Vielzahl möglicher Universen hat bislang die meisten Argumente für sich. Die Position des klassischen Reduktionismus wirkt in diesem Kontext mehrfach unglaubwürdig und letztlich argumentativ schwach.

DIE NICHTREDUZIERBARKEIT DER BIOLOGIE AUF DIE PHYSIK

(21)Auf den Seiten 31-43 entwickelt Kauffman zusätzliche Argumente, warum der klassische Reduktionismus nicht funktioniert, indem er die Besonderheiten der Biologie thematisiert. Allerdings springt er nach meinem Verständnis bisweilen zwischen verschiedenen Argumenten im Text hin und her, was die Argumentation erschwert.
(22)So ist der anfängliche Hinweis des Einflusses von Malthus auf Darwin wenig geeignet, die Besonderheit des Phänomens des Biologischen heraus zu stellen. Dies ist schon eher gegeben mit der Einsicht Darwins, dass zwischen der Elterngeneration und der Kindgeneration Veränderungen stattfinden können, die je nach Kontext mehr oder weniger ‚erfolgreich‘ sein können. Dies führte einerseits zum Aufsprengen des statischen Klassifikationssystems von Carl Linnaeus (vgl. S.32) und erlaubte eine zunehmende ‚logische‘ Interpretation der geologischen Befunde. (vgl.S.33) In den 1930igern vereinigte sich das evolutionäre Konzept Darwins mit der modernen Genetik (Mayer, Dobzhansky u.a.), weiter intensiviert durch die Erkenntnisse der Molekularbiologie ab den 1950igern (Watson, Crick u.a.).(vgl. S.33) Das Feststellen von Eigenschaften auf höherer Ebene der Komplexität, die sich nicht aus den zugrunde liegenden Elementen direkt ableiten lassen, nennt Kauffman dann ‚epistemologische Emergenz‘ (also etwa ‚Emergenz aus erkenntnistheoretischer Sicht‘), und die reale Gegebenheit von biologischen Strukturen höherer Komplexität bezeichnet er als ‚ontologische Emergenz‘. (vgl. S.34)
(23)Die Entstehung der vielen, immer komplexeren Arten, dazu stark variierend, lässt sich nach Kauffman nicht allein aus den beteiligten Elementen ableiten. Dies ist allein schon deshalb schwierig, weil viele wichtige beteiligten Faktoren ‚zufälliger‘ Natur sind. (vgl. S.37f) Dazu kommt aber noch ein ganz anderer Umstand. Nimmt man – mit den meisten Physikern – an, dass die Raum-Zeit kontinuierlich ist [Anmerkung: was nicht zwingend der Fall sein muss], dann hat Georg Cantor (1845 – 1918) aufgezeigt, dass die reellen Zahlen eine überabzählbar große Menge darstellen. Dies bedeutet, man kann sie nicht aufzählen. Dies wiederum bedeutet, dass es keinen Computer geben kann, diese Menge zu simulieren. Dies gilt dann auch für ein Universum mit einer kontinuierlichen Raum-Zeit.(vgl. S.39f)
(24)Dieses letzte Argument von Kauffman mit der Nichtaufzählbarkeit empfinde ich als wenig zwingend (wenngleich die Nichtaufzählbarkeit als solche natürlich Fakt ist). Wichtiger sind vielmehr jene Argumente, die auf zentrale Eigenschaften des Biologischen abheben, die sich nicht aus den Bestandteilen alleine ableiten lassen. In diesem Sinne verweist Kauffman auf den Umstand, dass der Mechanismus der Selbstreproduktion nicht an ein bestimmtes Material gebunden ist und sich von daher im gesamten Universum ‚irgendwo‘ ereignen könnte. (vgl. S.40f) In diesen Zusammenhang gehört das Astrobiologie-Programm und die Entwicklung einer ‚Allgemeinen Biologie‘, die über die Bedingungen des Lebens auch jenseits der Bedingungen auf der Erde nachdenkt.
(25)Kauffman spekuliert dann auch darüber, dass die Entdeckung des evolutionären Prinzips durch Darwin nicht nach dem Muster der ‚Induktion‘ entstanden sei, also viele einzelne Beispiele und dann eine verallgemeinernde Idee, sondern dass Darwins Überlegungen auf einer komplexeren Ebene abgelaufen seien, auf der er seine Konzepte definiert habe. (vgl.41-43) Diese Überlegungen erscheinen mir sehr spekulativ und wenig hilfreich. Entscheidend ist, ob wir empirische Phänomene einer Art P haben, die sich nicht aus den Eigenschaften P‘ vermuteter ‚einfacherer‘ Bestandteile direkt ableiten lassen. Wenn nicht, dann haben wir mit den Phänomenen P ‚genuine‘ empirische Phänomene, die erst auf einer höheren Organisationsstufe ’sichtbar‘ werden. Ob diese Einsichten ‚induktiv‘ oder ‚deduktiv‘ gewonnen wurden, spielt keine Rolle.
(26)Als solche ‚genuinen‘ Eigenschaften der Biologie nennt Kauffman Eigenschaften wie sie mit den Begriffen ‚Leben‘, ‚Handelnder‘, ‚Wert‘, ‚Bedeutung‘, ‚Bewusstsein‘ bezeichnet werden.

URSPRUNG DES LEBENS

(27)Auf den SS.44-71 versucht Kauffman, den Ursprung des Lebens mit den Augen einer Allgemeinen Biologie zu bestimmen, die als Disziplin nicht nur völlig eigenständig gegenüber einer Physik ist, sondern darüber hinaus diese sogar beeinflussen und herausfordern kann. [ANMERKUNG: in einem Gespräch mit meinem Freund, dem Physiker MW (nicht zu verwechseln mit dem Physiker vom Cafe Siesmayer, das war der Freund und Physiker MK), hatten wir letztlich den Punkt der Disziplingrenzen diskutiert. Er meinte, dass es keine klaren Grenzen gäbe, wo die Physik anfängt oder aufhört. Letztlich hat die Physik einen ganz allgemeinen Erklärungsanspruch bzgl. der erfahrbaren Natur. Wenn sie das Biologische als eigenständiges Naturphänomen akzeptieren würde – woran sie niemand hindern kann außer sie sich selbst – dann gäbe es keine Abgrenzung hin zur Biologie).
(28) Die Ideen zur Entstehung des Lebens konzentrieren sich letztlich um die Frage eines geeigneten Modells, die Entstehung einer biologischen Zelle zu erklären. Eine Zelle wird dabei als ein ‚offenes System‘ angenommen, das sich nicht in einem Gleichgewichtszustand‘ befindet und zur Erhaltung dieses Nicht-Gleichgewichts beständig Energie zuführen muss. Zusätzlich besitzt sie die besondere Eigenschaft, sich selbst vollständig zu Duplizieren. (vgl.S.46f) Da eine ’normale‘ Zelle schon sehr komplex ist, wird nach ‚einfacheren Vorläuferstufen‘ gefragt, aus denen sich dann das komplexere Modell herleiten lässt.
(29)Nach Kauffman versteht die Wissenchaft bis heute nicht genau, wie die Verdopplungsfähigkeit genau funktioniert. Er will daher zunächst der Frage nachgehen wie sich Moleküle in einfachen Systemen reduplizieren können.(vgl.S.47)
(30)Kauffman diskutiert dann mehrere Theorieansätze (vgl. SS.47-54), bis er den Theorieansatz vorstellt, den er ‚kollektive Autokatalyse‘ nennt. Damit ist gemeint, dass die Molküle einer Menge sich zwar nicht selbst reproduzieren können, aber sie dienen sich wechselseitig als Katalysatoren, dass andere Moleküle dies tun können.(vgl. S.55) In diesem Sinne sind z.B. die Zellen in unserem Körper ‚autokatalytische‘ Zellen: die einzelnen Moleküle in der Zelle können sich selbst nicht vermehren, aber die Zelle als ganze wirkt als Katalysator dafür, dass die vielen Moleküle im Innern der Zelle dies können.(vgl.S.56) Dies bedeutet, dass das Gesamtverhalten ein wesentlicher Faktor darstellt, damit zwischen den Elementen bestimmten Reaktionen möglich sind.(vgl. S.58f)
(31)Für die Theorie der autokatalytischen Mengen benutzt Kauffman das Konzept des ‚Zufallsgraphen‘ (random graphs) von Paul Erdös und Alfréd Rényi (1959), der dann zum Konzept des ‚chemisch-Reaktionsgraphen‘ erweitert wird. Die verschiedenen chemischen Reaktionen werden dann in Form unterschiedlicher verbindender Kanten/ Pfeile repräsentiert. (vgl.SS.61ff) Mit Hilfe dieses Graphenkonzeptes lässt sich einfach ein ‚aktueller‘ Zustand definieren und ein ‚Nachfolgezustand‘, durch den die Menge der ‚möglichen neuen Nachbarn‘ (‚the adjacent possible‘) definierbar wird.(vgl.S.64) Im Übergang zu den neuen Nachbarn wird ein neuer aktueller Zustand zusammen mit den soeben neuen Nachbarn definiert, der wieder neue Nachbarn erlaubt, usw. Mit Hilfe dieses ‚Ausbreitungskonzeptes‘ will Kauffman auch ‚Kreativität‘ definieren, die Kreativität des Universums. (vgl. S.64) Simulation einfacher Modelle solcher autokatalytischer Mengen haben nun gezeigt, dass ab einer bestimmten Anzahl von Elementen die ‚Reaktionsdichte‘ natürlicherweise zunimmt, was dann sehr schnell zu großen ‚Clustern‘ führt.(vgl.S.65f)
(32)Andere haben diese Modelle dahingehend weiterentwickelt, dass sie sich ‚vererben‘ können und bei dieser Vererbung Veränderungen erlauben.(vgl. S.67f) Weitere Eigenschaften (Quellen von freier Energie, Metabolismus) lassen sich in dieses Modell integrieren. (vgl.SS.68-70) Noch ist offen, ob sich dieses mathematische Modell voll lauf reale Molekülmengen anwenden lässt. Klar ist allerdings, dass sich die Eigenschaften des Gesamtsystems nicht aus den Bestandteilen alleine herleiten lässt. Ein klassischer Reduktionismus wäre also ausgeschlossen.
(33)Fortsetzung folgt … kritische Auseinandersetzung am Schluss…

Fortsetzung von TEIL 2

Quellen:

Kauffman, S.A., Reinventing the Sacred. A new View of Science, Reason, and Religion. New York: Basic Books, 2008 (Paperback 2010)

Über S.A.Kauffman in der Englischen Wikipedia: http://en.wikipedia.org/wiki/Stuart_Kauffman (Zuletzt besucht 5.Jan.2013)

Interessante Vorlesungen von Kauffman als Videos: http://csb.cs.tut.fi/stu_news.php (Zuletzt besucht 5.Jan.2013)

Eine Übersicht über alle bisherige Blogeinträge nach Themen findet sich HIER

GEN — MEM — SEM

(1) Bei der Betrachtung der Entwicklung des (biologischen) Lebens auf der Erde tritt als markantes Ereignis (vor ca. 3.5 Mrd Jahren) die Verfügbarkeit von selbstreproduktiven Einheiten hervor: DNA-Moleküle werden dazu benutzt um unter Zuhilfenahme anderer Moleküle Proteinstrukturen in einer geordneten Weise so zu organisieren, dass daraus wieder Zellen, multizelluläre Organismen entstehen.

 

(2) In einem Abstraktionsprozeß wurden mathematische Modelle entwickelt, die die Struktur eines DNA.-Moleküls in solch einem selbstreproduktiven Kontext als ‚Informationseinheiten‚ identifizierten, die auch als ‚Gene‚ bezeichnet wurden. Der gesamte Informationsprozess wurde als ‚Genetischer Algorithmus (GA)‚ rekonstruiert. Gegenüber dem biochemischen Modell enthält er Vereinfachungen, zugleich bilden diese aber auch eine ‚Generalisierung‚, die eine mathematische Behandlung zulassen. Dadurch konnten sehr weitreichende Untersuchungen angestellt werden.

 

(3) Die Uminterpretation von genetischen Algorithmen als Classifier Systeme betrachtet die genetische Informationen als Wenn-Dann-Regeln (auch mehrere hintereinander). Je nachdem, welche Bedingungen vorliegen, werden nur bestimmte ‚Wenns‘ ‚erfüllt‘ und nur diese ‚Danns‘ werden aktiviert. Eine ‚Wenn-Dann-Regel‘ bildet einen ‚Classifier‚. Während genetische Informationen als solche eigentlich nur einmal im Leben eines (biologischen) Systems verändert werden (in der Realität natürlich auch durch Fremdeinwirkungen öfters), nämlich bei der Weitergabe der Informationen nach bestimmten Mustern/ Regeln geändert werden können (letztlich gibt es nur zwei Fälle (i) Rekombination nach einer festen Regel oder (ii) Zufällige Veränderung), können die Informationen, die als eine Menge von Classifiern kodiert sind, durch jedes einzelne Verhalten eines Systems geändert werden. Dies entspricht eher dem Organisationsniveau des Nervensystems bzw. dem des Gehirns in einem biologischen System.

 

(4) Betrachtet man Classifier Systeme auf der Organisationsebene des Gehirns, dann liegt auf der Hand, sie primär als Modell eines einfachen Gedächtnisses (Memory) zu sehen. Die ‚Wenns‘ (Engl. if) repräsentieren dann wichtige ‚Wahrnehmungszustände‘ des Systems (sensorische wie propriozeptive oder mehr), die ‚Danns‘ (Engl. ‚then‘) repräsentieren jene Aktionen des Systems, die aufgrund solcher Wahrnehmungen ausgeführt wurden und damit potentiell über die Veränderung einer (unterstellten) Situation zu einer Veränderung dieser Situation geführt haben, die wiederum die Wahrnehmung ändern kann. Da man mathematisch Wenn-Dann-Regeln (also Classifier) als Graphen interpretieren kann mit den ‚Wenns‘ als Knoten und den ‚Danns‘ als Übergänge zwischen den Knoten, sprich Kanten, bilden die Classifier als Graph den Ausgangspunkt für ein mögliches Gedächtnis.

 

(5) Nennen wir den ersten Graphen, den wir mittels Classifiern bilden können, Stufe 0 (Level 0), dann kann ein Gedächtnis mit Stufe 0 Wahrnehmungssituationen speichern, darauf basierende Handlungen, sowie Feedback-Werte. Feedbackwerte sind ‚Rückmeldungen der Umgebung (Engl. environment). Biologische Systeme verfügen im Laufe der 3.5 Miliarden dauernden Evolution mittlerweile über ein ganzes Arsenal von eingebauten (angeborenen, genetisch fixierten) Reaktionsweisen, die das System zur Orientierung benutzen kann: Hungergefühle, Durstgefühle, Müdigkeit, diverse Schutzreflexe, sexuelle Erregung usw. Im Englischen spricht man hier auch von drives bzw. verallgemeinernd von speziellen emotions (Emotionen). In diesem erweiterten Sinn kann man biologische Systeme auf der Organisationseben des Gedächtnisses auch als emotionale Classifier Systeme (emotional classifier systems) bezeichnen. Wenn man diese systemspezifischen Rückmeldungen in die Kodierung der Wenn-Dann-Regeln einbaut — was bei Classifiern der Fall ist –, dann kann ein auf Classifiern basierendes Gedächtnis die Wirkung von wahrgenommenen Situationen in Verbindung mit den eigenen Handlungen gespeichert (store) werden. Darüberhinaus könnte man diese gespeicherten Informationen mit geeigneten Such- und Auswertungsoperationen in zukünftigen Situationen nutzen, in denen man z.B. Hunger hat und man sich fragt, ob und wo und wie man an etwas Essbares kommen könnte.

 

(6) Der Begriff mem wurde in der Literatur schon vielfach und für sehr unterschiedliche Sachverhalte benutzt. In diesem Kontext soll ein mem* einen Knoten samt aller verfügbaren Kanten in einem Classifiersystem bezeichnen, das als Gedächtnis benutzt wird. Meme* sind dann — analog wie Gene — auch Informationseinheiten, allerdings nicht zur Kodierung von Wachstumsprozessen wie bei den Genen, sondern als Basis für Handlungsprozesse. Meme* ermöglichen Handlungen und die durch Handlungen ermöglichten Veränderungen in der unterstellten Umwelt können auf das handelnde System zurückwirken und dadurch die Menge der Meme* verändern.

 

(7) Wie wir heute wissen, haben biologische System — allerdings sehr, sehr spät — auch Zeichensysteme entwickelt, die schließlich als Sprachen zum grundlegenden Kommunikationsmittel des homo sapiens wurden. Kommunikation ermöglicht die Koordinierung unterschiedlicher Gehirne.

 

(8) Die allgemeine Beschreibung von Zeichen ist Gegenstand der Semiotik als Wissenschaft der Zeichen und Zeichenprozesse. Allerdings ist die Semiotik bis heute kaum anerkannt und fristet vielfach nur ein Schattendasein neben anderen Disziplinen. Dafür gibt es dann viele Teildisziplinen wie Phonetik, Linguistik, Sprachwissenschaften, Sprachpsychologie, Neurolinguistik usw. die nur Teilaspekte der menschlichen Zeichen untersuchen, aber es historisch geschafft haben, sich gesellschaftliche Anerkennung zu verschaffen.

 

(9) Eine Schwäche der Semiotik war — und ist es bis heute –, dass sie es nicht geschafft hat, eine einheitliche Theorie der Zeichen zu erarbeiten. Schon alleine die Vielzahl der ‚Gründer‘ der Semiotik (wie z.B. Peirce, de Saussure, Morris und viele andere) und deren unterschiedlichen begrifflichen Konzepte macht es schwer bis unmöglich, zu einer einheitlichen Zeichentheorie zu kommen.

 

(10) Ich habe mehrfach versucht, die beiden sehr unterschiedlichen Ansätze von Peirce (bewusstseinsbasiert) und Morris (Verhaltensbasiert) zu formalisieren und zu vereinheitlichen. Es scheint so zu sein, dass man bei Erweiterung des classifier-basierten Mem*-Konzeptes einen formalen Rahmen hat, der es erlaubt, sowohl die bewusstseinsorientierte Sicht von Peirce wie auch zugleich die verhaltensorientierte Sicht von Morris zusammen zu führen, ohne dass man deren Konzepte ‚verunstalten‘ müsste. Im Falle von Peirce kann man sein komplexes (und in sich selbst nicht konsistentes) System von Kategorien — so scheint es — drastisch vereinfachen.

 

(11) Stark vereinfachend gesagt kann man den Zeichenbegriff verstehen als eine Beziehung  zwischen einem Zeichenmaterial (das sowohl verhaltensrelevant  wie auch wahrnehmungsrelevant vorliegt) und einem Bedeutungsmaterial (das ebenfalls entweder verhaltensrelevant UND wahrnehmunsrelevant vorliegt oder NUR wahrnehmungsrelevant). Allerdings existiert eine solche Bedeutungsbeziehung nicht als wahrnehmbares Objekt sondern ausschliesslich als gewusste Beziehung im ‚Kopf‘ bzw. im ‚Gedächtnis‘ des Zeichenbenutzers. In Anlehnung an die griechische Philosophie möchte ich ein Zeichen als sem* bezeichnen. Ein sem* basiert zwar auf potentiell vielen memen*, stellt aber als ausgezeichnete Beziehung zwischen memen* etwas Eigenständiges dar. In diesem Sinne kann — und muss — man sagen, dass seme* eine neue Ebene der Organisation von Informationen eröffnen (was grundsätzlich keine neue Einsicht ist; ich wiederhole dies hier nur, da dies die Voraussetzung für die nächste Organisationsebene von Informationen ist).

 

Fortsetzung folgt.