DONALD A.NORMAN, THINGS THAT MAKE US SMART – Teil 2

Letzte Änderung:21.Mai 2013

Diesem Beitrag ging voraus Teil 1.

1) Im Teil 1 hatte ich bislang nur auf den Aspekt abgehoben, dass Norman auf die ‚Menschenvergessenheit‘ im Design und Gebrauch von Technologie aufmerksam macht mit der anschließenden Reflexion, dass seine mahnenden Worte 20 Jahre später ihre Aktualität leider noch nicht eingebüßt haben.

WISSENSUNTERSTÜTZENDE DINGE

2) Doch gibt es noch einen weiteren Aspekt in seinem Buch, mindestens genau so gewichtig, und das ist der Aspekt der ‚Verteiltheit von Wissen/ Erkennen‘. Der Aufhänger für diesen Aspekt von Wissen/ Erkennen sind all die vielen Dinge im Alltag, die letztlich unser ‚Wissen/ Erkennen‘ (‚cognition‘) irgendwie ‚unterstützen‘ (‚aiding the mind‘). Er nennt diese das-Wissen-unterstützende Dinge ‚kognitive Artefakte‘ (‚cognitive artefacts‘).(vgl. S.4).
3) Er meint damit aber nicht nur ‚physische‘ Dinge wie Notizbücher, in denen man sich etwas notiert, Monitore, über die man Daten lesen kann, Leuchtschriften, die einem etwas mitteilen, sondern sehr wohl auch solche ‚gedankliche‘ Hilfsmittel wie Mathematik, Logik und Sprache. Auch diese gedanklichen Hilfsmittel haben Menschen ‚erfunden‘ und nutzen sie, um ihr Wissen zu organisieren. Also sowohl physische wie auch gedankliche Mittel gibt es, die der Mensch erfunden hat, um ihm in seinem ‚Wissen‘ zu unterstützen. Physische wie gedankliche Hilfsmittel sind ‚künstlich‘ – im Sinne von ‚erfunden‘ und speziell ‚zubereitet‘, ‚konstruiert‘ – und Norman fasst sie unter dem Begriff ‚Artefakte’/ ‚Werkzeuge‘ zusammen, die in ihrer Gesamtheit eine ‚Technologie der Artefakte‘ repräsentieren.(vgl. S.4f)
4) Ein wichtiger Aspekt in dieser ‚Technologie der wissensunterstützenden Werkzeuge‘ ist, dass sie ’nicht geplant‘ waren, sondern sich ‚ergeben‘ haben; irgendwann hat jemand ‚entdeckt‘, dass es eine weitere ‚Möglichkeit‘ gibt, etwas ‚anders‘ zu tun als ‚bisher‘. (vgl. S.7)
5) [Anmerkung: An diesem Punkt sehe ich eine Querbeziehung zu Kauffmans ‚autokatalytischen‘ Modellen (siehe vorausgehende Blogeinträge). Diese modellieren den Aspekt, dass in einer gegebenen Situation einerseits nicht alles möglich ist, da der aktuelle Zustand durch sein Gegebensein vieles ausschließt, andererseits bietet er in seiner Konkretheit eine definierte Menge von Möglichkeiten, aus denen man konkrete Werte auswählen kann. Es liegt aber nicht fest, welche dies sind. Also, einerseits gibt es ein IST, das als ‚Tradition‘ fungiert, das bestimmte ‚Tendenzen‘ ’nahelegt‘, andererseits gibt es einen MÖGLICHKEITSRAUM, der groß genug ist, so dass nicht klar ist, ob und wann eine bestimmte Konstellation ausgewählt werden wird oder nicht. Von daher kann es hunderte, tausende, zehntausende Jahre dauern, bis bestimmte Erfindungen gemacht wurden. Und am ‚Anfang‘, als noch wenig erfunden war, war es am ’schwersten‘, d.h. es dauert besonders lang, bis etwas ‚Interessantes‘ erfunden wurde, da es wenig ‚Hinweise‘ aus der Gegenwart in eine ‚bestimmte Art von Zukunft‘ gab.]
6) Jedes neu erfundenes wissensunterstützendes Werkzeug erhöht die Wissensmöglichkeiten einer Population, und schafft damit einen kleinen Ausgleich zu den ‚Grenzen des menschlichen Wissens‘. Dabei ist jedes solches wissensunterstützendes Werkzeug ambivalent: es schafft neue Möglichkeiten, aber damit auch neue Abhängigkeiten; das Benutzen eines wissensunterstützenden Werkzeugs wird zu einem ‚Teil‘ des aktiven Wissens; ohne dieses ‚Teil‘ gibt es diese Form von wissen nicht; je mehr Menschen es benutzen, verändert es die Art und Weise, wie alle Wissen aktiv leben.(vgl.S.8)
7) [Anmerkung: im Jahr 2013 ist für sehr viele Menschen der Computer, das Smartphone mit dem zugehörigen Netzwerk zu einer Art ‚Dauerbegleiter‘ geworden; ein Arbeiten ohne diese ist für die meisten praktisch nicht mehr möglich. …]

AUTOMATION und REFLEXION

8) Norman führt dann eine Unterscheidung ein im Bereich des aktiven Erkennens bzw. des aktiven Wissens (wobei er im Englischen das Wort ‚cognition‘ benutzt): er spricht von einem ‚Erfahrungsmodus‘ (‚experiential mode‘) und einem ‚Reflexionsmodus‘ (‚reflective mode‘) des Erkennens. Dabei wird der Erfahrungsmodus letztlich definiert über die Abwesenheit von Reflexion: wir nehmen wahr und verstehen und reagieren unmittelbar, ohne Anstrengung, direkt. Während im Reflexionsmodus des Erkennens ein explizites Nachdenken stattfindet, explizit Begriffe benutzt werden, explizite Entscheidungen gefällt werden. Beide Modi hält er für wichtig wenngleich sie ganz unterschiedliche Hilfsmittel verlangen.(vgl. S.15f)
9) [Anmerkung: so intuitiv diese beiden Begriffe ‚Erfahrungsmodus’/ ‚Reflexionsmodus‘ im ersten Moment klingen mögen, bei genauerem Hinsehen und beim Durchführen von Experimenten wird man schnell feststellen, dass diese beiden Begriffe sehr vage und schwer entscheidbar sind. Die Wirklichkeit des Erkennens ist im Vollzug viel komplexer. Für die weiteren Betrachtungen zu den wissensunterstützenden Werkzeugen spielt es keine so zentrale Rolle; erst dann, wenn man die Bedeutung und Wirkungsweise der wissensunterstützenden Werkzeugen genauer gewichten wollte. Und tatsächlich, Norman bemerkt diese Unzulänglichkeit:]
10) Er stellt dann selbst fest, dass die Reduktion menschlichen Erkennens auf nur zwei Aspekte gefährlich sei, da menschliches Erkennen eine multidimensionale Angelegenheit sei. Er behält diese Vereinfachung aber dennoch bei, da er meint, dadurch bestimmte Dinge besser verdeutlichen zu können. Außerdem treten beide Modi nicht notwendigerweise isoliert auf, sondern auch ‚gemischt‘ oder wechseln sich ab.(vgl. S.16) In vielen Fällen wird ein erfahrenes Verhalten verlangt, in dem die betroffenen Personen nicht ständig erst nachdenken müssen, sondern in denen sie sofort, spontan wissen müssen, was zu tun ist. Andererseits sind diese Arbeitsweisen gefährlich, weil dann der (falsche) Eindruck entstehen kann, Wissen bestände aus Handlungen.(vgl. S.17)
11) [Anmerkung 1: 20 Jahre nach dem Erscheinen von Normans Buch gibt es viele hundert verschiedene interaktive Computerspiele mit z.T. Millionen von ‚Fans‘, die spielen. Die Interaktivität dieser Spiele garantiert aber keinesfalls, dass die Benutzer der Spiele ‚echtes Wissen‘ erwerben, da die Inhalte weitgehend ‚Fantasiewelten‘ repräsentieren. Allerdings eröffnet das Spielen in großen Gruppen spezifische Erfahrungen, ob und wie man zusammen mit anderen im Team gemeinsam Aufgaben lösen kann.]
11) [Anmerkung2: Wir wissen, dass ein scheinbar schwereloses spontanes Verhalten (Lesen, Schreiben, Sprechen, Autofahren, ein Instrument Spielen, Turnen, Tanzen, Programmieren, …) in der Regel ein sehr langes, mühevolles Training voraussetzt, in dem viele kleine Schritte bewusst ‚geübt‘ werden müssen, bis sie dann irgendwann scheinbar ‚von selbst‘ ablaufen. Ein solches Trainieren ist ein komplexes Geschehen.]
12) Am Beispiel eines Museumsbesuches macht er darauf aufmerksam, dass der Erfahrungsmodus alleine, in dem man Dinge spontan wahrnimmt, keine neue ‚Erkenntnisse‘ garantiert. Noch so attraktive Exponate als solche erzeugen zwar eine gewisse ‚Anziehung‘, beanspruchen die ‚Aufmerksamkeit‘, sie führen aber nicht notwendigerweise zu ‚Erkenntnissen‘. Dem gegenüber verweist er auf die Arcade Videospiele; in diesen gibt es einen ‚Aufmerksamkeitsmodus‘ , in dem man zunächst etwas spontan erleben kann (Erfahrungsmodus), und dann gibt es einen ‚Interaktionsmodus‘, durch den man mit dem Erfahrenen bewusst interagieren kann; auf diese Weise kann man dann zu expliziten neuen Erkenntnissen gelangen (Reflexionsmodus).(vgl. SS.19-22)
13) Der Vorteil eines eingeübten Erfahrungsmodus ist seine Schnelligkeit und die scheinbare Mühelosigkeit. Allerdings findet im Erfahrungsmodus tendenziell keine Reflexion statt. Die Dinge ändern sich nicht mehr, sie stehen fest. Wer im Erfahrungsmodus verweilt – Norman zählt dazu auch das Fernsehen – der ist zwar sensorisch und erlebnismäßig in eine ‚Realiät‘ eingehüllt‘, aber diese kann unzulänglich oder falsch sein. Eine kritische Bewertung würde den Übergang in den ‚Reflexionsmodus‘ voraussetzen, der hinterfragt, vergleicht, Schlüsse zieht. Der Reflexionsmodus ist viel langsamer, kann aber beliebig an jeder Stelle vertiefen. Und hier sieht Norman auch die größte potentielle Gefahr: die immer mehr um sich greifende reine ‚Unterhaltung‘ über Massenmedien können einen Dauerzustand des sich ‚denkfreien Hingebens‘ an eine Realität begünstigen, die notwendiges kritisches Verstehen ausschaltet. (vgl. SS.22-28)
14) [Anmerkung: im Kalten Krieg war die ‚Gehirnwäsche‘ als Foltermethode und ‚Umprogrammierung‘ eines Menschen berühmt berüchtigt. Wenn über viele TV-Kanäle heute mehr und mehr nur noch quasi Fantasy-Serien oder manipulierte Alltagsserien laufen und Menschen nachgewiesenermaßen diese mehrere Stunden am Tage sehen, dann führt dies unweigerlich zu einer ‚Umprogrammierung‘ ihres Wissens, dem sie sich – auch wenn sie wollten – nicht mehr entziehen können. Das ist nichts anderes als eine gesellschaftlich erlaubte Form von Gehirnwäsche, die hier nicht stattfindet,weil die Fernsehsender primär irgendwie auch politisch ‚indoktrinieren‘ wollen (wenngleich es Sender gibt, die Personen gehören, die ganz klare politische Ziele verfolgen), sondern weil sie schlicht und einfach Geld verdienen wollen: alles, was Menschen dazu bringt, sich vor den Fernsehsender zu setzen, nicht mehr abzuschalten, das wird gemacht. ]

Zur Fortsetzung siehe Teil 3

Eine Übersicht über alle bisherigen Blogeinträge nach Titeln findet sich HIER.

REDUKTIONISMUS, ERMERGENZ, KREATIVITÄT, GOTT – S.A.Kauffman – Teil 1

ZUSAMMENHANG MIT DEM BLOG

Letzte Korrekturen: 23.März 2013

(1)Der Zusammenhang mit dem Blog besteht darin, dass im Blog der klassische Widerspruch zwischen ‚Geist‘ auf der einen Seite und ‚Materie‘ auf der anderen von vielen Seiten neu reflektiert wird. Dabei zeigte sich u.a. dass durch die Einbeziehung der neueren Erkenntnisse über das Biologische und seiner Entstehung die Phänomene des Biologischen zu einer neuen Sicht der Materie und der Energie führen können, zu einer Sicht, die deutlich macht, dass die klassische Sicht der Physik sich immer mehr als unbefriedigend erweist. Ergänzt wurden diese Reflexionen durch frühere Einträge im Blog, in denen auch die Sicht des ‚Geistes‘ aus Sicht der Philosophie dahingehend ‚aufgebrochen‘ worden sind, dass auch die klassische Philosophie im Lichte der neueren Erkenntnisse zum Leben ihre eigenen Erkenntnisvoraussetzungen neu bedenken kann und auch muss (dies wurde spätestens seit dem Vortrag in Bremerhaven offenbar!). Zwar bedeutet die Einbeziehung naturwissenschaftlicher Erkenntnisse eine ‚Verletzung‘ des klassischen philosophischen – und insbesondere des phänomenologischen – Paradigmas, aber es bedeutet keine vollständige Auflösung noch gar eine ‚Zerstörung‘ der Philosophie, sondern – möglicherweise – eine notwendige ‚Erneuerung‘, die schließlich dazu führen kann, die unselige Trennung zwischen Geistes- und Naturwissenschaften aufzuheben. Diese Trennung erscheint im neuen Denken als ein ‚Artefakt‘ des klassischen Denkens aufgrund falscher Voraussetzungen.
(2) Diese veränderte Sicht auf das Verhältnis zwischen ‚Geist‘ und ‚Materie/ Energie‘ wirkt sich auch aus auf eine veränderte Sicht zum Glauben an das mit ‚Gott‘ Gemeinte, zur Rolle der Religionen und Kirchen (siehe z.B. den Blog zum 24.Dez.2012 und seinen Teil 2).
(3)In diesem Zusammenhang bin ich auf das Buch von Stuart Alan Kauffman gestossen „Reinventing The Sacred. A new View of Science, Reason, and Religion.“ (etwa: Die Wiederentdeckung des Heiligen. Eine neue Sicht der Wissenschaft, des Verstandes und der Religion). Veröffentlicht 2008 (siehe weitere Angaben zu Kauffman unten).

EINSTIEG IN DAS BUCH

(4) Die Einleitung und das erste Kapitel sind ein wenig ’schleppend‘ und ich war schon fast versucht, es wieder weg zu legen, aber dann ab S.10 nimmt das Bucht deutlich Fahrt auf. Und ich habe den Eindruck, dieses Buch kann helfen, die neue Sicht insbesondere im Bereich Physik und Biologie weiter zu differenzieren. Außerdem hat das Buch die unangenehme Eigenschaft, dass Kauffman praktisch nirgends richtig zitiert. Es gibt zwar im Anhang verschiedene Quellenangaben, aber im Text werden die Namen von Autoren oder deren Aussagen zwar erwähnt, aber es gibt keine klare Quellenangaben. Das ist schade, ärgerlich und erschwert das Nachlesen (in diesem Blog mache ich das zwar auch sehr oft, aber es ist auch ein Blog und keine offizielle Veröffentlichung).
(5) Das große Thema des Buches ist nach Kauffman die Unzulänglichkeit einer Physik (bzw. der ganzen Naturwissenschaft), sofern sie sich ‚reduktionistisch‘ versteht, d.h. die Wirklichkeit ausschließlich interpretiert als Rückführung aller Phänomene auf eine Ansammlung von Teilchen. Dieser Denkweise hält er Fakten entgegen, die aus seiner Sicht etwas anderes repräsentieren: die ‚Emergenz‘ des Biologischen, das sich von der Molekülebene aus bis hin zu den komplexen gesellschaftlichen Ausprägungen als eine Form des ‚Zusammenwirken‘ zeigt, die sich nicht aus den physikalischen Gesetzen ableiten lässt, aber dennoch ‚real‘ ist. D.h. es gibt Realität, die uns alle bestimmt, die sich nicht physikalisch (bzw. allgemeiner ’naturwissenschaftlich‘) erklären lässt.
(6) In diesem ‚irreduziblen‘ Phänomen des ‚Biologischen‘ sieht Kauffman eine ‚Kreativität‘ am Werk, die typisch ist für diese Phänomene und er möchte den Begriff ‚Gott‘ für diese das ganze Universum durchwaltende ‚Kreativität‘ benutzen, sozusagen das mit ‚Gott‘ Gemeinte als das sich überall ‚kreativ‘ Zeigende und darin sich Manifestierende (vgl. z.B. S.XI). In diesem Verständnis sieht er einen Anknüpfungspunkt an den weltweiten Glauben an einen Schöpfergott (‚creator god‘), speziell natürlich in der jüdisch-christlichen Tradition (vgl. S.XII). Damit wird das Göttliche stückweise ‚empirisch‘, was neue Ansatzpunkte liefert für ein in der Welt lokalisierte ‚Spiritualität (’spirituality‘), für eine Wiederentdeckung des ‚Heiligen‘ (’sacred‘).(vgl. S.XII)
(7) Den ‚Reduktionismus‘ sieht er schon in den Anfängen der Wissenschaft (Galilei, Descartes, Newton, Laplace) gegeben (vgl. S.2), er kulminiert in der modernen Sicht, dass die Physik letztlich annimmt, dass wir ‚am Grunde‘ der Materie nur ‚Partikel oder Strings haben, die sich in Bewegung befinden‘ (vgl. S.3). Aber mit dieser Basis lässt sich die Vielfalt der biologischen Phänomene nicht beschreiben, auf keinen Fall ‚voraussagen‘. (vgl. S.3ff) Und von daher kann er sagen, dass diese (biologischen) Phänomene (dazu gehören auch die gesellschaftlichen Ausprägungen, insbesondere die Wirtschaft) jenseits der bisherigen Naturgesetze liegen. (Vgl. S.5)
(8) Für Kauffman charakteristisch am Biologischen ist neben seiner vollständigen Nicht-Voraussagbarkeit dass es sich trotz nicht vorhandener Gesetze quasi von selbst organisiert, eine große Vielfalt entwickelt, dabei aber kohärent bleibt.(vgl. S.6) Eine Besonderheit des Biologischen in ihrem selbstorganisatorischen Auftreten ist auch die Eigenschaft der ‚Agentenschaft‘ (‚agency‘), die einhergeht mit Fragen von ‚Werten‘ (‚values‘) und des ‚Tuns‘ (‚doings‘). Biologische Systeme sind nicht ’neutral‘, sondern sie sehen in allem ‚Werte‘. (vgl. SS.6-9)
(9) Und in diesem Kontext der sich überall zeigenden Kreativität wiederholt er seinen Vorschlag aus dem Vorwort, dass das mit ‚Gott‘ Gemeinte zu sehen ist als dasjenige, was sich in all dem manifestiert. Dazu gehört auch eine entsprechende ‚Mystik‘.(vgl. S.6,9)

REDUKTIONISMUS (VERSUCH DER ZURÜCKFÜHRUNG ALLER PHÄNOMENE AUF EINFACHSTE ELEMENTE)

(10)Der Punkt ohne Wiederkehr der Reduktionisten sind die einfachsten, kleinsten Elemente/ Teilchen/ Strings mit ihrer ‚Selbstbewegung‘, hinter und neben denen nichts mehr geht. Kauffman zitiert hier u.a. das Diktum des (großen?) Physikers Weinberg „Je mehr wir das Universum verstehen, umso bedeutungsloser wird es.“(vgl. S.10)
(11)Diese Art des reduktionistischen Denkens weist vielerlei Schwachstellen und Ungereimtheiten auf. Ungereimtheiten, die nah betrachtet eigentlich schon eher eklatante Denkfehler sind, bei denen man sich nur wundern kann, dass Nobelpreisträger sie nicht wahrhaben wollen. Doch zunächst wiederholt Kaufffman einige dieser Ungereimtheiten auf den SS.10-18. Mit der Fixierung des Blicks auf letzte kleinste Elemente gibt es keine ‚Handelnde‘ (‚agency‘) mehr, damit keine ‚Werte‘ und keine ‚Bedeutung‘. Eine ‚teleologische Sprache‘ ist verpönt. Newtons Gesetze induzieren einen umfassenden Determinismus (allerdings noch mit einer umkehrbaren Zeit!). Theistische Gottesauffassungen tendieren nun zu ‚Deistischen‘ (Gott als ‚Uhrmacher‘-Typ…); Gott interveniert nicht mehr. (vgl.S.15) Ein ‚freier Wille‘ wird fragwürdig. Wie soll der Geist mit einem mechanistischen Körper interagieren? Descartes kreiert den expliziten Dualismus.(vgl. S.15)

ARGUMENTE GEGEN EINEN NAIVEN REDUKTIONISMUS

(12)Kauffman zitiert auf den SS.19-21 den Physiker und Nobelpreisträger Philip W.Anderson, der in einer Arbeit 1972 darauf aufmerksam gemacht hat, dass es mit steigender Komplexität in der Anordnung der Atome in Moleküle ‚Symmetriebrüche‘ dahingehend gibt, dass die Lokalisierung der Atome in diesen Verbindungen ab einem bestimmten Punkt nicht mehr in alle mögliche Richtungen stattfindet, sondern nur noch in bestimmte (man spricht von ‚Chiralität‘ im Sinne von ‚Rechts-‚ oder ‚Linkshändigkeit‘). Dies bedeutet, dass auf einer ‚höheren‘ Organisationsebene ‚Phänomene‘ ‚real‘ werden, die sich nicht aus den einzelnen ‚Bestandteilen‘ ‚ableiten‘ lassen. Ein Reduktionismus würde hier nicht nur nichts erklären, sondern würde – im Gegenteil – reale Phänomene ‚leugnen‘.
(13)Kauffman zitiert auf den SS.22f nochmals Anderson mit einer Überlegung zur Berechenbarkeit und dass dieser Berechenbarkeitsbegriff nicht auf physikalischen Eigenschaften beruht. Hier gehen nach meinem Verständnis aber verschiedene Dinge durcheinander. (i) Die Vermischung des Konzepts ‚Turingmaschine‘ von Turing mit dem Rechnerarchitekturkonzept von von Neumann: Turing hatte keine Rechnerarchitektur beschrieben sondern ein logisch-mathematisches Konzept für Berechenbarkeit formuliert, das keinerlei Annahmen bzgl. einer bestimmten Architektur trifft (im Gegensatz zu von Neumann); (ii) die Anführung der Unentscheidbarkeits- und Unvollständigkeitsbeweise von Goedel und Turing an dieser Stelle wirken ein wenig ‚Beziehungslos‘; man weiß nicht so richtig, was sie hier sollen; (iii) die Beweise mit Hilfe der Turingmaschine sind nicht an konkrete physikalische Eigenschaften geknüpft: dies benutzt Anderson/ Kauffman als Argumente gegen den Reduktionismus. Hier zeigen sich Eigenschaften auf einer ‚höheren Ebene‘, die sich nicht auf einzelne Bestandteil zurückführen lassen.
(14)Kauffman erwähnt auf SS.23f das philosophische Konzept der ’supervenience‘ (von vielen einzelnen Aussagen auf einer ‚tieferen‘ Ebene auf eine Aussage auf einer ‚höheren‘ Ebene schließen, wobei die ‚höhere‘ Ebene ‚types‘ (Typen, Klassen) verkörpert und die tiefere (Realisierungs-)Ebene ‚token‘ (Instanzen, Elemente der Klassen). Diese Einlassung bleibt allerdings zu vage, um ihre Tragweite beurteilen zu können.
(15)Kauffman zitiert dann einen anderen Nobelpreisträger, den Physiker Robert Laughlin (SS.24f). Am Beispiel von Gasen und festen Körpern macht Laughlin darauf aufmerksam, dass viele reale Eigenschaften von solchen großen Aggregaten nur messbar und definierbar sind auf der Ebene der Gesamtaggregate; eine Rückführung auf die einzelnen Bestandteile macht keinen Sinn.
(16)Kauffman zitiert ferner (S.25) den Physiker Leo Kadanoff (kein Nobelpreisträger, aber lange Jahre Präsident der amerikanischen Gesellschaft der Physiker (‚American Physical Society (APS)‘). Er konnte aufzeigen, dass die Navier-Stokes Gleichungen für das Verhalten von Flüssigkeiten, die nicht quantenmechanisch abgeleitet werden können, von einem idealisierten (mathematischen) Modell abgeleitet werden können. Auch diese Eigenschaften hängen also nicht ab von den zugrunde liegenden Elementen/ Teilchen/ Strings.
(17)Auf den SS.25-27 erwähnt Kauffman das Beispiel der klassischen Thermodynamik von Sadi Carnot, nach dem (2.Hauptsatz der Thermodynamik) die Entropie in einem geschlossenen System nur zunehmen kann. Dies bedeutet, dass die Zeit nur eine Richtung kennt. Damit entsteht ein Widerspruch zur klassischen Mechanik von Newton, in der die Zeit sowohl ‚vorwärts‘ wie auch ‚rückwärts‘ laufen konnte. Boltzman, Gibbs und andere haben zwar versucht, diesen Widerspruch durch Einführung der statistischen Mechanik zu lösen (alle Elemente streben dem Zustand einer ‚höheren Wahrscheinlichkeit‘ zu), aber diese Begründung erfolgt nicht aus den Elementen selbst, sondern aufgrund von Zusammenhängen, die über die einzelnen Elemente hinausgehen (Kauffman zitiert stattdessen ein anderes Argument, das mich nicht überzeugt).
(18)Auf den SS.27f diskutiert Kauffman das Problem der Naturkonstanten. Das Standard-Modell der Physik vereint mit der allgemeinen Relativitätstheorie können das bekannte Universum nur erklären, wenn sie 23 spezielle Naturkonstanten annehmen. Die konkreten Werte dieser Konstanten lassen sich nicht irgend woher aus einem Modell generisch ableiten, sondern müssen speziell, von Hand, bestimmt werden. Verändert man einzelne Werte auch nur geringfügig, dann hätten wir ein vollständig anderes Universum. Nach dem Physiker Lee Smolin würde schon eine Abweichung in der Größenordnung von (1/10)^27 das Universum ‚lebensunfreundlich‘ machen. (Vgl.S.28). Diese speziellen Makroeigenschaften lassen sich in keiner Weise aus den bekannten Eigenschaften der einzelnen Elemente/ Teilchen/ Strings ableiten. Sie zeigen sich nur im Zusammenhang.
(19)Mögliche Antworten (vgl. S.28f) sind das starke und das schwache anthropische Prinzip: (i) Im starken anthropischen Prinzip wird ein Schöpfer-Gott angenommen, der die Welt genauso geschaffen hat, wie sie nun mal für ‚Leben‘ günstig ist. Dies ist aber keine überzeugende Antwort. (ii) Im schwachen anthropischen Prinzip nimmt man eine Vielzahl von Welten an. Einige von diesen haben die Parameter so, wie sie für das Leben ‚günstig‘ sind; unser Universum ist eines davon.
(20)Die Annahme einer Vielzahl möglicher Universen hat bislang die meisten Argumente für sich. Die Position des klassischen Reduktionismus wirkt in diesem Kontext mehrfach unglaubwürdig und letztlich argumentativ schwach.

DIE NICHTREDUZIERBARKEIT DER BIOLOGIE AUF DIE PHYSIK

(21)Auf den Seiten 31-43 entwickelt Kauffman zusätzliche Argumente, warum der klassische Reduktionismus nicht funktioniert, indem er die Besonderheiten der Biologie thematisiert. Allerdings springt er nach meinem Verständnis bisweilen zwischen verschiedenen Argumenten im Text hin und her, was die Argumentation erschwert.
(22)So ist der anfängliche Hinweis des Einflusses von Malthus auf Darwin wenig geeignet, die Besonderheit des Phänomens des Biologischen heraus zu stellen. Dies ist schon eher gegeben mit der Einsicht Darwins, dass zwischen der Elterngeneration und der Kindgeneration Veränderungen stattfinden können, die je nach Kontext mehr oder weniger ‚erfolgreich‘ sein können. Dies führte einerseits zum Aufsprengen des statischen Klassifikationssystems von Carl Linnaeus (vgl. S.32) und erlaubte eine zunehmende ‚logische‘ Interpretation der geologischen Befunde. (vgl.S.33) In den 1930igern vereinigte sich das evolutionäre Konzept Darwins mit der modernen Genetik (Mayer, Dobzhansky u.a.), weiter intensiviert durch die Erkenntnisse der Molekularbiologie ab den 1950igern (Watson, Crick u.a.).(vgl. S.33) Das Feststellen von Eigenschaften auf höherer Ebene der Komplexität, die sich nicht aus den zugrunde liegenden Elementen direkt ableiten lassen, nennt Kauffman dann ‚epistemologische Emergenz‘ (also etwa ‚Emergenz aus erkenntnistheoretischer Sicht‘), und die reale Gegebenheit von biologischen Strukturen höherer Komplexität bezeichnet er als ‚ontologische Emergenz‘. (vgl. S.34)
(23)Die Entstehung der vielen, immer komplexeren Arten, dazu stark variierend, lässt sich nach Kauffman nicht allein aus den beteiligten Elementen ableiten. Dies ist allein schon deshalb schwierig, weil viele wichtige beteiligten Faktoren ‚zufälliger‘ Natur sind. (vgl. S.37f) Dazu kommt aber noch ein ganz anderer Umstand. Nimmt man – mit den meisten Physikern – an, dass die Raum-Zeit kontinuierlich ist [Anmerkung: was nicht zwingend der Fall sein muss], dann hat Georg Cantor (1845 – 1918) aufgezeigt, dass die reellen Zahlen eine überabzählbar große Menge darstellen. Dies bedeutet, man kann sie nicht aufzählen. Dies wiederum bedeutet, dass es keinen Computer geben kann, diese Menge zu simulieren. Dies gilt dann auch für ein Universum mit einer kontinuierlichen Raum-Zeit.(vgl. S.39f)
(24)Dieses letzte Argument von Kauffman mit der Nichtaufzählbarkeit empfinde ich als wenig zwingend (wenngleich die Nichtaufzählbarkeit als solche natürlich Fakt ist). Wichtiger sind vielmehr jene Argumente, die auf zentrale Eigenschaften des Biologischen abheben, die sich nicht aus den Bestandteilen alleine ableiten lassen. In diesem Sinne verweist Kauffman auf den Umstand, dass der Mechanismus der Selbstreproduktion nicht an ein bestimmtes Material gebunden ist und sich von daher im gesamten Universum ‚irgendwo‘ ereignen könnte. (vgl. S.40f) In diesen Zusammenhang gehört das Astrobiologie-Programm und die Entwicklung einer ‚Allgemeinen Biologie‘, die über die Bedingungen des Lebens auch jenseits der Bedingungen auf der Erde nachdenkt.
(25)Kauffman spekuliert dann auch darüber, dass die Entdeckung des evolutionären Prinzips durch Darwin nicht nach dem Muster der ‚Induktion‘ entstanden sei, also viele einzelne Beispiele und dann eine verallgemeinernde Idee, sondern dass Darwins Überlegungen auf einer komplexeren Ebene abgelaufen seien, auf der er seine Konzepte definiert habe. (vgl.41-43) Diese Überlegungen erscheinen mir sehr spekulativ und wenig hilfreich. Entscheidend ist, ob wir empirische Phänomene einer Art P haben, die sich nicht aus den Eigenschaften P‘ vermuteter ‚einfacherer‘ Bestandteile direkt ableiten lassen. Wenn nicht, dann haben wir mit den Phänomenen P ‚genuine‘ empirische Phänomene, die erst auf einer höheren Organisationsstufe ’sichtbar‘ werden. Ob diese Einsichten ‚induktiv‘ oder ‚deduktiv‘ gewonnen wurden, spielt keine Rolle.
(26)Als solche ‚genuinen‘ Eigenschaften der Biologie nennt Kauffman Eigenschaften wie sie mit den Begriffen ‚Leben‘, ‚Handelnder‘, ‚Wert‘, ‚Bedeutung‘, ‚Bewusstsein‘ bezeichnet werden.

URSPRUNG DES LEBENS

(27)Auf den SS.44-71 versucht Kauffman, den Ursprung des Lebens mit den Augen einer Allgemeinen Biologie zu bestimmen, die als Disziplin nicht nur völlig eigenständig gegenüber einer Physik ist, sondern darüber hinaus diese sogar beeinflussen und herausfordern kann. [ANMERKUNG: in einem Gespräch mit meinem Freund, dem Physiker MW (nicht zu verwechseln mit dem Physiker vom Cafe Siesmayer, das war der Freund und Physiker MK), hatten wir letztlich den Punkt der Disziplingrenzen diskutiert. Er meinte, dass es keine klaren Grenzen gäbe, wo die Physik anfängt oder aufhört. Letztlich hat die Physik einen ganz allgemeinen Erklärungsanspruch bzgl. der erfahrbaren Natur. Wenn sie das Biologische als eigenständiges Naturphänomen akzeptieren würde – woran sie niemand hindern kann außer sie sich selbst – dann gäbe es keine Abgrenzung hin zur Biologie).
(28) Die Ideen zur Entstehung des Lebens konzentrieren sich letztlich um die Frage eines geeigneten Modells, die Entstehung einer biologischen Zelle zu erklären. Eine Zelle wird dabei als ein ‚offenes System‘ angenommen, das sich nicht in einem Gleichgewichtszustand‘ befindet und zur Erhaltung dieses Nicht-Gleichgewichts beständig Energie zuführen muss. Zusätzlich besitzt sie die besondere Eigenschaft, sich selbst vollständig zu Duplizieren. (vgl.S.46f) Da eine ’normale‘ Zelle schon sehr komplex ist, wird nach ‚einfacheren Vorläuferstufen‘ gefragt, aus denen sich dann das komplexere Modell herleiten lässt.
(29)Nach Kauffman versteht die Wissenchaft bis heute nicht genau, wie die Verdopplungsfähigkeit genau funktioniert. Er will daher zunächst der Frage nachgehen wie sich Moleküle in einfachen Systemen reduplizieren können.(vgl.S.47)
(30)Kauffman diskutiert dann mehrere Theorieansätze (vgl. SS.47-54), bis er den Theorieansatz vorstellt, den er ‚kollektive Autokatalyse‘ nennt. Damit ist gemeint, dass die Molküle einer Menge sich zwar nicht selbst reproduzieren können, aber sie dienen sich wechselseitig als Katalysatoren, dass andere Moleküle dies tun können.(vgl. S.55) In diesem Sinne sind z.B. die Zellen in unserem Körper ‚autokatalytische‘ Zellen: die einzelnen Moleküle in der Zelle können sich selbst nicht vermehren, aber die Zelle als ganze wirkt als Katalysator dafür, dass die vielen Moleküle im Innern der Zelle dies können.(vgl.S.56) Dies bedeutet, dass das Gesamtverhalten ein wesentlicher Faktor darstellt, damit zwischen den Elementen bestimmten Reaktionen möglich sind.(vgl. S.58f)
(31)Für die Theorie der autokatalytischen Mengen benutzt Kauffman das Konzept des ‚Zufallsgraphen‘ (random graphs) von Paul Erdös und Alfréd Rényi (1959), der dann zum Konzept des ‚chemisch-Reaktionsgraphen‘ erweitert wird. Die verschiedenen chemischen Reaktionen werden dann in Form unterschiedlicher verbindender Kanten/ Pfeile repräsentiert. (vgl.SS.61ff) Mit Hilfe dieses Graphenkonzeptes lässt sich einfach ein ‚aktueller‘ Zustand definieren und ein ‚Nachfolgezustand‘, durch den die Menge der ‚möglichen neuen Nachbarn‘ (‚the adjacent possible‘) definierbar wird.(vgl.S.64) Im Übergang zu den neuen Nachbarn wird ein neuer aktueller Zustand zusammen mit den soeben neuen Nachbarn definiert, der wieder neue Nachbarn erlaubt, usw. Mit Hilfe dieses ‚Ausbreitungskonzeptes‘ will Kauffman auch ‚Kreativität‘ definieren, die Kreativität des Universums. (vgl. S.64) Simulation einfacher Modelle solcher autokatalytischer Mengen haben nun gezeigt, dass ab einer bestimmten Anzahl von Elementen die ‚Reaktionsdichte‘ natürlicherweise zunimmt, was dann sehr schnell zu großen ‚Clustern‘ führt.(vgl.S.65f)
(32)Andere haben diese Modelle dahingehend weiterentwickelt, dass sie sich ‚vererben‘ können und bei dieser Vererbung Veränderungen erlauben.(vgl. S.67f) Weitere Eigenschaften (Quellen von freier Energie, Metabolismus) lassen sich in dieses Modell integrieren. (vgl.SS.68-70) Noch ist offen, ob sich dieses mathematische Modell voll lauf reale Molekülmengen anwenden lässt. Klar ist allerdings, dass sich die Eigenschaften des Gesamtsystems nicht aus den Bestandteilen alleine herleiten lässt. Ein klassischer Reduktionismus wäre also ausgeschlossen.
(33)Fortsetzung folgt … kritische Auseinandersetzung am Schluss…

Fortsetzung von TEIL 2

Quellen:

Kauffman, S.A., Reinventing the Sacred. A new View of Science, Reason, and Religion. New York: Basic Books, 2008 (Paperback 2010)

Über S.A.Kauffman in der Englischen Wikipedia: http://en.wikipedia.org/wiki/Stuart_Kauffman (Zuletzt besucht 5.Jan.2013)

Interessante Vorlesungen von Kauffman als Videos: http://csb.cs.tut.fi/stu_news.php (Zuletzt besucht 5.Jan.2013)

Eine Übersicht über alle bisherige Blogeinträge nach Themen findet sich HIER