Archiv der Kategorie: Selbstorganisation

THOMPSON: MIND IN LIFE – Review – Teil 1

Evan Thompson, Mind in Life. Biology, Phenomenology, and the Sciences of Mind. Harvard – London, The Belknap Press o f Harvard University Press, 2007

PHILOSOPHIE UND WISSENSCHAFTEN – EIN MOTIV

  1. Das Motiv für die Lektüre dieses Buches rührt von der anhaltenden Auseinandersetzung von cagent zu den philosophischen Grundlagen unseres Weltbildes. Egal ob man sich mit psychologischen Modellbildungen beschäftigt, mit biologischen oder neurowissenschaftlichen, man stößt immer wieder auf die methodischen Ränder dieser Disziplinen, durch die ein direkter Zugriff auf die Inhalte des Bewusstseins nicht möglich ist (siehe Bild 1). Es bleiben immer nur Korrelationen mit etwas, das man dem Bewusstsein zurechnet, aber man kommt niemals direkt an die Daten des Bewusstseins heran.

Die drei großen Blickweisen auf den Menschen (Verhalten, Gehirn, Bewusstsein) und deren möglichen Verknüpfungen
Die drei großen Blickweisen auf den Menschen (Verhalten, Gehirn, Bewusstsein) und deren möglichen Verknüpfungen
  1. Dieses Problem ist nicht neu, es ist letztlich uralt, aber durch die Fortschritte der empirischen Wissenschaften wird die Besonderheit des Phänomens des Bewusstseins klarer als je zuvor.

  2. Welcher Philosoph das Phänomen des Bewusstseins bislang am besten beschrieben haben soll, ist schwer zu sagen. Jeder große Philosoph hat auf seine Weise interessante Aspekte enthüllt. Aus Sicht der heutigen Methoden und Erkenntnisse erscheint cagent das Vorgehen von Edmund Husserl mit seinem phänomenologischen Forschungsprogramm bislang als am ehesten geeignet zu sein, eine Brücke zu schlagen zu den heutigen empirischen Wissenschaften, ohne dabei das Alleinstellungsmerkmal des philosophischen Denkens und die Besonderheiten des Untersuchungsgegenstandes aufgeben zu müssen.

  3. Entscheidend für das Projekt einer verbesserten Integration von philosophischem mit empirischem Denken wird der benutze Erkenntnis- und Wissenschaftsbegriff sein. Trotz ca. 100 Jahren Wissenschaftsphilosophie kann man aber nicht behaupten, dass es in allen wissenschaftlichen Disziplinen heute einen einheitlichen Wissenschaftsbegriff gibt, der sich auch in entsprechend gemeinsamen Methoden und Darstellungsweisen ausdrückt.

  4. Der Autor cagent greift zu diesem Zweck zurück auf die Tradition der Wissenschaftstheorie, wie sie zuletzt im Institut für Logik und Wissenschaftstheorie der Ludwig-Maximilians Universität München in den 80iger Jahren des 20.Jahrhunderts praktiziert wurde (dies Institut existiert in der damaligen Form nicht mehr). Diese Sicht wurzelte stark u.a. auch in der Tradition des Wiener Kreises, mit all den Schwachstellen, die sich daraus ergaben. Dennoch kann man aus dieser Position eine Arbeitshypothese herleiten, die nachvollziehbar und kritisierbar ist. Diese Position sei hier mit der Abkürzung LMU-ILWT bezeichnet.

  5. Ein wesentlicher Punkt in der Position des LMU-ILWT besteht in der Forderung nach einer angemessen Formalisierung intendierter wissenschaftlicher Sachverhalte in einer Disziplin. Heute könnte man die Formalisierungsanforderung ergänzen um den Punkt von brauchbaren Simulationsmodellen, mit deren Hilfe sich die Auswirkungen einer formalen Theorie sichtbar und ansatzweise überprüfbar machen lassen.

  6. Die Anforderungen lassen sich an jede empirische Theorie stellen und einlösen, was aber faktisch immer nur partiell passiert. Den meisten Wissenschaftlern fehlt das Knowhow (und die Zeit, und die Werkzeuge), um diese Anforderung wirklich einzulösen.

  7. Im Rahmen eines Programms zur Integration von Philosophie und empirischen Wissenschaften ist zu überprüfen, ob und wieweit sich auch die Position der Philosophie entsprechend formalisieren und simulieren lässt. Von den meisten Philosophen wird solch eine Gedanke eher abgelehnt.

  8. Im Falle eines phänomenologischen Forschungsprogramms im Stile von Edmund Husserl ist solch eine Überlegung aber keinesfalls abwegig, sondern gehört sogar in gewisser Weise zum Forschungsprogramm selbst.

  9. Im Rückgang auf die Grunddaten des bewussten Erlebens, Fühlens, Denkens usw. zeigt sich eine Vielfalt von Phänomenen in einer spezifischen Dynamik mit impliziten Strukturen, die zu formalisieren genauso sich anbietet wie die Formalisierung von komplexen Phänomene aus dem Bereich der biologischen Evolution oder der Entstehung des physikalischen Universums.

  10. Es gab sogar einen berühmten Versuch solch einer Formalisierung. Das Buch von Rudolf Carnap Der Logische Aufbau der Welt (1928) erscheint als  eine  1-zu-1 Übersetzung jenes Konstitutionsprozesses der Phänomene des Bewusstseins, wie sie Husserl in den Ideen I + II (sowie in anderen Schriften) über Jahrzehnte entwickelt hat. Allerdings hat Carnap sowohl im Stufenbau wie auch in seiner Autobiographie alles daran getan, diesen Bezug zu Husserls Denken und Werk zu verdecken. (Anmerkung: Eine neuere, sehr ausführliche und gründlich recherchierte Untersuchung zum Verhältnis von Carnaps Stufenbau zum Denken Husserls, die diese Nähe Carnaps zu Husserl belegt,  findet sich in einem Beitrag von Verena Mayer (München), der demnächst erscheinen wird.)
  11. Der Stufenbau Carnaps wurde mehrfach heftig kritisiert. Dennoch ist die Grundidee, auch die Phänomene des Bewusstseins einer formalen Analyse zu unterziehen naheliegend und konsequent. Es gibt keinen Grund, dies nicht zu tun. Die grundsätzliche Problematik einer Versprachlichung von Erkennen wird dadurch natürlich nicht aufgehoben und nicht geheilt, aber im Raum des menschlichen Erkennens gibt es keine Alternativen. Unser Denken befindet sich kontinuierlich in einem Ringen um Artikulation, die als solche notwendig ist, aber als solche niemals das Erkannte ganz erschöpfen kann. Das bekannte Ungenügen ist keine Entschuldigung, es gar nicht zu tun. Denn die Alternative zu einer unvollkommenen Artikulation ist gar keine Artikulation.
  12. Je mehr die empirischen Wissenschaften die Grenzen des Redens über das Bewusstsein immer klarer erfahrbar machen, umso eindringlicher entsteht die Aufforderung, sich als Philosoph erneut darüber Gedanken zu machen, ob und wie solch ein Programm einer erneuerten Theorie des Bewusstseinserlebens im Kontext von Entwicklungs-, Verhaltens-, Gehirn- und Körperwissenschaften (um nur die wichtigsten zu nennen) aussehen könnte. Arbeitshypothese ist, das phänomenologische Forschungsprogramm von Husserl als Leitschnur zu nehmen erweitert um das wissenschaftsphilosophische Instrumentarium einer modernen Wissenschaftstheorie im Stil von LMU-ILWT.
  13. In diesem Kontext finde ich ein Buch wie das von Thompson reizvoll, zumal Thompson sich in den letzten Jahren in einem Netzwerk von Forschern bewegt hat, denen man das Label ‚Naturalisierung der Phänomenologie‘ anheften könnte. Diese Forscher hatten ihren eigenen Lernprozess mit dem Forschungsprogramm von Husserl.

THOMPSON Kap.1 (SS.3-15)

ENAKTIVE VORGEHENSWEISE

  1. In diesem einführenden Kapitel versucht Thompson eine historische Einordnung vorzunehmen zwischen jenem philosophisch-wissenschaftlichen Paradigma, dem er sich zugehörig fühlt und das er Enaktiv (Englisch: ‚enactive‘) nennt, und jenen anderen Strömungen, die er als vorbereitend für den eigenen Standpunkt ansieht. Der Begriff ‚enaktiv‘ ist ein Kunstwort, in dem die Idee einer Realisierung eines Gesetzes durch Verkörperung in der Zeit ausgedrückt werden soll. (vgl. S.13) Der Begriff geht zurück auf das Buch The Embodied Mind, das Thompson zusammen mit Varela und Rosch 1991 verfasst hatte.
  2. Im einzelnen zählt Thompson fünf Aspekte auf, die für eine enaktive Vorgehensweise in seinem Verständnis wichtig sind.(vgl. Dazu S.13)
  3. Zum einen (i) ist dies der Aspekt der Autonomie lebender Systeme. Im Rahmen ihrer Möglichkeiten organisieren sie sich komplett selbst und in diesem Rahmen generieren sie ihren spezifischen Erkenntnisraum (‚cognitive domain‘).
  4. Innerhalb dieser generellen Autonomie arbeitet (ii) das Nervensystem (das Gehirn) ebenfalls autonom. Mit Schnittstellen zu Ereignissen außerhalb des Gehirns arbeitet das Gehirn aber vollständig selbstbezüglich und erschafft in dieser Selbstbezüglichkeit seine eigenen Bedeutungsstrukturen.
  5. Ferner gilt (iii): Erkenntnis (‚cognition‘) ist in diesem Kontext ein Moment an einem dynamischen Verhalten, das zwar über sensorische und motorische Kopplungen mit einer Umwelt interagiert, aber diese Kopplung führt nicht zu einer 1-zu-1-Determinierung des Systems. Das System hat eine Eigendynamik, die über diese Interaktion weit hinausgeht.
  6. Im Rahmen solch einer eingebetteten Kognition ist (iv) das Bild einer Welt nicht einfach eine Entsprechung, nicht eine direkte Repräsentation der empirischen Außenwelt, sondern ein dynamisches Produkt aus Interaktion und systeminternen generierenden Prozessen, die ein systemspezifisches Modell einer unterstellten Welt erzeugen.
  7. Schließlich: (v) Erfahrung (‚experience‘) ist in diesem Kontext nicht irgendein Nebeneffekt (‚epiphenomenal side issue‘), sondern der wesentliche Aspekt für ein Verständnis von Geist (‚mind‘). Von daher ist es notwendig genau diese Erfahrung zu untersuchen, und die beste Methode dafür ist nach Thompson eine phänomenologische Vorgehensweise.
  8. Bevor auf diese Punkte näher eingegangen wird sei hier noch ein kurzer Blick gestattet auf den Ausblick von Thompson auf andere, konkurrierende Ansätze.(sehe Bild 2)

KOGNITIVISMUS, KONNEKTIONISMUS, VERKÖRPERTER DYNAMIZISMUS

Aufschlüsselung der Leitbegriffe von Thompson in Kap.1
Aufschlüsselung der Leitbegriffe von Thompson in Kap.1
  1. Letztlich organisiert er seine Umschau mit den Begriffen Kognitivismus (‚cognitivism‘), Konnektionismus (‚connectionism‘) und Verköperter Dynamizismus (‚embodied dynamicism‘).
  2. Das Problem mit diesen Begriffen ist, dass sie nicht sehr scharf sind, eher vage. Dies zeigt sich sofort, wenn man versucht, konkrete Forscher diesen Richtungen zuzuordnen und dabei den Inhalt ihrer Schriften einbezieht. Die meisten Forscher haben in ihrem Leben eine Lerngeschichte, die sie mit einer bestimmten Position anfangen lässt und sie dann zu weiteren, neuen Positionen führt. Ordnet man nun bestimmte Forscher aufgrund bestimmter Ansichten im Jahr X einer bestimmten Ähnlichkeitsklasse M zu, so gilt dies oft nur für eine bestimmte Zeitspanne. Außerdem sind bestimmte Paradigmen (wie z.B. gerade der sogenannte Kognitivismus) in sich so komplex und vielfältig, dass eine saubere Definition in der Regel kaum möglich ist.
  3. So definiert Thompson den Begriff Kognitivismus einleitend gar nicht sondern zitiert in lockerer Folge unterschiedliche Autoren und Konzepte, die man sowohl der schwammigen Kognitionswissenschaft (‚cognitive science‘) zuordnen kann wie auch der Kognitionspsychologie (‚cognitive psychology‘), die sich als Gegenbewegung zur Verhaltenspsychologie (‚beavioral psychology‘, ‚behaviorism‘) gebildet hatte. Daneben gibt es auch Strömungen in der Philosophie, die sich unterschiedlich mit dem Kognitivismus und der Kognitionspsychologie überlappt haben und immer noch überlappen. In allem dabei die neue erstarkende Rolle von computerbasierten Modellen und Simulationen.(vgl. SS.4-8)
  4. In all diesen – nicht immer klaren – Positionen erkennt Thompson charakteristische Defizite.
  5. Die Verbannung der direkten Beobachtung von Geist und Bewusstsein im Rahmen einer empirischen Verhaltenspsychologie (zur Zeit ihrer Entstehung ein wichtiges Anliegen, um die einseitige Orientierung an der Introspektion aufzubrechen), führte im weiteren Verlauf zu einer ideologischen Verhärtung der Methoden, die sich dann auch in der Kognitionspsychologie und der frühen Kognitionswissenschaft (samt Teilen der Philosophie) weiter vererbte. Die Einbeziehung von Computermodellen verstärkte die Tendenz, die Arbeitsmodelle der Kognition im Stile von – rein symbolischen – Informationsverarbeitungsprozessen zu sehen, die einen gewissen Anschluss an die moderne Gehirnforschung erlaubte. Allerdings war (und ist) die Übereinstimmung des Computerparadigmas und des Gehirnparadigmas – je nach Betrachtungsstandpunkt – nur partiell ähnlich. Dazu kam – nach Thompson – eine isolierte Betrachtung individueller kognitiver Prozesse ohne den Faktor der umgebenden Kultur. Der Zusammenhang zwischen Bewusstsein und all den anderen Wissenschaftsbereichen wurde damit letztlich immer unklarer, war (und ist immer noch weitgehend) geradezu geächtet, und die resultierenden Theorie (sofern es überhaupt Theorien waren) wirkten aufgrund ihrer Eingangsbeschränkungen oft sehr verzerrt.
  6. Im Konnektionismus (‚connectionism‘), der nach anfänglichen Startschwierigkeiten ab den 80iger Jahren des 20.Jahrhunderts deutlich an Boden gewann, sieht Thompson einen gewissen Fortschritt derart, dass neue Erkenntnisse der Gehirnforschung und der Forschung mit künstlichen neuronalen Netzen deutlich machten, dass das Konzept eines deduktiven Denkens mittels Symbolen einer abstrakten Ebene zugehört, die tieferliegend mittels vernetzten Neuronen realisiert wird, die direkt keine Symbole verkörpern, sondern ein Netzwerk von Ereignissen, die dynamisch unterschiedlichste Abstraktionsebenen und Wechselwirkungen realisieren. Ein Verständnis von Geist muss also tiefer ansetzten als lange Zeit gedacht. Thompson kritisiert am Konnektionismus, dass dieser die Verkopplung mit der Welt nur ungenügend berücksichtigt habe. Für die ersten Jahrzehnte mag dies stimmen. Aber in den letzten Jahren hat sich dies radikal gewandelt (Beispiel google Algorithmen, IBMs Watson, Roboter, usw.). Was allerdings als Kritik bestehen bleibt ist Thompsons Diagnose, dass auch der Konnektionismus bislang ein Riesenproblem mit dem Bewusstsein hat.
  7. Der Begriff des verkörperten Dynamizismus (‚embodied dynamicism‘) erscheint besonders problematisch. Thompson sieht hier ein Zusammengehen der Strömung Dynamischer (selbstorganisierter) Systeme (‚dynamic (self-organizing) systems‘) und Verköperter Systeme (‚embodied systems‘). Dazu gehört, dass solche Systeme nicht einfach nur die Umwelt 1-zu-1 abbilden, sondern ihre Interaktion mit der Umwelt durch autonome, nicht-lineare Prozesse individuell gestalten. Thompson sieht in der Strömung eines verkörperten Dynamizismus Ansätze sowohl für eine Einbeziehung des Bewusstseins wie auch des Vor- und Nicht-Bewusstseins.(vgl. S.11f)
  8. In dieser vorausgehenden Strömung, dem verkörperten Dynamizismus, sieht Thompson dann auch den Übergang zu jener Richtung, der er sich selbst zugehörig fühlt und die für ihn die Lösung wichtiger Fragen ermöglichen soll, besser als in den vorausgehend charakterisierten Strömungen.

ENAKTIVES VORGEHEN und PHÄNOMENOLOGIE

  1. Nach diesen Einkreisungen der Notwendigkeit einer direkten Analyse des Bewusstseins deutet Thompson kurz an, wie er sich diese Analyse vorstellt.
  2. Es soll primär die phänomenologische Methode von Husserl und auch von Merleau-Ponty sein, dies aber im Rahmen der (selbstorganisierenden, autopoietischen) Autonomie und Intentionalität des Lebens allgemein. Ferner soll die Neurobiologie einbezogen werden, was die Notwendigkeit einer Neuro-Phänomenologie begründet.(vgl. S.15)

DISKUSSION

  1. Wie schon angedeutet, erscheint die allgemeine Lageskizze, die Thompson gibt, als problematisch, da die Begriffe nicht allzu scharf sind und eine wirkliche genau Zuordnung einzelner Personen zu bestimmten Richtungen in solch einem Kontext schwierig ist.
  2. Auch ist nach dieser Einleitung noch nicht ganz klar, wie Thompson sein Programm einlösen wird. Die skizzierte enaktive Vorgehensweise lässt viel Spielraum für alternative Konzepte.

Einen Überblick über alle Blogbeiträge von cagent nach Titeln findet sich HIER.

IST DIE SELBSTVERSKLAVUNG DER MENSCHEN UNTER DIE MASCHINEN EVOLUTIONÄR UNAUSWEICHLICH?

  1. In diesem Blog gab es in der Vergangenheit schon mehrere Einträge (z.B. den ersten großen Beitrag Kann es doch einen künstlichen Geist geben?), die sich mit der Frage beschäftigt haben, inwieweit Maschinen die Lernfähigkeit und die Intelligenz von Menschen erreichen oder sogar übertreffen können.
  2. In vielen wichtigen Punkten muss man diese Frage offensichtlich bejahen, obgleich es bis heute keine Maschine gibt, die das technische Potential voll ausnutzt.
  3. Umso bemerkenswerter ist es, welche Wirkungen Maschinen (Computer) auf die Gesellschaft erzielen können, obgleich sie noch weitab von ihrem Optimum agieren.
  4. In einem Blogeintrag anlässlich eines Vortrags Über Industrie 4.0 und Transhumanismus. Roboter als Volksverdummung? Schaffen wir uns selbst ab? hatte ich noch eine grundsätzlich positive Grundstimmung bzgl. dessen, was auf uns zukommt. Ich schrieb damals:
  5. Das Ganze endet in einem glühenden Plädoyer für die Zukunft des Lebens in Symbiose mit einer angemessenen Technik. Wir sind nicht das ‚Endprodukt‘ der Evolution, sondern nur eine Durchgangsstation hin zu etwas ganz anderem!
  6. Mittlerweile beschleicht mich der Verdacht, dass wir aktuellen Menschen die nächste Phase der Evolution möglicherweise unterschätzen.
  7. Auslöser war der persönliche Bericht eines Managers in einem weltweiten IT-Konzern, der – von Natur aus ein Naturwissenschaftler, ‚knochentrocken‘, immer sachlich, effizient – zum ersten Mal nach vielen Jahren Ansätze von Emotionen zeigte, was die Entwicklung seiner Firma angeht. Die Firma (und nicht nur diese Firma, s.u.) entwickelt seit vielen Jahren ein intelligentes Programm, das eine Unzahl von Datenbanken auswerten kann, und zwar so, dass die Anfrage von Menschen ‚interpretiert‘, die Datenbanken daraufhin gezielt abgefragt und dem anfragenden Menschen dann mitgeteilt werden. Das Ganze hat die Form eines passablen Dialogs. Das Verhalten dieses intelligenten Programms ist mittlerweile so gut, dass anfragende Menschen nicht mehr merken, dass sie ’nur‘ mit einer Maschine reden, und dass die Qualität dieser Maschine mittlerweile so gut ist, dass selbst Experten in vielen (den meisten?) Fällen schlechter sind als diese Maschine (z.B. medizinische Diagnose!). Dies führt schon jetzt dazu, dass diese Beratungsleistung nicht nur nach außen als Dienstleistung genutzt wird, sondern mehr und mehr auch in der Firma selbst. D.h. die Firma beginnt, sich von ihrem eigenen Produkt – einem in bestimmtem Umfang ‚intelligenten‘ Programm – ‚beraten‘ (und damit ‚führen‘?) zu lassen.
  8. Wenn man sich in der ‚Szene‘ umhört (man lese nur den erstaunlichen Wikipedia-EN-Eintrag zu deep learning), dann wird man feststellen, dass alle großen global operierenden IT-Firmen (Google, Microsoft, Apple, Facebook, Baidu und andere), mit Hochdruck daran arbeiten, ihre riesigen Datenbestände mit Hilfe von intelligenten Maschinen (im Prinzip intelligenten Algorithmen auf entsprechender Hardware) dahingehend nutzbar zu machen, dass man aus den Nutzerdaten nicht nur möglichst viel vom Verhalten und den Bedürfnissen der Nutzer zu erfahren, sondern dass die Programme auch immer ‚dialogfähiger‘ werden, dass also Nutzer ’natürlich (= menschlich)‘ erscheinende Dialoge mit diesen Maschinen führen können und die Nutzer (= Menschen) dann zufrieden genau die Informationen erhalten, von denen sie ‚glauben‘, dass es die ‚richtigen‘ sind.
  9. Auf den ersten Blick sieht es so aus, als ob die Manager dieser Firmen dank ihrer überlegenen Fähigkeiten die Firmen technologisch aufrüsten und damit zum wirtschaftlichen Erfolg führen.
  10. Tatsache ist aber, dass allein aufgrund der Möglichkeit, dass man ein bestimmtes Informationsverhalten von Menschen (den aktuellen ‚Kunden‘!) mit einer neuen Technologie ‚bedienen‘ könnte, und dass derjenige, der dies zu ‚erschwinglichen Preisen‘ als erster schafft, einen wirtschaftlichen Erfolg erzielen kann (zu Lasten der Konkurrenz), diese rein gedachte Möglichkeit einen Manager zwingt (!!!), von dieser Möglichkeit Gebrauch zu machen. Tut der Manager es nicht läuft er Gefahr, dass die Konkurrenz es tut, und zwar vor ihm, und dass er dadurch möglicherweise auf dem Markt so geschwächt wird, dass die Firma sich davon u.U. nicht mehr erholt. Insofern ist der Manager (und die ganze Firma) ein Getriebener (!!!). Er kann gar nicht anders!
  11. Das, was den Manager ‚treibt‘, das ist die aktuelle technische Möglichkeit, die sich aufgrund der bisherigen technischen Entwicklung ergeben hat. Für die bisherige technische Entwicklung gilt aber für jeden Zeitpunkt die gleiche Logik: als die Dampfmaschine möglich wurde, hatte nur noch Erfolg, wer sie als erster und konsequent eingesetzt hat; als die Elektrizität verfügbar, nicht anders, dann Radio, Fernsehen, Auto, Computer, ….
  12. Die ‚Manager‘ und ‚Unternehmensgründer‘, die wir zurecht bewundern für ihre Fähigkeiten und ihren Mut (nicht immer natürlich), sind trotz all dieser hervorstechenden Eigenschaften und Leistungen dennoch nicht autonom, nicht freiwillig; sie sind und bleiben Getriebene einer umfassenderen Logik, die sich aus der Evolution als Ganzer ergibt: die Evolution basiert auf dem bis heute nicht erklärbaren Prinzip der Entropie-Umkehr, bei dem freie Energie dazu genutzt wird, den kombinatorischen Raum möglicher neuer Zustände möglichst umfassend abzusuchen, und in Form neuer komplexer Strukturen in die Lage zu versetzen, noch mehr, noch schneller, noch effizienter zu suchen und die Strukturen und Dynamiken der vorfindlichen Welt (Universum) darin zu verstehen.
  13. Während wir im Falle von Molekülen und biologischen Zellen dazu tendieren, diese eigentlich ungeheuren Vorgänge eher herunter zu spielen, da sie quasi unter unserer Wahrnehmungsschwelle liegen, wird uns heute vielleicht dann doch erstmalig, ansatzweise, etwas mulmig bei der Beobachtung, dass wir Menschen, die wir uns bislang für so toll halten, dazu ganze riesige globale Firmen, die für Außenstehende beeindruckend wirken und für Firmenmitglieder wie überdimensionale Gefängnisse (? oder Irrenanstalten?), dass wir ‚tollen‘ Menschen also ansatzweise spüren, dass die wahnwitzige Entwicklung zu immer größeren Metropolen und zu immer intelligenteren Maschinen, die uns zunehmen die Welt erklären (weil wir es nicht mehr schaffen!?), uns dies alles tun lassen, weil der einzelne sich machtlos fühlt und die verschiedenen Chefs auf den verschiedenen Hierarchieebenen total Getriebene sind, die ihre Position nur halten können, wenn sie hinreichend effizient sind. Die Effizienz (zumindest in der freien Wirtschaft) wird jeweils neu definiert durch das gerade Machbare.
  14. Politische Systeme haben zwar immer versucht – und versuchen es auch heute – sich ein wenig vor dem Monster der Innovation abzuschotten, aber dies gelingt, wenn überhaupt, in der Konkurrenz der Gesellschaftssysteme nur für begrenzte Zeiten.
  15. Was wir also beobachten ist, dass die immense Informationsflut, die das einzelne Gehirn hoffnungslos überfordert, Lösungen mit intelligente Maschinen auf den Plan ruft, die das Sammeln, Sortieren, Klassifizieren, Aufbereiten usw. übernehmen und uns Menschen dann auf neue Weise servieren. So betrachtet ist es hilfreich für alle, nützlich, praktisch, Lebensfördernd.
  16. Beunruhigend ist einmal die Art und Weise, das Wie: statt dass es wirklich allen hilft, hat man den Eindruck, dass es die globalen Konzerne sind, die einseitig davon Vorteile haben, dass das bisherige Ideal der Privatheit, Freiheit, Selbstbestimmung, Würde usw. aufgelöst wird zugunsten einer völlig gläsernen Gesellschaft, die aber nur für einige wenige gläsern ist. Demokratische Gesellschaften empfinden dies u.U, stärker als nicht-demokratische Gesellschaften.
  17. Beunruhigend ist es auch, weil wir als Menschen erstmalig merken, dass hier ein Prozess in Gang ist, der eine neue Qualität im Verhältnis Mensch – Technik darstellt. In primitiveren Gesellschaften (und auch noch in heutigen Diktaturen) war es üblich , dass wenige Menschen die große Masse aller anderen Menschen quasi ‚versklavt‘ haben. Unter absolutistischen Herrschern hatten alle einem Menschen zu gehorchen, ob der nun Unsinn redete oder Heil verkündete. Nach den verschiedenen demokratischen Revolutionen wurde dieser Schwachsinn entzaubert und man wollte selbst bestimmen, wie das Leben zu gestalten ist.
  18. In der fortschreitenden Komplexität des Alltags merken wir aber, dass das sich selbst Bestimmen immer mehr vom Zugang zu Informationen abhängig ist und von der kommunikativen Abstimmung mit anderen, die ohne erheblichen technischen Aufwand nicht zu leisten sind. Die dazu notwendigen technischen Mittel gewinnen aber im Einsatz, im Gebrauch eine solche dominante Rolle, dass sie immer weniger nur die neutralen Vermittler von Informationen sind, sondern immer mehr ein Eigenleben führen, das sich ansatzweise und dann immer mehr auch von denen abkoppelt, die diese vermittelnden Technologien einsetzen. Kunden und Dienstleister werden werden gleichzeitig abhängig. Wirtschaftlich können die Dienstleister nicht mehr dahinter zurück und lebenspraktisch ist der Verbraucher, der Kunde immer mehr von der Verfügbarkeit dieser Leistung abhängig. Also treiben beide die Entwicklung zu noch größerer Abhängigkeit von den intelligenten Vermittlern voran.
  19. Eine interessante Entwicklung als Teil der übergreifenden Evolution. Wo führt sie uns hin?
  20. Die Frage ist spannend, da die heute bekannten intelligenten Maschinen noch weitab von den Möglichkeiten operieren, die es real gibt. Die Schwelle ist bislang die Abhängigkeit von den begrenzten menschlichen Gehirnen. Unsere Gehirne tun sich schwer mit Komplexität. Wir brauchen Computer, um größere Komplexität bewältigen zu können, was zu noch komplexeren (für uns Menschen) Computern führt, usw. Dabei haben wir noch lange nicht verstanden, wie die etwa 200 Milliarden einzelne Nervenzellen in unserem Gehirn es schaffen, im Millisekundenbereich miteinander so zu reden, dass all die wunderbaren Leistungen der Wahrnehmens, Denkens, Erinnerns, Bewegens usw. möglich sind.
  21. Heutige Computer haben mittlerweile eine begrenzte lokale Lernfähigkeit realisiert, die ihnen den Zugang zu begrenzter Intelligenz erlaubt. Heutige Computer sind aber weder im lokalen wie im strukturellen voll Lernfähig.
  22. Einige meinen, dass die Zukunft im Sinne von technischer-Singularität zu deuten ist, dass die intelligenten Maschinen dann irgendwann alles übernehmen. Ich wäre mir da nicht so sicher. Das Hauptproblem einer vollen Lernfähigkeit ist nicht die Intelligenz, sondern die Abhängigkeit von geeigneten Präferenzsystemen (Werte, Normen, Emotionen, Bedürfnissen, …). Dieses Problem begegnen wir beim Menschen auf Schritt und Tritt. Die vielen Probleme auf dieser Welt resultieren nicht aus einem Mangel an Intelligenz, sondern aus einem Mangel an geeigneten von allen akzeptierten Präferenzsystemen. Dass Computer die gleichen Probleme haben werden ist den meisten (allen?) noch nicht bewusst, da die Lernfähigkeit der bisherigen Computer noch so beschränkt ist, dass das Problem nicht sichtbar wird. Sobald aber die Lernfähigkeit von Computern zunehmen wird, wird sich dieses Problem immer schärfer stellen.
  23. Das einzige wirklich harte Problem ist jetzt schon und wird in der Zukunft das Werteproblem sein. Die bisherigen Religionen haben unsere Blicke mit vielen falschen Bildern vernebelt und uns im Glauben gelassen, das Werteproblem sei ja gelöst, weil man ja an Gott glaubt (jede Religion tat dies auf ihre Weise). Dieser Glaube ist aber letztlich inhaltsleer und nicht geeignet, die realen Wertprobleme zu lösen.
  24. Man kann nur gespannt sein, wie die Menschheit als Teil des umfassenden Lebensphänomens mit einer immer leistungsfähigeren Technik auf Dauer das Werteproblem lösen wird. Die einzige Hoffnung ruht in der Logik des Prozesses selbst. Der Mensch in seiner unfassbaren Komplexität ist ein Produkt der Evolutionslogik; wir selbst sind weit entfernt davon, dass wir etwas Vergleichbares wie uns selbst schaffen könnten. Darf man also darauf vertrauen, dass die in allem Leben innewohnende Logik der Evolution uns Menschen als Werkzeuge benutzt zu noch mehr Komplexität, in der wir alle kleine Rädchen im Ganzen sind (als was erscheint uns  ein einzelner Mensch in einer 30-Millionen Metropole?)

Einen Überblick über alle Einträge von cagent nach Titeln findet sich HIER

Buch: Die andere Superintelligenz. Oder: schaffen wir uns selbst ab? – Kapitel 5 – neu – Version 2

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 27.August 2015
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

VORBEMERKUNG: Der folgende Text ist ein Vorabdruck zu dem Buch Die andere Superintelligenz. Oder: schaffen wir uns selbst ab?, das im November 2015 erscheinen soll.

Was ist Leben?

Erst die Erde

Etwa 9.2 Mrd Jahre nach dem sogenannten Big Bang kam es zur Entstehung unseres Sonnensystems mit der Sonne als wichtigstem Bezugspunkt. Nur ca. 60 Mio Jahre später gab es unsere Erde. Die Zeitspanne, innerhalb der Spuren von Leben auf der Erde bislang identifiziert wurden, liegt zwischen -4 Mrd Jahre von heute zurück gerechnet bis ca. -3.5 Mrd Jahre. Oder, vom Beginn der Erde aus gesehen, ca. 540 Mio Jahre bis ca. 1 Mrd Jahre nach der Entstehung der Erde.

Alte Bilder vom Leben

Wenn man vom Leben spricht, von etwas Belebtem im Gegensatz zum Unbelebtem, fragt man sich sofort, wie man ‚Leben‘ definieren kann? In der zurückliegenden Geschichte gab es viele Beschreibungs- und Definitionsversuche. Einer, der heute noch begrifflich nachwirkt, ist die Sicht der Philosophie der Antike (ca. -600 bis 650) . Hier wurde das ‚Atmen‘ (gr. ‚pneo‘) als charakteristisches Merkmal für ‚Lebendiges‘ genommen, wodurch es vom ‚Unbelebtem‘ abgegrenzt wurde. Aus dem ‚Atmen‘ wurde zugleich ein allgemeines Lebensprinzip abgeleitet, das ‚Pneuma‘ (im Deutschen leicht missverständlich als ‚Geist‘ übersetzt, im Lateinischen als ’spiritus‘), das sich u.a. im Wind manifestiert und ein allgemeines kosmologisches Lebensprinzip verkörpert, das sowohl die Grundlage für die psychischen Eigenschaften eines Lebewesens bildet wie auch für seine körperliche Lebendigkeit. In der Medizin gab es vielfältige Versuche, das Pneuma im Körper zu identifizieren (z.B. im Blut, in der Leber, im Herzen, im Gehirn und den Nerven). Im philosophischen Bereich konnte das Pneuma ein heißer Äther sein, der die ganze Welt umfasst. Eine andere Auffassung sieht das Pneuma zusammengesetzt aus Feuer und Luft, woraus sich alle Körper der Welt bilden. Das Pneuma wird auch gesehen als die ‚Seele‘, die allein das Leben des Körpers ermöglicht. Bei den Stoikern wird das Pneuma-Konzept zum allumfassenden Begriff einer Weltseele gesteigert. Mit der Zeit vermischte sich der Pneuma-Begriff mit dem Begriff ’nous‘ (Kurzform für ’noos‘)(Englisch als ‚mind‘ übersetzt; Deutsch ebenfalls als ‚Geist‘), um darin die kognitiv-geistige Dimension besser auszudrücken. Weitere einflussreiche begriffliche Koordinierungen finden statt mit dem lateinischen ‚mens‘ (Deutsch auch übersetzt mit ‚Geist‘) und dem hebräischen ‚ruach‘ (im Deutschan ebenfalls mit ‚Geist‘ übersetzt; bekannt in der Formulierung ‚Der Geist Gottes (= ‚ruach elohim‘) schwebte über den Wassern‘; in der Septuaginta, der griechischen Übersetzung der hebräischen Bibel, heißt es ‚pneuma theou‘ (= der Geist Gottes)) (Anmerkung: Diese Bemerkungen sind ein kleiner Extrakt aus der sehr ausführlichen begriffsgeschichtlichen Herleitung in Sandkühler 2010)

Die Zelle im Fokus

War es für die antiken Philosophen, Mediziner und Wissenschaftler noch praktisch unmöglich, die Frage nach den detaillierten Wirkprinzipien des ‚Lebens‘ genauer zu beantworten, erarbeitete sich die moderne Naturwissenschaft immer mehr Einsichten in die Wirkprinzipien biologischer Phänomene (bei Tieren, Pflanzen, Mikroben, molekularbiologischen Sachverhalten), so dass im Laufe des 20.Jahrhunderts klar wurde, dass die Gemeinsamkeit aller Lebensphänomene auf der Erde in jener Superstruktur zu suchen ist, die heute (biologische) Zelle genannt wird.

Alle bekannten Lebensformen auf der Erde, die mehr als eine Zelle umfassen (wir als Exemplare der Gattung homo mit der einzigen Art homo sapiens bestehen aus ca. 10^13 vielen Zellen), gehen zu Beginn ihrer körperlichen Existenz aus genau einer Zelle hervor. Dies bedeutet, dass eine Zelle über alle notwendigen Eigenschaften verfügt, sich zu reproduzieren und das Wachstum eines biologischen Systems zu steuern.

So enthält eine Zelle (Anmerkung: Für das Folgende benutze ich B.Alberts et.al (2008)) alle Informationen, die notwendig sind, um sowohl sich selbst zu organisieren wie auch um sich zu reproduzieren. Die Zelle operiert abseits eines chemischen Gleichgewichts, was nur durch permanente Aufnahme von Energie realisiert werden kann. Obwohl die Zelle durch ihre Aktivitäten die Entropie in ihrer Umgebung ‚erhöht‘, kann sie gegenläufig durch die Aufnahme von Energie auch Entropie verringern. Um einen einheitlichen Prozessraum zu gewährleisten, besitzen Zellen eine Membran, die dafür sorgt, dass nur bestimmte Stoffe in die Zelle hinein- oder herauskommen.

Keine Definition für außerirdisches Leben

Obgleich die Identifizierung der Zelle samt ihrer Funktionsweise eine der größten Errungenschaften der modernen Wissenschaften bei der Erforschung des Phänomens des Lebens darstellt, macht uns die moderne Astrobiologie darauf aufmerksam, dass eine Definition der Lebensphänomene mit Einschränkung des Blicks auf die speziellen Bedingungen auf der Erde nicht unproblematisch ist. Wunderbare Bücher wie „Rare Earth“ von Peter Douglas Ward (Geboren 1949) und Donald Eugene Brownlee (Geboren 1943) „ASTROBIOLOGY. A Multidisciplinary Approach“ von Jonathan I.Lunine (Geb. 1959) machen zumindest sichtbar, wo die Probleme liegen könnten. Lunine diskutiert in Kap.14 seines Buches die Möglichkeit einer allgemeineren Definition von Leben explizit, stellt jedoch fest, dass es aktuell keine solche eindeutige allgemeine Definition von Leben gibt, die über die bekannten erdgebundenen Formen wesentlich hinausgeht. (Vgl. ebd. S.436)

Schrödingers Vision

Wenn man die Charakterisierungen von Leben bei Lunine (2005) in Kap.14 und bei Alberts et.al (2008) in Kap.1 liest, fällt auf, dass die Beschreibung der Grundstrukturen des Lebens trotz aller Abstraktionen tendenziell noch sehr an vielen konkreten Eigenschaften hängen.

Erwin Rudolf Josef Alexander Schrödinger (1887-1961), der 1944 sein einflussreiches Büchlein „What is Life? The Physical Aspect of the Living Cell“ veröffentlichte, kannte all die Feinheiten der modernen Molekularbiologie noch nicht . Schrödinger unterzog das Phänomen des Lebens einer intensiven Befragung aus Sicht der damaligen Physik. Auch ohne all die beeindruckenden Details der neueren Forschung wurde ihm klar, dass das hervorstechendste Merkmal des ‚Biologischen‘, des ‚Lebendigen‘ die Fähigkeit ist, angesichts der physikalisch unausweichlichen Zunahme der Entropie einen gegensätzlichen Trend zu realisieren; statt wachsender Unordnung als Entropie diagnostizierte er eine wachsende Ordnung als negative Entropie, also als etwas, was der Entropie entgegen wirkt.

Diesen Gedanken Schrödingers kann man weiter variieren und in dem Sinne vertiefen, dass der Aufbau einer Ordnung Energie benötigt, mittels der Freiheitsgrade eingeschränkt und Zustände temporär ‚gefestigt‘ werden können.

Fragt sich nur, warum?

Alberts et.al (2008) sehen das Hauptcharakteristikum einer biologischen Zelle darin, dass sie sich fortpflanzen kann, und nicht nur das, sondern dass sie sich selbstmodifizierend fortpflanzen kann. Die Realität biologischer Systeme zeigt zudem, dass es nicht nur um ‚irgendeine‘ Fortpflanzung ging, sondern um eine kontinuierlich optimierende Fortpflanzung.

Metastrukturen

Nimmt man diese Eckwerte ernst, dann liegt es nahe, biologische Zellen als Systeme zu betrachten, die einerseits mit den reagierenden Molekülen mindestens eine Objektebene [O] umfasst und in Gestalt der DNA eine Art Metaebene [M]; zwischen beiden Systemen lässt sich eine geeigneten Abbildung [R] in Gestalt von Übersetzungsprozessen realisieren, so dass die Metaebene M mittels Abbildungsvorschrift R in eine Objektebene O übersetzt werden kann ($latex R: M \longmapsto O$). Damit eine Reproduktion grundsätzlich gelingen kann, muss verlangt werden, dass das System mit seiner Struktur ‚lang genug‘ stabil ist, um solch einen Übersetzungsprozess umsetzen zu können. Wie diese Übersetzungsprozesse im einzelnen vonstatten gehen, ist letztlich unwichtig. Wenn in diesem Modell bestimmte Strukturen erstmals realisiert wurden, dann fungieren sie als eine Art ‚Gedächtnis‘: alle Strukturelemente von M repräsentieren potentielle Objektstrukturen, die jeweils den Ausgangspunkt für die nächste ‚Entwicklungsstufe‘ bilden (sofern sie nicht von der Umwelt ‚aussortiert‘ werden).

Die Rolle dieser Metastrukturen lässt sich letztlich nicht einfach mit den üblichen chemischen Reaktionsketten beschreiben; tut man es dennoch, verliert man die Besonderheit des Phänomens aus dem Blick. Eine begriffliche Strategie, um das Phänomen der ‚wirkenden Metastrukturen‘ in den Griff zu bekommen, war die Einführung des ‚Informationsbegriffs‘.

Information

Grob kann man hier mindestens die folgenden sprachlichen Verwendungsweisen des Begriffs ‚Information‘ im Kontext von Informationstheorie und Molekularbiologie unterscheiden:

  1. Unreflektiert umgangssprachlich (‚Information_0‘)
  2. Anhand des Entscheidungsaufwandes (Bit) (‚Information_1‘)
  3. Rein statistisch (a la Shannon 1948) (‚Information_2‘)
  4. Semiotisch informell (ohne die Semiotik zu zitieren) (‚Semantik_0‘)
  5. Als komplementär zur Statistik (Deacon) (‚Semantik_1‘)
  6. Als erweitertes Shannonmodell (‚Semantik_2‘)

Information_0

Die ‚unreflektiert umgangssprachliche‘ Verwendung des Begriffs ‚Information‘ (hier: ‚Information_0‘) brauchen wir hier nicht weiter zu diskutieren. Sie benutzt den Begriff Information einfach so, ohne weitere Erklärungen, Herleitungen, Begründungen. (Ein Beispiel Küppers (1986:41ff))

Information_1

Die Verwendung des Begriffs Information im Kontext eines Entscheidungsaufwandes (gemessen in ‚Bit‘), hier als ‚Information_1‘ geht auf John Wilder Tukey (1915-2000) zurück.

Information_2

Shannon (1948) übernimmt zunächst diesen Begriff Information_1, verzichtet dann aber im weiteren Verlauf auf diesen Informationsbegriff und führt dann seinen statistischen Informationsbegriff ein (hier: ‚Information_2‘), der am Entropiekonzept von Boltzmann orientiert ist. Er spricht dann zwar immer noch von ‚Information‘, bezieht sich dazu aber auf den Logarithmus der Wahrscheinlichkeit eines Ereignisses, was alles und jedes sein kann. Ein direkter Bezug zu einem ’speziellen‘ Informationsbegriff (wie z.B. Information_1) besteht nicht. Man kann die logarithmierte Wahrscheinlichkeit eines Ereignisses als ‚Information‘ bezeichnen (hier: ‚Information_2‘), aber damit wird der Informationsbegriff inflationär, dann ist alles eine Information, da jedes Ereignis mindestens eine Wahrscheinlichkeit besitzt. (Leider benutzt auch Carl Friedrich von Weizsäcker (1971:347f) diesen inflationären Begriff (plus zusätzlicher philosophischer Komplikationen)). Interessanterweise ist es gerade dieser inflationäre statistische Informationsbegriff Information_2, der eine sehr starke Resonanz gefunden hat.

Semantik 0

Nun gibt es gerade im Bereich der Molekularbiologie zahlreiche Phänomene, die bei einer Beschreibung mittels eines statistischen Informationsbegriffs wichtige Momente ihres Phänomens verlieren. (Dazu eine kleine Übersicht bei Godfrey-Smith, Kim Sterelny (2009)) Ein Hauptkritikpunkt war und ist das angebliche Fehlen von Bedeutungselementen im statistischen Modell von Shannon (1948). Man spricht auch vom Fehlen einer ‚Semantik‘. Allerdings wird eine Diskussion der möglichen Bedeutungsmomente von Kommunikationsereignissen unter Verwendung des Begriffs ‚Semantik‘ auch oft unreflektiert alltagssprachlich vorgenommen (hier: Semantik_0′), d.h. es wird plötzlich von Semantik_0 gesprochen (oft noch erweitert um ‚Pragmatik‘), ohne dass die Herkunft und Verwendung dieses Begriffs in der Wissenschaft der Semiotik weiter berücksichtigt wird. (Ein Beispiel für solch eine verwirrende Verwendungsweise findet sich z.B. wieder bei Weizsäcker (1971:350f), wo Information_0, Information_2 sowie Semantik_0 miteinander frei kombiniert werden, ohne Berücksichtigung der wichtigen Randbedingungen ihrer Verwendung; ganz ähnlich Küppers (1986:61ff); zur Semiotik siehe Noeth (2000)). Ein anderes neueres Beispiel ist Floridi (2015:Kap.3+4) Er benutzt zwar den Begriff ‚Semantik‘ extensiv, aber auch er stellt keinen Bezug zur semiotischen Herkunft her und verwendet den Begriff sehr speziell. Seine Verwendung führt nicht über den formalen Rahmen der statistischen Informationstheorie hinaus.

Semantik 1

Sehr originell ist das Vorgehen von Deacon (2007, 2008, 2010). Er diagnostiziert zwar auch einen Mangel, wenn man die statistische Informationstheorie von Shannon (1948) auf biologische Phänomene anwenden will, statt sich aber auf die schwierige Thematik einer expliziten Semantik einzulassen, versucht er über die Ähnlichkeit des Shannonschen statistischen Informationsbegriffs mit dem von Boltzmann einen Anschluss an die Thermodynamik zu konstruieren. Von dort zum Ungleichgewicht biologischer Systeme, die durch Arbeit und Energieaufnahme ihr Gleichgewicht zu halten versuchen. Diese Interaktionen des Systems mit der Umgebung modifizieren die inneren Zustände des Systems, die wiederum dann das Verhalten des Systems ‚umweltgerecht‘ steuern. Allerdings belässt es Deacon bei diesen allgemeinen Annahmen. Die ‚Abwesenheit‘ der Bedeutung im Modell von Shannon wird über diese frei assoziierten Kontexte – so vermutet man als Leser – mit den postulierten internen Modifikationen des interagierenden Systems begrifflich zusammengeführt. Wie dies genau gedacht werden kann, bleibt offen.

Semantik 2

So anregend die Überlegungen von Deacon auch sind, sie lassen letztlich offen, wie man denn – auch unter Berücksichtigung des Modells von Shannon – ein quasi erweitertes Shannonmodell konstruieren kann, in dem Bedeutung eine Rolle spielt. Hier eine kurze Skizze für solch ein Modell.

Ausgehend von Shannons Modell in 1948 besteht die Welt aus Sendern S, Empfängern D, und Informationskanälen C, über die Sender und Empfänger Signale S eingebettet in ein Rauschen N austauschen können (<S,D,S,N,C> mit C: S —> S x N).

Ein Empfänger-Sender hat die Struktur, dass Signale S in interne Nachrichten M dekodiert werden können mittels R: S x N —> M. Umgekehrt können auch Nachrichten M in Signale kodiert werden mit T: M —> S. Ein minimaler Shannon Sender-Empfänger hat dann die Struktur <M, R, T>. So gesehen funktionieren R und T jeweils als ‚Schnittstellen‘ zwischen dem ‚Äußeren‘ und dem ‚Inneren‘ des Systems.

In diesem minimalen Shannonmodell kommen keine Bedeutungen vor. Man kann allerdings annehmen, dass die Menge M der Nachrichten eine strukturierte Menge ist, deren Elemente Paare der Art (m_i,p_i) in M mit ‚m_i‘ als Nachrichtenelement und ‚p_i‘ als Wahrscheinlichkeit, wie oft dieses Nachrichtenelement im Kanal auftritt. Dann könnte man Shannons Forml H=-Sum(p_i * log2(p_i)) als Teil des Systems auffassen. Das minimale Modell wäre dann <M, R, T, H>.

Will man ‚Bedeutungen‘ in das System einführen, dann muss man nach der Semiotik einen Zeichenbegriff für das System definieren, der es erlaubt, eine Beziehung (Abbildung) zwischen einem ‚Zeichenmaterial‚ und einem ‚Bedeutungsmaterial‚ zu konstruieren. Nimmt man die Signale S von Shannon als Kandidaten für ein Zeichenmaterial, fragt sich, wie man das Bedeutungsmaterial B ins Spiel bringt.

Klar ist nur, dass ein Zeichenmaterial erst dann zu einem ‚Zeichen‘ wird, wenn der Zeichenbenutzer in der Lage ist, dem Zeichenmaterial eine Bedeutung B zuzuordnen. Eine einfache Annahme wäre, zu sagen, die dekodierten Nachrichten M bilden das erkannte Zeichenmaterial und der Empfänger kann dieses Material irgendwelchen Bedeutungen B zuordnen, indem er das Zeichenmaterial M ‚interpretiert‚, also I : M —> B. Damit würde sich die Struktur erweitern zu <B, M, R, T, H, I>. Damit nicht nur ein Empfänger ‚verstehen‘ kann, sondern auch ‚mitteilen‘, müsste der Empfänger als Sender Bedeutungen auch wieder ‚umgekehrt lesen‘ können, also -I: B —> M. Diese Nachrichten könnten dann wieder mittels T in Signale übersetzt werden, der Kanal sendet diese Signale S angereichert mit Rauschen N zum Empfänger, usw. Wir erhalten also ein minimal erweitertes Shannon Modell mit Bedeutung als <B, M, R, T, H, I, -I>. Ein Sender-Empfänger kann also weiterhin die Wahrscheinlichkeitsstruktur seiner Nachrichten auswerten; zusätzlich aber auch mögliche Bedeutungsanteile.

Bliebe als Restfrage, wie die Bedeutungen B in das System hineinkommen bzw. wie die Interpretationsfunktion I entsteht?

An dieser Stelle kann man die Spekulationen von Deacon aufgreifen und als Arbeitshypothese annehmen, dass sich die Bedeutungen B samt der Interpretationsbeziehung I (und -I) in einem Adaptionsprozess (Lernprozess) in Interaktion mit der Umgebung entwickeln. Dies soll an anderer Stelle beschrieben werden.

Für eine komplette Beschreibung biologischer Phänomene benötigt man aber noch weitere Annahmen zur Ontogense und zur Phylogense. Diese seien hier noch kurz skizziert. (Eine ausführliche formale Darstellung wird anderswo nachgeliefert).

Ontogenese

Von der Lernfähigkeit eines biologischen Systems muss man die Ontogenese unterscheiden, jenen Prozess, der von der Keimzelle bis zum ausgewachsenen System führt.

Die Umsetzung der Ontogenese in einem formalen Modell besteht darin, einen Konstruktionsprozess zu definieren, das aus einem Anfangselement Zmin das endgültige System Sys in SYS erstellen würde. Das Anfangselement wäre ein minimales Element Zmin analog einer befruchteten Zelle, das alle Informationen enthalten würde, die notwendig wären, um diese Konstruktion durchführen zu können, also Ontogenese: Zmin x X —> SYS. Das ‚X‘ stünde für alle die Elemente, die im Rahmen einer Ontogenese aus der Umgebung ENV übernommen werden müssten, um das endgültige system SYS = <B, M, R, T, H, I, -I> zu konstruieren.

Phylogenese

Für die Reproduktion der Systeme im Laufe der Zeiten benötigte man eine Population von Systemen SYS, von denen jedes System Sys in SYS mindestens ein minimales Anfangselement Zmin besitzt, das für eine Ontogenese zur Verfügung gestellt werden kann. Bevor die Ontogenese beginnen würde, würden zwei minimale Anfangselemente Zmin1 und Zmin2 im Bereich ihrer Bauanleitungen ‚gemischt‘. Man müsste also annehmen, dass das minimale System um das Element Zmin erweitert würde SYS = <B, M, Zmin, R, T, H, I, -I>.

Erstes Zwischenergebnis

Auffällig ist also, dass das Phänomen des Lebens

  1. trotz Entropie über dynamische Ungleichgewichte immer komplexere Strukturen aufbauen kann.
  2. innerhalb seiner Strukturen immer komplexere Informations- und Bedeutungsstrukturen aufbaut und nutzt.

So wie man bislang z.B. die ‚Gravitation‘ anhand ihrer Wirkungen erfasst und bis heute erfolglos zu erklären versucht, so erfassen wir als Lebende das Leben anhand seiner Wirkungen und versuchen bis heute auch erfolglos, zu verstehen, was hier eigentlich passiert. Kein einziges physikalisches Gesetzt bietet auch nur den leisesten Anhaltspunkt für dieses atemberaubende Geschehen.

In dieser Situation den Menschen als eine ‚vermutlich aussterbende Art‘ zu bezeichnen ist dann nicht einfach nur ‚gedankenlos‘, sondern im höchsten Maße unwissenschaftlich, da es letztlich einer Denkverweigerung nahe kommt. Eine Wissenschaft, die sich weigert, über die Phänomene der Natur nachzudenken, ist keine Wissenschaft.

Fortsetzung Folgt.

QUELLEN

  1. H.J. Sandkühler (Hg.), 2010, „Enzyklopädie Philosophie“, Hamburg: Felix Meiner Verlag, Band 1: Von A bis H, Kapitel: Geist, SS.792ff
  2. B.Alberts et.al (Hg.), 2008, „Molecular Biology of the CELL“, Kap.1, 5.Aufl., New York: Garland Science, Taylor & Francis Group
  3. Peter Douglas Ward und `Donald Eugene Brownlee (2000),“Rare Earth: Why Complex Life Is Uncommon in the Universe“, New York: Copernikus/ Springer,
  4. Jonathan I.Lunine (2005), „ASTROBIOLOGY. A Multidisciplinary Approach“, San Francisco – Boston – New York et al.: Pearson-Addison Wesley
  5. Zu Schroedinger 1944: Based on Lectures delivered under the auspices of the Institute at Trinity College, Dublin, in February 1943, Cambridge: University Press. 1944. Ich selbst habe die Canto Taschenbuchausgabe der Cambridge University von 1992 benutzt. Diese Ausgabe enthält ‚What is Life?‘, ‚Mind from Matter‘, sowie autobiographischen Angaben und ein Vorwort von Roger Penrose
  6. Anmerkung zu Schroedinger 1944: Sowohl James D. Watson (2003) wie auch ähnlich Francis Crick (1990) berichten, dass Schrödingers Schrift (bzw. einer seiner Vorträge) sie für ihre Erforschung der DNA stark angeregt hatte.
  7. James D.Watson und A.Berry(2003), „DNA, the Secret of Life“, New York: Random House
  8. Francis Crick (1990),„What Mad Pursuit: A Personal View of Scientific Discovery“, Reprint, Basic Books
  9. Peter Godfrey-Smith und Kim Sterelny (2009) Biological Information“, in: Stanford Enyclopedia of Philosophy
  10. Carl Friedrich von Weizsäcker (1971), „Die Einheit der Natur“, München: Carl Hanser Verlag
  11. Bernd-Olaf Küppers (1986), „Der Ursprung biologischer Information. Zur Naturphilosophie der Lebensentstehung“, München – Zürich: Piper Verlag.
  12. Claude E. Shannon, A mathematical theory of communication. Bell System Tech. J., 27:379-423, 623-656, July, Oct. 1948
  13. Claude E. Shannon; Warren Weaver (1949) „The mathematical theory of communication“. Urbana – Chicgo: University of Illinois Press.
  14. Noeth, W., Handbuch der Semiotik, 2. vollst. neu bearb. und erw. Aufl. mit 89 Abb. Stuttgart/Weimar: J.B. Metzler, xii + 668pp, 2000
  15. Luciano Floridi (2015) Semantic Conceptions of Information, in: Stanford Enyclopedia of Philosophy
  16. Deacon, T. (2007), Shannon-Boltzmann-Darwin: Redfining information. Part 1. in: Cognitive Semiotics, 1: 123-148
  17. Deacon, T. (2008), Shannon-Boltzmann-Darwin: Redfining information. Part 2. in: Cognitive Semiotics, 2: 167-194
  18. Terrence W.Deacon (2010), „What is missing from theories of information“, in: INFORMATION AND THE NATURE OF REALITY. From Physics to Metaphysics“, ed. By Paul Davies & Niels Henrik Gregersen, Cambridge (UK) et al: Cambridge University Press, pp.146 – 169

Einen Überblick über alle Blogbeiträge des Autors cagent nach Titeln findet sich HIER.

PSYCHOLOGIE DER SUCHE – UND MANCH ANDERES. Zur Philosophiewerkstatt vom 9.Nov.2014

A) PSYCHOLOGIE DER SUCHE
B) SELBSTORGANISATION DES DENKENS
C) NEUE MUSIK
D) SUBJEKTIVE GEWISSHEIT – OBJEKTIVER RAHMEN
E) MENSCH UND COMPUTER
F) SELBSTVERNICHTUNG DES MENSCHEN?
G) PROGRAMMENTWURF FÜR So 14.Dez.2014

1. Nach dem Start der philosophieWerkstatt v2.0 am 12.Oktober (siehe einen subjektiven Bericht davon hier) hat sich die Zahl der TeilnehmerInnen mehr als verdoppelt. Dies erweiterte den Raum der Erfahrungen, die in das Gespräch eingehen können. Aber eine größere Anzahl verändert auch den Fluss eines Gespräches. Man muss lernen, wie man damit umgeht.

A) PSYCHOLOGIE DER SUCHE

2. Das Gespräch startete mit einem kurzen Bericht von der ersten Sitzung (siehe das Schaubild vom letzten Bericht). Darauf bezogen gab es unterschiedliche Rückmeldungen, die aber dieses Mal nicht alsbald zu dem ‚Gesprächsfluss‘ führte, wie er die erste Sitzung charakterisierte, sondern erweckte bei den Beteiligten den Eindruck eines auf der Stelle Tretens. Man hatte subjektiv individuell Erwartungen, aber diese fand man im aktuellen Gesprächsgeschehen nicht wieder.

Stichwortsammlung 9.Nov.2014 (rosa Ellipsen)
Stichwortsammlung 9.Nov.2014 (rosa Ellipsen)

3. In solchen Situationen einer ‚quälenden Ungewissheit‘ ist es eine häufige Versuchung, nach altbekannten Rezepten zu greifen, um ‚irgendetwas‘ zu machen, damit man überhaupt etwas macht; ‚quälende Ungewissheit‘ wird jedenfalls bei den meisten als ‚unangenehm‘ empfunden.

4. Jeder, der schon mal ein Problem in einer bestimmten Zeit lösen musste, kennt diese Situation. Man muss (oder will) eine Lösung finden, aber aktuell hat man sie noch nicht. Was tut man? Wo fängt man an? Wo sollte man suchen? Man spürt seine eigene Unzulänglichkeit. Man zweifelt an sich. Man wird unruhig? Man fragt sich, ob es die richtige Entscheidung war, sich in diese Situation zu bringen… und Ähnliches.

5. Die Gruppe hat diese Situation eines gemeinsamen Suchens ohne aktuell subjektiv befriedigende Situation sehr konstruktiv gelöst. Keiner stand auf und ging einfach weg. Jeder versucht, die Situation konstruktiv anzunehmen und doch noch eine Lösung zu finden.

6. Eine Phase von Gesprächen in kleineren Gruppen löste die Lähmung auf, führte zu lebhaften inspirierenden Gesprächen und führte dann zu einem ‚Plan‘ für das weitere Vorgehend bei der nächsten Sitzung.

B) SELBSTORGANISATION DES DENKENS

7. Die individuell-gemeinschaftliche Suche nach etwas, was in sich noch nicht so bekannt ist, wo der Weg tatsächlich ein wesentlicher Teil des Zieles ist, unterliegt gewissen Randbedingungen, die gewisse Verhaltensweisen bedingen.

8. So macht es natürlich einen Unterschied, ob man einen Abend bei ‚Punkt Null‘ beginnt, ohne Voraussetzungen in der Vergangenheit; man kann direkter zu den Punkten kommen. Da nur 1/3 der Teilnehmer vom 12.Okt.2014 auch am 9.Nov. anwesend waren, wussten 2/3 am aktuellen Abend nichts von der Vorgeschichte. Die Vermischung von letzter Sitzung und aktueller Sitzung wirkte daher weniger inspirierend sondern eher wie ein Bremsklotz. Die Gruppe erarbeitete die Hypothese, jede Sitzung mit einem bestimmten Thema anzufangen, das von einer Mehrheit als ‚gesprächswürdig‘ angesehen wird.

9. Ferner spielt natürlich die Anzahl eine Rolle. Je mehr Gesprächsteilnehmer anwesend sind, umso schwieriger wird ein Gespräch, da man auf immer mehr Erwartungshorizonte eingehen muss. Dies wird ab 4-5 Personen schon zunehmend schwer. Eine Klärung der eigenen Position zu einem Thema sollte daher einen Kommunikationsraum haben, der ‚Leichtgängig‘ ist. Die Gruppe erarbeitete daher die weitere Arbeitshypothese, zumindest zu Beginn des Treffens eine oder zwei Gesprächsphasen in kleinen Gruppen zu organisieren, die dann als Gruppe fokussiert ihre Ergebnisse allen anderen vorstellen. Anhand des Bildes, das dann aus diesen Gruppengesprächen entstehen, könnte man dann immer gemeinsame Reflexions- und Gesprächsphasen einschieben.

10. Auf diese Weise kann man überschaubare, persönliche Gesprächsprozesse erhalten, kann sich jede Gruppe dort abholen, wo sie steht, kann sich zusätzliche ein übergreifendes ‚Gedankenbild‘ entwickeln, das man im Kontext bekannter Erkenntnisse/ Modelle/ Theorien diskutiert.

C) NEUE MUSIK

11. Der Veranstalter macht unter dem Namen cagentArtist seit ca. 6 Jahren Experimente mit Klangräumen auf der Suche nach ’neuen Klängen‘. Dabei hat er vielfältige Erfahrungen gemacht beim ‚Suchen‘ nach neuen Klängen. Wie sucht man nach etwas, was man noch nicht kennt? Er hat dazu eine Methode entwickelt die das Individuum ins Zentrum stellt, die unabhängig ist von individuellen Fähigkeiten, von vieljährigen Trainingsprogrammen, unabhängig von ‚herrschendem Geschmack‘, von welchen Monopolen auch immer. Es geht um eine Begegnung mit neuen Klängen ‚für jeden‘, ‚zu jeder Zeit‘, ‚unabhängig‘ vom Monopol eines Senders, einer Redaktion, eines Sinfonieorchesters, vom Mainstream: ‚Bottom-Up‘, ‚Graswurzel‘ …. Das Bild vom großen Künstler, der eine ‚göttliche Inspiration‘ empfängt, die er ‚meisterlich‘ in eine ‚Form gießt‘, die die ‚hohe Musik‘ verkörpert, ist eine Ideologie. Sie begründet zu Unrecht eine Machtstruktur der ‚Musikwissenden hier‘ und der ‚Musikunmündigen‘ ansonsten. Dies führt zu einer Entmündigung fast aller Menschen in Sachen Musik. Oder der ‚Mainstream‘ als ‚Terror‘. Es geht um eine ‚Demokratisierung‘ des Umgangs mit Musik.

12. Es entstand im Gespräch die Idee, zu Beginn jeder Sitzung ein kurzes Musikstück aus dem Bereich der neuen Musik anzuhören und dann kurz über die ‚Emotionen‘ zu sprechen, die es auslöst, über den Weg, wie diese Klänge entstanden sind, und ob und wie man selbst einen Weg zu Klängen hätte.

D) SUBJEKTIVE GEWISSHEIT – OBJEKTIVER RAHMEN

13. In einer kurzen, aber ‚emotional wirksamen‘ Phase, gab es Dialoge zum Thema ’subjektive Gewissheit‘, z.B. dass hier ‚objektiv‘ ein Tisch sei, weil ich ihn anfassen kann, und den objektiven Erkenntnissen der modernen Physiologie und Gehirnforschung andererseits, dass das Gehirn als Zentrum vielfältiger Informationsverarbeitung im Körper, natürlich nicht den ‚Tisch als solchen‘ ‚wahrnimmt‘, sondern nur die ‚Wirkungen‘ übermittelt bekommt, die der ‚Tisch da draußen‘ auf die beteiligten Sinnesorgane auslöst. Aus den Daten der Sinnesorgane (auch der ‚inneren‘ (propriozeptiven) Sinnesorgane) konstruiert dann das Gehirn sein Bild von der ‚Welt da draußen‘.

14. Es gab bei einzelnen Schwierigkeiten, die subjektive Erkenntnis mit den Daten der modernen empirischen Wissenschaften zu verschränken. Die Schwierigkeit bestand darin, den Wahrheitsgehalt der subjektiven Erkenntisse in den objektiv-empirischen Erkenntniszusammenhang ‚einzubetten‘; die subjektive Erkenntnis wird damit nicht ‚aufgehoben‘, wohl aber ‚zusätzlich interpretiert‘.

15. Die ‚Objektivität‘ wird damit nicht vernichtet, sondern gestärkt. ‚Wahrheit‘ verschwindet nicht, sondern wird dadurch nur differenzierter. Dass es Menschen gibt, die sich ‚Philosophen‘ nennen und die aus den Erkenntnissen der modernen Wissenschaften eine allgemeine ‚Relativierung‘ ableiten, erscheint nicht zwingend, müsste aber in einem längeren differenzierten Gespräch erklärt werden.

E) MENSCH UND COMPUTER

16. Im Nachgespräch einer kleinen Gruppe wurde höchst intensiv die Frage diskutiert, ob und wieweit ein Computer einen Menschen ’nachbilden‘ oder gar ‚ersetzen‘ können. Es wurden sehr viele kluge Dinge gesagt. Die Kernfrage einer Teilnehmerin, wieweit das an die Körperlichkeit gebundene ‚Kinderkriegen‘ durch eine Frau und die damit einhergehende ‚Weiterentwicklung‘ eines Menschen/ der Menschheit durch Maschinen (Computer) ’nachgebildet‘ werden könnte, blieb trotz einiger Argumente noch etwas offen.

F) SELBSTVERNICHTUNG DES MENSCHEN?

17. Im Zusammenhang der aktuellen Diskussion um die kommende ‚Weltherrschaft der Maschinen‘ (Singularitätshypothese, Transhumanismus) kann man den Eindruck gewinnen, dass die Diskussionsteilnehmer ‚wie besoffen‘ von den Fähigkeiten der ’neuen Maschinen‘ sind, ohne sich dabei noch irgendwelche Gedanken über den Menschen zu machen. Das Wunder des Lebens auf der Erde (und damit im Universum), das sich seit ca. 4 Mrd.Jahren in extrem komplexen und erstaunlichen Prozessen abgespielt hat, wird vollständig ausgeklammert. Die vielen grundlegenden Fragen, die sich hier stellen, die alle noch nicht beantwortet sind, werden gar nicht erst diskutiert.

18. Dass die ‚alten Menschenbilder‘ der bisherigen Traditionen (insbesondere auch der großen Religionen (Hinduismus, Judentum, Buddhismus, Christentum, Islam) bei heutigem Wissensstand vielfach nicht mehr adäquat sind, ist eine Sache, aber dann den Menschen quasi einfach in der Versenkung schwinden zu lassen als sich der Herausforderung eines ’neuen Menschenbildes‘ zu stellen, ist nicht nur methodisch unsauber sondern natürlich ein direkter Angriff auf die Gesamtheit des Lebens im Universum schlechthin. Der Mensch schafft sich selbst ab; das ist mehr als Genozid (was eigentlich von der UN geächtet ist).

19. Während ‚Religion‘ eigentlich etwas Existentiell-Empirisches ist, das seine ‚Wurzeln‘ im ‚Transzendenten‘ zu ’spüren‘ meint, scheinen die ‚Institutionen‘ der Religionen eher ‚Machtgetrieben‘ zu sein, die im Konfliktfall das Existentiell-Empirische der Religion bekämpfen. Das Existentiell-Empirische wertet den einzelnen Menschen (jedes Lebewesen!?) grundlegend auf. Religiöse Erfahrung verbindet jeden potentiell mit Gott, was aber eine institutionelle Macht in Frage stellt.

20. Im Kontext der Diskussion um das ‚Neue Menschenbild‘ erscheinen die von den religiösen Institutionen ‚propagierten‘ Menschenbilder daher tendenziell ‚verzerrt‘, ‚partiell‘, ‚irreführend‘. Wenn dies zutrifft – als Autor gehe ich davon aus –, dann helfen die Menschenbilder der institutionellen Religionen uns momentan wenig in der Auseinandersetzung um das ‚Neue Menschenbild‘. Im Gegenteil, sie blockieren den Zugang zu dem ‚je größeren Bild‘ vom Menschen im Universum, vom Leben im Universum, und damit bedrohen sie die ‚Zukunft‘ des Lebens unmittelbar.

G) PROGRAMMENTWURF FÜR So 14.Dez.2014

21. Für die nächste Sitzung wurde von den Anwesenden daher folgender Programmvorschlag formuliert:
22. Eingangsbeispiel eines Experimentes zur ‚Neuen Musik‘ mit kurzem Gespräch
23. Kurze Einführung zum Thema ‚Emotionen‘
24. Erste Gesprächsrunde in kleinen Gruppen (3-4) zum Thema
25. Berichte der Gruppen und Diskussion
26. Eventuell Wiederholung Gesprächsgruppen und gemeinsame Diskussion
27. Mögliche Aufgabenstellung für nächstes Treffen
28. Offener Ausklang

Erste Vorübelegungen zur philosophieWerkstatt v2.0 am 14.12.2014 finden sich HIER.

Einen Überblick über alle bisherigen Blogeinträge nach Titeln findet sich HIER.

NOTIZ: WARUM WIR SIND WER WIR SIND UND WAS DAS BEDEUTET

1) Nach unserem heutigen Wissensstand beginnt die Existenz des Körpers eines Exemplars des homo sapiens sapiens auf der heutigen Erde durch die Befruchtung einer bestimmten Zelle im Körper einer Frau durch eine bestimmte Zelle aus dem Körper eines Mannes. Eine von 10 Billionen (10^12) Zellen wird befruchtet, und – unter bestimmten Randbedingungen – beginnt diese Zelle dann zu ‚wachsen‘, d.h. es beginnt ein Teilungs- und Vervielfältigungsprozess, der im Laufe von Monaten und dann Jahren von dieser einen befruchteten Zelle zu einem Körper führt, der ca. 10 Billionen (10^12) Zellen umfassen wird, darin eingebettet ca. eine Billionen (10^12) Bakterien im Körper und etwa die gleiche Zahl auf der Oberfläche des Körpers.
2) Diese Zellen leben nicht ewig sondern werden innerhalb von Tagen/ Wochen/ Monaten – je nachdem, welche Funktion diese Zellen im Körper innehaben – immer wieder durch neue Zellen ersetzt. Der Körper als Körper bleibt gleich, aber seine Bestandteile, die Zellen, werden kontinuierlich ‚ausgetauscht‘, ‚ersetzt‘.
3) Hier gäbe es sehr viele interessante Dinge zu betrachten. Unter anderem stellt sich die Frage, wie diese ca. 10 Billionen Zellen ‚wissen‘ können, was sie jeweils ‚zu tun haben‘; wie kommt es überhaupt zu dieser ‚Selbstorganisation‘ der vielen Zellen aufgegliedert nach unterschiedlichen ‚Körperorganen‘ mit ganz unterschiedlichen, schwindelerregend komplexen Funktionen?
4) In Megastädten mit 20-30 Millionen – oder mehr – Einwohnern wissen wir, dass dies nur funktioniert, weil alle Bewohner bestimmte ‚Regeln‘ einhalten, die zuvor vereinbart worden sind (ausdrücklich oder ’stillschweigend‘). Dabei weiß normalerweise ein einzelner Bewohner nur einen kleinen ‚Teil‘ vom gesamten Räderwerk; es gibt unterschiedliche Verwaltungsebenen, unterschiedliche Arten von Institutionen, unterschiedlichste Rollen…
5) Die ‚Kultur der Städte‘ hat sich über viele tausend Jahre entwickelt, weil alle Beteiligten ‚gelernt‘ haben, was man wie tun kann; weil man dieses Wissen ‚weitergegeben‘ hat, ‚weiterentwickelt‘. Und jeder neue Bewohner muss ‚lernen‘, was er in einer Megastadt zu tun hat.
6) Der menschliche Körper hat ca. 50.000 mal mehr Zellen als eine 20 Mio Stadt. Woher aber wissen die einzelnen Zellen im Körper was sie jeweils zu tun haben? Vor allem, woher wissen sie, wie sie all diese unfassbar komplexen Funktionen in der Leber, in der Niere, in der Lunge, im Gehirn, im Blutsystem mit dem eingebetteten Immunsystem usw. ‚organisieren‘ sollen? Sobald die befruchteten Zelle ihr ‚Wachstum‘ beginnt, wissen alle beteiligten Zellen, ‚was zu tun‘ ist. Woher?
7) Die Biologie hat komplexe Antworten auf diese schwierigen Fragen erarbeitet. Im Kern läuft es darauf hinaus, dass sowohl die Struktureigenschaften wie auch das ‚Verhalten‘ einer einzelnen Zelle in ‚Abstimmung mit ihrer jeweiligen Umgebung‘ vom Zellkern, dem ‚Genom‘ gesteuert wird, einem Molekül, das als ‚Informationsträger‘ dient. Alle Details dieser Informationsverarbeitung sind zwar noch nicht bekannt, wohl aber der grundsätzliche Sachverhalt als solcher und einige wenige Teilprozesse.
8) Damit verlagert sich die Frage nach dem erstaunlichen ‚Wissen einer Zelle‘ auf die der ‚Entstehung dieses Wissens‘ im Genom. Und hier laufen alle bisherigen Antworten darauf hinaus, dass sich das ‚Wissen im Genom‘ samt der zugehörigen ‚Wissensverarbeitungsstrukturen‘ offensichtlich in einem speziellen Lernprozess entwickelt hat, den wir ‚chemische Evolution‘ nennen gefolgt von der ‚biologischen‘ Evolution (geschätzte Dauer ca. 4 Mrd Jahre vor heute bis ca. 200.000 Jahre vor heute (dem geschätzten ersten Auftreten des homo sapiens sapiens in Afrika).
9) Irgendwann in den letzten 200.000 Jahren begann dann das, was wir ‚kulturelle Evolution‘ nennen können. Ein Prozess der sich zusehends zu ‚beschleunigen‘ scheint, wenngleich die aktuelle körperliche Verfasstheit des Menschen aktuelle ‚Begrenztheiten‘ erkennen lässt, die sowohl durch die wachsende Komplexität wie auch durch die Beschleunigung ’sichtbar werden‘.
10) Wenn man all dies weiß, dann ist die Frage, wo und wie man zu einem bestimmten Zeitpunkt t ‚geboren‘ wird, abhängig von der Frage, was dieser Geburt vorausging: die Auswanderung unserer ‚Vorfahren‘ aus Afrika von ca. 60-70 Tsd Jahren, ihre Ausbreitung nach Asien, Europa, Nord- und Südamerika, ihre unterschiedlichen Entwicklungen, Entdeckung von Handwerk, Sesshaftwerdung, Städtebau, usw. Irgendwann gab es nahezu ‚überall auf dieser Erde‘ Lebewesen der Art homo sapiens sapiens; irgendwann wurden bestimmte Zellen in den Körpern von Frauen überall auf dieser Erde ‚befruchtet‘ und begannen ihr Wachstum. Irgendwann gab es die Zelle, aus der jeder von uns hervorging, gesteuert von dem gleichen unfassbar komplexen Programm, das sich im menschlichen Genom im Laufe von 4 Mrd Jahren ‚angereichert‘ hat.
11) Jeder von uns ist von daher das Ergebnis einer unfassbaren Geschichte des Lebens auf dieser Erde. WO jeder von uns geboren wurde ist von daher – betrachtet man alle Menschen gleichzeitig – in gewisser Weise ‚zufällig‘; zu einem bestimmten Zeitpunkt t0 der Erdgeschichte kann man nicht voraussagen, welcher Mann sich mit welcher Frau paaren wird und ob daraus eine Zelle hervorgehen wird, die zu einem Zeitpunkt t1>t0 dann zu ‚wachsen‘ beginnt. Sicher ist nur, wenn es zu solch einem neuen Wachstumsprozess einer Zelle kommt, dann nur deshalb, weil es zu einem Zeitpunkt t0 irgendwo eine Frau und einen Mann gab, die dies tun konnten und auch taten.
12) Mit Fortschreiten der Technologie wird man menschliche Zellen auch ohne die Körper ausgewachsener Frauen und Männer zum Wachstum bewegen können, mehr noch, man wird versuchen, die körperlichen Strukturen von Menschen durch gezielte Eingriffe zu verändern. Die aktuellen Wertvorstellungen verurteilen ein solches Vorgehen. Aber die aktuellen Wertvorstellungen (zu denen auch religiöse Vorstellungen gehören) sind ja auch ‚geworden‘, ein Ergebnis der ‚kulturellen Evolution‘; es ist wenig wahrscheinlich, dass die aktuellen Wertvorstellungen ‚ewig‘ bestehen; im Lichte neuer Erfahrungen und neuer Erkenntnisse werden sie sich ändern. Die Zeit wird kommen, dass der Mensch sich an der Veränderung genetischer Baupläne versuchen wird (unter dem Schlagwort ‚Gentechnologie‘ geschieht des ja schon im großen Stil im Bereich Pflanzen (und Tiere)). Hier werden unausweichlich ‚Fehler‘ gemacht werden; es ist nicht auszuschließen, dass diese ‚irreversibel‘ sind.
13) Das Problem ist dabei nicht in erster Linie die Gentechnologie als solche, sondern ihre wachsende ‚Monopolisierung‘ in wenigen globalen Firmen, die die ’natürlichen‘ Gene ‚ausrotten‘, um so kurzfristig lokal ihre Gewinne zu maximieren. Mit Hilfe von massiver Lobbyarbeit werden hier von wenigen global ‚Rechte‘ geschaffen, die – aufs Ganze gesehen – ein ‚Un-Recht‘ etablieren, das – würde es ungebremst sich weiter entwickeln können – in relativ kurzer Zeit das gesamte Leben ernsthaft bedrohen würde.
14) Der ‚Missbrauch‘ von Gentechnologie ist aber zu unterscheiden von der Gentechnologie selbst. Die Gentechnologie als solche erscheint vor dem Hintergrund der Gesamtentwicklung als ’natürliche Weiterentwicklung‘ der Evolution, als ’notwendig‘, und damit auch die Herausforderung, unser Wertesystem entsprechend weiter zu entwickeln. Zu verhindern ist die Monopolisierung und der Missbrauch von Gentechnologie.
15) Anders betrachtet, würden wir unser aktuelles Wertesystem ‚einfrieren‘ wollen indem wir ‚Denkverbote‘ aufstellen, dann würden wir genauso schnell einen ‚Untergang‘ heraufbeschwören, da der Lebensprozeß auf dieser Erde samt der Erde und ihrer kosmologischen Umgebung hochdynamisch ist (siehe auch unten). Eine ’statische‘ Ethik in einer ‚dynamischen‘ Umgebung ist ein Widerspruch in sich).
16) Der Verweis auf die chemische, die biologische und die kulturelle Evolution erklärt zwar ein wenig, WIE wir entstanden sind, lässt aber letztlich noch offen, WARUM es uns gibt, WER wir damit letztlich sind, WAS das alles zu bedeuten hat?
17) Bei all dem sollte klar sein, dass das Geschlecht (Mann, Frau, diverse genetisch bedingte Mischstrukturen), die Nationalität, die Zugehörigkeit zu einer bestimmten gesellschaftlichen Gruppe – und was wir Menschen im Laufe der Zeit sonst noch an sekundären Eigenschaften erfunden haben – keine substantielle Rolle spielen dürfen, wollen wir uns in der Zukunft ‚bewähren‘.
18) Das Leben auf der Erde gibt es nur, weil das Leben es bislang verstanden hat, alle diese Strukturen und Verhaltensweisen zu ‚belohnen‘, die sich den ‚Gegebenheiten der Erde‘ ‚angepaßt‘ haben, die sie ‚geschickt genutzt‘ haben.
19) Da u.a. die Sonne in unserem Sonnensystem in ca. 1 Mrd Jahren das Leben auf der Erde unmöglich machen wird, wird es darauf ankommen, dass das Leben, zu dem wir gehören, ‚lernt‘, sich nicht nur den Eigenschaften der Erde anzupassen, sondern mindestens die nächsten Galaxien einbeziehen muss. Dann gibt es eine kleine ‚Verschnaufspause‘ von ca. 3-4 Mrd Jahren bis die Andromeda Galaxie mit unserer Milchstraßen-Galaxie ‚verschmelzen‘ wird; ein Prozess, dessen Dauer auf ca. 1 Mrd Jahre geschätzt wird.
20) Das tägliche Hickhack um lokale Ressourcen, nationalen Animositäten, Firmenegoismen, Machtgelüsten weniger, religiösen Absolutheitsansprüchen, usw. das unseren Alltag durchzieht und zu dominieren scheint, ist auf jeden Fall nicht geeignet, die Lernprozesse in Gang zu setzen, die ‚zukunftsorientiert‘ sind. Persönlicher Ruhm Macht, Reichtum, Totale Wahrheitsansprüche,… all dies repräsentiert ein Wertesystem, das wenig geeignet ist, das zu unterstützen, was wir tatsächlich brauchen. Aber da das ‚Neue‘ seinem Wesen nach ‚radikal neu‘ ist, weiß man vorher nie genau, wann und wie das Neue sich Bahn brechen wird. In der Regel wird es sich an vielen verschiedenen Stellen mehr oder weniger zeitgleich ‚zeigen‘, ‚zu Worte‘ kommen, ‚getan werden‘. ‚Gewinnen‘ werden die, die es zuerst gesellschaftlich umsetzen können. Lassen wir uns überraschen.

Einen Überblick über alle Blogeinträge nach Titeln findet sich HIER

EMERGENTE PHÄNOMENE, BEOBACHTER, GEIST

  1. In dem anregenden Buch von Kaufmann ‚Reinventing the Sacred‘ (dessen Besprechung in diesem Blog noch immer nicht beendet ist….) wird sehr oft und in vielfältiger Weise über solche Phänomene der beobachtbaren Welt gesprochen, die ‚da‘ sind, die ‚auftreten‘, die aber in ihrer erfahrbaren Form nicht aus den bekannten Eigenschaften ihrer ‚Bestandteile‘ erklärbar sind. Für solche Phänomene hat sich der Begriff ‚emergente‘ Phänomene eingebürgert.
  2. Insgesamt gesehen ist das Reden über emergente Phänomene nichts Neues. Möglicherweise kann man sogar das Reden über das Phänomen ‚Geist‘ hier subsumieren (sieht man mal von der generellen Problematik ab, dass die Wortmarke ‚Geist‘ allein schon im europäischen Kulturkreis mindestens seit den Griechen und Semiten (nous, pneuma, psyche, ruach, ruh,…) in so vielfältiger Weise auftritt, dass eine klare Bedeutungszuordnung ausgeschlossen erscheint): der Mensch kann an sich und am ‚anderen‘ Menschen so viele Phänomene des ‚Ausdrucks‘, der ‚Mitteilung‘, des ‚absichtsvollen Handelns‘ usw. erfahren, die allesamt nicht ‚erklärbar‘ sind, versucht man sie auf die beteiligten Bestandteile wie körperliche Organe, Muskeln, Knochen, Gehirnzellen usw. zurück zu führen. Jeglicher Reduktionismus in der Art einer solchen ‚Rückführung‘ ist im Ansatz schon so lächerlich, dass es verwundern kann, warum dann — im Umkehrschluss — heute nicht viel mehr selbstreflektierende Wissenschaftler die erkenntnismäßige Provokation solcher ‚emergenter‘ Phänomene konstatieren.
  3. In meinen letzten drei öffentlichen Vorträgen (YPO Nov.12, Salon Slalom Nov.12, Interdisz.Arbeitsgruppe der Universität Unicamp (Campinas, Brasilien) Febr.13) habe ich auf diese Problematik am Beispiel des Selbstreproduktionsmechanismusses der biologischen Zellen hingewiesen. Vereinfachend: ein Molekül (Ribosom) bekommt als Input andere Moleküle (mRNA, tRNA), die von einem weiteren Molekül (DNA) ‚gesteuert‘ werden, und dieser Input wird vom Ribosom-Molekül ‚abgebildet‘ auf eine Menge anderer Moleküle (Proteine). Dieser hochkomplexe Abbildungsprozess lässt sich nicht durch Rekurs auf die beteiligten Moleküle und deren physikalische Eigenschaften erklären (was schon viele andere festgestellt haben).
  4. Ich versuche das Problem immer so zu erklären: nahezu jeder benutzt heute Computer (mindestens in der Form eines Smartphones). Jeder weiß, dass die möglichen ‚Verhaltensweisen‘ seines Computers von der ‚Software‘ abhängt, die die Hardware steuert (und natürlich auch von der Hardware selbst insoweit diese festlegt, was durch eine Software alles gesteuert werden kann). Mit einer geeigneten ‚App‘ (= Stück Software) kann ich ein Android Smartphone in einen ‚Kompass‘ verwandeln, kann eine Klanganalyse machen lassen, um Instrumente zu stimmen, kann eine ‚Wasserwaage‘ simulieren, ein Musikinstrument, usw. Würde man jetzt jemanden die Aufgabe stellen, zu analysieren, warum ein Computer solche bestimmten (‚emergenten‘!) Verhaltensweise zeigt und dieser ‚Beobachter‘ dürfte nur die erzeugende Hardware anhand ihrer physikalischen Eigenschaften untersuchen, er wäre nicht in der Lage, die verursachenden komplexen Funktionen zu entdecken. Denn das, was wir die ‚Software‘ nennen, ist für uns zwar als ein ‚Text‘ vorstellbar, aber die Software, die im Computer wirksam ist, existiert im Computer nur in Form von tausenden, Millionen, Milliarden usw. von Ladungszuständen, die über die Chips verteilt sind. Ohne Kenntnis der logischen Architektur dieser Hardware ist eine Rekonstruktion dieser komplexen Funktionen ‚in der Hardware‘ nur aufgrund der physikalischen Eigenschaften grundsätzlich unmöglich (Laut Turing ist diese Kenntnis sogar unmöglich, wenn man alle logischen Informationen über die Struktur hätte; Halteproblem). Das lernt jeder Informatikstudent in den ersten Semestern. Dennoch glauben wir, dass wir im Falle komplexer (= ‚emergenter‘?) Phänome in der materiellen Struktur der uns umgebenden Welt alle ‚wichtigen‘ Eigenschaften erkennen könnten nur durch Beschränkung auf die physikalischen Eigenschaften der beteiligten ‚materiellen Komponenten‘.
  5. Eine philosophische Konsequenz aus diesem Sachverhalt ist, dass wir unsere Rolle als ‚Beobachter der Natur‘ kritisch überdenken müssen (Heisenberg war einer von vielen, die dies schon zu seinen Zeiten angesichts der neuen Erkenntnisse der Physik laut gedacht hatte). Im Analogieschluss von der Unmöglichkeit des Erkennens einer komplexen Funktion, die sich zu ihrer Ausführung tausender, Milliarden usw. materieller Einzelzustände ‚bedient‘ müssten wir bereit sein, die Arbeitshypothese zu bilden, dass das Erkennen von sogenannten ‚emergenten‘ Phänomenen unter Umständen von uns genau dies verlangt: die Annahme von komplexen Funktionen, die ‚hinter‘ den vielen materiellen ‚Einzelteilen‘ ‚operieren‘. Dies wirft natürlich die frage nach dem ‚Medium‘ auf, in dem sie operieren. Im Falle der Computerhardware wissen wir, dass es Eigenschaften der Hardware selbst sind, die die ‚Umsetzung, Realisierung‘ der ‚inhärenten‘ komplexen Funktionen erlaubt. Warum also nicht als Arbeitshypothese annehmen, dass die uns — allzuwenig — bekannte Materie möglicherweise inhärente Eigenschaften besitzt, die erst im Zusammenwirken vieler Komponenten ’sichtbar‘ werden.
  6. Natürlich wirkt solch eine Annahme auf so manche im ersten Moment ‚erschreckend‘, da damit die von sehr vielen (den meisten?) als ziemlich ‚tod‘ erklärte Materie mit einem Mal zum Ort ungeahnter komplexer Eigenschaften wird, von denen die komplexen biologischen Phänomene möglicherweise nur eine kleine Kostprobe sind. Das Faszinosum ‚Geist‘ wäre dann möglicherweise auch nichts Besonderes mehr, wäre es doch nur das ‚Aufscheinen‘ der inhärenten funktionalen Eigenschaften der Materie.
  7. Sollten diese Spekulationen zutreffen, dann würde die Physik nahtlos in die Philosophie (und möglicherweise sogar Theologie) übergehen, und umgekehrt. Die schon immer äußerst bizarre Aufsplitterung der einen Welt in eine Vielzahl von miteinander unvermittelten Kategorien wäre dann als ein reiner Artefakt unseres unbeholfenen Denkens diagnostiziert.
  8. Bleibt die eher psychologische (oder gar ’spirituelle‘) Frage, warum wir Menschen so dauerhaft krampfhaft an unsinnigen Konzepten festzuhalten versuchen, wenn die Phänomene selbst unser Denken doch so ‚alt‘ aussehen lassen…-:)?

Eine fortsetzung zu diesem Beitrag findet sich HIER

Eine Übersicht über alle bisherigen Blogeinträge nach Themen findet sich HIER

SUCHE NACH DEM URSPRUNG UND DER BEDEUTUNG DES LEBENS. Teil 3 (Superbugs, Steinefresser)

Paul Davies, The FIFTH MIRACLE: The Search for the Origin and Meaning of Life, New York:1999, Simon & Schuster

Start: 3.Sept.2012

Letzte Fortsetzung: 4.Sept.2012

Fortsetzung von Teil 2

 

  1. Die Entdeckung, dass RNA-Moleküle ähnliche Eigenschaften haben wie DNA-Moleküle und sie bis zu einem gewissen Grade auch als Enzyme fungieren können, die chemische Prozesse unterstützen (was sonst Proteine tun), führte zur Hypothese von der RNA-Welt, die der DNA-Welt vorausgeht. Experimente von Spiegelmann zeigten z.B., dass RNA-Genome in einer entsprechenden Lösung mit Enzymen sich reproduzieren können, allerdings mit der Tendenz, sich immer mehr zu vereinfachen (74.ter Durchlauf, 84% abgestoßen [Spiegelmann S.217]). Die Entkopplung von realen Lebensprozessen führt offensichtlich zu einer ‚Sinnentleerung‘ dergestalt, dass die Basen ihre ‚Bedeutung‘ verlieren und damit ihre ‚Notwendigkeit‘! Das vereinfachte Endprodukt bekam den Namen ‚Spiegelmanns Monster‘. (123-127) Genau gegenläufig war ein Experiment von Manfred Eigen und Peter Schuster (1967), die mit RNA-Bausteinen begannen und herausfanden, dass diese sich ‚aus sich heraus‘ zu immer komplexeren Einheiten zusammenfügten, sich reproduzierten, und den ‚Monstern von Spiegelmann‘ ähnelten. (127f) Allerdings benutze Eigen und Schuster für ihre Experimente spezialisierte Enzyme, die aus einer Zelle gewonnen waren. Die Existenz solcher Enzyme in der frühen Zeit der Entstehung gilt aber nicht als gesichert. (128f) Überlegungen zu möglichen Szenarien der frühen Koevolution von RNA-Molekülen und Proteinen gibt es, aber keine wirklichen ‚Beweise‘. (129f) Alle bisherigen Experimente haben nur gezeigt, dass die Synthese längerer RNA-Moleküle ohne spezielle Unterstützung zu fragil ist; sie funktioniert nicht. Dazu gehört auch das Detail der Chiralität: bei ‚freier‘ Erzeugung zeigen die Moleküle sowohl Links- als auch Rechtshändigkeit; die biologischen Moleküle sind aber alle linkshändig. (130f) Stammbaumanalysen zeigen ferner, dass RNA-Replikation eine spätere Entwicklung ist; die frühesten Vorläufer hatten sie so nicht. (131f) Ferner ist völlig unklar, wie sich frühere Replikatoren entwickeln konnten. (132)

  2. Aufgrund dieser Schwierigkeiten gibt es alternative Versuche, anzunehmen, dass vielleicht die Proteine zuerst da waren. Rheza Ghadiri entdeckte, dass sich Peptidketten selbst vermehren können, was auch am Beispiel der Rinderseuche BSE bestätigt wurde (133). Freeman Dyson nahm an, dass die Proteine und die replikationsfähigen Moleküle sich parallel entwickelt haben und dann erst fusionierten.(133f) Die zentrale Annahme bei Dyson ist, dass Moleküle die Produktion und Veränderung anderer Moleküle bewirken können. Damit können dann ‚Ordnungen‘ dergestalt entstehen, dass sich präferierte chemische Zyklen bilden, die verklumpen, anschwellen und sich spalten. Schon auf dieser Ebene sollte begrenzter ‚Wettbewerb‘ möglich sein, der zu einer begrenzten ‚Evolution‘ führt. (134) Solche Prozesse könnten dann von von Nukleinsäuren durchdrungen werden, die sich diese Prozesse zunutze machen. (134f) Als möglicher Ort für solche Prozesse könnte der Boden der Ozeane fungieren. Russell entwickelte ein Modell von semipermeablen- Membranen, die sich dort bilden können. (135f) Cairns-Smith generalisierte die Idee der Informationsspeicherung und entwickelte die Hypothese, dass zu Beginn Tonkristalle die Funktion von RNA und DNA gespielt haben könnten. Allerdings gibt es bislang keine experimentelle Bestätigung hierfür. (136f)

  3. Alle diese Überlegungen liefern bislang keine vollständig überzeugenden Lösungen. Klar ist nur, dass die biologische Evolution Vorläuferprozesse haben musste, denen ein Minimum an Komplexität zukommt und zwar eine ‚organisierte Komplexität‘. (137f) Unter dem Titel ‚Selbstorganisation‘ fand Prigogine Beispiele, wie sich durch Zufluss freier Energie geordnete Strukturen aus einer ‚chaotischen‘ Situation heraus bilden konnten.(138f) Kaufmann entwickelte die Idee ‚autokatalytischer‘ Prozesse, in denen ein Molekül M auf andere Moleküle als Katalysator so wirkt, dass sie Prozesse eingehen, die letztlich zur Produktion von M führen. Dies verstärkt diese Prozesse immer mehr. (139f) Allerdings fehlen auch für diese Hypothesen empirische und experimentelle Belege. (140f) Davies weist auch darauf hin, dass selbstorganisierende Prozesse in allen wesentlichen Eigenschaften von den Umgebungsbedingungen bestimmt werden; biologische Reproduktion ist aber wesentlich ‚intrinsisch‘ bestimmt durch die Informationen der DNA/ RNA-Moleküle. Alle die Modelle zur Selbstorganisation liefern keine wirklichen Hinweise, wie es zu den selbstbestimmten Formen der Reproduktion kommen konnte, zur Herausbildung der Software [zur Dekodierung?]. (141) Dabei erinnert Davies nochmals an den Aspekt der ’nicht-zufälligen‘ Ordnung, d.h. alle jene Muster, die regelmäßige Anteile enthalten (wie in den Beispielen von Autokatalyse und Selbstorganisation), sind nicht die Formen von zufälliger Informationsspeicherung, wie man sie im Falle von DNA bzw. RNA-Molekülen findet.(142)

  4. [Anmerkung: So gibt es bislang also Einsichten in das Prinzip der biologischen Selbstreproduktion, aber überzeugende Hinweise auf chemische Prozesse, wie es zur Ausbildung solcher komplexer Prozesse komme konnte, fehlen noch. ]

  5. Im Kapitel 6 ‚The Cosmic Connection‘ (SS.143 – 162) wird aufgezeigt, dass die irdische Chemie nicht losgelöst ist von der allgemeinen Chemie des Universums. Fünf chemische Elemente spielen in der erdgebundenen Biologie eine zentrale Rolle: Kohlenstoff (‚carbon‘), Sauerstoff (‚oxygen‘), Wasserstoff (‚hydrogen‘), Stickstoff (’nitrogen‘), und Phosphor (‚phosphorus‘). Dies sind zugleich die häufigsten Elemente im ganzen Universum. (143) Kohlenstoff hat die außerordentliche Fähigkeit, praktisch unendlich lange Ketten zu bilden (Nukleinsäuren und Proteine sind Beispiele dafür). (143)

  6. Kohlenstoff entsteht durch die Kernfusion in Sternen von Wasserstoff zu Helium zu Kohlenstoff.(146) Buchstäblich aus der ‚Asche‘ erloschener Sterne konnten sich dann Planeten wie die Erde bilden.(144) Kohlenstoff (‚carbon‘), Sauerstoff (‚oxygen‘), Wasserstoff (‚hydrogen‘) und Stickstoff (’nitrogen‘) werden seit Bestehen der Erde beständig in der Atmosphäre, in der Erdkruste, bei allen Verwesungsprozessen ‚recycled‘. Danach enthält jeder Körper Kohlenstoffatome von anderen Körpern, die 1000 und mehr Jahre älter sind.(146f) Mehr als hundert chemische Verbindungen konnten bislang im Universum nachgewiesen werden, viele davon organischer Natur. (147f) Nach den ersten hundert Millionen Jahren war die Oberfläche der Erde immer noch sehr heiß, die Ozeane viel tiefer, die Atmosphäre drückend (‚crushing‘), intensiver Vulkanismus, der Mond näher, die Gezeiten viel höher, die Erdumdrehung viel schneller, und vor allem andauernde Bombardements aus dem Weltall. (152) Eine ausführlichere Schilderung zeigt die vielfältigen Einwirkungen aus dem Weltall auf die Erde. Generell kann hier allerlei (auch organisches) Material auf die Erde gekommen sein. Allerdings sind die Umstände eines Eindringens und Aufprallens normalerweise eher zerstörerischer Natur was biologische Strukturen betrifft. (153-158) Das heftige Bombardement aus dem Weltall mit den verheerenden Folgen macht es schwer, abzuschätzen, wann Leben wirklich begann. Grundsätzlich ist weder auszuschließen, dass Leben mehrfach erfunden wurde noch, dass es Unterstützung aus dem Weltall bekommen haben kann. Andererseits war der ’sicherste‘ Ort irgendwo in einer Tiefe, die von dem Bombardement kaum bis gar nicht beeinträchtigt wurde. (158-161)

  7. Kapitel 7 ‚Superbugs‘ (163-186). Die weltweit auftretende Zerstörung von unterirdischen Kanalleitungen aus Metall (später 1920iger) führte zur Entdeckung eines Mikroorganismus, der ausschließlich in einer säuerlichen Umgebung lebt, Schwefel (’sulfur‘) frißt und eine schweflige Säure erzeugt, die sogar Metall zerstören kann.(163f) Man entdeckte mittlerweile viele verschiedene Mikroorganismusarten, die in Extremsituationen leben: stark salzhaltig, sehr kalt, starke radioaktive Strahlung, hoher Druck, extremes Vakuum, hohe Temperaturen. (164f) Diese Mikroorganismen scheinen darüber hinaus sehr alt zu sein. (165) Am erstaunlichsten von allen sind aber die wärmeliebenden Mikroorganismen (‚thermophiles‘, ‚hyperthermophiles‘), die bislang bis zu Temperaturen von 113C^o gefunden wurden. Von den mittlerweile mehr als Tausend entdeckten Arten sind ein großer Teil Archäen, die als die ältesten bekannten Lebensformen gelten. (166f) Noch mehr, diese thermophilen und hyperthermophylen Mikroorganismen sind – wie Pflanzen allgemein – ‚autotroph‘ in dem Sinne, dass sie kein organisches Material für ihre Versorgung voraussetzen, sondern anorganisches Material. Man nennt die unterseeischen Mikroorganismen abgrenzend von den autotrophen ‚Chemotrophs‘, da sie kein Sonnenlicht (also keine Photosynthese) benutzen, sondern einen eigenen Energiegewinnungsprozess entwickelt haben. (167f) Es dauerte etwa von 1920 bis etwa Mitte der 90iger Jahre des 20.Jahrhunderts bis der Verdacht und einzelne Funde sich zu einem Gesamtbild verdichteten, dass Mikroorganismen überall in der Erdoberfläche bis in Tiefen von mehr als 4000 m vorkommen, mit einer Dichte von bis zu 10 Mio Mikroorganismen pro Gramm, und einer Artenvielfalt von mittlerweile mehreren Tausend. (168-171) Bohrungen in den Meeresgrund erbrachten weitere Evidenz dass auch 750m unter dem Meeresboden überall Mikroorganismen zu finden sind (zwischen 1 Mrd pro cm^3 bis zu 10 Mio). Es spricht nichts dagegen, dass Mikroorganismen bis zu 7km unter dem Meeresboden leben können. (171-173) All diese Erkenntnisse unterstützen die Hypothese, dass die ersten Lebensformen eher unterseeisch und unterirdisch entstanden sind, geschützt vor der Unwirtlichkeit kosmischer Einschläge, ultravioletter Strahlung und Vulkanausbrüchen. Außerdem waren alle notwendigen Elemente wie z.B. Wasserstoff, Methan, Ammoniak, Wasserstoff-Sulfid im Überfluss vorhanden. (173f) Untersuchungen zur Energiebilanz zeigen, dass in der Umgebung von heißen unterirdischen Quellen speziell im Bereich 100-150 C^o sehr günstig ist.(174f) Zusätzlich deuten genetische Untersuchungen zur Abstammung darauf hin, dass gerade die Archäen-Mikroorganismen zu den ältesten bekannten Lebensformen gehören, die sich z.T. nur sehr wenig entwickelt haben. Nach all dem wären es dann diese hyperthermophilen Mikroorganismen , die den Ursprung aller biologischen Lebensformen markieren. Immer mehr Entdeckungen zeigen eine wachsende Vielfalt von Mikroorganismen die ohne Licht, in großer Tiefe, bei hohen Temperaturen anorganische Materialien in Biomasse umformen. (175-183)

  8. Wie Leben wirklich begann lässt sich bislang trotz all dieser Erkenntnisse nicht wirklich klären. Alle bisherigen Fakten sprechen für den Beginn mit den Archäen, die sich horizontal in den Ozeanen und in der Erdkruste in einem Temperaturbereich nicht höher als etwa 120 C^o (oder höher?) ausbreiten konnten. Irgendwann muss es dann einen Entwicklungssprung in die Richtung Photosynthese gegeben haben, der ein Leben an der Oberfläche ermöglichte. (183-186)

  9. Kap.8 ‚Mars: Red and Dead‘ (SS.187-220). Diskussion, ob es Leben auf dem Mars gab bzw. noch gibt. Gehe weiter darauf nicht ein, da es für die Diskussion zur Struktur und Entstehung des Lebens keinen wesentlichen Beitrag liefert.

  10. Kap.9 ‚Panspermia‘ (SS.221-243). Diskussion, inwieweit das Leben irgendwo im Weltall entstanden sein kann und von dort das Leben auf die Erde kam. Aber auch hier gilt, neben der Unwahrscheinlichkeit einer solchen Lösung würde es die Grundsatzfragen nicht lösen. (siehe auch Davies S.243))

  11. Kap.10 ‚A Bio-Friendly Universe‘ (SS.245-273). Angesichts der ungeheuren molekularen Komplexität , deren Zusammenspiel und deren Koevolution steht die Annahme einer rein zufälligen Entwicklung relativ schwach da. Die Annahme, dass die Komplexität durch die impliziten Gesetzmäßigkeiten aller beteiligten Bestandteile ‚unterstützt‘ wird, würde zwar ‚helfen‘, es bleibt aber die Frage, wie. (245-47) Eine andere Erklärungsstrategie‘, nimmt an, dass das Universum ewig ist und dass daher Leben und Intelligenz schon immer da war. Die sich daraus ergebenden Konsequenzen widersprechen den bekannten Fakten und erklären letztlich nichts. Davies plädiert daher für die Option, dass das Leben begonnen hat, möglicherweise an mehreren Orten zugleich. (247-250)
  12. Im Gegensatz zu Monod und den meisten Biologen, die nur reinen Zufall als Entstehungsform annehmen, gibt es mehrere Vertreter, die Elemente jenseits des Zufalls annehmen, die in der Naturgesetzen verankert sind. Diese wirken sich als ‚Präferenzen‘ aus bei der Bildung von komplexeren Strukturen. (250-254) Dem hält Davies aber entgegen, dass die normalen Naturgesetze sehr einfach sind, schematisch, nicht zufällig, wohingegen die Kodierung des Lebens und seiner Strukturen sich gerade von den chemischen Notwendigkeiten befreit haben, sich nicht über ihre materiellen Bestandteile definieren, sondern über eine frei (zufällig) sich konfigurierende Software. Der Rückzug auf die Präferenzen ist dann möglicherweise kein genügender Erklärungsgrund. Davies hält die Annahme eines ‚Kodes im Kode‘ für nicht plausibel. (254-257) Wie aber lässt sich das Problem der biologischen Information lösen? (257f) Grundsätzlich meint Davies, dass vieles dafür spricht, dass man ein ‚Gesetz der Information‘ als genuine Eigenschaft der Materie annehmen muss. (258f) Davies nennt dann verschiedene Theorieansätze zum möglichen Weiterdenken, ohne die gedanklichen Linien voll auszuziehen. Er erinnert nochmals an die Komplexitätstheorie mit ihrem logischen Charakter, erinnert an die Quantenstruktur der Materie, die Dualität von Welle (Information? Software?) und Teilchen (Hardware?) und ‚Quasikristalle‘, die auf den ersten Blick periodisch wirken, aber bei näherer Analyse aperiodisch sind. (259-263)
  13. Eine andere Frage ist die, ob man in der Evolution irgendeine Art von Fortschritt erkennen kann. Das Hauptproblem ist, wie man Fortschritt definieren kann, ohne sich in Vorurteilen zu verfangen. Vielfach wird der Begriff der Komplexität bemüht, um einen Anstieg an Komplexität zu konstatieren. Stephen J.Gould sieht solche Annahmen eines Anstiegs der Komplexität sehr kritisch. Für Christian de Duve hingegen erscheint ein Anstieg von Komplexität klar. (264-270)
  14. In den Schlussbemerkungen stellt Davies nochmals die beiden großen Interpretationsalternativen gegenüber: einmal die Annahme einer Zunahme der Komplexität am Beispiel von Gehirnen und daran sich knüpfenden Eigenschaften aufgrund von impliziten Präferenzen oder demgegenüber die Beschränkung auf reinen Zufall. Im letzteren Fall ist das Auftreten komplexer Lebensformen so hochgradig unwahrscheinlich, dass eine Wiederholung ähnlicher Lebensformen an einem anderen Ort ausgeschlossen erscheint. (270-273)
  15. [Anmerkung: Am Ende der Lektüre des Buches von Davies muss ich sagen, dass Davies hier ein Buch geschrieben hat, das auch ca. 13 Jahre später immer noch eine Aussagekraft hat, die die gewaltig ist. Im Detail der Biochemie und der Diskussion der chemischen Evolution mag sich das eine oder andere mittlerweile weiter entwickelt haben (z.B. ist die Diskussion zum Stammbaum fortgeschritten in einer Weise, dass weder die absolute Datierung noch zweifelsfrei ist noch die genauen Abhängigkeiten aufgrund von Genaustausch zwischen den Arten (vgl. Rauchfuß (326-337)]), doch zeigt Davies Querbeziehungen zwischen vielen Bereichen auf und bringt fundamentale Konzepte zum Einsatz (Information, Selbstorganisation, Autokatalyse, Komplexitätstheorie, Quantentheorie, Thermodynamik, algorithmische Berechenbarkeit ….), die in dieser Dichte und reflektierenden Einbringung sehr selten sind. Sein sehr kritischer Umgang mit allen möglichen Interpretationen ermöglicht Denkansätze, stellt aber auch genügend ‚Warnzeichen‘ auf, um nicht in vorschnelle Interpretationssackgassen zu enden. Eine weitere Diskussion des Phänomen Lebens kann an diesem Buch schwerlich vorbei gehen. Ich habe auch nicht den Eindruck, dass die neueren Ergebnisse die grundsätzlichen Überlegungen von Davies tangieren; mehr noch, ich kann mich des Gefühls nicht erwehren, dass die neuere Diskussion zwar weiter in ‚Details wühlt‘, aber die großen Linien und die grundlegenden theoretischen Modelle nicht wirklich beachten. Dies bedarf weiterer intensiver Lektüre und Diskussion ]
  16. [ Anmerkung: Ich beende hiermit die direkte Darstellung der Position von Davies, allerdings beginnt damit die Reflektion seiner grundlegenden Konzepte erst richtig. Aus meiner Sicht ist es vor allem der Aspekt der ‚logischen Strukturen‘, die sich beim ‚Zusammenwirken‘ einzelner Komponenten in Richtung einer höheren ‚funktionellen Komplexität‘ zeigen, die einer Erklärung bedürfen. Dies ist verknüpft mit dem Phänomen, dass biologische Strukturen solche übergreifenden logischen Strukturen in Form von DNA/ RNA-Molekülen ’speichern‘, deren ‚Inhalt‘ durch Prozesse gesteuert werden, die selbst nicht durch ‚explizite‘ Informationen gesteuert werden, sondern einerseits möglicherweise von ‚impliziten‘ Informationen und jeweiligen ‚Kontexten‘. Dies führt dann zu der Frage, inwieweit Moleküle, Atome, Atombestandteile ‚Informationen‘ ‚implizit‘ kodieren können, die sich in der Interaktion zwischen den Bestandteilen als ‚Präferenzen‘ auswirken. Tatsache ist, dass Atome nicht ’neutral‘ sind, sondern ’spezifisch‘ interagieren, das gleiche gilt für Bestandteile von Atomen bzw. für ‚Teilchen/ Quanten‘. Die bis heute nicht erklärbare, sondern nur konstatierbare Dualität von ‚Welle‘ und ‚Teilchen‘ könnte ein Hinweis darauf sein, dass die Grundstrukturen der Materie noch Eigenschaften enthält, die wir bislang ‚übersehen‘ haben. Es ist das Verdienst von Davies als Physiker, dass er die vielen chemischen, biochemischen und biologischen Details durch diese übergreifenden Kategorien dem Denken in neuer Weise ‚zuführt‘. Die überdimensionierte Spezialisierung des Wissens – in gewisser Weise unausweichlich – ist dennoch zugleich auch die größte Gefahr unseres heutigen Erkenntnisbetriebes. Wir laufen wirklich Gefahr, den berühmten Wald vor lauter Bäumen nicht mehr zu sehen. ]

 

Zitierte Literatur:

 

Mills,D.R.; Peterson, R.L.; Spiegelmann,S.: An Extracellular Darwinian Experiment With A Self-Duplicating Nucleic Acid Molecule, Reprinted from the Proceedings of the National Academy of Sciences, Vol.58, No.1, pp.217-224, July 1997

 

 

Rauchfuß, H.; CHEMISCHE EVOLUTION und der Ursprung des Lebens. Berlin – Heidelberg: Springer, 2005

 

Einen Überblick über alle bisherigen Themen findet sich HIER

 

Ein Video in Youtube, das eine Rede von Pauls Davies dokumentiert, die thematisch zur Buchbesprechung passt und ihn als Person etwas erkennbar macht.

 

Teil 1:
http://www.youtube.com/watch?v=9tB1jppI3fo

Teil 2:
http://www.youtube.com/watch?v=DXXFNnmgcVs

Teil 3:
http://www.youtube.com/watch?v=Ok9APrXfIOU

Teil 4:
http://www.youtube.com/watch?v=vXqqa1_0i7E

Part 5:
http://www.youtube.com/watch?v=QVrRL3u0dF4
Es gibt noch einige andere Videos mit Paul Davies bei Youtube.