EPISTEMISCHE SCHOCKWELLEN. Die letzten 3500 Jahre

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 20.Sept. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

KONTEXT

Die Diskussion im Kontext des letzten Textes von Freud zur Psychoanalyse lässt erkennen, wie sich das Bild von uns Menschen über uns selbst dadurch in gewisser Weise ändern kann und letztlich dann ändert, wenn wir uns auf diese Gedanken einlassen. Die Einbeziehung des ‚Unbewussten‘ in das Gesamtbild des Systems homo sapiens verschiebt so manche Beziehungen im Gefüge des menschlichen Selbstbildes, und nicht nur das, es wirkt sich auch aus auf das Gesamtbild der empirischen Wissenschaften, auf ihr Gesamtgefüge. Dies hatte sich ja auch schon angedeutet in der vorausgehenden Diskussion des Buches von Edelman, die noch nicht abgeschlossen ist.

Dies hat mich angeregt, über Freud und Edelman hinausgehenden einige der epistemischen Schockwellen zusammen zu stellen, denen das menschliche Selbstverständnis in den letzten ca. 3500 Jahren ausgesetzt war. Dabei muss man sich darüber im Klaren sein, dass es natürlich immer nur eine Minderheit war, die überhaupt an den übergreifenden Erkenntnissen teilhaben konnte, und selbst diese Minderheit zerfällt in unterschiedliche Subgruppen ohne ein kohärentes Gesamtbild.

EPISTEMISCHE SCHOCKWELLEN

Unter ‚Schockwellen‘ werden hier energetische Ereignisse verstanden, die nur gelegentlich auftreten, und die geeignet sind, bestehende Strukturen zumindest zum Schwingen, zum Erbeben zu bringen, wenn nicht gar zu ihrer Zerstörung führen. ‚Epistemisch‘ bezieht sich auf die Dimension des Erkennens, des Verstehens, zu dem Exemplare des Homo sapiens fähig sind. ‚Epistemische Schockwellen‘ sind also Ereignisse, durch die das Selbstverständnis, die Weltbilder der Menschen in Schwingungen versetzt wurden bzw. sich neu aufbauen mussten.

Die folgende Zusammenschau solcher epistemischer Schockwellen ist in keiner Weise vollständig, weitgehend nicht differenziert genug, rechtfertigt sich aber dadurch, dass es darum geht in einer überschaubaren Weise einen Grundeindruck von der Dynamik des Geistes zu vermitteln, die dem Geschehen des biologisch fundierten Lebens innewohnt.

CLUSTER RELIGION

 

Stichworte zu 'Epistemische Schockwellen', Teil 1. ca. -1500 bis ca. 1500

Stichworte zu ‚Epistemische Schockwellen‘, Teil 1. ca. -1500 bis ca. 1500

Zwischen ca. -1500 bis etwa 650 gab mindestens 8 große das Weltverstehen prägende Ereignisse – daneben viele andere, weitere –, die wir im Nachgang als ‚Religionen‘ bezeichnen. Religionen zeichnen sich aus durch ‚Gründer‘, durch ‚Botschaften‘, durch ‚Erfahrungen‘ und dann meistens nachfolgend durch ‚Regeln‘ und Bildung von ‚Organisationsformen‘. Sie erheben einen Anspruch auf ‚Deutung der Welt‘ mit ‚Sinn‘, ‚Werten‘ und ‚Spielregeln‘. Sie versprechen auch den Kontakt zu eine Letzten, Größten, Umfassenden, Endgültigen, dem alles andere unter zu ordnen ist. Vielfach gehen diese Versprechungen auch einher mit speziellen ‚außergewöhnlichen Erlebnissen‘, die im einzelnen stattfinden.

In Vorderasien und Europa waren dies vor allem das Duo Judentum-Christentum und der Islam. Während diese sich explizit auf einen ‚Schöpfer‘ bezogen, kam der indische Subkontinent neben der vielfältigen Götterwelt des Hinduismus in seinem Grundtenor — realisiert im Buddhismus — ohne einen expliziten Schöpfer aus, allerdings nicht ohne eine tiefgreifende Existenzerfahrung des einzelnen Menschen, der sich durch einen geeigneten Lebensstil und Meditation möglichst weitgehend von einem normalen Alltag und seinen vielfältigen Spannungen isolierte.

So verschieden Jugentum-Christentum, Islam auf der einen Seite und Indischer Existentialismus auf der anderen Seite auf den ersten Blick wirken können, kann man aber dennoch auffällige strukturelle Parallelen erkennen.

Die sprachliche Seite der genannten Religionen tendiert dazu, nicht die Weite und Vielfalt der Welt zu kommunizieren, keine weiterreichende Erkenntnisse, sondern die Sprache hat einzig den Zweck, eine bestimmte, abgegrenzte Idee zu kommunizieren, diese abzugrenzen von allem anderen, bis dahin, dass alle Abweichungen diskreditiert werden. Jene Menschen, die sich sprachlich von der ‚Norm‘ entfernen sind Abweichler, Dissidenten, Ungläubige, Verräter, Feinde. Die Sprache wird also nicht gesehen als ein offener, lebendiger, dynamischer Raum von ‚Wahrheit‘, die sich weiter entwickeln kann, sondern als eine symbolische Fessel, eine symbolische Mauer, die einige wenige Ideen abgrenzen sollen. Auch der Buddhismus, der eigentlich sein Fundament in einer schwer beschreibbaren individuellen Existenzerfahrung sieht, praktiziert Sprache überwiegend als Gefängnis.

Betrachtet man sich die Geschichte dieser Religionen bis heute, dann ist diese Starrheit unübersehbar. Alle modernen Erkenntnisse und Entwicklungen prallen an der Sprache dieser Religionen ab.

Neben der sprachlichen Dimension haben alle diese Religionen auch eine ‚Erlebnisdimension‘, oft auch ‚Spiritualität‘ oder ‚Mystik‘ genannt. Einzelne, Gruppierungen, Bewegungen erzähltem davon, schrieben es auf, dass sie ‚besondere, tiefgreifende Erlebnisse‘ hatten, die ihnen ‚klar gemacht haben‘, was wirklich ‚wichtig‘ ist, ‚worin der Sinn des Lebens‘ liegt, Erlebnisse, die ihnen ‚Frieden‘ geschenkt haben, ‚Erfüllung‘, ‚Wahrheit‘. Und diese Erlebnisse waren immer so stark, dass sie diese Menschen aus allen Schichten dazu bewegt haben, ihr Lebens radikal zu ändern und von da an eben ‚erleuchtet‘ zu leben. Diese Menschen gab es nicht nur im Umfeld des Buddhismus, sondern auch zu Tausenden, Zehntausenden im Umfeld des Judentum-Christentums.

Solange diese religiösen Bewegungen sich im Umfeld der etablierten religiösen Überzeugungen und Praktiken bewegen wollten, mussten sie sich – wie immer auch ihre individuellen Erlebnisse waren – diesem Umfeld anpassen. In vielen Fällen führte dies auch zu Absetzbewegungen, zur Entwicklung neuer religiöser Bewegungen. Das Problem dieser erlebnisbasierten Bewegungen war, dass sie entweder nicht die Sprache benutzen durften, die sie zur Beschreibung ihrer Erlebnisse brauchten (da nicht erlaubt), oder aber, sie benutzten eine neue Sprache, und dies führte zum Konflikt mit den etablierten Sprachspielen.

Unter den vielen hunderten Bewegungen allein im Bereich Judentum-Christentum, die z.T. viele tausend, ja zehntausend  Mitglieder hatten und dabei oft auch materiell sehr wohlhabend bis reich wurden, möchte ich zwei kurz erwähnen: die Reformation angefeuert von Martin Luther und den Jesuitenorden, angefeuert von Ignatius von Loyola. Im historischen Klischee werden beide Bewegungen oft als direkte Gegner skizziert, da der Jesuitenorden kurz nach Beginn der Reformationsbewegung gegründet wurde und der katholische Papst gerade diesen Orden auch zur ‚Bekämpfung der Reformation‘ einsetzte. Dieses Bild verdeckt aber die wirklich interessanten Sachverhalte.

Der Jesuitenorden entstand aus den spirituellen Erfahrungen eines baskischen Adligen, deren innere Logik, Beschreibung und Praxis, im Lichte der Erkenntnisse der modernen Psychologie (und Psychoanalyse) stand halten würde. Außerdem war der Orden aufgrund dieser Spiritualität extrem weltoffen, wissenschaftsaffin, und revolutionierte die damals beginnende christliche Missionierung der Welt, indem jeweils die Kultur der verschiedenen Erdteile studiert und übernommen und sogar gegen zerstörerische Praktiken der europäischen Kolonisatoren geschützt wurden. Genau dieses wahre Gesicht des Ordens mit einer radikal individuell-erlebnisbasierten Spiritualität und daraus resultierenden Weltoffenheit und Menschlichkeit führte dann zum Verbot und Aufhebung des Ordens weltweit, verbunden mit Einkerkerungen, Folter und Tod ohne Vorankündigung. Das korrupte Papsttum ließ sich damals von dem portugiesischen und spanischen Hof erpressen, die ihre menschenverachtende Geschäfte in den Kolonien, speziell Südamerika, bedroht sahen. Dies war nicht die einzige Aufhebung und Misshandlung, die der Orden seitens des Papstums erfuhr. Während Luther sich gegen das Papsttum erhob und es auf einen Konflikt ankommen ließ, blieben die Jesuiten dem Papst treu und wurden vernichtet.

Diese Minigeschichte ließe sich aber zu einem großen Thema erweitern, da eben die sprachlich fixierten Religionen generell ein Problem mit Wahrheit und damit mit jeglicher Art von Erfahrung haben. Die Akzeptanz individueller Erfahrung als möglicher Quell von ‚Wahrheit‘, möglicherweise einer weiter reichenden alternativen Wahrheit zu der sprachlich fixierten (und damit eingesperrten) Wahrheit der Religionen, eine solche Akzeptanz würde das Wahrheitsmonopol dieser Religionen aufheben. Bislang hat keine der genannten Religionen es geschafft, von sich aus ihr problematisches Wahrheitsmonopol in Frage zu stellen.

JUDENTUM – CHRISTENTUM – PHILOSOPHIE

In der Zeit vor den modernen empirischen Wissenschaften existierte wissenschaftliches Denken entweder gar nicht oder in enger Verbindung mit dem philosophischen Denken bzw. der Medizin.

In der alten und klassischen Griechischen Philosopie (ca. -800 bis -200) wurde das Weltverstehen in vielen Bereichen erstmalig sehr grundlegend reflektiert, unabhängig von bestimmten religiösen Überzeugungen, obgleich natürlich auch diese Denker nicht im luftleeren Raum lebten sondern in konkreten Kulturen mit einer damals üblichen Moral, Ethik, Spielregeln, Sprachspielen.

Unter den vielen bedeutenden Konzepten war das größte systematische Konzept wohl jenes von Aristoteles, Schüler Platons, und den an ihn anschließenden Schulen. Während dieses griechische Denken nach der Eroberung Griechenlands durch die Römer in Mittel- und Westeuropa bis zum Jahr 1000 mehr oder weniger unbekannt war (Kriege, radikal anti-wissenschaftliche Einstellung der katholischen Kirche) war der damalige Islam sehr offen für Wissen. Das griechische Denken war im Islam weitgehend bekannt, lag entsprechend in arabischen Übersetzungen vor, und durch eine Vielzahl von Schulen, Bildungsstätten und großen Bibliotheken (z.T. mehrere hundert Tausend Bücher!) wurde dieses Wissen gepflegt und weiter entwickelt (welcher Kontrast zum heutigen Islam!). Und nur über diese Umweg über den hochgebildeten Islam mit Übersetzungsschulen in Spanien kam das Wissen der Griechen ab ca. 1000 wieder in das christliche Mittel- und West-Europa.

Mit dem Entstehen eines aufgeschlosseneren Bildungssystem in Europa wanderten die griechischen Gedanken über Bücher und Gelehrte wieder in europäische Bildungsstätten ein. Es gab eine Zeit der intensiven Auseinandersetzung zwischen bisheriger christlicher Theologie und Aristoteles. Auf dem Höhepunkt der begrifflichen Integration von christlichem Glauben und Aristotelischer Weltsicht gab es aber ‚Abspaltungstendenzen‘ in mehreren Bereichen.

POLITIK – WISSENSCHAFT – SPIRITUALITÄT

Das zunehmend freie und kritische Denken begann mit der Infragestellung der bis dahin waltenden absolutistischen Machtstrukturen.

Das methodisch geschulte universitäre Denken begann, über die aristotelischen Konzepte hinaus zu denken. Anknüpfungspunkte gab es genügend.

Das individuelle Erleben der Menschen, ihre Frömmigkeit, ihre Spiritualität suchte nach neuen Wegen, benutzte eine neue Sprache, um sich besser ausdrücken zu können.

Das neue politische Denken führte später zur französischen Revolution und vielen ähnlichen politischen Erneuerungsbewegungen.

Das neue philosophische Denken führt alsbald zum Bildung der neuen empirischen Wissenschaften mit neuer Logik und Mathematik.

Die neue Spiritualität lies viele neue religiöse Bewegungen entstehen, die quer zu allen etablierten Glaubensformen lagen, u.a. auch zur Reformation.

PHILOSOPHIE – WISSENSCHAFT

Stichworte zu 'Epistemische Schockwellen', Teil2. ca. ca. 1550 bis ca.2018

Stichworte zu ‚Epistemische Schockwellen‘, Teil2. ca. ca. 1550 bis ca.2018

Aus der Vielzahl der philosophischen Denker bieten sich vier besonders an: Descartes, Kant, Wittgenstein und Carnap.

Von heute aus betrachtet markieren diese Vier entscheidende Umbrüche des philosophischen Denkens, das von den Entwicklungen in der Logik, Mathematik,Physik, Geowissenschaften, Biologie und Psychologie zusätzlich profitiert hat und noch immer profitiert.

Descartes versuchte zu klären, inwieweit sich die Wahrheitsfrage nur durch Rekurs auf das eigene Denken lösen ließe. Sein Fixpunkt in der Gewissheit des eigenen Denkens (cogito ergo sum) wurde aber erkauft durch einen fortbestehenden Dualismus zwischen Körper (res extensa) und Denken/ Geist (res cogitans), den er mit einem irrationalen Gedanken zu einer Zirbeldrüse zu kitten versuchte.

Kant führte dieses Forschungsprogramm von Descartes letztlich weiter. Sein Vermittlungsversuch zwischen fehlbarer konkreter empirischer Erfahrung und den allgemeinen Prinzipien der Mathematik und des Denkens (des Geistes) ging über Descartes insoweit hinaus, dass er auf eine Zirbeldrüsen-ähnliche Lösung verzichtete und stattdessen davon ausging, dass der Mensch in seinem Denken von vornherein in abstrakten Kategorien wahrnimmt und denkt. Unsere menschliche Konstitution ist so, dass wir so wahrnehmen und Denken. Er konstatierte damit ein Faktum, das wir heute mit all unseren Erkenntnissen nur bestätigen können. Es blieb bei ihm offen, warum dies so ist. Es zeichnet seine intellektuelle Redlichkeit aus, dass er die offenen Enden seiner erkenntnistheoretischen (epistemischen) Analysen nicht krampfhaft mit irgendwelchen Pseudo-Lösungen versucht hat zu vertuschen.

Wittgenstein war der erste, der sich mit dem Funktionieren der Sprache und ihrer Wechselwirkung mit unserem Denken ernsthaft, ja radikal beschäftigte. Während er in seinem Frühwerk noch der Statik der damaligen modernen Logik huldigte, begann er dann später alle diese statischen formalen Konstruktionen in der Luft zu zerreißen, durchlief weh-tuende detaillierte Analysen der Alltagssprache, machte vor nichts Halt, und hinterließ mit seinem frechen und angstfreien Denken einen Trümmerhaufen, dessen Verdienst es ist, den Raum frei gemacht zu haben für einen echten Neuanfang.

Carnap wirkt in diesem Zusammenhang auf den ersten Blick wie ein Antipode zu Wittgenstein, und in der Tat hat er ja das vor-wittgensteinsche Sprachverständnis in seinen Studien zu den formalen Sprachen, zur Logik, zur logischen Semantik weiter angewendet. Allerdings hat er dies dann auch im Kontext der empirischen Wissenschaften getan. Und in diesem Kontext hat sein formal-scholastisches Denken immerhin dazu beigetragen, die Grundstrukturen moderner empirische Theorien mit einem formalen Kern frei zu legen und ihre Eigenschaften zu untersuchen.

Alle diese genannten Ansätze (Kant, Wittgenstein, Carnap) wurden später mehrfach kritisiert, abgewandelt, weiter entwickelt, aber es waren diese Ansätze, die die nachfolgenden Richtungen entscheidend beeinflusst haben.

Ein interessanter Grenzfall ist Freud (s.u.). Irgendwie könnte man ihn auch zur Philosophie rechnen.

LOGIK – MATHEMATIK

Aus heutiger Sicht kann man sich gar nicht mehr vorstellen, dass es eine Zeit gegeben hat, in der die moderne Logik und Mathematik nicht verfügbar war. Nahezu alles, was unseren Alltag ausmacht setzt sehr viel Mathematik als beschreibende Sprache, als Berechnung, als Simulation voraus. Dass mathematisches Denken in den Schulen so wenig – und immer weniger – behandelt wird, ist sehr irritierend.

Logik und Mathematik sind einen weiten Weg gegangen.

Ein Meilenstein ist der Übergang von der klassischen aristotelischen Logik (eng an der Alltagssprache, Einbeziehung inhaltlichen Alltagsdenkens) zur modernen formalen Logik seit Frege (formale Sprache, formaler Folgerungsbegriff).

Eng verknüpft mit der Entwicklung der neuen formalen Logik ist auch die Entwicklung der modernen Mathematik, die entscheidend mit der Erfindung der Mengenlehre durch Cantor ihren Durchbruch fand, und dann mit Russel-Whitehead und Hilbert die Neuzeit erreichte. Keine der modernen Arbeiten in Gebieten wie z.B. Algebra, Topologie, Geometrie sind ohne diese Arbeiten denkbar, ganz zu schweigen von der modernen theoretischen Physik.

EMPIRISCHE WISSENSCHAFTEN

Erste Ausläufer empirischer Wissenschaft gab es schon vor Galilei (man denke z.B. nur an die bahnbrechenden Forschungen zur Medizin von dem islamischen Gelehrten (und Philosophen, Logiker, Theologen!) Avicenna). Doch an der Person Galileis kristallisiert sich der Konflikt zwischen neuem, offenen wissenschaftlichen Denken und dem alten, geschlossenen christlichen Denken. Zudem hat Galilei eben konsequent sowohl eine experimentelle Messmethode angewendet wie auch eine beginnende mathematische Beschreibung. Mit Newton gelang dann eine Fassung von Experiment und Theorie, die atemberaubend war: die Bewegung der Himmelskörper ließ sich nicht nur mit einfachen mathematischen Formeln beschreiben, sondern auch noch mit bis dahin unbekannter Präzision voraus sagen. Es sollte dann zwar noch fast 300 Jahre dauern, bis die moderne Physik eine erste Theorie zur Entstehung des ganzen Weltalls formulieren konnte samt ersten experimentellen Bestätigungen, aber die Befreiung des Denkens von dogmatischen Sprachbarrieren war geschafft. Die Wissenschaft insgesamt hatte sich freigeschwommen.

Schon im 17.Jahrhundert hatte Niels Stensen entdeckt, dass die unterschiedlichen Ablagerungsschichten der Erde in zeitlicher Abfolge zu interpretieren sind und man daher auf geologische Prozesse schließen kann, die die Erde durchlaufen haben muss.

Zwei Jahrhunderte später, schon im 19.Jahrhundert, wurde diese historische Sicht der Erde ergänzt durch Charles Darwin, der am Beispiel der Pflanzen- und Tierwelt auch Hinweise auf eine Entwicklung der Lebensformen fand. Sowohl die Erde als auch die biologischen Lebensformen haben eine Entwicklung durchlaufen, zudem in enger Wechselwirkung.

Fast parallel zu Darwin machte Freud darauf aufmerksam, dass unser ‚Bewusstsein‘ nicht die volle Geschichte ist. Der viel größere Anteil unseres menschlichen Systems ist ’nicht bewusst‘, also ‚unbewusst‘. Das Bewusstsein ‚erzählt‘ uns nur ‚Bruchstücke‘ jener Geschichten, die weitgehend im ‚Nicht-Bewusstein‘ oder ‚Unbewussten‘ ablaufen.

Die weitere Entwicklung der Biologie lieferte viele Argumente, die das Bild von Freud stützen.

Der Versuch von Watson, 1913, die Psychologie als empirische Verhaltenswissenschaft zu begründen, wurde und wird oft als Gegensatz zu Psychoanalyse gesehen. Das muss aber nicht der Fall sein. Mit der Verhaltensorientierung gelang der Psychologie seither viele beeindruckende theoretische Modelle und Erklärungsleistungen.

Von heute aus gesehen, müsste man ein Biologie – Psychologie – Psychoanalyse Cluster befürworten, das sich gegenseitig die Bälle zuspielt.

Durch die Einbeziehung der Mikro- und Molekularbiologie in die Evolutionsbiologie konnten die molekularen Mechanismen der Evolution entschlüsselt werden.Mittlerweile steht ein fast komplettes Modell der biologischen Entwicklung zur Verfügung. Dies erlaubt es sowohl, Kants (als auch Descartes) Überlegungen von den biologischen Voraussetzungen her aufzuklären (z.B. Edelman!), wie auch die Psychologie samt der Psychoanalyse.

COMPUTER

Als Gödel 1931 die Unentscheidbarkeit anspruchsvoller mathematischer Theorien (das fängt bei der Arithmetik an!) beweisen konnte, wirkte dies auf den ersten Blick negativ. Um seinen Beweis führen zu können, benötigte Gödel aber sogenannte ‚endliche Mittel‘. Die moderne Logik hatte dazu ein eigenes Forschungsprogramm entwickelt, was denn ‚endliche Beweismethoden‘ sein könnten. Als Turing 1936/7 den Beweis von Gödel mit dem mathematischen Konzept eines Büroangestellten wiederholte, entpuppte sich dieses mathematische Konzept später als ein Standardfall für ‚endliche Mittel‘. Turings ‚mathematisches Konzept eines Büroangestellten‘ begründete dann die spätere moderne Automatentheorie samt Theorie der formalen Sprachen, die das Rückgrat der modernen Informatik bildet. Das ‚mathematische Konzept eines Büroangestellten‘ von Turing wurde ihm zu Ehren später ‚Turingmaschine‘ genannt und bildet bis heute den Standardfall für das, was mathematisch ein möglicher Computer berechnen kann bzw. nicht kann.

Im weiteren Verlauf zeigte sich, dass gerade das Konzept des Computers ein extrem hilfreiches Werkzeug für das menschliche Denken sein kann, um die Grenzen des menschlichen Wahrnehmens, Erinnerns und Denkens auszugleichen, auszuweiten.

Schon heute 2018 ist der Computer zu einem unverzichtbaren Bestandteil der Gesellschaft geworden. Das Wort von der ‚Digitalen Gesellschaft‘ ist keine Fiktion mehr.

ZEITGEIST

Der extrem kurze Rückblick in die Geschichte zeigt, wie schwer sich die Ausbildung und Verbreitung von Ideen immer getan hat. Und wenn wir uns die gesellschaftliche Realität heute anschauen, dann müssen wir konstatieren, dass selbst in den hochtechnisierten Ländern die gesamte Ausbildung stark schwächelt. Dazu kommt das eigentümliche Phänomen, dass das Alltagsdenken trotz Wissenschaft wieder vermehrt irrationale, gar abergläubische Züge annimmt, selbst bei sogenannten ‚Akademikern‘. Die Herrschaft von Dogmatismen ist wieder auf dem Vormarsch. Die jungen Generationen in vielen Ländern werden über mobile Endgeräte mit Bildern der Welt ‚programmiert‘, die wenig bis gar nicht zu wirklichen Erkenntnissen führen. Wissen als solches, ist ‚wehrlos‘; wenn es nicht Menschen gibt, die mit viel Motivation, Interesse und Ausdauer und entsprechenden Umgebungen zum Wissen befähigt werden, dann entstehen immer mehr ‚Wissens-Zombies‘, die nichts verstehen und von daher leicht ‚lenkbar‘ sind…

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

 

FOLGT AUS DER ANNAHME VON EMERGENZ DIE FUNKTION-IN-MATERIE HYPOTHESE? Anmerkungen zu Monod, Dawkins, Wilson und speziell Kauffman

Here You can find an audio-version in English, which is not a direct translation of the German text below. Rather it is
an unplugged version of the ideas without a given English Text.
Please excuse my bad English. I did it as a special tribute for Stuart Kauffman, who did such a great Job with his ‚Reinventing the Sacred‚.

  1. Die letzten beiden Blogeinträge standen unter dem Eindruck des evolutionär ungeheuerlichen Phänomens der neuen Geistigkeit eines homo sapiens  (hs, Mensch), der in der Lage ist, die Gegenwart eines Jetzt zu überwinden, indem er über Gedächtnis, Abstraktion, Vergleich, Schlussfolgern und weiteren kognitiven Eigenschaften verfügt, die es ihm ermöglichen, das jeweilige Jetzt einzureihen in eine Folge von Jetzten, in Veränderungen, in Prozesse, in darin waltenden Beziehungen/ Relationen/ Regeln (die Grundlagen dazu wurden auch schon HIER diskutiert)..
  2. Diese Beobachtungen sind nicht singulär. Angeregt durch Gespräche mit meinem Freund MaFa wurde ich ausdrücklich aufmerksam auf jene soziobiologische Diskussion, die sich im Kontext von Personen wie Jacques Monod, Richard Dawkins und Edward O.Wilson findet.
Monod-Dawkins-Wilson

Monod-Dawkins-Wilson

  1. Das Leitthema von Monod, Dawkins und Wilson lässt sich vielleicht zusammenfassen in der These, dass die beobachtbaren Phänotypen und Verhaltensweisen von biologischen Systemen grundlegend und primär von ihren Genen bestimmt wird. Was immer die verschiedenen biologischen Systeme tun (einschließlich des hss), sie folgen in ihrem Tun den grundlegenden Interessen der Gene.
  2. Diese Gedanken sind primär stimuliert durch die Erkenntnisse der modernen Evolutionsbiologie, Molekulabiologie und Genetik. Ein Blick in die mikrobiologischen chemischen Prozesse von Selbstreproduktion lässt wenig Raum für andere Gedanken. Was wir dort sehen sind Moleküle, die miteinander wechselwirken und in diesen Wechselwirkungen neue Moleküle, ganze Zellen generieren, die wieder das Gleiche tun. In dieser Perspektive ist kein Raum für irgend etwas anderes.
  3. Schon stark abstrahierend könnte man die Struktur des DNA-Moleküls (das von anderen Molekülen als Informationsträger interpretiert wird) als Speicher vergangener Erfolgsrezepte deuten und die nicht voraussagbare Variabilität innerhalb des Reproduktionsprozesses als zufälliges Geschehen, das keinerlei außen geleitete Beeinflussungen (Monod) erkennen lässt.
  4. Auffällig ist, dass alle Autoren, insbesondere aber Monod und Dawkins, diese Beobachtungen und Überlegungen zum Anlass nehmen, neben den biologischen Sachverhalten noch kulturelle Interpretationsmuster und -praktiken zu kritisieren, die sich als Religionen darstellen und die das Wort Gott dazu benutzt haben/ benutzen, um dem grundlegend biologischen Geschehen eine spezielle religiöse Deutung unter zu legen: diese beobachtbaren biologischen Prozesse seien letztlich in einem größeren Kontext zu sehen, nämlich dass es einen umfassenden schaffenden Gott gibt (Creator, Schöpfer), der dies alles angestoßen hat und ermöglicht.
Stuart Kauffman - Benutze Texte

Stuart Kauffman – Benutze Texte

  1. Stuart Kauffman, der sich Jahrzehnte mit den physikalischen, biochemischen und molekularbiologischen Grundlagen des Lebens auseinander gesetzt hat, der aber zugleich komplexe mathematische Modellbildungen und Simulationen einbezogen hat, kommt bei den Themen der vorgenannten Autoren zu anderen Schlussfolgerungen.
Abrahamitiche Religionen nd moderner Reduktionismus

Abrahamitiche Religionen nd moderner Reduktionismus

  1. Zunächst einmal macht er darauf aufmerksam, dass in der Tat historisch die abrahamitischen Religionen (Judentum, Christentum, Islam) das Wort Gott sowohl für die letzten umfassenden Erklärungen benutzt haben (Gott als Schöpfer) wie auch als letzte Quelle jeglicher Moralität. Und es war die moderne empirische Wissenschaft, die mit ihrem neuen methodischen Zugang zur Erforschung der Welt zwar neue, starke, belastbare Fakten geschaffen hat, aber keinen Raum mehr lässt für Werte oder spirituelles Erleben. Mit der Kritik an einer problematischen Verwendung des Wortes Gott wurden gleich viele einschlägige Phänomene mit beerdigt. Der modernen Gesellschaft mangelt es daher an jeglicher Basis, um solche Wertsysteme zu schaffen, die jede moderne – und globale – Gesellschaft benötigt, um zu funktionieren.
  2. Kauffman sieht hier eine Art Überreaktion der modernen Wissenschaft, die vor lauter Bemühen, unberechtigte Deutungsansprüche seitens der etablierten Religionen abzuwehren, dabei auch Aspekte ausklammert, die eigentlich zum legitimen Phänomenbereich der Wissenschaften gehören sollten. Diese Überreaktion macht sich fest an einer Denkhaltung, die er Reduktionismus nennt.
  3. Die Diskussion über Reduktionismus ist nicht neu und hat schon zu vielen theoretischen Diskursen vor Kauffman Anlass gegeben. Kauffman greift diese Debatte aber wieder auf und macht anhand zahlreicher Beispiele deutlich, dass die Rückführung komplexer Phänomene auf einfache Bestandteile vielfach zu absurden Rekonstruktionen führt, die im Endeffekt das auslösende komplexe Phänomen praktisch zum Verschwinden bringen, nicht aber wirklich erklären.
  4. Anders gesagt, sei KP ein komplexes Phänomen mit Verhaltenseigenschaft f_kp, das man in Beziehung setzt zu einfacheren Bestandteilen E={e1, …, en}. Dann müsste man Gesetzmäßigkeiten f_e für die Bestandteile E finden, die so sind, dass sich ihre Funktionalität f_e direkt parallelisieren lässt mit der komplexen Funktionalität f_kp. Also ein Zustand S1_e mit Elementen E geht mittels f_e über in einen anderen Zustand S2_e, und parallel, synchron geht ein Zustand S1_kp über in einen anderen Zustand S2-Kp mittels der Funktion f_kp.
  5. Beispiel: ich tippe (komplexes Phänomen KP) bei meinem Computer die Taste ‚A‘ und auf dem Bildschirm erscheint ein ‚A‘. Tief unten im Computer, sagen wir auf der Ebene der logischen Gattern (elementare Bestandteile ) , realisiert in der Hardware, gibt es tausende, hunderttausende oder mehr elektrische Potentiale, wild verteilt im Mehr von vielen Milliarden elektrischen Potentialen, die ihren Zustand ändern, ohne dass man an den vielen logischen Gattern irgend eine Eigenschaft erkennen könnte, warum gerade diese nun ihr Potential ändern und nicht andere. Eine Beschreibung von Potentialänderungen auf der Gatterebene ist zwar möglich, wäre aber wenig hilfreich, um die vielen hunderttausend unterschiedlichen Phänomene auf der Nutzerebene zu unterscheiden. Dies wäre noch schwieriger, würde man noch tiefer steigen und auf die Ebene der Atome zurückgehen, die letztlich jedem logischen Gatter in der Hardware zugrunde liegen. Damit würde jeder Versuch einer systematischen Zuordnung zu komplexen Phänomenen sinnlos.
  6. Analog wäre dies, wenn man die Vielfalt biologischer Phänotypen auf das Verhalten zugrunde liegender Atome zurückführen würde. Man würde alle jene Phänomene verlieren, die gerade das Besondere ausmachen.
  7. Damit stellt sich die Frage, wie man denn komplexe Phänomene anders betrachten kann als im Stil eines Phänomen-vernichtenden Reduktionismus ohne dabei Wissenschaftlichkeit einzubüßen?

EMERGENZ

Emergenz - Enige Thesen von Kauffman

Emergenz – Enige Thesen von Kauffman

  1. Kauffman bringt an dieser Stelle den Begriff Emergenz ins Spiel und erklärt ihn in dem Sinne, dass er sagt, dass erkenntnistheoretisch (epistemologisch) die Rückführung eines Komplexen auf seine Bestandteile dann sinnlos wird, wenn man von den Bestandteilen selbst aus das Komplexe nicht konstruieren könnte. In diesem Fall kommt dem Phänomen eine ontologische Geltung zu, d.h. das Phänomen ist empirisch real, existierend und damit ein mögliches Objekt der empirischen Wissenschaft. Statt es also weg zu interpretieren durch einen sachfremden Reduktionismus muss man stattdessen nach neuen wissenschaftlichen Erklärungen suchen, die dem Phänomen gerecht werden.
  2. So sind es ja auch nicht die Gene selbst, die dem Selektionsprinzip der Natur unterworfen werden, sondern nur jene emergenten Eigenschaften der Phänotypen (Körper), die als reale Phänomene in der empirischen Welt real wechselwirken und darin entweder Leben erhalten oder Leben verlieren können. Die Gene profitieren nur indirekt von diesem Geschehen, insofern sie Teile eines größeren Ganzen sind, das als dieses Ganze eine funktionale Rolle spielt und nur insofern das Ganze überlebt dann auch mit überleben. Die Gene als solche sind nicht überlebensfähig, wohl aber als Teil eines Ganzen, das mehr ist als seine Teile!
  3. Insofern müsste man sagen, dass emergente Phänomene solche sind, die als Ganzes eine Funktionalität, ein Verhalten zeigen, das möglich ist in dieser umfassenden Konstellation. Die Rückführung auf die einzelnen Teile des komplexen Phänomens würde dieser komplexen Verhaltensweise die materielle Basis nehmen. (Etwas Ähnliches haben wir ja auch bei vielen physikalischen Phänomenen. So ist das Phänomen der Gravitation zwar als Wirkung (Verhalten, Funktionalität) zwischen Körpern beobachtbar, aber bei Betrachtung eines einzelnen Körpers alleine wäre sie nicht vorhanden.)
  4. Dies führt – über Kauffman hinausgehend – zu der Überlegung, dass komplexe (emergente) Phänomene nur möglich sind, weil ihre Funktionalität (Verhaltensweise) grundsätzlich in den beteiligten materiellen Komponenten angelegt ist. Diese Verhaltensweisen können sich aber nur zeigen, wenn eine entsprechende Anordnung/ Konstellation der beteiligten materiellen Komponenten vorliegt. Ich nenne dies die Funktion-in-Materie Hypothese. D.h. das, was wir Materie nennen, das ist ein Material, das implizit potentiell nahezu unendlich viele Funktionalitäten (Verhaltensweisen) erlaubt, je nachdem , wie man das Material anordnet.
  5. So wissen wir aus der Chemie, dass sich mit den bekannten Atomen als Bausteinen je nach Kontext nahezu unendlich viele Atomkombinationen (Moleküle) erzeugen lassen, die jeweils ganz andere Verhaltensweisen (Funktionalitäten) zeigen. Diese Funktionalitäten sind real, sie sind nicht zufällig, sondern sie sind die realen Manifestationen von realen Eigenschaften der beteiligten materiellen Komponenten. Sie müssen nicht erfunden werden, sondern sie sind implizit schon immer fester Bestandteil der materiellen Komponenten.
  6. So ist auch die Frage nach dem Ursprung des biologischen Lebens, die sich erst seit kurzem einer möglichen Antwort nähert, letztlich keine Frage nach einem unerklärbaren Wunder, sondern nur die Frage nach jener Konstellation von Materie (Atomen, Molekülen, Kontextbedingungen), durch die genau jene Funktionalitäten zum Zuge kommen konnten, die einerseits implizit zur Verfügung sehen, die sich aber andererseits erst bei entsprechender (auch komplexer) Anordnung zeigt.

BEWUSSTSEIN

  1. Dies lässt möglicherweise auch das Phänomen des (menschlichen) Bewusstseins bzw. die Phänomene des Geistigen in einem neuen Licht erscheinen. Für viele (auch für mich) ist das Phänomen des menschlichen Bewusstseins auf jeden Fall ein emergentes Phänomen im vollen Sinne (nicht erklärbar durch seine Teile, sprich hier die neuronale Zellen).
  2. Für manche (Kauffman, Edelman, …) impliziert die Besonderheit dieses Bewusstseins u.a., dass es von der physikalischen Kausalität seiner Bestandteile abgekoppelt ist, und man versucht diese spezielle Autonomie des Denkens und Wollens durch Rückgriff auf quantenphysikalische Überlegungen zu erklären. Möglicherweise sind diese akrobatischen Denküberlegungen nicht notwendig.
  3. Einmal gibt es seit der Einführung des philosophisch-mathematischen Konzepts der Turingmaschine den logisch-mathematischen Beweis, dass selbst das Verhalten einer voll deterministischen endlichen Turingmaschine, deren Beschaffenheit vollständig bekannt ist, prinzipiell nicht in allen Fällen vorausgesagt werden kan; es ist nicht entscheidbar,  was diese Machine im nächsten Schritt tun wird (das berühmte Halteproblem). Wäre also unser Gehirn formal einer Turingmaschine äquivalent (was manche bezweifeln, weil sie glauben, das Gehirn sei komplexer als eine Turingmaschine), dann wäre das Verhalten des Gehirns nicht in allen Fällen voraussagbar. Wäre das Gehirn noch komplexer, würde sich jede Aussage über ein mögliches Verhalten erübrigen; wir wüssten nicht einmal, wie wir die Frage formulieren sollten.
  4. Zum anderen impliziert ja der Begriff der Emergenz, dass sich das komplexe Phänomen gerade nicht aus seinen Bestandteilen ableiten lässt, sonst hätten wir gar kein emergentes Phänomen. Genauso wenig, wie man aus den logischen Gattern eines Computers irgendeine der komplexen Verhaltensweisen ableiten könnte, die die Programmierung für die Benutzer zur Verfügung stellen, genauso (und noch viel weniger) kann man aus den Neuronen des Gehirns seine erfahrbare komplexe Funktionalität ableiten. Es ist eben so, dass bei einem emergenten Phänomen die simultane Koexistenz der Bestandteile eine Funktionalität sichtbar und möglich macht, die originär ist, nicht herleitbar und erklärbar aus seinen Bestandteilen. Die vielen Diskussionen um Willensfreiheit und deren Infragestellung durch Messungen elektrischer Potentiale einzelner Neuronen ist in diesem Kontext theoretisch absurd und lächerlich.
  5. Dieses hier unterstellte Verständnis von Emergenz wirft allerdings ein neues Licht auf die ganze Frage von Bewusstsein und Geist im philosophischen Sinne.
  6. Generell ist es zwar schwierig, überhaupt über Geist zu reden, da die vielen philosophischen Texte mit so unterschiedlichen Begriffen, Methoden und Blickweisen operieren, aber jeder kann ja sein eigenes Bewusstsein betrachten, seine eigene Geistigkeit, und an dieser ablesen, dass alle unsere Vorstellungs- und Denkinhalte so sind, dass man von diesen in keiner Weise auf die Art ihrer Hervorbringung, nämlich durch eine komplexe neuronale Maschinerie, schließen kann. Das Bewusstsein bildet ein geschlossenes System von Phänomenen, die einer eigenen Logik folgen, die sich zwar eines Körpers und einer unterstellten Außenwelt bedienen kann, aber zugleich in einer speziellen Weise autonom ist: prinzipiell kann alles gedacht werden, alles kann abgeändert werden, alles kann gewollt werden. Im Bewusstsein, im menschlichen Geist, erscheint alles beliebig klein oder groß, alles erscheint möglich. Man kann sogar die ermöglichende materielle Welt als solche untersuchen, beschreiben, neu denken, abändern. Jeder Versuch, diese Phänomene des Bewusstseins, des menschlichen Geistes, auf die ermöglichenden materiellen Bestandteile, zu reduzieren, ist vollständig unsinnig, geradezu absurd.

AGENCY, WERTE

  1. Es ist vor diesem Hintergrund nicht verwunderlich, dass Kauffman in all den emergenten Phänomenen des Lebens – beginnend bei der einfachsten Zelle – eine neue Qualität von Realität am Werke sieht, die er Agentenschaft (‚agency‘) nennt, eine Struktur des autonomen Handelns, die sich in diesem Handeln in keiner Weise mit physikalischen Gesetzen voraussagen lässt. Im Lichte dieser neuen universellen biologischen Agentenschaft werden die bloßen Fakten eingebettet in Verhaltensdynamiken, die nicht mehr nur und alleine von den beschreibbaren Fakten bestimmt/ determiniert sind, sondern die aufgrund ihrer jeweiligen Autonomie neue Zusammenhänge, neue Bewertungen der Fakten sichtbar machen, die die Bedeutung von Fakten für mögliche Lebensprozesse generieren, die als Anhaltspunkte für eine universelle Bewertung von Leben auf der Erde bzw. im ganzen Universum dienen können. Diese neue Form von Bewertungen jenseits bloßer Fakten kann man Werte nennen.
  2. In der bekannten Kulturgeschichte des hss finden sich immer und überall unterschiedliche Bewertungen (Werte) von Verhaltensweisen. Zum Teil kann man ihre Verwurzelung in konkreten Lebensabläufen nach vollziehen, z.T wurden sie aber daraus losgelöst und mit speziellen Autoritäten (oft mit den Namen von Göttern) verknüpft, um ihnen eine über die momentane Situation hinausgehende Geltung zu verschaffen. So verständlich diese Überhöhung von Geltungen für manche Interessengruppen sein mag, auf lange Sicht sind sie lebensfeindlich, da sie die konkreten Bedingungen ihrer Geltung verwischen und sie damit einer notwendigen Transparenz und Kritisierbarkeit entziehen. Emergente Lebensprozesse brauchen Erkenntnisse über lebensfördernde oder lebensfeindliche Wirkungen von Verhalten. Entzieht man diese Erkenntnisse der direkten Kontrolle (durch unhinterfragbare Autoritäten), dann macht man emergente Lebensprozesse blind. Alle bekannten Religionen haben sich dieser Werteverschleierung schuldig gemacht. Alle bekannten Diktaturen benutzen die Methode der Werteverschleierung, um ihren speziellen, letztlich lebensfeindlichen, Prozesse zu begründen. Leider muss man die Wissenschaft, sofern sie reduktiv argumentiert, hier einbeziehen. Durch reduktive Denkstrategien werden nahezu alle lebenswichtigen emergente Phänomene verbal, denkerisch (zum Glück nicht ontologisch) vernichtet.

HEILIGER STUART KAUFFMAN 🙂

  1. Wenn man bedenkt, welch harten Denkweg Start Kauffman von der Physik, Molekularbiologie, Komplexitätstheorie – um nur die wichtigsten Felder zu nennen – hin zu den emergenten Phänomenen zurückgelegt hat, und dann sieht, wie er viele wichtigen emergenten Phänomene (auch Bewusstsein, auch Spiritualität) dem wissenschaftlichen Denken wieder zugeführt hat, dann kommt ihm – aus meiner Sicht – eine große Ehrung zu. Es dürfte nicht all zu viele geben, die ihm in dieser Rolle, in diesem umfassend komplexen Denken mit Offenheit für die emergenten Phänomene, gleich tun. Das eben gehört zum Wunder von Agency, von lebensbasierter Spiritualität, von Emergenz, von menschlicher Geistigkeit.

Eine Übersicht über alle Blogeinträge von cagent nach Titeln findet sich HIER.

Buch: Die andere Superintelligenz. Oder: schaffen wir uns selbst ab? – Kapitel 4-neu

VORBEMERKUNG: Der folgende Text ist ein Vorabdruck zu dem Buch Die andere Superintelligenz. Oder: schaffen wir uns selbst ab?, das im November 2015 erscheinen soll.

Wie alles anfing

Die Überlegungen im vorausgehenden Kapitel beziehen sich auf das, was heute ist, auf die Gegenwart. Wie können z.B. Philosophen die Innensicht ihres Bewusstseins beschreiben; wie können Psychologen das beobachtbare Verhalten untersuchen. Was können die Gehirnforscher über die Struktur und die Funktionen des Gehirns feststellen. Diese Aufgabe ist groß genug, dass man damit mehr als ein Leben ausfüllen kann. Hätte man diese Beschreibungsaufgaben vollständig erfüllt — bislang fehlt da noch einiges –, würden dennoch wichtige Teile am Bild fehlen, vielleicht sogar die wichtigsten, ohne die das Ganze nicht verständlich ist: der reale Entstehungsprozess; wie es zum heutigen Zustand kommen konnte? Wie ist es möglich, dass sich solch komplexen Strukturen im Universum, als Leben auf der Erde herausbilden konnten, ohne dass man eine ‚äußere‘ Einwirkung erkennen kann? Was soll das Ganze? Wohin wird dies führen? Wohin kann dies führen? Welche Rolle spielen wir Menschen dabei? Sind wir nur eines von vielen vorübergehenden Phänomenen des Lebens, das wieder vergehen wird, bevor es bemerkt wurde?

Zeichen der Veränderung

Beginnend mit dem 19.Jahrhundert kam es in Westeuropa zu grundlegenden Änderungen im bis dahin vorwiegend christlich-biblisch geprägten Menschen- und Weltbild. Immer mehr Phänomene in der Veränderung von Lebensformen im Kontext unterschiedlicher Ablagerungsschichten im Gestein und Erdreich wurden entdeckt (Anmerkung: Aus meiner Sicht ein sehr hilfreiches Buch für diese Zeit ist u.a. Peter J.Bowler, „Evolution. The History of an Idea“, Berkeley, Los Angeles (CA): University of California Press, 1983, rev.ed. 1989).

Im Falle der Fossilien waren es berühmte Naturforscher wie z.B. Cuvier (1769 — 1832) , Étienne Geoffroy Saint-Hilaire (1772 – 1844) und Charles Robert Darwin (1809 — 1882), die neben der Vielfalt auch die Veränderungen in den unterschiedlichsten geologischen Schichten erkannten. Im Fall der geologischen Schichten waren es Männer wie William Smith (1769 — 1839), Roderick Impey Murchison (1792 — 1871), Adam Sedgwick (1785 — 1873), John Phillips (1800 – 1874) und Charles Lyell (1797 — 1875), die es schafften, erste Klassifikation von Erdschichten und deren chronologischer Abfolge mit Korrelation zu Fossilien aufzustellen. Insgesamt entstanden durch viele verschiedene, z.T. kontrovers diskutierte, Untersuchungen die ersten Umrisse eines Bildes, in dem die aktuelle Gestalt der Erde und der Lebensformen eine Folge von Veränderungen, eine Geschichte, beinhalten. Die Details dieser Geschichte (Vulkanismus, Klimaänderungen, Plattentecktonik, Baupläne,…) waren in ihren genauen Wirkungen lange Zeit zwar nicht eindeutig entscheidbar, ‚dass‘ die Erde und das Leben auf der Erde aber Veränderungen durchlaufen hatten und immer noch durchlaufen, das erschien jedoch immer mehr unabweislich.

Wie lange zurück reichte diese Geschichte? Neue thermodynamische Überlegungen von William Thomson, besser bekannt als Lord Kelvin (1824 – 1907), schränkten den zur Verfügung stehenden absoluten Zeitraum für die Entwicklung der Erde und des gesamten Universums im Laufe seines Lebens immer mehr ein, schließlich bis auf eine zweistellige Millionenzahl. Wie viele seiner Zeitgenossen ging er davon aus, dass die Erde und die Sonne sich kontinuierlich abkühlen, ohne dass neue Energie zur Verfügung steht, die dieser Abkühlung entgegen wirken könnte. Es brauchte die ersten Jahrzehnte des 20.Jh. um mit Hilfe der neuen Erkenntnisse aus der (Nuklear-)Physik bzw. aus dem Spezialgebiet der Teilchenphysik verstehen zu können, dass Sterne und Planeten eigene Energievorräte besitzen und über Prozesse verfügen, durch die diese Energie in Form von beobachtbaren Veränderungen (Sonnenstrahlen, Klima, Vulkanismus, Erdbeben, …) wirksam werden können.

Immer kleiner

1905 hatte Albert Einstein ganz allgemein u.a. die Äquivalenz von Masse und Energie mit seiner bekannten Formel E=mc^{2} aufgezeigt, es brauchte aber noch weiterer gehöriger Anstrengungen, bis im Februar 1939 Lise Meitner (1878 – 1968) eine theoretische Beschreibung des ersten Kernspaltungs-Experiments veröffentlichen konnte, das Otto Hahn Ende Dezember 1938 zusammen mit seinem Assistent Fritz Straßman durchgeführt hatte. Im gleichen Jahr konnte Hans Albrecht Bethe (1906 – 2005) sein theoretisches Modell der Kernfusionsprozesse in der Sonne veröffentlichen (für die er 1967 den Nobelpreis bekam). Damit war die Tür zur Erkenntnis der verborgenen Energie in der Materie, in den Sternen, im Universum soweit geöffnet, dass dem Forscher ein glutheißer Atem entgegen schlug.

Es folgten stürmische Jahre der vertiefenden Erforschung der nuklearen Zusammenhänge, stark geprägt von den militärisch motivierten Forschungen zum Bau von Nuklearwaffen. Immer mehr Teilchen wurden im Umfeld des Atoms entdeckt, bis es dann ab den 70iger Jahren des 20.Jh zum sogenannten Standardmodell kam.

Obwohl sich dieses Standardmodell bislang in vielen grundlegenden Fragen sehr bewährt hat, gibt es zahlreiche fundamentale Phänomene (z.B. die Gravitation, die Expansion des Universums, dunkle Materie), für die das Modell noch keine erschöpfende Erklärung bietet.

Big Bang – Zeitpunkt Null

Ausgestattet mit den Erkenntnissen der modernen Physik lassen sich die Hypothesen aus dem 19.Jahrhundert zur Welt als Prozess ausdehnen auf das ganze Universum. Fasst man alle heutigen Erkenntnisse zusammen, wie dies in der sogenannten
Big Bang Theorie geschieht, nach 1990 gefasst als Lambda-CDM-Modell, führt dies auf ein Ereignis vor jeder physikalisch messbaren Zeit zurück. Ein solches Ereignis gilt den Physikern als eine Singularität. Da es im Universum auch andere Formen von Singularitäten gibt, nenne ich jene Singularität, mit der das bekannte Universum begann, hier die erste Singularität.

Durch die Weiterentwicklung der Relativitätstheorie von Albert Einstein konnten Stephen William Hawking (geb.1942),
George Francis Rayner Ellis (geb.1939) und Roger Penrose (geb.1931) aufzeigen, dass die Größen Raum und Zeit mit der ersten Singularität beginnen.

Von heute aus gesehen trat die erste Singularität vor 13.8 Mrd Jahren auf. Beginnend mit einer unendlich extremen Dichte und Hitze begann aus dem Ereignis heraus eine Ausdehnung (Raum und Zeit), die begleitet war von einer zunehmenden Abkühlung. Gleichzeitig kam es zur Herausbildung von subatomaren Teilchen, aus denen sich einfache Atome formten (Anmerkung: Die Entstehung der ersten Atome wird in der Zeitspanne 10 Sek – 20 Min verortet.). Gigantische Ansammlungen dieser ersten Elemente führten dann aufgrund der Gravitation zu Verdichtungen, aus denen Sterne und Galaxien hervorgingen (Anmerkung: Erste Sterne, die das dunkle Weltall erleuchteten werden nach ca. 100 Mio Jahren angenommen. Erste Galaxien etwa 1 Mrd Jahre später.). In den Sternen fanden Kernfusionsprozesse statt, die im Gefolge davon zur Bildung von immer schwereren Atomen führten. Ferner wird seit etwa 6.5 Mrd Jahren eine Beschleunigung bei der Ausdehnung des Universums beobachtet. Man vermutet, dass dies mit der ‚dunklen Energie‘ zu tun hat. Viele Fragen sind offen. Nach letzten Messungen geh man davon aus, dass das bekannte Universums zu 73% aus dunkler Energie besteht, zu 23% aus dunkler Materie, zu 4.6% aus ’normaler‘ Materie und zu weniger als 1% aus Neutrinos (Anmerkung: Jarosik, N. et al. (WMAP Collaboration) (2011). „Seven-Year Wilkinson Microwave Anisotropy Probe (WMAP) Observations: Sky Maps, Systematic Errors, and Basic Results“. NASA/GSFC. p. 39, Table 8. Retrieved 4 December 2010).

Fortsetzung mit Kapitel 5

Einen Überblick über alle Blogbeiträge des Autors cagent nach Titeln findet sich HIER.

SASCHA LOBO: DIE DIGITALE KRÄNKUNG DES MENSCHEN – Eine Nachbemerkung

1) Am 12.Januar2014 erschien im Feuilleton der FAZ auf S.37 ein Beitrag von Sascha Lobo mit der Überschrift ‚Die digitale Kränkung des Menschen‘. Im Kern läuft sein Beitrag auf die Aussage hinaus — hierin Freud folgend –, dass nach den drei großen Kränkungen der Menschheit durch Kopernikus (1473-1543) (Erde nicht im Zentrum), Darwin (1809-1882)(Mensch ist Teil der allgemeinen biologischen Entwicklung), und Freud (1856-1939)(Abhängigkeit des Menschen vom Nicht-Bewussten) nun eine vierte große Kränkung stattgefunden hat, nämlich die ‚digitale Kränkung‘ durch die Entdeckung, dass das Internet, der vermeintlich freie Inkubationsraum einer neuen, globalen freien Gesellschaft, von den Wurzeln her und in all seinen Verästlungen einer vollständigen Überwachung (und auch möglicher Manipulation) durch die NSA — und anderer Geheimdienste — unterliegt.
2) Das Ganze bekommt eine sehr persönliche Note, da er sich damit ‚outet‘, dass er dies nicht nur persönlich als Kränkung empfindet, sondern dass er in diesen Erkenntnissen zugleich auch bei sich selbst eine totale Fehleinschätzung der Situation einräumen muss. Er, der Netzerklärer, fühlt sich vorgeführt, getäuscht, missbraucht. Er unterlässt es nicht, sich als Netzerklärer der Avantgarde zuzurechnen, die es liebt, sich vom ‚durchschnittlichen Bildungsbürger‘ abzugrenzen; zugleich räumt er in der Öffentlichkeit einen Irrtum ein (ein Dritter könnte bei ihm möglicherweise auch eine besondere Spielart von ‚Bildungsbürgertum‘ erkennen, das gerne über Voraussetzungen und Hintergründe hinwegsieht):
3) Denn, dies ist auffällig, bei allem Aufschrei über eine Kränkung, vermisst man eine wirkliche Analyse. Wieso konnte es denn zu solch einem Irrtum kommen? Warum ist das Internet nicht die schöne, heile Welt der Freigeister sondern der Kampfplatz der Geheimdienste?
4) Anstatt Freud einfach nur zu zitieren mit den drei Kränkungen könnte Lobo ja auch diese vorausgegangenen sogenannten ‚Kränkungen‘ hinterfragen. Lobo hätte ja fragen können, ob denn die neuen Erkenntnisse von Kopernikus (und der anderen Wissenschaftler in seinem Gefolge) wirklich eine ‚Kränkung‘ waren oder nicht eher doch eine ‚Befreiung aus der Dunkelheit eines Nichtwissens‘, das sich der Naivität eines Alltagsbewusstseins verdankt, das alles nimmt, wie es ist, anstatt nachzufragen, warum das so ist (und darin ein beliebiger Spielball der aktuell Mächtigen).
5) Ferner hätte Lobo fragen können, ob die Einsichten von Darwin (und vieler anderer) nicht ebenfalls eine Befreiung aus einer tiefen Finsternis von Unkenntnis waren, indem er (mit vielen anderen) aufdecken konnte, dass es zwischen den Lebensformen zu unterschiedlichen Zeitpunkten kausale Verbindungen gibt, die bis in die frühesten Zeiten des Lebens auf dem Planeten Erde zurückweisen. Wiederum waren es Unwissenheit, durch Religionen motivierte Vorurteile und Machtinteressen, die diese Einsichten ‚unpassend‘ fanden, ’störend‘, ‚gefährlich‘, ein Abwehrverhalten, das bis heute anhält (in den USA halten im Jahr 2014 28% der Männer und 38% der Frauen die Evolutionstheorie für falsch).
6) Die Einsichten von Freud in die Abhängigkeit des Bewussten vom Nichtbewussten, heute mehr und mehr vertieft durch das Zusammenwirken von Neurowissenschaften und Psychologie, sind auch nur solange eine Kränkung, als man einem falschen Bild vom Körper, dem Gehirn, dem Psychischen, dem Erkennen anhing. Für Wissenschaftler, Aufklärer und alle ’normalen‘ Menschen kann es wiederum nur eine Befreiung von falschen Bildern über die Welt, insbesondere über den Menschen, sein. Auch das hätte Sascha Lobo hinterfragen können.
7) Würde Lobo den Spuren der Evolutionstheorie folgen, dann würde er u.a. feststellen können, dass die biologische Evolution nur die Fortsetzung einer kosmologischen und chemischen Evolution ist, die sich zu einer kulturellen und technologischen Evolution erweitert haben, innerhalb deren das Internet nur ein kleiner Ausschnitt der Entwicklung darstellt.
8) Ein anderer Ausschnitt wird gebildet von den Systemen der Machtregulierung, die mit den Systemen der neuzeitlichen Demokratien eine sehr innovative und hochkomplexe Form gefunden haben, die sich in einem permanenten ‚Gleichgewichtskampf‘ befinden. Am Beispiel der US-amerikanischen Demokratie kann man beobachten, wie diese seit dem 2.Weltkrieg dabei ist, von ‚innen‘ heraus, von der Exekutive aus, ‚ausgehöhlt‘ bzw. fast ganz ’neutralisiert‘ zu werden. Unter dem alles erschlagenden Motto ‚Nationale Sicherheit‘ wurden und werden nahezu alle Gesetze und Kontrollinstanzen ausgehebelt und parallel wurde ein weltumspannendes imperiales System aufgebaut, das systemisch keinen Spielraum mehr kennt. Dass die USA noch nicht in eine völlige Diktatur abgeglitten sind ist systembedingt nicht zu erklären; irgendwie müssen es viele wunderbare Menschen sein, die das letzte Umkippen aktuell noch verhindern. Die Exekutive selbst lässt nur eine Richtung erkennen: noch mehr Kontrolle ‚von innen‘ und noch weniger Kontrolle ‚von außerhalb‘ des Systems.
9) Diese Vorgänge in den USA sind öffentlich zugänglich und erklären, warum das Internet vor diesem Hintergrund nicht das Internet sein kann, was sich Sascha Lobo wünscht. Warum denkt Lobo darüber nicht nach? Warum interessiert ihn das demokratische System als solches nicht? Das bundesrepublikanische demokratische System hat in den letzten Monaten dramatische Schwachstellen offenbart. Alle zuständigen Stellen — einschließlich der Kanzlerin — haben sich nicht nur einer echten Aufklärung verweigert, sie haben sich selbst auch als radikal anti-demokratisch verhalten. In Sonntagsreden wird vor rechten, linken und muslimischen Fundamentalisten gewarnt, im konkreten Alltag wird aber die demokratische Öffentlichkeit von den gleichen Politikern und politischen Beamten (einschließlich Bundesstaatsanwalt) massiv für Dumm verkauft und geradezu zynisch belogen. So zerstört man eine demokratische Öffentlichkeit und damit auf Dauer nachhaltig eine Demokratie. In Sonntagsreden werden Menschen wie Gandhi, Martin Luther King oder Mandela wegen ihrem Widerstand gegen einen unmenschlichen Staat gefeiert; mit einem Edward Snowden will man aber niemand reden (Lob für Ströbele, der es dennoch tat). So zerstört man Demokratie.
10) Sascha Lobo trauert um den Verlust seiner Unschuld. Immerhin scheint er zu merken, dass seine Spielwiese Internet etwas mit dem Funktionieren oder nicht Funktionieren der Demokratie zu tun hat. Vielleicht führt diese Krise ihn ja dazu, dass er für uns alle künftig für unsere gemeinsame Demokratie mitkämpft. Dann hätte diese Krise ein Gutes. Einer mehr für eine gemeinsame demokratische Zukunft, und damit für ein freies Internet.

SUCHE NACH DEM URSPRUNG UND DER BEDEUTUNG DES LEBENS (Paul Davies). Teil 2 (Information als Grundeigenschaft alles Materiellen?)

Paul Davies, The FIFTH MIRACLE: The Search for the Origin and Meaning of Life, New York:1999, Simon & Schuster

 Fortsetzung von Suche… (Teil 1)

Start: 27.Aug.2012

Letzte Fortsetzung: 1.Sept.2012

  1. Das dritte Kapitel ist überschrieben ‚Out of the Slime‘. (SS.69-96) Es startet mit Überlegungen zur Linie der Vorfahren (Stammbaum), die alle auf ‚gemeinsame Vorfahren‘ zurückführen. Für uns Menschen zu den ersten Exemplaren des homo sapiens in Afrika vor 100.000 Jahren, zu den einige Millionen Jahre zurückliegenden gemeinsamen Vorläufern von Affen und Menschen; ca. 500 Mio Jahre früher waren die Vorläufer Fische, zwei Milliarden Jahre zurück waren es Mikroben. Und diese Rückführung betrifft alle bekannten Lebensformen, die, je weiter zurück, sich immer mehr in gemeinsamen Vorläufern vereinigen, bis hin zu den Vorläufern allen irdischen Lebens, Mikroorganismen, Bakterien, die die ersten waren.(vgl. S.69f)

  2. [Anmerkung: Die Formulierung von einem ‚einzelnen hominiden Vorfahren‘ oder gar von der ‚afrikanischen Eva‘ kann den Eindruck erwecken, als ob der erste gemeinsame Vorfahre ein einzelnes Individuum war. Das scheint mir aber irreführend. Bedenkt man, dass wir ‚Übergangsphasen‘ haben von Atomen zu Molekülen, von Molekülen zu Netzwerken von Molekülen, von Molekülnetzwerken zu Zellen, usw. dann waren diese Übergänge nur erfolgreich, weil viele Milliarden und Abermilliarden von Elementen ‚gleichzeitig‘ beteiligt waren; anders wäre ein ‚Überleben‘ unter widrigsten Umständen überhaupt nicht möglich gewesen. Und es spricht alles dafür, dass dieses ‚Prinzip der Homogenität‘ sich auch bei den ‚komplexeren‘ Entwicklungsstufen fortgesetzt hat. Ein einzelnes Exemplar einer Art, das durch irgendwelche besonderen Eigenschaften ‚aus der Reihe‘ gefallen wäre, hätte gar nicht existieren können. Es braucht immer eine Vielzahl von hinreichend ‚ähnlichen‘ Exemplaren, dass ein Zusammenwirken und Fortbestehen realisiert werden kann. Die ‚Vorgänger‘ sind also eher keine spezifischen Individuen (wenngleich in direkter Abstammung schon), sondern immer Individuen als Mitglieder einer bestimmten ‚Art‘.]

  3. Es ist überliefert, dass Darwin im Sommer 1837, nach der Rückkehr von seiner Forschungsreise mit der HMS Beagle in seinem Notizbuch erstmalig einen irregulär verzweigenden Baum gemalt hat, um die vermuteten genealogischen Zusammenhänge der verschiedenen Arten darzustellen. Der Baum kodierte die Annahme, dass letztlich alle bekannten Lebensformen auf einen gemeinsamen Ursprung zurückgehen. Ferner wird deutlich, dass viele Arten (heutige Schätzungen: 99%) irgendwann ‚ausgestorben‘ sind. Im Falle einzelliger Lebewesen gab es aber – wie wir heute zunehmend erkennen können – auch das Phänomene der Symbiose: ein Mikroorganismus ‚frißt‘ andere und ‚integriert‘ deren Leistung ‚in sich‘ (Beispiel die Mitochondrien als Teil der heute bekannten Zellen). Dies bedeutet, dass ‚Aussterben‘ auch als ‚Synthese‘ auftreten kann.(vgl. SS.70-75)

  4. Die Argumente für den Zusammenhang auf Zellebene zwischen allen bekannten und ausgestorbenen Arten mit gemeinsamen Vorläufern beruhen auf den empirischen Fakten, z.B. dass die metabolischen Verläufe der einzelnen Zellen gleich sind, dass die Art und Weise der genetischen Kodierung und Weitergabe gleich ist, dass der genetische Kode im Detail der gleiche ist, oder ein kurioses Detail wie die molekulare Ausrichtung – bekannt als Chiralität –; obgleich jedes Molekül aufgrund der geltenden Gesetze sowohl rechts- oder linkshändig sein kann, ist die DNA bei allen Zellen ‚rechtshändig‘ und ihr Spiegelbild linkshändig. (vgl.SS.71-73)

  5. Da das DNA-Molekül bei allen bekannten Lebensformen in gleicher Weise unter Benutzung von Bausteinen aus Aminosäure kodiert ist, kann man diese Moleküle mit modernen Sequenzierungstechniken Element für Element vergleichen. Unter der generellen Annahme, dass sich bei Weitergabe der Erbinformationen durch zufällige Mutationen von Generation zur Generation Änderungen ergeben können, kann man anhand der Anzahl der verschiedenen Elemente sowohl einen ‚genetischen Unterschied‘ wie auch einen ‚genealogischen Abstand‘ konstruieren. Der genetische Unterschied ist direkt ’sichtbar‘, die genaue Bestimmung des genealogischen Abstands im ‚Stammbaum‘ hängt zusätzlich ab von der ‚Veränderungsgeschwindigkeit‘. Im Jahr 1999 war die Faktenlage so, dass man annimmt, dass es gemeinsame Vorläufer für alles Leben gegeben hat, die sich vor ca. 3 Milliarden Jahren in die Art ‚Bakterien‘ und ‚Nicht-Bakterien‘ verzweigt haben. Die Nicht-Bakterien haben sich dann weiter verzweigt in ‚Eukaryoten‘ und ‚Archäen‘. (vgl. SS.75-79)

  6. Davies berichtet von bio-geologischen Funden nach denen in de Nähe von Isua (Grönland) Felsen von vor mindestens -3.85 Milliarden Jahren gefunden wurden mit Spuren von Bakterien. Ebenso gibt es Funde von Stromatolythen (Nähe Shark Bay, Australien), mit Anzeichen für Cyanobakterien aus der Zeit von ca. -3.5 Milliarden Jahren und aus der gleichen Zeit Mikrofossilien in den Warrawoona Bergen (Australien). Nach den Ergebnissen aus 1999 hatten die Cyanobakterien schon -3.5 Mrd. Jahre Mechanismen für Photosynthese, einem höchst komplexen Prozess.(vgl. SS.79-81)

  7. Die immer weitere Zurückverlagerung von Mikroorganismen in die Vergangenheit löste aber nicht das Problem der Entstehung dieser komplexen Strukturen. Entgegen der früher verbreiteten Anschauung, dass ‚Leben‘ nicht aus ‚toter Materie‘ entstehen kann, hatte schon Darwin 1871 in einem Brief die Überlegung geäußert, dass in einer geeigneten chemischen Lösung über einen hinreichend langen Zeitraum jene Moleküle und Molekülvernetzungen entstehen könnten, die dann zu den bekannten Lebensformen führen. Aber erst in den 20iger Jahren des 20.Jahrhunderts waren es Alexander Oparin (Rußland) und J.B.S.Haldane (England) die diese Überlegungen ernst nahmen. Statt einem kleinen See,  wie bei Darwin, nahm Haldane an, dass es die Ozeane waren, die den Raum für den Übergangsprozess von ‚Materie‘ zu ‚Leben‘ boten. Beiden Forschern fehlten aber in ihrer Zeit die entscheidende Werkzeuge und Erkenntnisse der Biochemie und Molekularbiologie, um ihre Hypothesen testen zu können. Es war Harold Urey (USA) vorbehalten, 1953 mit ersten Laborexperimenten beginnen zu können, um die Hypothesen zu testen. (vgl. SS.81-86)

  8. Mit Hilfe des Studenten Miller arrangierte Urey ein Experiment, bei dem im Glaskolben eine ‚Mini-Erde‘ bestehend aus etwas Wasser mit den Gasen Methan, Hydrogen und Ammonium angesetzt wurde. Laut Annahme sollte dies der Situation um ca. -4 Millarden Jahren entsprechen. Miller erzeugte dann in dem Glaskolben elektrische Funken, um den Effekt von Sonnenlicht zu simulieren. Nach einer Woche fand er dann verschiedene Amino-Säuren, die als Bausteine in allen biologischen Strukturen vorkommen, speziell auch in Proteinen.(vgl. S.86f)

  9. Die Begeisterung war groß. Nachfolgende Überlegungen machten dann aber klar, dass damit noch nicht viel erreicht war. Die Erkenntnisse der Geologen deuteten in den nachfolgenden Jahren eher dahin, dass die Erdatmosphäre, die die sich mehrfach geändert hatte, kaum Ammonium und Methan enthielt, sondern eher reaktions-neutrales Kohlendioxyd und Schwefel, Gase die keine Aminosäuren produzieren. (vgl.S.87)

  10. Darüber hinaus ist mit dem Auftreten von Aminosäuren als Bausteine für mögliche größere Moleküle noch nichts darüber gesagt, ob und wie diese größere Moleküle entstehen können. Genauso wenig wie ein Haufen Ziegelsteine einfach so ein geordnetes Haus bilden wird, genauso wenig formen einzelne Aminosäuren ‚einfach so‘ ein komplexes Molekül (ein Peptid oder Polypeptid). Dazu muss der zweite Hauptsatz überwunden werden, nach dem ’spontane‘ Prozesse nur in Richtung Energieabbau ablaufen. Will man dagegen komplexe Moleküle bauen, muss man gegen den zweiten Hauptsatz die Energie erhöhen; dies muss gezielt geschehen. In einem angenommenen Ozean ist dies extrem unwahrscheinlich, da hier Verbindungen eher aufgelöst statt synthetisiert werden.(vgl.87-90)

  11. Der Chemiker Sidney Fox erweiterte das Urey-Experiment durch Zufuhr von Wärme. In der Tat bildeten sich dann Ketten von Aminosäurebausteinen die er ‚Proteinoide‘ nannte. Diese waren eine Mischung aus links- und rechts-händigen Molekülen, während die biologisch relevanten Moleküle alle links-händig sind. Mehr noch, die biologisch relevanten Aminosäureketten sind hochspezialisiert. Aus der ungeheuren Zahl möglicher Kombinationen die ‚richtigen‘ per Zufall zu treffen grenzt mathematisch ans Unmögliche.(vgl.S.90f) Dazu kommt, dass eine Zelle viele verschiedene komplexe Moleküle benötigt (neben Proteinen auch Lipide, Nukleinsäuren, Ribosomen usw.). Nicht nur ist jedes dieser Moleküle hochkomplex, sondern sie entfalten ihre spezifische Wirkung als ‚lebendiges Ensemble‘ erst im Zusammenspiel. Jedes Molekül ‚für sich‘ weiß aber nichts von einem Zusammenhang. Wo kommen die Informationen für den Zusammenhang her? (vgl.S.91f) Rein mathematisch ist die Wahrscheinlichkeit, dass sich die ‚richtigen‘ Proteine bilden in der Größenordnung von 1:10^40000, oder, um ein eindrucksvolles Bild des Physikers Fred Hoyle zu benutzen: genauso unwahrscheinlich, wie wenn ein Wirbelsturm aus einem Schrottplatz eine voll funktionsfähige Boeing 747 erzeugen würde. (vgl.S.95)

  12. Die Versuchung, das Phänomen des Lebens angesichts dieser extremen Unwahrscheinlichkeiten als etwas ‚Besonderes‘, als einen extrem glücklichen Zufall, zu charakterisieren, ist groß. Davies plädiert für eine Erklärung als eines ’natürlichen physikalischen Prozesses‘. (S.95f)

  13. Im Kapitel 4 ‚The Message in the Machine‘ (SS.97-122) versucht Davies mögliche naturwissenschaftliche Erklärungsansätze, beginnend bei den Molekülen, vorzustellen. Die Zelle selbst ist so ungeheuerlich komplex, dass noch ein Niels Bohr die Meinung vertrat, dass Leben als ein unerklärbares Faktum hinzunehmen sei (vgl.Anmk.1,S.99). Für die Rekonstruktion erinnert Davies nochmals daran, dass diejenigen Eigenschaften, die ‚lebende‘ Systeme von ’nicht-lebenden‘ Systemen auszeichnen, Makroeigenschaften sind, die sich nicht allein durch Verweis auf die einzelnen Bestandteile erklären lassen, sondern nur und ausschließlich durch das Zusammenspiel der einzelnen Komponenten. Zentrale Eigenschaft ist hier die Reproduktion. (vgl.SS.97-99)

  14. Reproduktion ist im Kern gebunden an das Kopieren von drei-dimensional charakterisierten DNA-Molekülen. Vereinfacht besteht solch ein DNA-Molekül aus zwei komplementären Strängen, die über eine vierelementiges Alphabet von Nukleinsäurebasen miteinander so verbunden sind, dass es zu jeder Nukleinsäurebase genau ein passendes Gegenstück gibt. Fehlt ein Gegenstück, ist es bei Kenntnis des Kodes einfach, das andere Stück zu ergänzen. Ketten von den vierelementigen Basen können ‚Wörter‘ bilden, die ‚genetische Informationen‘ kodieren. Ein ‚Gen‘ wäre dann solch ein ‚Basen-Wort‘. Und das ganze Molekül wäre dann die Summe aller Gene als ‚Genom‘. Das ‚Auftrennen‘ von Doppelsträngen zum Zwecke des Kopierens wie auch das wieder ‚Zusammenfügen‘ besorgen spezialisierte andere Moleküle (Enzyme). Insgesamt kann es beim Auftrennen, Kopieren und wieder Zusammenfügen zu ‚Fehlern‘ (Mutationen) kommen. (vgl.SS.100-104)

  15. Da DNA-Moleküle als solche nicht handlungsfähig sind benötigen sie eine Umgebung, die dafür Sorge trägt, dass die genetischen Informationen gesichert und weitergegeben werden. Im einfachen Fall ist dies eine Zelle. Um eine Zelle aufzubauen benötigt man Proteine als Baumaterial und als Enzyme. Proteine werden mithilfe der genetischen Informationen in der DNA erzeugt. Dazu wird eine Kopie der DNA-Informationen in ein Molekül genannt Boten-RNA (messenger RNA, mRNA) kopiert, dieses wandert zu einem komplexen Molekülnetzwerk genannt ‚Ribosom‘. Ribosomen ‚lesen‘ ein mRNA-Molekül als ‚Bauanleitung‘ und generieren anhand dieser Informationen Proteine, die aus einem Alphabet von 20 (bisweilen 21) Aminosäuren zusammengesetzt werden. Die Aminosäuren, die mithilfe des Ribosoms Stück für Stück aneinandergereiht werden, werden von spezialisierten Transportmolekülen (transfer RNA, tRNA) ‚gebracht‘, die so gebaut sind, dass immer nur dasjenige tRNA-Molekül andocken kann, das zur jeweiligen mRNA-Information ‚passt‘. Sobald die mRNA-Information ‚abgearbeitet‘ ist, liegt eines von vielen zehntausend möglichen Proteinen vor. (vgl.SS. 104-107) Bemerkenswert ist die ‚Dualität‘ der DNA-Moleküle (wie auch der mRNA) sowohl als ‚Material/ Hardware‘ wie auch als ‚Information/ Software‘. (vgl.S.108)

  16. Diese ‚digitale‘ Perspektive vertieft Davies durch weitere Betrachtung und führt den Leser zu einem Punkt, bei dem man den Eindruck gewinnt, dass die beobachtbaren und messbaren Materialien letztlich austauschbar sind bezogen auf die ‚impliziten Strukturen‘, die damit realisiert werden. Am Beispiel eines Modellflugzeugs, das mittels Radiowellen ferngesteuert wird, baut er eine Analogie dahingehend auf, dass die Hardware (das Material) des Flugzeugs wie auch der Radiowellen selbst als solche nicht erklären, was das Flugzeug tut. Die Hardware ermöglicht zwar grundsätzlich bestimmte Flugeigenschaften, aber ob und wie diese Eigenschaften genutzt werden, das wird durch ‚Informationen‘ bestimmt, die per Radiowellen von einem Sender/ Empfänger kommuniziert werden. Im Fall einer Zelle bilden komplexe Molekülnetzwerke die Hardware mit bestimmten verfügbaren chemischen Eigenschaften, aber ihr Gesamtverhalten wird gesteuert durch Informationen, die primär im DNA-Molekül kodiert vorliegt und die als ‚dekodierte‘ Information alles steuert.(vgl. SS.113-115)

  17. [Anmerkung: Wie schon zuvor festgestellt, repräsentieren Atome und Moleküle als solche keine ‚Information‘ ‚von sich aus‘. Sie bilden mögliche ‚Ereignisse‘ E ‚für andere‘ Strukturen S, sofern diese andere Strukturen S auf irgendeine Weise von E ‚beeinflusst‘ werden können. Rein physikalisch (und chemisch) gibt es unterschiedliche Einwirkungsmöglichkeiten (z.B. elektrische Ladungen, Gravitation,…). Im Falle der ‚Information‘ sind es aber nicht nur solche primären physikalisch-chemischen Eigenschaften, die benutzt werden, sondern das ‚empfangende‘ System S befindet sich in einem Zustand, S_inf, der es dem System ermöglicht, bestimmte physikalisch-chemische Ereignisse E als ‚Elemente eines Kodes‘ zu ‚interpretieren. Ein Kode ist minimal eine Abbildungsvorschrift, die Elemente einer Menge X (die primäre Ereignismenge) in eine Bildmenge Y (irgendwelche anderen Ereignisse, die Bedeutung) ‚übersetzt‘ (kodiert), also CODE: X —> Y. Das Materiell-Stoffliche wird damit zum ‚Träger von Informationen‘, zu einem ‚Zeichen‘, das von einem Empfänger S ‚verstanden‘ wird. Im Falle der zuvor geschilderten Replikation wurden ausgehend von einem DNA-Molekül (= X, Ereignis, Zeichen) mittels mRNA, tRNA und Ribosom (= Kode, CODE) bestimmte Proteine (=Y, Bedeutung) erzeugt. Dies bedeutet, dass die erzeugten Proteine die ‚Bedeutung des DNA-Moleküls‘ sind unter Voraussetzung eines ‚existierenden Kodes‘ realisiert im Zusammenspiel eines Netzwerkes von mRNA, tRNAs und Ribosom. Das Paradoxe daran ist, das die einzelnen Bestandteile des Kodes, die Moleküle mRNA, tRNA und Ribosom (letzteres selber hochkomplex) ‚für sich genommen‘ keinen Kode darstellen, nur in dem spezifischen Zusammenspiel! Wenn also die einzelnen materiellen Bestandteile, die Atome und Moleküle ‚für sich gesehen‘ keinen komplexen Kode darstellen, woher kommt dann die Information, die alle diese materiell hochkomplexen Bestandteile auf eine Weise ‚zusammenspielen‘ lässt, die weit über das hinausgeht, was die Bestandteile einzeln ‚verkörpern‘? ]

  18. "Zelle und Turingmaschine"

    zelle_tm

    [Anmerkung: Es gibt noch eine andere interssante Perspektive. Das mit Abstand wichtigste Konzept in der (theoretischen) Informatik ist das Konzept der Berechenbarkeit, wie es zunächst von Goedel 1931, dann von Turing in seinem berühmten Artikel von 1936-7 vorgelegt worden ist. In seinem Artikel definiert Turing das mathematische (!) Konzept einer Vorrichtung, die alle denkbaren berechenbaren Prozesse beschreiben soll. Später gaben andere dieser Vorrichtung den Namen ‚Turingmaschine‘ und bis heute haben alle Beweise immer nur dies eine gezeigt, dass es kein anderes formales Konzept der intuitiven ‚Berechenbarkeit‘ gibt, das ’stärker‘ ist als das der Turingmaschine. Die Turingmaschine ist damit einer der wichtigsten – wenn nicht überhaupt der wichtigste — philosophischen Begriff(e). Viele verbinden den Begriff der Turingmaschine oft mit den heute bekannten Computern oder sehen darin die Beschreibung eines konkreten, wenngleich sehr ‚umständlichen‘ Computers. Das ist aber vollständig an der Sache vorbei. Die Turingmaschine ist weder ein konkreter Computer noch überhaupt etwas Konkretes. Genau wie der mathematische Begriff der natürlichen Zahlen ein mathematisches Konzept ist, das aufgrund der ihm innewohnenden endlichen Unendlichkeit niemals eine reale Zahlenmenge beschreibt, sondern nur das mathematische Konzept einer endlich-unendlichen Menge von abstrakten Objekten, für die die Zahlen des Alltags ‚Beispiele‘ sind, genauso ist auch das Konzept der Turingmaschine ein rein abstraktes Gebilde, für das man konkrete Beispiele angeben kann, die aber das mathematische Konzept selbst nie erschöpfen (die Turingmaschine hat z.B. ein unendliches Schreib-Lese-Band, etwas, das niemals real existieren kann).
    ]

  19. [Anmerkung: Das Interessante ist nun, dass man z.B. die Funktion des Ribosoms strukturell mit dem Konzept einer Turingmaschine beschreiben kann (vgl. Bild). Das Ribosom ist jene Funktionseinheit von Molekülen, die einen Input bestehend aus mRNA und tRNAs überführen kann in einen Output bestehend aus einem Protein. Dies ist nur möglich, weil das Ribosom die mRNA als Kette von Informationseinheiten ‚interpretiert‘ (dekodiert), die dazu führen, dass bestimmte tRNA-Einheiten zu einem Protein zusammengebaut werden. Mathematisch kann man diese funktionelle Verhalten eines Ribosoms daher als ein ‚Programm‘ beschreiben, das gleichbedeutend ist mit einer ‚Funktion‘ bzw. Abbildungsvorschrift der Art ‚RIBOSOM: mRNA x tRNA —> PROTEIN. Das Ribosom stellt somit eine chemische Variante einer Turingmaschine dar (statt digitalen Chips oder Neuronen). Bleibt die Frage, wie es zur ‚Ausbildung‘ eines Ribosoms kommen kann, das ’synchron‘ zu entsprechenden mRNA-Molekülen die richtige Abbildungsvorschrift besitzt.
    ]
  20. Eine andere Blickweise auf das Phänomen der Information ist jene des Mathematikers Chaitin, der darauf aufmerksam gemacht hat, dass man das ‚Programm‘ eines Computers (sein Algorithmus, seine Abbildungsfunktion, seine Dekodierungsfunktion…) auch als eine Zeichenkette auffassen kann, die nur aus Einsen und Nullen besteht (also ‚1101001101010..‘). Je mehr Wiederholungen solch eine Zeichenkette enthalten würde, um so mehr Redundanz würde sie enthalten. Je weniger Wiederholung, um so weniger Redundanz, um so höher die ‚Informationsdichte‘. In einer Zeichenkette ohne jegliche Redundanz wäre jedes einzelne Zeichen wichtig. Solche Zeichenketten sind formal nicht mehr von reinen zufallsbedingten Ketten unterscheidbar. Dennoch haben biologisch nicht alle zufälligen Ketten eine ’nützliche‘ Bedeutung. DNA-Moleküle ( bzw. deren Komplement die jeweiligen mRNA-Moleküle) kann man wegen ihrer Funktion als ‚Befehlssequenzen‘ als solche binär kodierten Programme auffassen. DNA-Moleküle können also durch Zufall erzeugt worden sein, aber nicht alle zufälligen Erzeugungen sind ’nützlich‘, nur ein verschwindend geringer Teil.  Dass die ‚Natur‘ es geschafft hat, aus der unendlichen Menge der nicht-nützlichen Moleküle per Zufall die herauszufischen, die ’nützlich‘ sind, geschah einmal durch das Zusammenspiel von Zufall in Gestalt von ‚Mutation‘ sowie Auswahl der ‚Nützlichen‘ durch Selektion. Es stellt sich die Frage, ob diese Randbedingungen ausreichen, um das hohe Mass an Unwahrscheinlichkeit zu überwinden. (vgl. SS. 119-122)
  21. [Anmerkung: Im Falle ‚lernender‘ Systeme S_learn haben wir den Fall, dass diese Systeme einen ‚Kode‘ ‚lernen‘ können, weil sie in der Lage sind, Ereignisse in bestimmter Weise zu ‚bearbeiten‘ und zu ’speichern‘, d.h. sie haben Speichersysteme, Gedächtnisse (Memory), die dies ermöglichen. Jedes Kind kann ‚lernen‘, welche Ereignisse welche Wirkung haben und z.B. welche Worte was bedeuten. Ein Gedächtnis ist eine Art ‚Metasystem‘, in dem sich ‚wahrnehmbare‘ Ereignisse E in einer abgeleiteten Form E^+ so speichern (= spiegeln) lassen, dass mit dieser abgeleiteten Form E^+ ‚gearbeitet‘ werden kann. Dies setzt voraus, dass es mindestens zwei verschiedene ‚Ebenen‘ (layer, level) im Gedächtnis gibt: die ‚primären Ereignisse‘ E^+ sowie die möglichen ‚Beziehungen‘ RE, innerhalb deren diese vorkommen. Ohne dieses ‚Beziehungswissen‘ gibt es nur isolierte Ereignisse. Im Falle multizellulärer Organismen wird diese Speicheraufgabe durch ein Netzwerk von neuronalen Zellen (Gehirn, Brain) realisiert. Der einzelnen Zelle kann man nicht ansehen, welche Funktion sie hat; nur im Zusammenwirken von vielen Zellen ergeben sich bestimmte Funktionen, wie z.B. die ‚Bearbeitung‘ sensorischer Signale oder das ‚Speichern‘ oder die Einordnung in eine ‚Beziehung‘. Sieht man mal von der spannenden Frage ab, wie es zur Ausbildung eines so komplexen Netzwerkes von Neuronen kommen konnte, ohne dass ein einzelnes Neuron als solches ‚irgend etwas weiß‘, dann stellt sich die Frage, auf welche Weise Netzwerke von Molekülen ‚lernen‘ können.  Eine minimale Form von Lernen wäre das ‚Bewahren‘ eines Zustandes E^+, der durch ein anderes Ereignis E ausgelöst wurde; zusätzlich müsste es ein ‚Bewahren‘ von Zuständen geben, die Relationen RE zwischen primären Zuständen E^+ ‚bewahren‘. Solange wir es mit frei beweglichen Molekülen zu tun haben, ist kaum zu sehen, wie es zu solchen ‚Bewahrungs-‚ sprich ‚Speicherereignissen‘ kommen kann. Sollte es in irgend einer Weise Raumgebiete geben, die über eine ‚hinreichend lange Zeit‘ ‚konstant bleiben, dann wäre es zumindest im Prinzip möglich, dass solche ‚Bewahrungsereignisse‘ stattfinden. Andererseits muss man aber auch sehen, dass diese ‚Bewahrungsereignisse‘ aus Sicht eines möglichen Kodes nur möglich sind, wenn die realisierenden Materialien – hier die Moleküle bzw. Vorstufen zu diesen – physikalisch-chemische Eigenschaften aufweisen, die grundsätzlich solche Prozesse nicht nur ermöglichen, sondern tendenziell auch ‚begünstigen‘, und dies unter Berücksichtigung, dass diese Prozesse ‚entgegen der Entropie‘ wirken müssen. Dies bedeutet, dass — will man keine ‚magischen Kräfte‘ annehmen —  diese Reaktionspotentiale schon in den physikalisch-chemischen Materialien ‚angelegt‘ sein müssen, damit sie überhaupt auftreten können. Weder Energie entsteht aus dem Nichts noch – wie wir hier annehmen – Information. Wenn wir also sagen müssen, dass sämtliche bekannte Materie nur eine andere Zustandsform von Energie ist, dann müssen wir vielleicht auch annehmen, dass alle bekannten ‚Kodes‘ im Universum nichts anderes sind als eine andere Form derjenigen Information, die von vornherein in der Energie ‚enthalten‘ ist. Genauso wie Atome und die subatomaren Teilchen nicht ’neutral‘ sind sondern von vornherein nur mit charakteristischen (messbaren) Eigenschaften auftreten, genauso müsste man dann annehmen, dass die komplexen Kodes, die wir in der Welt und dann vor allem am Beispiel biologischer Systeme bestaunen können, ihre Wurzeln in der grundsätzlichen ‚Informiertheit‘ aller Materie hat. Atome formieren zu Molekülen, weil die physikalischen Eigenschaften sie dazu ‚bewegen‘. Molkülnetzwerke entfalten ein spezifisches ‚Zusammenspiel‘, weil ihre physikalischen Eigenschaften das ‚Wahrnehmen‘, ‚Speichern‘ und ‚Dekodieren‘ von Ereignissen E in einem anderen System S grundsätzlich ermöglichen und begünstigen. Mit dieser Annahme verschwindet ‚dunkle Magie‘ und die Phänomene werden ‚transparent‘, ‚messbar‘, ‚manipulierbar‘, ‚reproduzierbar‘. Und noch mehr: das bisherige physikalische Universum erscheint in einem völlig neuen Licht. Die bekannte Materie verkörpert neben den bislang bekannten physikalisch-chemischen Eigenschaften auch ‚Information‘ von ungeheuerlichen Ausmaßen. Und diese Information ‚bricht sich selbst Bahn‘, sie ‚zeigt‘ sich in Gestalt des Biologischen. Das ‚Wesen‘ des Biologischen sind dann nicht die ‚Zellen als Material‘, das Blut, die Muskeln, die Energieversorgung usw., sondern die Fähigkeit, immer komplexer Informationen aus dem Universum ‚heraus zu ziehen, aufzubereiten, verfügbar zu machen, und damit das ‚innere Gesicht‘ des Universums sichtbar zu machen. Somit wird ‚Wissen‘ und ‚Wissenschaft‘ zur zentralen Eigenschaft des Universums samt den dazugehörigen Kommunikationsmechanismen.]

  22. Fortsetzung Teil 3

Einen Überblick über alle bisherigen Themen findet sich HIER

Zitierte  Literatur:

Chaitin, G.J. Information, Randomness & Incompleteness, 2nd ed.,  World Scientific, 1990

Turing, A. M. On Computable Numbers with an Application to the Entscheidungsproblem. In: Proc. London Math. Soc., Ser.2, vol.42(1936), pp.230-265; received May 25, 1936; Appendix added August 28; read November 12, 1936; corr. Ibid. vol.43(1937), pp.544-546. Turing’s paper appeared in Part 2 of vol.42 which was issued in December 1936 (Reprint in M.DAVIS 1965, pp.116-151; corr. ibid. pp.151-154).

 Interessante Links:

Ein Video in Youtube, das eine Rede von Pauls Davies dokumentiert, die thematisch zur Buchbesprechung passt und ihn als Person etwas erkennbar macht.

Teil 1:
http://www.youtube.com/watch?v=9tB1jppI3fo

Teil 2:
http://www.youtube.com/watch?v=DXXFNnmgcVs

Teil 3:
http://www.youtube.com/watch?v=Ok9APrXfIOU

Teil 4:
http://www.youtube.com/watch?v=vXqqa1_0i7E

Part 5:
http://www.youtube.com/watch?v=QVrRL3u0dF4
Es gibt noch einige andere Videos mit Paul Davies bei Youtube.