Archiv der Kategorie: Bedeutung – abstraktes Konstrukt

AVICENNAS ABHANDLUNG ZUR LOGIK – Teil 3

VORGESCHICHTE

1. In einem ersten Beitrag AVICENNAS ABHANDLUNG ZUR LOGIK – Teil 1 hatte ich geschildert, wie ich zur Lektüre des Textes von Avicenna gekommen bin und wie der Text grob einzuordnen ist.
2. In einem zweiten Beitrag AVICENNAS ABHANDLUNG ZUR LOGIK – Teil 2 ging es um die Frage, warum überhaupt Logik? Avicenna führt erste Unterscheidungen zu verschiedenen Wissensformen ein, lässt aber alle Detailfragen noch weitgehend im Dunkeln.
In diesem Teil geht es jetzt um einfache und zusammengesetzte Begriffe.

AUSDRÜCKE: EINFACH UND ZUSAMMENGESETZT

3. In Weiterführung seiner Redeweise von sprachlich vermitteltem Wissen $latex K_{m}$ verstanden als ein Paar bestehend aus einem Bündel von sinnlichen Eindrücken $latex k \subseteq K_{s}$ einerseits und einem Ausdruck $latex e \in E, E \subseteq K_{s}$ andererseits, also m(k,e), führt er jetzt die Unterscheidung von ‚einfachen‘ und ‚zusammengesetzten‘ Ausdrücken ein. Der Ausdruck ‚einfach‘ bezieht sich dabei auf die Menge der ‚Bedeutungsbeziehungen‘, in denen ein Ausdruck e vorkommt. Kommt der Ausdruck e nur in einer Bedeutungsbeziehung vor, also m(k,e), dann ist er einfach. Kann man aber einen Ausdruck e zerlegen, so dass einzelnen Teilen $latex e_{i}$ jeweils eine eigene Bedeutungsbeziehung zugewiesen werden kann, dann ist er ‚zusammengesetzt‘, also etwa $latex e = \langle e_{1}, …, e_{n} \rangle$ mit $latex m_{1}(k_{1}, e_{1}), … m_{n}(k_{n}, e_{n})$.

EINFACHE AUSDRÜCKE: INDIVIDUELL ODER UNIVERSELL

4. Avicenna führt dann noch die weitere Unterscheidung ein, dass ‚einfache Ausdrücke‘ entweder ‚individuell‘ sein können oder ‚universell‘.

5. Er motiviert diese neuen Begriffe so, dass er sagt, dass ein einfacher Ausdruck e mit m(k,e) nur eine einzige Entität (‚entity‘) bezeichne, wohingegen ein einfacher Ausdruck m(k*,e), der als ‚universell‘ gilt, mit seiner Bedeutungskomponente ‚k*‘ viele Entitäten (‚many entities‘) bezeichne.

DISKUSSION

6. So einfach diese neuen Begriffe ‚einfach/ zusammengesetzt‘ sowie bei ‚einfach zusätzlich ‚individuell/ universell‘ klingen, so stehen sie für ein Geflecht von Problemen, das dies heute nicht als gelöst gelten kann.

7. Wie schon in der Diskussion von Teil 2 deutlich wurde, setzt die Diskussion der Unterscheidung der verschiedenen Wissensformen einen begrifflichen Rahmen voraus, der letztlich auf generelle Annahmen zum erkennen Subjekt hinausläuft, wie es etwa im Rahmen einer Erkenntnistheorie geleistet werden könnte, also ein abstraktes Modell eines erkennenden Subjektes, das den formalen Rahmen liefert, innerhalb dessen dann über spezielle Sachverhalte wie ’sprachliches‘ oder ‚logisches‘ Wissen gesprochen werden kann.

8. Schon die Einführung der Unterscheidung von sprachlichen Ausdrücken $latex E \subseteq K_{s}$, die in einer ‚Bedeutungsbeziehung‘ M zu anderen sinnlichen Ereignissen $latex K_{s} \subseteq K$ stehen, können als $latex M \subseteq K_{s} \times E$, wirft eigentlich zusätzliche Fragen auf, die bislang von Avicenna nicht geklärt wurden.

9. Nun zu sagen, dass ein einfacher Ausdruck e in genau einer Bedeutungsbeziehung m stehe, und die darin vorkommenden sinnlichen Ereignisse k genau ‚eine Entität‘ bezeichnen, legt die Vorstellung nahe, dass bestimmten Mustern sinnlicher Ereignisse k etwas ‚Abstrakteres‘ korrespondiert, nämlich ein ‚Objekt‘ o mit $latex o \in O$. Daraus würde folgen, dass die Bedeutungsbeziehung möglicherweise nicht direkt auf Muster k von sinnlichen Ereignissen abzielt, sondern auf abstrakte Objekte O, die aus den sinnlichen Mustern k durch einen Abstraktionsprozess $latex \alpha$ erzeugt werden; also $latex \alpha: KS \longrightarrow O$ und $latex M \subseteq O \times E$.

10. Nimmt man diese Interpretation an, dann ließe sich der Fall von ‚einfachen‘ Ausdrücken, die bedeutungsmäßig ‚universell‘ sind, so rekonstruieren, dass sich im Bereich der abstrakten Objekte O mehr als eine ‚Abstraktionsebene‘ denken lässt. Analog der Whitehead-Russelschen Typentheorie aus den Principia Mathematica gibt es dann Abstraktionsebenen von 1 bis n, und ein Objekt auf der Ebene j könnte alle Objekte von Abstraktionsebenen ‚kleiner als j‘ als ‚Instanzen‘ haben.

11. Dazu müsste man die Abstraktionsfunktion ein wenig verallgemeinern zu $latex \alpha: KS \cup O \longrightarrow O$, und man müsste sich noch die Hierarchie der Ebenen ‚dazudenken‘.

12. Beispiel: auf dem Tisch stehen verschiedene konkrete, einzelne Tassen $latex \{ t_{1}, …, t_{r} \}$; diese repräsentieren einzelne Entitäten (Ebene 1). Dazu gibt es den abstrakteren Begriff ‚Tasse‘ auf einer Ebenen 2. Auf dem Tisch befinden sich aber auch noch andere Gegenstände, z.B. ‚Teller‘, ‚Bestecke‘ usw. Die Begriffe ‚Teller‘ und ‚Besteck‘ bezeichnen Objekte der Ebene 2. Man könnte jetzt von diesen unterschiedlichen Objektarten weiter ‚abstrahieren‘ und z.B. den Begriff ‚Frühstücksgegenstände‘ auf Ebene 3 einführen. Die konkreten Tassen sind Instanzen des Begriffs ‚Tasse‘; die Begriffe ‚Tasse‘, ‚Teller‘, ‚Besteck‘ sind Instanzen von ‚Frühstücksgegenstände‘; es könnten aber auch natürlich die konkreten Tassen, konkreten Bestecke usw. als Instanzen des Begriffs ‚Frühstücksgegenstände‘ bezeichnet werden.

13. Dies würde bedeuten, dass man einem Ausdruck e zwar genau ‚eine Bedeutung‘ o zuordnen kann, diese Bedeutung o gehört aber zu einer Hierarchie von ‚Objekten‘ O, die, je nach Stellung in der Hierarchie der Bedeutungsobjekte, unterschiedliche andere Objekte von einer ’niedrigeren‘ Stufe/ Ebene‘ als ‚Instanzen‘ beinhalten kann. Dies führt dazu, dass man neben den bisherigen Unterscheidungen von Wissensformen noch eine weitere einführen müsste, nämlich das ‚Objektwissen‘ $latex K_{o}$, das eine Objekthierarchie umfasst, die aus dem sinnlichen Wissen $latex K_{s}$ mittels eines Abstraktionsprozesses $latex \alpha$ erzeugt wird.

Eine Fortsetzung findet sich HIER

QUELLEN

  • Avicenny, ‚Avicennas Treatise on Logic‘. Part One of ‚Danesh-Name Alai‘ (A Concise Philosophical Encyclopedia) and Autobiography, edited and translated by Farang Zabeeh, The Hague (Netherlands): Martinus Nijhoff, 1971. Diese Übersetzung basiert auf dem Buch ‚Treatise of Logic‘, veröffentlicht von der Gesellschaft für Nationale Monumente, Serie12, Teheran, 1952, herausgegeben von M.Moien. Diese Ausgabe wiederum geht zurück auf eine frühere Ausgabe, herausgegeben von Khurasani.
  • Digital Averroes Research Environment
  • Whitehead, Alfred North, and Bertrand Russell, Principia Mathematica, 3 vols, Cambridge University Press, 1910, 1912, and 1913; Second edition, 1925 (Vol. 1), 1927 (Vols 2, 3). Abridged as Principia Mathematica to *56, Cambridge University Press, 1962.
  • Alfred North Whitehead; Bertrand Russell (February 2009). Principia Mathematica. Volume One. Merchant Books. ISBN 978-1-60386-182-3.
  • Alfred North Whitehead; Bertrand Russell (February 2009). Principia Mathematica. Volume Two. Merchant Books. ISBN 978-1-60386-183-0.
  • Alfred North Whitehead; Bertrand Russell (February 2009). Principia Mathematica. Volume Three. Merchant Books. ISBN 978-1-60386-184-7

Eine Übersicht über alle bisherigen Blogeinträge nach Titeln findet sich HIER.

Treffen Café Siesmayer 15.Dez.2012 – ‚Geist‘-Sichtbarmachungs-Experiment

Cafe-Siesmayer-15Dez2012-500
Der universale Weltprozess, der Geist, und das Experiment

Zur Erinnerung, Auslöser für die Idee mit dem Experiment war das Nachtgespräch im INM……

  1. Am 15.Dez012 11:00h gab es ein denkwürdiges Treffen im Café Siesmayer (Frankfurt, neben dem Palmgarten). Für mich war es das erste Mal dort; ein angenehmer Ort, um zu reden (und natürlich auch, um Kaffee zu trinken).
  2. Die ‚Besetzung‘ ist kurz beschrieben: einer mit Schwerpunkt Soziologie, einer mit Schwerpunkt Physik, einer mit Schwerpunkt Informatik, Psychologie und Erkenntnistheorie.
  3. Nachdem die Gedanken mehrere Kreise, Ellipsen, Achten und diverse Verschlingungen gezogen hatten näherten wir uns dem zentralen Knackpunkt: wie lokalisieren wir den ‚Geist‘ und worin soll das ‚Experiment‘ bestehen?
  4. Der Referenzpunkt der Überlegungen wurde gebildet von der Annahme, dass wir zu Beginn des Universums einen Übergang von ‚Energie‘ zu ‚Materie‘ haben, nicht als das ‚ganz Andere‘, sondern als eine andere ‚Zustandsform‘ von Energie.
  5. Und dann beobachten wir einen weiteren Übergang von Energie in materielle Strukturen‘, nämlich dort, wo die Energie als sogenannte ‚freie Energie‘ den Übergang von einfachen chemischen Verbindungen zu immer komplexeren chemischen Verbindungen begünstigt, zu Zellen, zu mehrzelligen Systemen, bis hin zu den Pflanzen, Tieren und dem homo sapiens sapiens, einer Lebensform, zu der wir ‚als Menschen‘ gehören.
  6. Und es sieht so aus, als ob diese komplexen biologischen Strukturen eine fast ‚triebhafte‘ Tendenz besitzen, die biologische motivierte Strukturbildung beständig zu bestärken, zu beschleunigen, zu intensivieren.
  7. Die beobachtbare Strukturbildung folgt allerdings bestimmten ‚Vorgaben‘: Im Falle biologischer Systeme stammen diese Vorgaben aus den Nervensystemen bzw. genauer den Gehirnen. Allerdings, und dies ist der entscheidende Punkt, es sind nicht die physikalisch-chemischen Eigenschaften der Gehirne als solche, die die Vorgaben ‚kodieren‘, sondern es ist ein Netzwerk von ‚Informationen‘ bzw. ‚Bedeutungen‘ , die zwar mit Hilfe der der physikalisch-chemischen Eigenschaften realisiert werden, die aber nicht aus diesen direkt abgeleitet werden können!!!!!! Die informatorisch-semantische Dimension biologischer Systeme ermöglicht all das, was wir als ‚intelligent‘ bezeichnen bzw. all das, was wir als ‚Ausdruck des Geistes‘ notieren. Für diese informatorisch-semantische (= geistige!?) Dimension gibt es aber — bisher! — keine Begründung in der bekannten physikalischen Welt.
  8. Hat man diesen Faden erst einmal aufgenommen, dann kann man den Weg der Entwicklung weiter zurück gehen und wird feststellen, dass es diese geheimnisvolle informatorisch-semantische Dimension auch schon auf der Ebene der Zelle selbst gibt. Denn die ‚Steuerung‘ der Proteinbildung bis hin zur Ausformung kompletter Phänotypen erfolgt über ein Molekül (DNA (auch RNA und andere)), das als solches zwar komplett über seine physikalischen Eigenschaften beschrieben werden kann, dessen ’steuernde Wirkung‘ aber nicht direkt von diesen physikalischen Eigenschaften abhängt, sondern (wie Paul Davies ganz klar konstatiert), von etwas, was wir ‚Information‘ nennen bzw. was ich als ‚Bedeutung‘ bezeichnen würde, eben jene (semantische) Beziehung zwischen einem Materiekomplex auf der einen Seite und irgendwelchen anderen Materiekomplexen auf der anderen Seite. Und diese semantischen Beziehungen sind ’spezifisch‘. Wo kommen diese her? Die physikalischen Eigenschaften selbst liefern dafür keinerlei Ansatzpunkte!!!!
  9. Interessant ist auf jeden Fall, dass die zentrale Rolle der semantischen Dimension im Bereich entwickelter Nervensysteme sich schon bei der ersten Zelle findet, und zwar an der zentralen Stelle, an der bislang die Wissenschaft das Spezifikum des Biologischen verortet. Strukturell ist die semantische Dimension in beiden Fällen völlig identisch und in beiden Fällen physikalisch bislang unerklärlich.
  10. Nach allem, was wir bis heute wissen, ist das, was wir mit ‚Geist‘ meinen, genau in dieser semantischen Dimension zu verorten. Dies aber bedeutet, der Geist ‚erscheint‘ nicht erst nach ca. 13 Milliarden Jahren nach dem Big Bang, sondern mindestens mit dem Entstehen der ersten Zellen, also vor ca. 3.8 Mrd Jahren.
  11. Betrachtet man die ’semantische Dimension‘ aus einem gewissen ‚gedanklichen Abstand‘, dann kann man auch formulieren, dass das ‚Wesen des Semantischen‘ darin besteht, dass eine Materiestruktur das Verhalten anderer Materiestrukturen ’steuert‘. In gewisser Weise gilt dies letztlich auch für die Wechselwirkungen zwischen Atomen. Fragt sich, wie man die Beziehung zwischen Energie ‚als Energie‘ und Energie ‚als Materie‘ betrachten kann/ muss. Die Ausbildung von immer mehr ‚Differenzen‘ bei der Abkühlung von Energie ist jedenfalls nicht umkehrbar, sondern ‚erzwungen‘, d.h. Energie als Energie induziert Strukturen. Diese Strukturen wiederum sind nicht beliebig sondern induzieren weitere Strukturen, diese wiederum Strukturen bei denen immer mehr ‚zutage‘ tritt, dass die Strukturbildung durch eine semantische Dimension gesteuert wird. Muss man annehmen, dass die ’semantische Struktur‘, die auf diesen verschiedenen Niveaus der Strukturbildung sichtbar wird, letztlich eine fundamentale Eigenschaft der Materie ist? Dies würde implizieren (was ja auch schon nur bei Betrachtung der materiellen Strukturen deutlich wird), dass Energie ‚als Energie‘ nicht neutral ist, sondern eine Form von Beziehungen repräsentiert, die im Heraustreten der Strukturen sichtbar werden.
  12. Sollten alle diese Überlegungen treffen, dann kann man mindestens zwei Hypothesen formulieren: (i) das, was wir mit ‚Geist‘ benennen, das ist kein ’spätes‘ Produkt der Evolution, sondern von allem Anfang das innere treibende Prinzip aller Strukturbildungen im Universum; (ii) das, was wir mit ‚Geist‘ benennen, ist nicht gebunden an die biologischen Körper, sondern benötigt als Vorgabe nur etwas, das die notwendigen ‚Unterschiede‘ repräsentiert.
  13. Der heute bekannte ‚digital elektronisch realisierte Computer‘ ist ein Beispiel, wie man semantische Dimensionen ohne Benutzung biologischer Zellen realisieren kann. Wie viel der bekannten menschlichen Intelligenz (und damit des unterstellten ‚Geistes‘) mit dieser Technologie ’simulierbar‘ ist, ist umstritten. Die Experten der Berechenbarkeit — und dazu zählt auf jeden Fall auch Turing, einer der Väter der modernen Theorie der Berechenbarkeit — vermuten, dass es keine Eigenschaft der bekannten Intelligenz gibt, die sich nicht auch mit einer ‚technologisch basierten‘ Struktur realisieren lässt. Die Schwierigkeiten bei nichtbiologisch basierten Intelligenzen im Vergleich zu biologisch basierten Intelligenzen liegen ‚einzig‘ dort, wo die Besonderheiten des Körpers in die Bereitstellung von Ereignissen und deren spezifische Verknüpfungen eingehen (was direkt nachvollziehbar ist). Diese spezifische Schwierigkeit stellt aber nicht die Arbeitshypothese als solche in Frage.
  14. Die ‚Besonderheiten des biologischen Körpers‘ resultieren aus spezifischen Problemen wie Energiebeschaffung und Energieverarbeitung, Bewegungsapparat, Anpassung an Umgebungsbedingungen, Fortpflanzung, Wachstumsprozesse, der Notwendigkeit des Individuellen Lernens, um einige der Faktoren zu nennen; diese körperlichen Besonderheiten gehen der semantischen Dimension voraus bzw. liegen dieser zugrunde. Die technisch ermöglichte Realisierung von ‚Intelligenz‘ als beobachtbarer Auswirkung der nicht beobachtbaren semantischen Dimension ist als nicht-biologische Intelligenz auf diese Besonderheiten nicht angewiesen. Sofern die nicht-biologische Intelligenz aber mit der biologischen Intelligenz ‚auf menschenähnliche Weise‘ interagieren und kommunizieren soll, muss sie von diesen Besonderheiten ‚wissen‘ und deren Zusammenspiel verstehen.
  15. Das oft zu beobachtende ’sich lächerlich machen‘ über offensichtliche Unzulänglichkeiten heutiger nicht-biologischer Intelligenzen ist zwar als eine Art ‚psychologischer Abwehrreflex‘ verständlich, aber letztlich irreführend und tatsächlich ‚verblendend‘: diese Reaktion verhindert die Einsicht in einen grundlegenden Sachverhalt, der uns wesentliche Dinge über uns selbst sagen könnte.
  16. Zurück zum Gespräch: aus den oben formulierten Hypothesen (i) und (ii) kann man unter anderem folgendes Experiment ableiten: (iii) Wenn (i) und (ii) stimmen, dann ist es möglich, durch Bereitstellung von geeigneten nicht-biologischen Strukturelementen ‚Geist‘ in Form einer ’semantischen Dimension‘ (! nicht zu verwechseln mit sogenannten ’semantischen Netzen‘!) als ’nicht-biologische Form von ‚Geist‘ ’sichtbar und damit ‚lebbar‘ zu machen. Dies soll durch Installierung einer offenen Arbeitsgruppe am INM Frankfurt in Angriff genommen werden. Offizieller Start 2014. Wir brauchen noch einen griffigen Titel.
  17. Anmerkung: ich habe den Eindruck, dass die Verschiebung der Begrifflichkeit (‚Information‘ bei Paul Davies, ’semantische Dimension‘ von mir) letztlich vielleicht sogar noch weiter geführt werden müsste bis zu ’semiotische Dimension‘. Dann hätten wir den Anschluss an eine sehr große Tradition. Zwar haben nur wenige Semiotiker in diesen globalen und universellen Dimensionen gedacht, aber einige schon (z.B. Peirce, Sebeok). Außerdem ist die ‚Semantik‘ von jeher eine Dimension der Semiotik. Den Ausdruck ‚Semiotische Maschine‘ für das ganze Universum hatte ich ja auch schon in früheren Blogeinträgen benutzt (siehe z.B.: http://cognitiveagent.org/2010/10/03/die-universelle-semiotische-maschine/). Allerdings war mir da der Sachverhalt in manchen Punkten einfach noch nicht so klar.
  18. Natürlich geht dies alles weiter. In gewisser Weise fängt es gerade erst an. Ich habe den Eindruck, dass wir in einer Zeitspanne leben, in der gerade der nächste große Evolutionssprung stattfindet. Jeder kann es spüren, aber keiner weiß genau, wie das ausgeht. Klar ist nur, dass wir uns von den Bildern der letzten Jahrtausende verabschieden müssen. Die Worte und Bilder aller großen Religionen müssen ‚von innen heraus‘ dramatisch erneuert werden. Es geht nicht um ‚weniger‘ Religion, sondern um ‚mehr‘. Thora, Bibel und Koran müssen vermutlich neu geschrieben werden. Was kein grundsätzliches Problem sein sollte da wir als Menschen dem, was/wen wir ‚Gott‘ nennen, nicht vorschreiben können, was und wie er etwas mitteilen möchte. Die ‚Wahrheit‘ geht immer jeglichem Denken voraus, ohne diesen Zusammenhang verlöre jegliches Denken seinen ‚Halt‘ und damit sich selbst. Und weil dies so ist, kann man einen alten Ausspruch ruhig weiter zitieren. „Die Wahrheit wird euch frei machen.“

Eine Übersicht über alle bisherigen Blogeinträgen nach Themen findet sich HIER

SUCHE NACH DEM URSPRUNG UND DER BEDEUTUNG DES LEBENS (Paul Davies). Teil 2 (Information als Grundeigenschaft alles Materiellen?)

Paul Davies, The FIFTH MIRACLE: The Search for the Origin and Meaning of Life, New York:1999, Simon & Schuster

 Fortsetzung von Suche… (Teil 1)

Start: 27.Aug.2012

Letzte Fortsetzung: 1.Sept.2012

  1. Das dritte Kapitel ist überschrieben ‚Out of the Slime‘. (SS.69-96) Es startet mit Überlegungen zur Linie der Vorfahren (Stammbaum), die alle auf ‚gemeinsame Vorfahren‘ zurückführen. Für uns Menschen zu den ersten Exemplaren des homo sapiens in Afrika vor 100.000 Jahren, zu den einige Millionen Jahre zurückliegenden gemeinsamen Vorläufern von Affen und Menschen; ca. 500 Mio Jahre früher waren die Vorläufer Fische, zwei Milliarden Jahre zurück waren es Mikroben. Und diese Rückführung betrifft alle bekannten Lebensformen, die, je weiter zurück, sich immer mehr in gemeinsamen Vorläufern vereinigen, bis hin zu den Vorläufern allen irdischen Lebens, Mikroorganismen, Bakterien, die die ersten waren.(vgl. S.69f)

  2. [Anmerkung: Die Formulierung von einem ‚einzelnen hominiden Vorfahren‘ oder gar von der ‚afrikanischen Eva‘ kann den Eindruck erwecken, als ob der erste gemeinsame Vorfahre ein einzelnes Individuum war. Das scheint mir aber irreführend. Bedenkt man, dass wir ‚Übergangsphasen‘ haben von Atomen zu Molekülen, von Molekülen zu Netzwerken von Molekülen, von Molekülnetzwerken zu Zellen, usw. dann waren diese Übergänge nur erfolgreich, weil viele Milliarden und Abermilliarden von Elementen ‚gleichzeitig‘ beteiligt waren; anders wäre ein ‚Überleben‘ unter widrigsten Umständen überhaupt nicht möglich gewesen. Und es spricht alles dafür, dass dieses ‚Prinzip der Homogenität‘ sich auch bei den ‚komplexeren‘ Entwicklungsstufen fortgesetzt hat. Ein einzelnes Exemplar einer Art, das durch irgendwelche besonderen Eigenschaften ‚aus der Reihe‘ gefallen wäre, hätte gar nicht existieren können. Es braucht immer eine Vielzahl von hinreichend ‚ähnlichen‘ Exemplaren, dass ein Zusammenwirken und Fortbestehen realisiert werden kann. Die ‚Vorgänger‘ sind also eher keine spezifischen Individuen (wenngleich in direkter Abstammung schon), sondern immer Individuen als Mitglieder einer bestimmten ‚Art‘.]

  3. Es ist überliefert, dass Darwin im Sommer 1837, nach der Rückkehr von seiner Forschungsreise mit der HMS Beagle in seinem Notizbuch erstmalig einen irregulär verzweigenden Baum gemalt hat, um die vermuteten genealogischen Zusammenhänge der verschiedenen Arten darzustellen. Der Baum kodierte die Annahme, dass letztlich alle bekannten Lebensformen auf einen gemeinsamen Ursprung zurückgehen. Ferner wird deutlich, dass viele Arten (heutige Schätzungen: 99%) irgendwann ‚ausgestorben‘ sind. Im Falle einzelliger Lebewesen gab es aber – wie wir heute zunehmend erkennen können – auch das Phänomene der Symbiose: ein Mikroorganismus ‚frißt‘ andere und ‚integriert‘ deren Leistung ‚in sich‘ (Beispiel die Mitochondrien als Teil der heute bekannten Zellen). Dies bedeutet, dass ‚Aussterben‘ auch als ‚Synthese‘ auftreten kann.(vgl. SS.70-75)

  4. Die Argumente für den Zusammenhang auf Zellebene zwischen allen bekannten und ausgestorbenen Arten mit gemeinsamen Vorläufern beruhen auf den empirischen Fakten, z.B. dass die metabolischen Verläufe der einzelnen Zellen gleich sind, dass die Art und Weise der genetischen Kodierung und Weitergabe gleich ist, dass der genetische Kode im Detail der gleiche ist, oder ein kurioses Detail wie die molekulare Ausrichtung – bekannt als Chiralität –; obgleich jedes Molekül aufgrund der geltenden Gesetze sowohl rechts- oder linkshändig sein kann, ist die DNA bei allen Zellen ‚rechtshändig‘ und ihr Spiegelbild linkshändig. (vgl.SS.71-73)

  5. Da das DNA-Molekül bei allen bekannten Lebensformen in gleicher Weise unter Benutzung von Bausteinen aus Aminosäure kodiert ist, kann man diese Moleküle mit modernen Sequenzierungstechniken Element für Element vergleichen. Unter der generellen Annahme, dass sich bei Weitergabe der Erbinformationen durch zufällige Mutationen von Generation zur Generation Änderungen ergeben können, kann man anhand der Anzahl der verschiedenen Elemente sowohl einen ‚genetischen Unterschied‘ wie auch einen ‚genealogischen Abstand‘ konstruieren. Der genetische Unterschied ist direkt ’sichtbar‘, die genaue Bestimmung des genealogischen Abstands im ‚Stammbaum‘ hängt zusätzlich ab von der ‚Veränderungsgeschwindigkeit‘. Im Jahr 1999 war die Faktenlage so, dass man annimmt, dass es gemeinsame Vorläufer für alles Leben gegeben hat, die sich vor ca. 3 Milliarden Jahren in die Art ‚Bakterien‘ und ‚Nicht-Bakterien‘ verzweigt haben. Die Nicht-Bakterien haben sich dann weiter verzweigt in ‚Eukaryoten‘ und ‚Archäen‘. (vgl. SS.75-79)

  6. Davies berichtet von bio-geologischen Funden nach denen in de Nähe von Isua (Grönland) Felsen von vor mindestens -3.85 Milliarden Jahren gefunden wurden mit Spuren von Bakterien. Ebenso gibt es Funde von Stromatolythen (Nähe Shark Bay, Australien), mit Anzeichen für Cyanobakterien aus der Zeit von ca. -3.5 Milliarden Jahren und aus der gleichen Zeit Mikrofossilien in den Warrawoona Bergen (Australien). Nach den Ergebnissen aus 1999 hatten die Cyanobakterien schon -3.5 Mrd. Jahre Mechanismen für Photosynthese, einem höchst komplexen Prozess.(vgl. SS.79-81)

  7. Die immer weitere Zurückverlagerung von Mikroorganismen in die Vergangenheit löste aber nicht das Problem der Entstehung dieser komplexen Strukturen. Entgegen der früher verbreiteten Anschauung, dass ‚Leben‘ nicht aus ‚toter Materie‘ entstehen kann, hatte schon Darwin 1871 in einem Brief die Überlegung geäußert, dass in einer geeigneten chemischen Lösung über einen hinreichend langen Zeitraum jene Moleküle und Molekülvernetzungen entstehen könnten, die dann zu den bekannten Lebensformen führen. Aber erst in den 20iger Jahren des 20.Jahrhunderts waren es Alexander Oparin (Rußland) und J.B.S.Haldane (England) die diese Überlegungen ernst nahmen. Statt einem kleinen See,  wie bei Darwin, nahm Haldane an, dass es die Ozeane waren, die den Raum für den Übergangsprozess von ‚Materie‘ zu ‚Leben‘ boten. Beiden Forschern fehlten aber in ihrer Zeit die entscheidende Werkzeuge und Erkenntnisse der Biochemie und Molekularbiologie, um ihre Hypothesen testen zu können. Es war Harold Urey (USA) vorbehalten, 1953 mit ersten Laborexperimenten beginnen zu können, um die Hypothesen zu testen. (vgl. SS.81-86)

  8. Mit Hilfe des Studenten Miller arrangierte Urey ein Experiment, bei dem im Glaskolben eine ‚Mini-Erde‘ bestehend aus etwas Wasser mit den Gasen Methan, Hydrogen und Ammonium angesetzt wurde. Laut Annahme sollte dies der Situation um ca. -4 Millarden Jahren entsprechen. Miller erzeugte dann in dem Glaskolben elektrische Funken, um den Effekt von Sonnenlicht zu simulieren. Nach einer Woche fand er dann verschiedene Amino-Säuren, die als Bausteine in allen biologischen Strukturen vorkommen, speziell auch in Proteinen.(vgl. S.86f)

  9. Die Begeisterung war groß. Nachfolgende Überlegungen machten dann aber klar, dass damit noch nicht viel erreicht war. Die Erkenntnisse der Geologen deuteten in den nachfolgenden Jahren eher dahin, dass die Erdatmosphäre, die die sich mehrfach geändert hatte, kaum Ammonium und Methan enthielt, sondern eher reaktions-neutrales Kohlendioxyd und Schwefel, Gase die keine Aminosäuren produzieren. (vgl.S.87)

  10. Darüber hinaus ist mit dem Auftreten von Aminosäuren als Bausteine für mögliche größere Moleküle noch nichts darüber gesagt, ob und wie diese größere Moleküle entstehen können. Genauso wenig wie ein Haufen Ziegelsteine einfach so ein geordnetes Haus bilden wird, genauso wenig formen einzelne Aminosäuren ‚einfach so‘ ein komplexes Molekül (ein Peptid oder Polypeptid). Dazu muss der zweite Hauptsatz überwunden werden, nach dem ’spontane‘ Prozesse nur in Richtung Energieabbau ablaufen. Will man dagegen komplexe Moleküle bauen, muss man gegen den zweiten Hauptsatz die Energie erhöhen; dies muss gezielt geschehen. In einem angenommenen Ozean ist dies extrem unwahrscheinlich, da hier Verbindungen eher aufgelöst statt synthetisiert werden.(vgl.87-90)

  11. Der Chemiker Sidney Fox erweiterte das Urey-Experiment durch Zufuhr von Wärme. In der Tat bildeten sich dann Ketten von Aminosäurebausteinen die er ‚Proteinoide‘ nannte. Diese waren eine Mischung aus links- und rechts-händigen Molekülen, während die biologisch relevanten Moleküle alle links-händig sind. Mehr noch, die biologisch relevanten Aminosäureketten sind hochspezialisiert. Aus der ungeheuren Zahl möglicher Kombinationen die ‚richtigen‘ per Zufall zu treffen grenzt mathematisch ans Unmögliche.(vgl.S.90f) Dazu kommt, dass eine Zelle viele verschiedene komplexe Moleküle benötigt (neben Proteinen auch Lipide, Nukleinsäuren, Ribosomen usw.). Nicht nur ist jedes dieser Moleküle hochkomplex, sondern sie entfalten ihre spezifische Wirkung als ‚lebendiges Ensemble‘ erst im Zusammenspiel. Jedes Molekül ‚für sich‘ weiß aber nichts von einem Zusammenhang. Wo kommen die Informationen für den Zusammenhang her? (vgl.S.91f) Rein mathematisch ist die Wahrscheinlichkeit, dass sich die ‚richtigen‘ Proteine bilden in der Größenordnung von 1:10^40000, oder, um ein eindrucksvolles Bild des Physikers Fred Hoyle zu benutzen: genauso unwahrscheinlich, wie wenn ein Wirbelsturm aus einem Schrottplatz eine voll funktionsfähige Boeing 747 erzeugen würde. (vgl.S.95)

  12. Die Versuchung, das Phänomen des Lebens angesichts dieser extremen Unwahrscheinlichkeiten als etwas ‚Besonderes‘, als einen extrem glücklichen Zufall, zu charakterisieren, ist groß. Davies plädiert für eine Erklärung als eines ’natürlichen physikalischen Prozesses‘. (S.95f)

  13. Im Kapitel 4 ‚The Message in the Machine‘ (SS.97-122) versucht Davies mögliche naturwissenschaftliche Erklärungsansätze, beginnend bei den Molekülen, vorzustellen. Die Zelle selbst ist so ungeheuerlich komplex, dass noch ein Niels Bohr die Meinung vertrat, dass Leben als ein unerklärbares Faktum hinzunehmen sei (vgl.Anmk.1,S.99). Für die Rekonstruktion erinnert Davies nochmals daran, dass diejenigen Eigenschaften, die ‚lebende‘ Systeme von ’nicht-lebenden‘ Systemen auszeichnen, Makroeigenschaften sind, die sich nicht allein durch Verweis auf die einzelnen Bestandteile erklären lassen, sondern nur und ausschließlich durch das Zusammenspiel der einzelnen Komponenten. Zentrale Eigenschaft ist hier die Reproduktion. (vgl.SS.97-99)

  14. Reproduktion ist im Kern gebunden an das Kopieren von drei-dimensional charakterisierten DNA-Molekülen. Vereinfacht besteht solch ein DNA-Molekül aus zwei komplementären Strängen, die über eine vierelementiges Alphabet von Nukleinsäurebasen miteinander so verbunden sind, dass es zu jeder Nukleinsäurebase genau ein passendes Gegenstück gibt. Fehlt ein Gegenstück, ist es bei Kenntnis des Kodes einfach, das andere Stück zu ergänzen. Ketten von den vierelementigen Basen können ‚Wörter‘ bilden, die ‚genetische Informationen‘ kodieren. Ein ‚Gen‘ wäre dann solch ein ‚Basen-Wort‘. Und das ganze Molekül wäre dann die Summe aller Gene als ‚Genom‘. Das ‚Auftrennen‘ von Doppelsträngen zum Zwecke des Kopierens wie auch das wieder ‚Zusammenfügen‘ besorgen spezialisierte andere Moleküle (Enzyme). Insgesamt kann es beim Auftrennen, Kopieren und wieder Zusammenfügen zu ‚Fehlern‘ (Mutationen) kommen. (vgl.SS.100-104)

  15. Da DNA-Moleküle als solche nicht handlungsfähig sind benötigen sie eine Umgebung, die dafür Sorge trägt, dass die genetischen Informationen gesichert und weitergegeben werden. Im einfachen Fall ist dies eine Zelle. Um eine Zelle aufzubauen benötigt man Proteine als Baumaterial und als Enzyme. Proteine werden mithilfe der genetischen Informationen in der DNA erzeugt. Dazu wird eine Kopie der DNA-Informationen in ein Molekül genannt Boten-RNA (messenger RNA, mRNA) kopiert, dieses wandert zu einem komplexen Molekülnetzwerk genannt ‚Ribosom‘. Ribosomen ‚lesen‘ ein mRNA-Molekül als ‚Bauanleitung‘ und generieren anhand dieser Informationen Proteine, die aus einem Alphabet von 20 (bisweilen 21) Aminosäuren zusammengesetzt werden. Die Aminosäuren, die mithilfe des Ribosoms Stück für Stück aneinandergereiht werden, werden von spezialisierten Transportmolekülen (transfer RNA, tRNA) ‚gebracht‘, die so gebaut sind, dass immer nur dasjenige tRNA-Molekül andocken kann, das zur jeweiligen mRNA-Information ‚passt‘. Sobald die mRNA-Information ‚abgearbeitet‘ ist, liegt eines von vielen zehntausend möglichen Proteinen vor. (vgl.SS. 104-107) Bemerkenswert ist die ‚Dualität‘ der DNA-Moleküle (wie auch der mRNA) sowohl als ‚Material/ Hardware‘ wie auch als ‚Information/ Software‘. (vgl.S.108)

  16. Diese ‚digitale‘ Perspektive vertieft Davies durch weitere Betrachtung und führt den Leser zu einem Punkt, bei dem man den Eindruck gewinnt, dass die beobachtbaren und messbaren Materialien letztlich austauschbar sind bezogen auf die ‚impliziten Strukturen‘, die damit realisiert werden. Am Beispiel eines Modellflugzeugs, das mittels Radiowellen ferngesteuert wird, baut er eine Analogie dahingehend auf, dass die Hardware (das Material) des Flugzeugs wie auch der Radiowellen selbst als solche nicht erklären, was das Flugzeug tut. Die Hardware ermöglicht zwar grundsätzlich bestimmte Flugeigenschaften, aber ob und wie diese Eigenschaften genutzt werden, das wird durch ‚Informationen‘ bestimmt, die per Radiowellen von einem Sender/ Empfänger kommuniziert werden. Im Fall einer Zelle bilden komplexe Molekülnetzwerke die Hardware mit bestimmten verfügbaren chemischen Eigenschaften, aber ihr Gesamtverhalten wird gesteuert durch Informationen, die primär im DNA-Molekül kodiert vorliegt und die als ‚dekodierte‘ Information alles steuert.(vgl. SS.113-115)

  17. [Anmerkung: Wie schon zuvor festgestellt, repräsentieren Atome und Moleküle als solche keine ‚Information‘ ‚von sich aus‘. Sie bilden mögliche ‚Ereignisse‘ E ‚für andere‘ Strukturen S, sofern diese andere Strukturen S auf irgendeine Weise von E ‚beeinflusst‘ werden können. Rein physikalisch (und chemisch) gibt es unterschiedliche Einwirkungsmöglichkeiten (z.B. elektrische Ladungen, Gravitation,…). Im Falle der ‚Information‘ sind es aber nicht nur solche primären physikalisch-chemischen Eigenschaften, die benutzt werden, sondern das ‚empfangende‘ System S befindet sich in einem Zustand, S_inf, der es dem System ermöglicht, bestimmte physikalisch-chemische Ereignisse E als ‚Elemente eines Kodes‘ zu ‚interpretieren. Ein Kode ist minimal eine Abbildungsvorschrift, die Elemente einer Menge X (die primäre Ereignismenge) in eine Bildmenge Y (irgendwelche anderen Ereignisse, die Bedeutung) ‚übersetzt‘ (kodiert), also CODE: X —> Y. Das Materiell-Stoffliche wird damit zum ‚Träger von Informationen‘, zu einem ‚Zeichen‘, das von einem Empfänger S ‚verstanden‘ wird. Im Falle der zuvor geschilderten Replikation wurden ausgehend von einem DNA-Molekül (= X, Ereignis, Zeichen) mittels mRNA, tRNA und Ribosom (= Kode, CODE) bestimmte Proteine (=Y, Bedeutung) erzeugt. Dies bedeutet, dass die erzeugten Proteine die ‚Bedeutung des DNA-Moleküls‘ sind unter Voraussetzung eines ‚existierenden Kodes‘ realisiert im Zusammenspiel eines Netzwerkes von mRNA, tRNAs und Ribosom. Das Paradoxe daran ist, das die einzelnen Bestandteile des Kodes, die Moleküle mRNA, tRNA und Ribosom (letzteres selber hochkomplex) ‚für sich genommen‘ keinen Kode darstellen, nur in dem spezifischen Zusammenspiel! Wenn also die einzelnen materiellen Bestandteile, die Atome und Moleküle ‚für sich gesehen‘ keinen komplexen Kode darstellen, woher kommt dann die Information, die alle diese materiell hochkomplexen Bestandteile auf eine Weise ‚zusammenspielen‘ lässt, die weit über das hinausgeht, was die Bestandteile einzeln ‚verkörpern‘? ]

  18. "Zelle und Turingmaschine"
    zelle_tm

    [Anmerkung: Es gibt noch eine andere interssante Perspektive. Das mit Abstand wichtigste Konzept in der (theoretischen) Informatik ist das Konzept der Berechenbarkeit, wie es zunächst von Goedel 1931, dann von Turing in seinem berühmten Artikel von 1936-7 vorgelegt worden ist. In seinem Artikel definiert Turing das mathematische (!) Konzept einer Vorrichtung, die alle denkbaren berechenbaren Prozesse beschreiben soll. Später gaben andere dieser Vorrichtung den Namen ‚Turingmaschine‘ und bis heute haben alle Beweise immer nur dies eine gezeigt, dass es kein anderes formales Konzept der intuitiven ‚Berechenbarkeit‘ gibt, das ’stärker‘ ist als das der Turingmaschine. Die Turingmaschine ist damit einer der wichtigsten – wenn nicht überhaupt der wichtigste — philosophischen Begriff(e). Viele verbinden den Begriff der Turingmaschine oft mit den heute bekannten Computern oder sehen darin die Beschreibung eines konkreten, wenngleich sehr ‚umständlichen‘ Computers. Das ist aber vollständig an der Sache vorbei. Die Turingmaschine ist weder ein konkreter Computer noch überhaupt etwas Konkretes. Genau wie der mathematische Begriff der natürlichen Zahlen ein mathematisches Konzept ist, das aufgrund der ihm innewohnenden endlichen Unendlichkeit niemals eine reale Zahlenmenge beschreibt, sondern nur das mathematische Konzept einer endlich-unendlichen Menge von abstrakten Objekten, für die die Zahlen des Alltags ‚Beispiele‘ sind, genauso ist auch das Konzept der Turingmaschine ein rein abstraktes Gebilde, für das man konkrete Beispiele angeben kann, die aber das mathematische Konzept selbst nie erschöpfen (die Turingmaschine hat z.B. ein unendliches Schreib-Lese-Band, etwas, das niemals real existieren kann).
    ]

  19. [Anmerkung: Das Interessante ist nun, dass man z.B. die Funktion des Ribosoms strukturell mit dem Konzept einer Turingmaschine beschreiben kann (vgl. Bild). Das Ribosom ist jene Funktionseinheit von Molekülen, die einen Input bestehend aus mRNA und tRNAs überführen kann in einen Output bestehend aus einem Protein. Dies ist nur möglich, weil das Ribosom die mRNA als Kette von Informationseinheiten ‚interpretiert‘ (dekodiert), die dazu führen, dass bestimmte tRNA-Einheiten zu einem Protein zusammengebaut werden. Mathematisch kann man diese funktionelle Verhalten eines Ribosoms daher als ein ‚Programm‘ beschreiben, das gleichbedeutend ist mit einer ‚Funktion‘ bzw. Abbildungsvorschrift der Art ‚RIBOSOM: mRNA x tRNA —> PROTEIN. Das Ribosom stellt somit eine chemische Variante einer Turingmaschine dar (statt digitalen Chips oder Neuronen). Bleibt die Frage, wie es zur ‚Ausbildung‘ eines Ribosoms kommen kann, das ’synchron‘ zu entsprechenden mRNA-Molekülen die richtige Abbildungsvorschrift besitzt.
    ]
  20. Eine andere Blickweise auf das Phänomen der Information ist jene des Mathematikers Chaitin, der darauf aufmerksam gemacht hat, dass man das ‚Programm‘ eines Computers (sein Algorithmus, seine Abbildungsfunktion, seine Dekodierungsfunktion…) auch als eine Zeichenkette auffassen kann, die nur aus Einsen und Nullen besteht (also ‚1101001101010..‘). Je mehr Wiederholungen solch eine Zeichenkette enthalten würde, um so mehr Redundanz würde sie enthalten. Je weniger Wiederholung, um so weniger Redundanz, um so höher die ‚Informationsdichte‘. In einer Zeichenkette ohne jegliche Redundanz wäre jedes einzelne Zeichen wichtig. Solche Zeichenketten sind formal nicht mehr von reinen zufallsbedingten Ketten unterscheidbar. Dennoch haben biologisch nicht alle zufälligen Ketten eine ’nützliche‘ Bedeutung. DNA-Moleküle ( bzw. deren Komplement die jeweiligen mRNA-Moleküle) kann man wegen ihrer Funktion als ‚Befehlssequenzen‘ als solche binär kodierten Programme auffassen. DNA-Moleküle können also durch Zufall erzeugt worden sein, aber nicht alle zufälligen Erzeugungen sind ’nützlich‘, nur ein verschwindend geringer Teil.  Dass die ‚Natur‘ es geschafft hat, aus der unendlichen Menge der nicht-nützlichen Moleküle per Zufall die herauszufischen, die ’nützlich‘ sind, geschah einmal durch das Zusammenspiel von Zufall in Gestalt von ‚Mutation‘ sowie Auswahl der ‚Nützlichen‘ durch Selektion. Es stellt sich die Frage, ob diese Randbedingungen ausreichen, um das hohe Mass an Unwahrscheinlichkeit zu überwinden. (vgl. SS. 119-122)
  21. [Anmerkung: Im Falle ‚lernender‘ Systeme S_learn haben wir den Fall, dass diese Systeme einen ‚Kode‘ ‚lernen‘ können, weil sie in der Lage sind, Ereignisse in bestimmter Weise zu ‚bearbeiten‘ und zu ’speichern‘, d.h. sie haben Speichersysteme, Gedächtnisse (Memory), die dies ermöglichen. Jedes Kind kann ‚lernen‘, welche Ereignisse welche Wirkung haben und z.B. welche Worte was bedeuten. Ein Gedächtnis ist eine Art ‚Metasystem‘, in dem sich ‚wahrnehmbare‘ Ereignisse E in einer abgeleiteten Form E^+ so speichern (= spiegeln) lassen, dass mit dieser abgeleiteten Form E^+ ‚gearbeitet‘ werden kann. Dies setzt voraus, dass es mindestens zwei verschiedene ‚Ebenen‘ (layer, level) im Gedächtnis gibt: die ‚primären Ereignisse‘ E^+ sowie die möglichen ‚Beziehungen‘ RE, innerhalb deren diese vorkommen. Ohne dieses ‚Beziehungswissen‘ gibt es nur isolierte Ereignisse. Im Falle multizellulärer Organismen wird diese Speicheraufgabe durch ein Netzwerk von neuronalen Zellen (Gehirn, Brain) realisiert. Der einzelnen Zelle kann man nicht ansehen, welche Funktion sie hat; nur im Zusammenwirken von vielen Zellen ergeben sich bestimmte Funktionen, wie z.B. die ‚Bearbeitung‘ sensorischer Signale oder das ‚Speichern‘ oder die Einordnung in eine ‚Beziehung‘. Sieht man mal von der spannenden Frage ab, wie es zur Ausbildung eines so komplexen Netzwerkes von Neuronen kommen konnte, ohne dass ein einzelnes Neuron als solches ‚irgend etwas weiß‘, dann stellt sich die Frage, auf welche Weise Netzwerke von Molekülen ‚lernen‘ können.  Eine minimale Form von Lernen wäre das ‚Bewahren‘ eines Zustandes E^+, der durch ein anderes Ereignis E ausgelöst wurde; zusätzlich müsste es ein ‚Bewahren‘ von Zuständen geben, die Relationen RE zwischen primären Zuständen E^+ ‚bewahren‘. Solange wir es mit frei beweglichen Molekülen zu tun haben, ist kaum zu sehen, wie es zu solchen ‚Bewahrungs-‚ sprich ‚Speicherereignissen‘ kommen kann. Sollte es in irgend einer Weise Raumgebiete geben, die über eine ‚hinreichend lange Zeit‘ ‚konstant bleiben, dann wäre es zumindest im Prinzip möglich, dass solche ‚Bewahrungsereignisse‘ stattfinden. Andererseits muss man aber auch sehen, dass diese ‚Bewahrungsereignisse‘ aus Sicht eines möglichen Kodes nur möglich sind, wenn die realisierenden Materialien – hier die Moleküle bzw. Vorstufen zu diesen – physikalisch-chemische Eigenschaften aufweisen, die grundsätzlich solche Prozesse nicht nur ermöglichen, sondern tendenziell auch ‚begünstigen‘, und dies unter Berücksichtigung, dass diese Prozesse ‚entgegen der Entropie‘ wirken müssen. Dies bedeutet, dass — will man keine ‚magischen Kräfte‘ annehmen —  diese Reaktionspotentiale schon in den physikalisch-chemischen Materialien ‚angelegt‘ sein müssen, damit sie überhaupt auftreten können. Weder Energie entsteht aus dem Nichts noch – wie wir hier annehmen – Information. Wenn wir also sagen müssen, dass sämtliche bekannte Materie nur eine andere Zustandsform von Energie ist, dann müssen wir vielleicht auch annehmen, dass alle bekannten ‚Kodes‘ im Universum nichts anderes sind als eine andere Form derjenigen Information, die von vornherein in der Energie ‚enthalten‘ ist. Genauso wie Atome und die subatomaren Teilchen nicht ’neutral‘ sind sondern von vornherein nur mit charakteristischen (messbaren) Eigenschaften auftreten, genauso müsste man dann annehmen, dass die komplexen Kodes, die wir in der Welt und dann vor allem am Beispiel biologischer Systeme bestaunen können, ihre Wurzeln in der grundsätzlichen ‚Informiertheit‘ aller Materie hat. Atome formieren zu Molekülen, weil die physikalischen Eigenschaften sie dazu ‚bewegen‘. Molkülnetzwerke entfalten ein spezifisches ‚Zusammenspiel‘, weil ihre physikalischen Eigenschaften das ‚Wahrnehmen‘, ‚Speichern‘ und ‚Dekodieren‘ von Ereignissen E in einem anderen System S grundsätzlich ermöglichen und begünstigen. Mit dieser Annahme verschwindet ‚dunkle Magie‘ und die Phänomene werden ‚transparent‘, ‚messbar‘, ‚manipulierbar‘, ‚reproduzierbar‘. Und noch mehr: das bisherige physikalische Universum erscheint in einem völlig neuen Licht. Die bekannte Materie verkörpert neben den bislang bekannten physikalisch-chemischen Eigenschaften auch ‚Information‘ von ungeheuerlichen Ausmaßen. Und diese Information ‚bricht sich selbst Bahn‘, sie ‚zeigt‘ sich in Gestalt des Biologischen. Das ‚Wesen‘ des Biologischen sind dann nicht die ‚Zellen als Material‘, das Blut, die Muskeln, die Energieversorgung usw., sondern die Fähigkeit, immer komplexer Informationen aus dem Universum ‚heraus zu ziehen, aufzubereiten, verfügbar zu machen, und damit das ‚innere Gesicht‘ des Universums sichtbar zu machen. Somit wird ‚Wissen‘ und ‚Wissenschaft‘ zur zentralen Eigenschaft des Universums samt den dazugehörigen Kommunikationsmechanismen.]

  22. Fortsetzung Teil 3

Einen Überblick über alle bisherigen Themen findet sich HIER

Zitierte  Literatur:

Chaitin, G.J. Information, Randomness & Incompleteness, 2nd ed.,  World Scientific, 1990

Turing, A. M. On Computable Numbers with an Application to the Entscheidungsproblem. In: Proc. London Math. Soc., Ser.2, vol.42(1936), pp.230-265; received May 25, 1936; Appendix added August 28; read November 12, 1936; corr. Ibid. vol.43(1937), pp.544-546. Turing’s paper appeared in Part 2 of vol.42 which was issued in December 1936 (Reprint in M.DAVIS 1965, pp.116-151; corr. ibid. pp.151-154).

 Interessante Links:

Ein Video in Youtube, das eine Rede von Pauls Davies dokumentiert, die thematisch zur Buchbesprechung passt und ihn als Person etwas erkennbar macht.

Teil 1:
http://www.youtube.com/watch?v=9tB1jppI3fo

Teil 2:
http://www.youtube.com/watch?v=DXXFNnmgcVs

Teil 3:
http://www.youtube.com/watch?v=Ok9APrXfIOU

Teil 4:
http://www.youtube.com/watch?v=vXqqa1_0i7E

Part 5:
http://www.youtube.com/watch?v=QVrRL3u0dF4
Es gibt noch einige andere Videos mit Paul Davies bei Youtube.

WANN IST EIN MENSCH AUTHENTISCH?

 

  1. Das gesprochene Wort ‚authentisch‘: ein einzelner Mensch kann das Wort ‚authentisch‘ im Deutschen ganz unterschiedlich aussprechen (langsam, schnell, laut, leise, mit speziellen Betonungen…). Beim Sprechen wird ein veränderlicher Schalldruck erzeugt, den man messen kann (z.B. mit einem Mikrophon, analog) und dann ‚digitalisieren‘. Diese besteht in einer periodischen (1x pro Sekunde, 10x, 1000x, …) Abtastung des analogen Signals mit einer bestimmten ‚Bitauflösung‘ (2 Bit, 4, 8, 16 ….). Damit entsteht eine Zahlenfolge, die jeweils verschieden ist. Ein Computerprogramm ohne ‚Vorwissen‘, könnte damit nicht viel anfangen. Sprecher der deutschen Sprache sind aber in der Regel in der Lage, die verschiedenen lautlichen Realisierungen des einen gesprochenen Wortes als ‚das gleiche Wort‘ zu erkennen. Dies bedeutet, dass unser Gehirn verbunden mit dem Gehörorgan in der Lage ist, bei unterschiedlichen Schallobjekten ‚Gemeinsamkeiten‘ zu erkennen, die nicht ‚unmittelbar‘ im Schall selbst präsent sind. Menschen können – bei ein bischen Training – ‚Lautbestandteile‘ an einem Wort unterscheiden (Konsonanten, Vokale, Halbsilben, Silben, Morpheme,…), die ein Computerprogramm nur mit erheblichem Aufwand zu identifizieren in der Lage ist (die heute (August 2012) käuflich erhältlichen Programme zum Diktieren können dies immer noch nur sehr begrenzt!). Zu fragen, was denn die ‚richtige‘ Aussprache des Wortes ‚authentisch‘ sei, hängt also von dieser besonderen Fähigkeit des menschlichen Gehirns ab und ist — von daher schwierig. Das, was jeder Mensch jeweils als ‚das Gemeinsame‘ in den unterschiedlichen Aussprachen (‚Realisierungen‘) des einen Wortes ‚authentisch‘ ‚erkennt‘, ist selbst nicht ‚vorzeigbar‘. Es existiert nur im individuellen Erkennen. Dass es dieses ‚Gemeinsame‘ gibt, erkennen wir indirekt daran, dass ein Mensch bei unterschiedlicher Aussprache immer das gleiche Wort auf einen Zettel ’schreiben‘ könnte (wobei das ‚Schreiben‘ eine eigenständige Leistung ist. Sogenannte ‚Analphabeten‘ können sprechen, aber nicht schreiben). Sprachgemeinschaften versuchen zwar, eine ‚offizielle Aussprache‘ zu ’normieren‘ (das ‚Hochdeutsche‘, das ‚Bühnendeutsch‘ der Nachrichtensprecher, usw.), doch können diese Normierungen letztlich nur grobe Leitlinien sein, die — aufgrund des Sachverhalts — niemals vollständig eindeutig sein können. Halten wir fest: schon das gesprochene Wort als primäres Mittel sprachlicher Kommunikation existiert in Realisierungsformen, die eine letzte Eindeutigkeit nicht zulassen; man braucht eine Vielzahl von Beispielen, man braucht Hypothesen (Annahmen, Vermutungen), man ’nähert sich an‘, man operiert mit einem ’subjektivem Konstrukt‘ auf der Basis ‚empirischer Ereignisse‘.

  2. Die Bedeutung des Wortes ‚authentisch‘: Ein Lautereignis als solches hat normalerweise keine Bedeutung. Wenn ich im Deutschen Laute äußern würde, die sich schriftlich in etwa als ‚Dididu‘, ‚Garseku‘, ‚Uklukl‘ usw. repräsentieren lassen, dann wird normalerweise niemand etwas damit anfangen können. Äußerungen, die sich schriftlich in etwa als ‚Haus‘, ‚Tasse‘, ‚Stuhl‘ usw. repräsentieren lassen (und die sich lautlich als ‚das gleiche Wort‘ identifizieren lassen), würde man sehr wohl als ‚bedeutsam‘ einstufen. Eine lautliche Äußerung, die sich als ‚Stuhl‘ aufschreiben lässt, verbindet man mit ‚etwas anderem‘, eben jenem, was man ‚meint‘, wenn man das Wort ‚Stuhl‘ äußert. Dieses ‚andere Gemeinte‘ konstituiert dann die ‚Bedeutung‘ des lautlichen Ereignisses ‚Stuhl‘. Dieses ‚Andere‘ zum gesprochenen Wort, das seine ‚Bedeutung‘ konstituieren kann, ist auch wieder – im einfachen Fall – ein ‚Wahrgenommenes‘ (sichtbar, hörbar, tastbar, schmeckbar,…), das in verschiedenen Realisierungen vorkommt: dasselbe ‚Stuhlobjekt‘ aus verschiedenen Perspektiven, mit verschiedenen Beleuchtungsverhältnissen in unterschiedlichen Kontexten, oder aber ‚unterschiedliche‘ Stuhlobjekte (Farben, Materialien, Abmessungen, Formen,…) (auch hier würde eine einfache Digitalisierung z.B. der visuellen Signale einer Videokamera Zahlenkolonnen erzeugen, die selbst bei dem gleichen Stuhlobjekt völlig verschieden wären. Ein Computerprogramm ohne ‚Vorwissen‘ würde nichts erkennen können). Aber auch in diesem Fall besitzt das menschliche Gehirn im Verbund mit den verschiedenen Sinnesorganen (Sehsinn, Höhrsinn, Tastsinn,…) die erstaunliche Fähigkeit, in der Vielzahl der Eindrücke ‚Gemeinsamkeiten‘ zu erkennen, aufgrund deren dann ein Mensch (z.B. ein Kind, das Sprache lernt) bei einem bestimmten Stuhlobjekt trotz wechselndem Standpunkt, wechselnder Perspektive, unterschiedlichem Abstand, unterschiedlicher Beleuchtung dieses Stuhlobjekt als das ‚gleiche Objekt‘ in den unterschiedlichen Wahrnehmungsrealisierungen zu erkennen. Diese Fähigkeit des Erkennens von ‚Gemeinsamkeiten‘ in ‚veränderlichen Details‘ ist eine entscheidende Fähigkeit zum Erkennen überhaupt (heute käufliche Computerprogramme zur Objekterkennung sind hier mittlerweile erstaunlich weit gekommen, zumindest wenn man auf bestimmte Teilaspekte abhebt (z.B. Gesichtserkennung)). Aber auch hier gilt, dass der entscheidende Aspekt des ‚Erkennens‘ nicht in der aktuellen Realisierung eines Objektes liegt, sondern in dem ’subjektiven Konstrukt‘ eines Gehirns, das sich anlässlich der unterschiedlichen ‚empirischen Realisierungen‘ eines Objektes ‚bildet‘. Dieses ’subjektive Konstrukt‘ Cog(Perc(EObj)) = CObj eines ‚kognitiven Objektes‘ anlässlich unterschiedlicher ‚empirisches Objekte‘ ist aber – wie schon im Falle des subjektiven Konstrukts des gesprochenen Wortes – selbst nicht ‚vorzeigbar‘, sondern existiert nur ‚intern‘, als ‚gewusstes Etwas‘, indirekt erkennbar an einem bestimmten ‚Verhalten‘, z.B. daran, dass ein Mensch bei ‚ein und demselben Objekt‘ immer das ‚gleiche Wort‘ benutzt, obwohl er das empirische Objekt unterschiedlich realisiert wahrnimmt. Dies hat zur Folge, dass die ‚gemeinte Bedeutung‘ eines Wortes wie ‚Stuhl‘ grundsätzlich niemals ‚eindeutig‘ sein kann noch jemals ‚abgeschlossen‘ ist. Neue Stuhlereignisse können das bisherige subjektive Konstrukt ‚verändern‘, und diese Veränderungen sind von Mensch zu Mensch verschieden und sie sind dem einzelnen Menschen selbst nicht notwendigerweise ‚bewusst‘! Man merkt solche Veränderungen des subjektiven Erkenntnisstandes oft erst dann, wenn man in einer Gesprächssituation feststellen darf, dass der Gesprächspartner aktuell einen anderen ‚Aspekt‘ des Objektes ‚thematisiert‘ als man selbst bereit oder fähig ist, zu thematisieren. Halten wir fest: die subjektive Bedeutung von empirischen Ereignissen ist der eigentliche Kern sprachlicher Bedeutungen, diese selbst sind dynamische Gebilde, als solche nicht vorzeigbar, teilweise dem Sprecher selbst nicht ‚bewusst‘ und bilden sich interaktiv in gemeinsame geteilten Sprechsituationen.

  3. Im Fall des Wortes ‚authentisch‘ kommt noch ein weiterer Aspekt hinzu: während ‚empirisch aufweisbare‘ Objekte wie ‚Stuhl‘, ‚Tisch‘, ‚Tasse‘ für alle beteiligten Sprecher einen ‚gemeinsamen objektiven Referenzpunkt‘ bilde können, an dem die verschiedenen Sprachteilnehmer ihre ‚Bedeutungshypothesen‘ ‚ausrichten‘, gibt es Worte – wie das Wort ‚authentisch‘ –, die nicht als ‚einfache empirische Objekte‘ vorkommen. Zu sagen, ein Mensch sei ‚authentisch‘ kann sich prinzipiell auf sämtliche Aktivitäten dieses Menschen beziehen, auf sämtliche Situationen, in denen er auftritt. Faktisch wird man sich meistens auf eine Auswahl beschränken, da normalerweise niemand das vollständige Verhalten eines Menschen untersuchen kann (wie ja auch der einzelne Mensch von sich selbst nur eine sehr begrenzte Kenntnis hat (weil man vieles vergisst, weil die Selbstwahrnehmung unvollständig ist, weil das Verständnis von einem selbst unvollständig oder unpassend ist,….). Man hat also normalerweise eine kleine Auswahl von Fragmenten eines komplexen Geschehens, dessen Randbedingungen einem nur unvollständig zugänglich sind (z.B. hat man keine direkten Kenntnisse von den inneren (subjektiven) Zuständen, die einen Menschen dazu bringen, etwas Bestimmtes zu tun). Will man in solch einer komplexen und unübersichtlichen Situation dennoch einen Bedeutungsinhalt konstruieren, der eine minimale ‚Gemeinsamkeit‘ zwischen verschiedenen Sprechern erlaubt, dann kann dies nur dadurch geschehen, dass es ‚Standardsituationen‘ und ‚Standardverhaltensweisen‘ gibt, die sich von allen Beteiligten hinreichend identifizieren lassen und die man als ‚Kriterium‘ benutzen kann, um zur ‚Einschätzung‘ zu kommen, jemand sei ‚authentisch‘ oder nicht.

  4. Fragt man sich, wie solche ‚Standardsituationen‘ und ‚Standardverhaltensweisen‘ aussehen könnten, dann benötigt man etwas ‚Allgemeines‘, das über einzelne konkrete Ereignisse hinausreicht, so, dass man sagen könnte, dass diese oder jene konkrete Verhaltensweise ‚Beispiele‘ für dieses ‚Allgemeine‘ sind (z.B.  Formulierungen wie ‚X kocht‘, ‚X hebt Geld ab‘, ‚X macht Musik‘, ‚X lernt gerade‘,… als Beispiele für etwas Allgemeines, dem sich ein konkretes individuelles Verhalten zuordnen lässt). Die Gesetzgebung — wie auch unterschiedliche Normierungen — sind ein Beispiel dafür, wie man versucht, mittels Texten Situationen so zu beschreiben, dass man im Einzelfall entscheiden kann, ob die Handlung einer Person solch einer Beschreibung subsumiert werden kann und ein Richter feststellen kann, ob eine Person mit diesem Verhalten im Sinne dieser Beschreibung ’straffällig‘ geworden ist oder nicht. Wie man aus der Praxis der Rechtsfindung weiß, ist dies alles andere als einfach und ganz selten eindeutig. Letztlich sind es die aktiven Richter, die darüber ‚befinden‘, ob bestimmte Ereignisse als unter eine Beschreibung ’subsumierbar‘ anzusehen sind oder nicht. Im alten lateinischen Spruch ‚in dubio pro reo‘ (Etwa „Im Zweifel für den Angeklagten“), drückt sich schlagwortartig diese Einsicht in die Begrenztheit der Erkenntnis aus, so dass man im Strafprozess einen Angeklagten aufgrund der notorisch schwierigen Erkenntnislage nicht verurteilen sollte, wenn Zweifel an seiner Schuld verbleiben.

  5. Was wären ‚Standardsituationen‘ für ‚authentische‘ Menschen? Wenn jemand – ohne erkennbare Not — sagt, er heiße ABC, laut Ausweis aber CAB heißt, wäre dies vielleicht ein Grenzfall (ein Scherz? Schauspielerei? Vorgauklung falscher Tatsachen?..). Wenn jemand (ebenfalls ohne Not) sagt, er übe Position XYZ in einer Institution aus oder den Beruf XYZ, tatsächlich aber nicht, wäre dies eher kein Beispiel für ‚Authentizität‘? Wenn jemand nichts vom modernen Modebetrieb hält, sich aber dennoch bestimmte Kleidungsstücke anzieht, weil dies die mediengesteuerte Mehrheit in einer bestimmten soziologischen Gruppe ’so tut‘, ist dies ‚Anpassung‘, ‚Unterwerfung‘ – und damit nicht authentisch – oder ist dies ‚Pragmatismus‘, ‚Klugheit‘ und dadurch noch authentisch? Wenn jemand in Gesprächen mit KollegenInnen eine ‚Rolle‘ spielt, von der er/sie meint, damit komme er/sie ‚gut an‘, obgleich er/sie tatsächlich andere Meinungen und Werte haben, wäre dies auch ein Grenzfall; eher kein Fall von Authentizität? Was aber, wenn bestimmte berufliche Positionen nur erreicht werden können, wenn man einer Mehrheit ‚gefällt‘, deren Meinung man nur bedingt teilt. Gibt man sich auf, ‚verrät‘ man sich, wenn man dann ’so tut‘, ‚als ob‘ man diese Meinungen vertritt, um die Position zu bekommen? Falls die Position selbst dann Handlungen ermöglicht, hinter denen man stehen kann, wäre der Weg zu dieser Position dann ein ‚Kompromiss‘ (?), um etwas ‚Gutes‘ zu erreichen. Wäre dies ‚authentisch‘? Wenn aber die Position selbst weitgehend Handlungen erfordert, hinter denen man nicht wirklich steht, würde dies jede ‚Authentizität‘ ausschließen?

  6. Schon diese wenigen Beispiele zeigen, dass offensichtlich Handlungen als solche nicht direkt etwas über ‚Authentizität‘ aussagen, da die Umstände von Handlungen sehr vielschichtig sein können und die ‚Bedeutung‘ einzelner Momente sich nur im Gesamtkontext erschließt.

  7. Was kann es aber unabhängig von bestimmten Handlungsabläufen geben, was sich in all den verschiedenen Situationen ‚durchhält‘? Ferner muss man auch fragen, ob es unbedingt ‚für andere erkennbar‘ sein muss? Kann es nicht sogar sein, dass ein Mensch ’sich selbst treu‘ bleibt, wenn er in verschiedenen Situationen und Lebensphasen ganz unterschiedliche Dinge tut, in denen ein ‚Außenstehender‘ nur ‚Widersprüchliches‘ erkennt obwohl es aus Sicht des Handelnden einen ‚roten Faden‘ gibt. Wäre solch ein Mensch ‚authentisch‘ … sozusagen mit einer verborgenen Authentizität? Wäre ‚das Authentische‘ dann eher eine subjektive Kategorie, ein ’sich selbst treu bleiben‘ im Laufe unterschiedlichster Situationen? Wenn wir aber annehmen müssen, dass das Bild von einem selbst sehr fehleranfällig, sehr unvollständig ist, dann wäre eine Authentizität, die sich an diesem problematischen Selbstbild orientiert, nicht minder problematisch und fehleranfällig.

  8. Möglicherweise haben wir hier einen ersten ‚Ankerpunkt‘ für die Bedeutung von ‚Authentizität‘. Da wir wissen, dass jede Form von Wissen grundsätzlich unvollständig und fehleranfällig ist, bleibt uns nur die bescheidene Möglichkeit, mit dem Wenigen, was wir haben, ’sorgsam umzugehen‘. Wir können versuchen, das Wenige, was wir tatsächlich meinen zu wissen und vom dem wir glauben, dass es ‚wichtig‘ sein könnte, dieses in jeder Hinsicht so ‚transparent‘ wie möglich zu ‚bewahren‘ und es zu ‚benutzen‘. Da wir nichts anderes haben als dieses ‚Wenige‘ entscheidet Sorgsamkeit, Ehrlichkeit, Transparenz darüber, ob wir mit diesem Wenigen ‚ein Stück mehr‘ erkennen können, ‚wie es ist‘ oder nicht. In diesem Sinne ist unser eigener Umgang mit dem Wenigen, was wir haben die Voraussetzung für nächste Schritte bzw. für die Integration von einzelnen Aspekten zu größeren Zusammenhängen. Ich könnte mir vorstellen, dass wir einen Menschen, der in diesem grundlegenden Sinne ’sorgsam‘, ‚ehrlich‘, ‚transparent‘ mit sich selbst und anderen umgeht, etwas ‚Authentisches‘ hat, dass er eine ‚Atmosphäre‘ ‚ausstrahlt‘, in der man ‚vertrauen‘ kann, sich ‚entspannen‘ kann usw. Ein authentischer Mensch in diesem Sinne repräsentiert daher einen ‚Raum von Transparenz, Ehrlichkeit, Sorgsamkeit, Verantwortlichkeit‘, von der aus sich im Prinzip alles erreichen lässt, was wichtig ist, allerdings in – meistens – vielen Schritten, längeren Zeiträumen, mit viel Energie, mit viel Arbeit, mit einer ’sich selbst speisenden‘ Motivation und Zufriedenheit, die sich nicht aus ‚Sachen‘ speist, sondern aus einer Haltung, einem Prozess, einem sich daraus ergebenden Zustand.

  9. Ich glaube nicht, dass man in irgendeinem Buch (Wörterbuch, Lexikon,…) dieser Welt im einzelnen nachlesen kann, was ‚authentisch‘ ist. Wer für sich selbst diesen ‚Zustand‘ nicht selber findet, wird niemals verstehen können, was es ist (wie mit allen wichtigen Dingen). Zugleich gibt es keinen harten Grund, warum nicht grundsätzlich jeder Mensch ein ‚authentischer Mensch‘ werden könnte, wenngleich Schmerzen, Folter, Terror, Überlebenskampf und dergleichen starke Faktoren sind, die einen Menschen darin behindern können. Doch gibt es viele Beispiele, wo Menschen selbst unter solchen extremen Umständen ihren authentischen Charakter beibehalten haben. Letztlich gibt es für uns Menschen auch keine wirkliche Alternative zum Authentischsein. Wer in den elementaren Dingen des Lebens Kompromisse mit dem Nicht-Authentischen eingeht, zerstört letztlich seine eigene Lebensgrundlage und damit meistens auch die Lebensgrundlage von anderen Menschen. Wir sind niemals alleine: weder im Empfangen noch im Geben. Die Vorstellung des Alleine-Seins ist ein tragischer Irrtum, der den Keim der Lüge und Unwahrheit von Anbeginn in sich trägt und mehr zur Selbstzerstörung beiträgt als alles andere. Jeder Mensch braucht den anderen Menschen, und zwar so authentisch wie möglich. Leider garantiert dies keinen Erfolgt im Überlebenskampf. Ohne diese Kunst des wechselseitigen Authentischseins kann es aber auch keinen nachhaltigen Erfolg geben, da Authentischsein die Voraussetzung für wahre Erkenntnis ist, diese wiederum ist die Voraussetzung für Theorien (und Technologien), die nachhaltig funktionieren. Große Teile unserer heutigen Lebensweisen und Technologien sind dabei, die Lebensgrundlagen fast aller Arten und damit auch die des Menschen nachhaltig zu zerstören. In diesem Sinne sind sie nicht ‚wahr‘, weil wir, die Urheber und Schöpfer, nicht ausreichend authentisch sind. Wir Verschließen unsere Augen, weil wir uns wechselseitig suggerieren, so schlimm sei es doch nicht, wenn wir es im Detail nicht so genau nehmen, wenn wir uns wechselseitig verletzen und ruinieren. Doch, mit der Wahrheit lässt sich nicht spielen. Sie war schon lange vor unseren modernen Unwahrheiten dar und sie ist unvergleichlich mächtiger. Unwahrheit führt unweigerlich zum Scheitern (dazu braucht man keine ‚Pseudogötter‘ zu beschwören. Die Wahrheit selbst reicht dazu völlig aus).

Spiegelung Umwelt im Gebaeude

Eine Übersicht über alle bisherigen Themen findet sich HIER