SIND VISIONEN NUTZLOS?

Letzte Aktualisierung: 23.Okt.2016 (Formeln wegen Lesbarkeit entfernt)

VERTRAUTER ALLTAG

  1. Jeder kennt das aus seinem Alltag: Menschen tun ihre Pflicht, man tut, was man kennt; Gewohnheiten, Vorschriften, Verordnungen, Gesetze weisen einem den Weg.
  2. Dies hat etwas Vertrautes, es stützt Erwartungen, macht das Geschehen ansatzweise überschaubar, gar berechenbar, man kann ansatzweise planen.
  3. Dann gibt es noch die zeitlichen Rhythmen Woche, Monat Jahreszeiten, Jahr; Fixpunkte des Erinnerns, Planens und Erwartens.
  4. Diese Rhythmen, die erkennbaren Regelhaftigkeiten, spannen einen Raum auf für das mögliche Geschehen, ermöglichen die Koordination mit anderen: Treffen, Urlaubsreisen, Feiern, Freizeiten, Umsatzplanung, Produktionszyklen, Finanzierungsmaßnahmen, Marketingaktionen, Einstellungspläne, Kooperationen mit Zulieferern, Wahlkampfpläne, Gesetzesprojekte im Parlament, ….

… WENN ER WANKT

  1. Ohne diesen erkennbaren und erwartbaren Raum gerät alles ins Schwimmen, entsteht Unsicherheit, werden Pläne unmöglich, das Erreichte fängt an zu Wanken: wird es bleiben? Wie wird es weitergehen?
  2. Die normale Reaktion eines homo sapiens (sapiens) in solch einer Situation sind Unruhe, Sorgen, Ängste, wenn man die Bedrohlichkeit der Situation zu realisieren beginnt. Dies kann in Existenzängste übergehen, Suche nach Rettung, nach Alternativen, nach Ursachen, Verursachern. Was hat dazu geführt? Warum ist das so? Was kann ich tun?

BLICK ZURÜCK

  1. Phasen der Stabilität, des Wohlstands gab und gibt es in der Geschichte des homo sapiens (sapiens) immer wieder. Manchmal Jahrzehnte, mal mehrere Generationen, bisweilen mehrere hundert Jahre. Aber noch nie waren solche Phasen ewig.
  2. Diese Phasen relativer Ruhe mit relativem Wohlstand waren nie monoton, gleichförmig: von sehr reich und mächtig bis sehr arm und rechtlos reichte die Bandbreite immer. Die Armen lebten von der Hoffnung auf den möglichen größeren Reichtum, und die Reichen und Mächtigen lebten von ….?
  3. Länger andauernder Wohlstand setzt immer lang andauernde stabile Verhältnisse voraus in denen all jene Tätigkeiten stattfinden können, die Nahrung ermöglichen, Wohnräume jeglicher Art, Handwerk, Verkehr, Technologien, Regeln des Zusammenlebens, Sicherung von Ordnung durch effektive Bestrafung der Abweichler, Sicherung von Ordnung durch effektive Abwehr nach außen, Weitergabe und Entwicklung von Wissen, geeignete Ausbildung von Menschen zum Erhalt der bestehenden Abläufe, notwendige Rohstoffe, geeignete Ökosysteme …..
  4. Je komplexer eine Gesellschaft des homo sapiens (sapiens) war, umso anfälliger wurde sie: Naturkatastrophen gab und gibt es immer wieder: Zu viel Regen, zu wenig Regen, schwere Unwetter mit Blitzen, Feuerereignissen, Vulkanausbrüche, Erdbeben, Tsunamis, Meteoriteneinschläge, Asteroiden; dazu mikrobakterielle Veränderungen, die sich in neuen Krankheiten zeigten, auf die das menschliche Immunsystem nicht sofort eine Antwort fand, …
  5. Auch gab es Ressourcenknappheiten: Erde erschöpft sich, Trinkwasser geht zur Neige, zu wenig Nahrung für die lebenden Menschen (und Tiere), Energiequellen versagen, Arten sterben aus, Verschmutzung der Umwelt macht vieles unbrauchbar, …
  6. Manche Veränderungen sind punktuell in Raum und Zeit, andere dauern an, erstrecken sich über größere Regionen, oder sind periodisch (Überschwemmungen, Brände,…)…

REAKTIONEN AUF VERÄNDERUNGEN

  1. Auf viele lebensfeindliche Ereignisse kann der homo sapiens (sapiens) reagieren, wenn er davon Kenntnis hat und hinreichend viele Menschen sich einig sind, wie sie es verhindern können und sie es auch gemeinsam wollen. Andere sind schwer voraussagbar, sind zu selten und schwer erkennbar; wieder andere setzen sehr viel Wissen, hinreichende Technologien, und hinreichende kulturelle und politische Strukturen voraus, um darauf langfristig und nachhaltig reagieren zu können (Klima, Ressourcenzerstörung, Verhältnis von Ernährung und Bevölkerung, …).

AUFBÄUMEN GEGEN BEDROHUNG(EN)

  1. Auffällig ist, dass aber zu allen Zeiten die Menschen bei Bedrohung, Unglücken, Katastrophen nach Ursachen suchen, nach Verursachern oder nach eigener Schuld. Der Wille zum Leben gibt sich nicht mit dem Ereignis zufrieden. Der Wille zum Überleben sucht nach Anhaltspunkten, wie man Bedrohungen abwehren, sie überwinden kann. Aber welche Chancen hat ein einzelner homo sapiens (sapiens), eine ganze Population von Menschen?
  2. Eines ist ganz klar, was immer ein homo sapiens (sapiens) tun will, er hängt von dem Wissen ab, was sich gerade in seinem Kopf befindet, von den Handlungsmöglichkeiten der aktuellen Situation, und von der Fähigkeit, sich mit anderen zu koordinieren.
  3. Und in ungewöhnlichen Situationen zeigt sich eines sehr deutlich: auch wenn man aktuell nichts wirklich tun kann, wenn man nicht wirklich weiß, was man tun kann, dann tendiert der homo sapiens (sapiens) dazu, irgend etwas zu tun, nur um das Gefühl zu haben, er tue ja etwas. Das Gefühl des Nichtwissens, der Alternativlosigkeit, der darin aufkeimenden Ohnmacht ist so unerträglich, dass der homo sapiens (sapiens) dann irgend etwas tut, nur um nicht Nichts zu tun.
  4. Ist das dumm? Ist das primitiv? Ist das lächerlich? Ist das gefährlich?
  5. Halten wir einen Moment inne und schauen zurück (weil wir heute vieles wissen können, was hunderte, tausende Generationen vor uns nicht wissen konnten).

VOR SEHR LANGER ZEIT (KEIN MÄRCHEN)

  1. In der Zeit vor dem homo sapiens (sapiens) – viele Milliarden Jahre – als es nur einzelne Zellen oder einfache Zellverbände gab, beherrschte das biologische Leben zwar die Kunst, sich selbst zu vermehren (bis heute eines der größten Wunder im Universum und noch immer nicht vollständig aufgehellt!), aber das biologische Leben in Gestalt der Zellen verfügte über keinerlei Möglichkeit, in der aktuellen Situation der Selbstreproduktion im großen Maßstab über Alternativen, Varianten, mögliche Szenarien nachzudenken. Es besaß keinerlei Wissen über die weitere Zukunft. Die Zukunft war eine unfassbar große Wand des Nichtwissens, undurchdringlich. Das einzige, was verfügbar war, das waren genetisch kodierte Informationen über solche Baupläne, die in der zurückliegenden Geschichte überlebt hatten. Überlebt in einer Welt, der Erde, die selbst in beständiger Veränderung war, tiefgreifenden Veränderungen. Alles, was bisher erfolgreich war garantierte in keiner Weise, dass es morgen auch noch erfolgreich sein würde. Das Leben stand vor einer eigentlich unlösbaren Aufgabe: es musste Formen annehmen, die in einer Welt überleben können, die als solche noch nicht bekannt waren.
  2. Zu einem bestimmten Zeitpunkt t definierten die vielen genetisch kodierten möglichen Baupläne G in den Zellen mögliche Lebensformen L, die sich in der Vergangenheit in einer bestimmten Umwelt U bewährt hatten. Diese Umwelt ist aber nicht statisch sondern dynamisch, d.h. von einem Zeitpunkt t zu einem anderen späteren Zeitpunkt verändert sie sich nach bestimmten Regeln V; diese Veränderungsregeln sind dem Leben zum Zeitpunkt t nur partiell bekannt, und nur indirekt, kodiert im genetischen Kode. Heute wissen wir (wir glauben es zu wissen), dass diese Veränderungsregel V ein Bündel von Regeln ist, die unterschiedlich stabil sind, weil eine Veränderung der Umwelt U auch zurück wirkt auf manche Aspekte der Veränderungsregel V. Wir haben also eine Veränderungsregel V, die sich im Laufe der Zeit partiell selbst ändert …
  3. Im Nachhinein betrachtet hatte das biologische Leben extrem schlechte Karten. Keine Bank dieser Welt hätte einem solchen Kandidaten einen Kredit gewährt; keine Versicherung dieser Welt würde das Risiko des Lebens zu den frühen Zeiten versichert haben; kein Investor dieser Welt hätte je in das Projekt des Lebens investiert; keine bekannte politische Bewegung hätte auf dieses Leben gesetzt, keine Religion dieser Welt hat jemals über dieses biologisch Leben geredet …. Ein Grund dafür ist sicher, dass die menschliche Akteure von der Art homo sapiens (sapiens) nur eine vergleichsweise verschwindend geringe Lebenserwartung haben verglichen mit den Zeiträumen, in denen sich das Projekt des Lebens auf der Erde (und damit auch im Universum) in seinem sichtbaren Teil in vielen Milliarden Jahren entwickelt hat.
  4. Rein Mathematisch (soweit wir heute Mathematik entwickelt haben) hatte das biologische Leben vor dem homo sapiens (sapiens) keine wirkliche Chance, und dennoch hat es überlebt, 3.8 Mrd Jahre im sichtbaren Teil. Wie? Warum?

DAS NOTORISCH UNBERECHENBARE AM LEBEN

  1. Das biologische Leben hat bis heute viele unaufgeklärte Geheimnisse. Neben dem Selbstreproduktionsmechanismus, der wertvolle Informationen aus der Vergangenheit enthält, ist der Prozess der Weitergabe von Informationen und deren Umsetzung in eine neue, lebensfähige Struktur, nicht deterministisch, nicht 1-zu-1!
  2. Der Prozess ist aus sich heraus vielfältig, lässt Variationen zu, Abweichungen, schafft neue Kombinationen, so dass die Menge der genetisch kodierten Informationen G in den Zellen eben nicht eine eindeutige Menge L von möglichen Lebensformen kodiert, sondern eine partiell undefinierte Menge L*, die sich aus den Variationen innerhalb des Prozesses herleiten. Diese Menge L* weicht von der Erfahrung der Vergangenheit mehr oder weniger stark ab. Sofern die neue Umwelt U‘, die auf eine aktuelle Umwelt U aufgrund der jeweiligen Weltveränderungsregel V folgt, mit der ursprünglichen Umgebung U hinreichend ähnlich ist, hatte jener Anteil von Lebensformen in den neu realisierten Lebensformen L*, die noch den alten Lebensformen L entsprachen, gute Chancen, zu überleben. Diejenigen Lebensformen in L*, die zu neu waren, möglicherweise nicht. Sofern aber die neue Umwelt U‘ sich von der vorausgehenden Umwelt U in machen Punkten unterscheidet, haben dagegen die Lebensformen, die den vorausgehenden Lebensformen L ähneln, weniger Aussichten auf das Überleben; die Lebensformen aus der neuen Menge von Lebensformen L*, die sich von den alten Lebensformen L hingegen unterscheiden, möglicherweise schon. Vor dem Ereignis von L* in U‘ konnte der Mechanismus der Selbstreproduktion dies nicht wissen; volles Risiko war notwendig! Man kann dies die Urform von Kreativität nennen, von Genietum, von Verrücktheit ….Es ist tief verwurzelt im Kern des geheimnisvollen Lebens…
  3. Normale wahrscheinlichkeitstheoretische Modelle sind nicht in der Lage, diese Prozesse angemessen zu beschreiben. In jeder Phase des Lebens (und es gab ja Millionen von Phasen) sind sie zum Scheitern verurteilt.
  4. Fakt ist nur, dass das Leben mit dieser Methode aus Erinnerung (= genetisch kodierte Informationen aus der Vergangenheit) + voll riskante Variationen (Würfeln gegen die unbekannte Zukunft) es geschafft hat, eine wahrscheinlichkeitstheoretische Unmöglichkeit in ein (bisher) Erfolgsmodell zu verwandeln, das eine Komplexität erreicht hat (z.B. allein der Körper eines einzelnen homo sapiens (sapiens) besitzt etwa 120 Milchstraßen-Galaxien an Zellen, die hochkomplex miteinander interagieren), die unser aktuelles Verstehen noch weitgehend überfordert.

LEHREN AUS DER VERGANGENHEIT?

  1. Was das biologische Leben uns, die wir ein Produkt dieses Lebens sind – und auch nur ein Teil davon – damit sagen kann/ will, ist ziemlich klar. Ein aktuelles Wissen von der Welt und dem Leben auf der Erde (und im Universum) ist niemals vollständig. Die objektiven Grenzen eines aktuellen Wissens zu überwinden kann nur gelingen, wenn man sich nicht in den objektiven Grenzen einmauert, sondern diese Grenzen durch ein ganzes Feuerwerk an Experimenten jenseits des Bekannten zu durchbrechen, zu überwinden sucht. Dies kann man Kreativität nennen, Visionen, Träume, Verrücktheit, Genietum … egal wie wir es nennen, ohne ein hinreichendes Maß an Verrücktheit, Kreativität, Mut zum Risiko hat das Leben keine Zukunft. In einer dynamischen Welt kann das Wissen um die Vergangenheit nicht der alleinige Maßstab für die mögliche Zukunft sein. Hätte das biologische Leben in der Vergangenheit nur das wiederholt, was bislang Erfolg hatte, es wäre schon lange gescheitert. Die Wahrheit des Lebens liegt nicht nur in ihm selbst, sondern in ihm und in Wechselwirkung mit einer dynamischen Umgebung, also mindestens mit dem bekannten Universum.
  2. Jetzt werden manche sagen, dass wir ja heute so viel mehr wissen. Wir können die Entstehung des bekannten Universums sehr weitgehend nachvollziehen und simulieren; wir haben technisches Knowhow, komplexe Maschinen, Gebäude, ganze Städte zu bauen; wir haben neue Informationstechnologien, um mehr Daten zu verwalten, sie zu finden, sie neu zu kombinieren ….
  3. Das ist richtig. Das Leben hat in Gestalt des homo sapiens (sapiens) Handlungsräume ermöglicht, die noch vor 100-200 Jahren unvorstellbar waren.
  4. Wahr ist aber auch, dass wir zunehmend die inhärenten Grenzen der bisherigen Methoden erkennen: der homo sapiens (sapiens) ist dabei, die Lebensgrundlage Erde weitgehend und nachhaltig zu stören oder gar zu zerstören. Die neue Vielfalt an Wissen, Lebensformen, Handlungsmöglichkeiten überfordert das aktuelle Format des Erlebens und Verstehens eines einzelnen homo sapiens (sapiens). Statt Frieden weltweit und Wohlstand für alle produziert der homo sapiens (sapiens) krasse Unterschiede zwischen Reich und Arm, zwischen Ernährung und Wasser im Überfluss in einer Region und Hunger und Wassermangel in einer anderen; statt globaler Friedensgesellschaft mit gemeinsamer Verantwortung (Vision der United Nations) beobachten wir wieder eine Tendenz zum Nationalismus, zur Radikalisierung, zu Fanatismus, zu Vereinfachungen.
  5. Die begrenzte Lebenszeit des homo sapiens (sapiens) und sein biologisch begrenztes Verstehen werden zum Stolperstein, das größere Ganze, den Zusammenhang zwischen allem, die großen Perspektiven wahrzunehmen und danach zu handeln. Die sogenannten nationalen Führer erweisen sich als krasse Zwerge gemessen an den Anforderungen der je größeren Zukunft.
  6. Mathematisch ist die Prognose für den homo sapiens (sapiens) als Teil des Lebens wie schon immer schlecht.
  7. Die Botschaft der Vergangenheit sagt aber, im Phänomen des Lebens steckt mehr als das, was die endlichen Gehirne eines homo sapiens (sapiens) bislang denken.
  8. Die Zukunft wird erzählen, was stimmt. Ganz unbeteiligt sind wir nicht. Visionen sind nicht unbedingt schlecht. Wir alle sind ein Produkt der Visionen von vielen Milliarden Jahren von aberwitzig vielen Experimenten.

Eine Übersicht über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

Eine Übersicht über alle Themen dieses Blogs findet sich HIER.

CONSCIOUSNESS – BEWUSSTSEIN. Review von Nick Lane’s Kap.9 aus ‚Life Ascending‘ (2009)

Nick Lane „Life Ascending“, London: Profile Books Ltd, 2009 (Paperback 2010)

KONTEXT ZU DIESEM EINTRAG

  1. Dieser Blogeintrag beschäftigt sich mit Kap.9 von Nick Lane’s Buch (s.o.) mit dem Thema Consciousness (Bewusstsein). Dieser Besprechung gingen schon drei andere voraus. Diese finden sich hier.
  2. Das Erkenntnisinteresse liegt hier einmal darin, seine Position darzustellen, zum anderen aber auch, um seine Position einzuordnen in den größeren erkenntnistheoretischen und wissenschaftsphilosophischen Kontext der Frage nach der möglichen Rolle von Bewusstseinsdaten im Verhältnis zu den empirischen Verhaltens- und Körperwissenschaften.
  3. Wie man aus den bisherigen Blogeinträgen von cagent leicht entnehmen kann, spielte diese Frage von Anbeginn des Blogs eine wichtige Rolle.

BEWUSSTSEIN IN EINEM KÖRPER

Notizen Teil 1 zur Lektüre von Kap.9 aus Nick Lane's Buch 'Life Ascending' (2009)

Notizen Teil 1 zur Lektüre von Kap.9 aus Nick Lane’s Buch ‚Life Ascending‘ (2009)

  1. Ausgangspunkt ist die Annahme, dass das Phänomen des menschlichen Bewusstseins normalerweise im Kontext eines Gehirns in einem Körper erfahren wird.
  2. Der Körper entsteht im Rahmen eines Wachstumsprozesses (Ontogenese) aus einer befruchteten Zelle.
  3. Jeder individuelle Körper ist Teil einer umfassenderen Population, die immer das Ergebnis eines evolutionären Entstehungsprozesses ist.
  4. Das Verhalten der Ausgangs-Zelle im Wachstumsprozess wird von Genen gesteuert. Diese bestimmen das entstehende Gehirn in seinen Grundstrukturen (z.B. Größe der Gehirnbereiche, Verhältnis von aktivierenden und hemmenden Neuronen, die quantitativen Mengen der verschiedenen Neurotransmitter, usw.).(vgl. S.247)
  5. Aufgrund des Verhältnisses von ca. 1 Gen zu ca. 8 Mrd. Synapsen (nach Christoph Koch, vgl. S.247) ist klar, dass die Gene nicht die Details der neuronalen Verschaltungen festlegen können. Diese ergibt sich vielmehr aus der Interaktion des Gehirns mit seiner Umgebung (dem Körper). Durch diese Interaktionen (= Lernprozesse) werden manche Verbindungen gestärkt, andere schwächen sich ab; die ungenutzten sterben weg.

DREI WEISEN DER REALITÄT

Notizen Teil 2 zur Lektüre von Kap.9 aus Nick Lane's Buch 'Life Ascending' (2009)

Notizen Teil 2 zur Lektüre von Kap.9 aus Nick Lane’s Buch ‚Life Ascending‘ (2009)

  1. Interessant ist, dass das Reden über das Phänomen des Bewusstseins mindestens drei Wirklichkeitsbereiche voraussetzt: (i) Es gibt einmal den Körper, in dem physikalische, chemische, Biochemische Prozesse ablaufen, die u.a. körperinterne Zustände und Zustandsänderungen kodieren, repräsentieren und miteinander interagieren lassen.
  2. Dann gibt es (ii) Objekte und Ereignisse außerhalb des Körpers, durch die die Körperprozesse nur insoweit tangiert werden, als diese körperexternen Gegebenheiten sich durch Interaktion mit dem Körper irgendwie als Zustandsänderungen im Körper ZVe niederschlagen. Diese körperinternen Zustandsänderungen ZV sind nicht die verursachenden Objekte selbst!
  3. Insofern die extern verursachten Zustandsänderungen des Körpers wiederum mit Teilen des Gehirns interagieren, kann das Gehirn (nn) unterschiedliche Verrechnungsprozesse starten, die zu unterschiedlichen Ereignisstrukturen (ZVnn) führen (also eine Abbildung der Art nn: ZVe —> ZVnn, oder rekursiv: nn: ZVe x ZVnn —> ZVnn x ZVe).
  4. Dass die vom Gehirn errechneten Repräsentationen ZVnn irgend etwas mit der realen Welt außerhalb des Körpers zu tun haben, ist – im ersten Ansatz gedacht – zunächst eher unwahrscheinlich. Warum sollte es einen Zusammenhang geben? Dem steht die tägliche Erfahrung gegenüber, dass jeder Mensch normalerweise das Gefühl hat, dass das Bild, das sein Gehirn von der Außenwelt erzeugt, genau diese Außenwelt ist. Das ist ein Paradox.
  5. Schließlich gibt es noch (iii) die Erlebnisse aus der ersten Person Perspektive, die individuellen persönlichen (privaten, subjektiven) Erlebnisse, Wahrnehmungen, Gefühle, die zwar jeder hat, aber die von einer anderen Person (dritte Person Perspektive, intersubjektiv, empirisch) nicht direkt wahrgenommen werden können.
  6. Für die wahrnehmende Person sind diese subjektiven Erlebnisse real, unmittelbar erlebbar, eine Vielzahl unterscheidbarer Eigenschaften (Qualitäten, Qualia), die alle zusammen vereint erscheinen, eingebunden in ein erlebbares Ganzes, dabei kontinuierlich fließend, d.h. jede Situation geht unmerklich über in die nächste.
  7. Das zweite Paradox ist, dass dieses subjektive Erleben der Welt aus sich heraus keinerlei Rückschlüsse zulässt über jene (neuronalen, physiologischen) Prozesse im Körper, die in der Tat diesen subjektiven Erlebnisstrom erst ermöglichen.
  8. Während sich die physiologischen und neuronalen Prozesse biochemisch beschreiben lassen, man sie detailliert messen kann, entziehen sich die subjektiven Wahrnehmungen jedem messenden Zugriff. Während einige der neuronalen Prozesse zeitlich mit bewussten Wahrnehmungen korrelieren, gilt dies für die große Masse der neuronalen Prozesse nicht. Deren Ablauf erscheint völlig unkorreliert mit möglichen bewussten Wahrnehmungen. Wann ist ein biochemischer Prozess mit Bewusstsein verknüpft, wann nicht? Dies gilt – nach dem Philosophen David Chalmers – als das sogenannte ‚harte Problem‘ des Bewusstseins. (vgl. S.236)

INTERAKTIONEN GEHIRN UND BEWUSSTSEIN

Notizen Teil 3 zur Lektüre von Kap.9 aus Nick Lane's Buch 'Life Ascending' (2009)

Notizen Teil 3 zur Lektüre von Kap.9 aus Nick Lane’s Buch ‚Life Ascending‘ (2009)

  1. Obwohl die genaue Natur des Wechselverhältnisses zwischen intersubjektivem (= empirischem) Gehirn (NN) und subjektivem Bewusstsein (PH) bislang nicht aufgeklärt werden konnte, gibt es doch sehr viele konkrete Fälle, durch die man mögliche Hypothesen über die Wechselwirkung zwischen NN und PH aufstellen kann.
  2. Eine Klasse von Fällen beruht auf Verletzungen/ Zerstörungen/ Ausfällen bestimmter physischer Teile des Gehirns (NN*), die mit typischen Veränderungen im Verhalten der betreffenden Personen (SR*) korrelieren bzw. die oft auch von den betreffenden Personen (PH*) verbal kommentiert werden. Also eine Abbildung der Form: CORR(NN*, SR*). Eine andere Klasse von Fällen beruht auf der umgekehrten Wirkrichtung: man erzeugt bewusst bestimmte Verhaltensreize S‘, die dann bei einem bestimmten Gehirn NN zu bestimmten Gehirnaktivitäten (NN(t)) sowie zu bestimmten Antwortreizen R‘ führen. also nn: S‘ x NN —> NN x R‘.
  3. Zu den einzelnen Fällen siehe SS.238ff
  4. Aus all den Experimenten schält sich heraus, dass das bewusste Erleben von der Art der neuronalen Prozesse direkt und reproduzierbar beeinflusst wird, obgleich bis heute unklar ist, was genau die bewussten Erlebnissen sind.
  5. Ferner zeigt sich, dass das subjektive Erleben zwar als eine Einheit von vielen Eigenschaften (Qualia) zugleich erscheint, die korrelierenden neuronalen Prozesse aber über das ganze Gehirn verteilt sein können. Aus diesem Befund wir die Hypothese hergeleitet, dass dass das Gehirn über Mechanismen verfügt, unterschiedliche Prozesse und Bereiche zum richtigen Zeitpunkt und sachlich angemessen zu korrelieren (hier werden genannt Edelman, Crick und Koch, sowie Singer). (vgl. SS.245ff) Dazu gehört auch die verfeinernde Annahme, dass die Vielzahl der Prozesse eine bottom-up Struktur haben, eine implizite Hierarchie, in der viele Details im weiteren Verlauf immer mehr abstrahiert und mit anderen Prozessen korreliert werden. Nur die obersten Stufen dieser Hierarchie (nicht alle) sind gewöhnlich bewusst.
  6. Letztere Annahme macht es zwar einerseits plausibel, warum und wie das Bewusstsein situationsbezogen genau jene groben Strukturen wahrnimmt, um die es gerade geht, ohne all die Milliarden Details im Untergrund, macht es aber noch spannender mit der Frage, wann, wie, und warum bestimmte biochemische Prozesse in solche bewusste Tatbestände umschlagen und andere nicht. Die berühmte Frage nach den neuronalen Korrelaten des Bewusstseins (NKB) (’neurol correlates of consciousness (NCC)‘)(vgl. S.243)

ERSTE LOKALISIERUNG DES BEWUSSTSEINS

  1. Berücksichtigt man all die vorangehenden Fakten und Hypothesen, dann bleibt es immer noch offen, ob man das Bewusstsein doch noch irgendwie weiter einkreisen kann. Lane lässt sich hier u.a. von Wissenschaftlern wie Julian Jaynes, Derik Denton, Steven Rose, Gerald M.Edelman, Antonio Damasio und José Musacchio inspirieren.
  2. Danach ermutigen  zahlreiche Befunde die Hypothese, dass das Bewusstsein primär im alten Teil des Gehirns gründet (Gehirnstamm, Mittelhirn), in dem die vielfältigen Körperzustände repräsentiert und kontrolliert werden. Hier sind auch die primären Emotionen wie Hunger, Durst, Angst, sexuelle Lust und Schmerz verankert, die alle für das Überleben des Organismus von zentraler Bedeutung sind. Diese kommentieren alle Körperzustände automatisch und wirken sich direkt steuernd auf das Verhalten aus. Jüngere Gehirnteile (wie der Neokortex) können zwar das sachliche Weltbild erheblich weiter ausdehnen, differenzieren, setzen aber das primäre Körpermodell mit seinen emotionalen Kommentaren weiterhin voraus.
  3. Nach Lane sieht Damasio das moderne Selbstbewusstsein verortet als eine neue Berechnungsstufe oberhalb des alten Körpermodells und den neuen Sachdimensionen. Das ausgeweitete und differenziertere Bild der Objekte und Ereignisse in der Außenwelt vermittelt durch den Neokortex wird permanent in seinen Wechselwirkungen mit dem Körpermodell abgeglichen. Dieses liefert auch kontinuierlich emotionale Kommentare. Auf der abstrakteren Ebene können die Körperdaten mit den neuen Situationsmodellen verrechnet werden. Sprache bedeutet sowohl eine neue Repräsentationsebene (Laute, Zeichen, Gesten, …= Syntax)) wie auch eine neue Bedeutungsebene (Abbildung von Zeichenrepräsentanten auf Objektrepräsentanten, einschließlich den Emotionen = Semantik, auch Pragmatik). Insofern jeder Mensch eine hinreichend ähnliche neuronale Struktur besitzt ist auf diese Weise begrenzt eine Kommunikation über die jeweils subjektiven Zustände möglich, aber nur soweit, als die beteiligten Personen über hinreichend ähnliche Erfahrungen verfügen.

ONTOLOGISCHER STATUS DES BEWUSSTSEINS

  1. Bleibt noch die Frage, wie man die Phänomene des Bewusstseins ontologisch einordnen kann/ soll.
  2. Für den Wahrnehmenden sind sie subjektiv real. Verglichen mit Prozessen außerhalb des bewussten Wahrnehmungsraumes ist ihr Status völlig offen.
  3. Lane diskutiert auch explizit Hypothesen aus dem Bereich der Quantenphysik. (vgl. SS.252ff) Doch weder lassen sich diese Hypothesen bisher experimentell überprüfen noch sind sie logisch überzeugend. Die Phänomene des Bewusstseins reräsentiern keine Quantenstruktur.(vgl. S.254)

ABSPANN

  1. Dieses Kapitel 9 von Lane (hier nur in Teilen wieder gegeben) liefert inhaltlich mehr Anregungen als so manches komplettes Buch zum Thema Bewusstsein.
  2. Viele Fragen sind weiterhin offen.
  3. Interessant ist die Frage, wie sich die bekannten psychologischen und neuropsychologischen Gedächtnismodelle zu dieser (anfangshaften) Theorie des Bewusstseins verhalten.
  4. Bislang werden diese Gedächtnismodell unabhängig von Fragen der Bewusstseinstheorie oder der Gehirnentwicklung diskutiert. Auch haben die so einflussreichen Emotionen in diesen Theorien keinen rechten Platz.
  5. Ferner ist das methodische Problem einer Theorie des Bewusstseins angesichts der Vielzahl an Disziplinen und Methoden keineswegs geklärt. So rekurrieren die Gehirnforscher oft und gerne auf korrelierendes Verhalten oder auf korrelierende Bewusstseinstatbestände, ohne dass sie aber auf die methodischen Probleme dieser andersartigen Daten explizit eingehen noch dass sie überhaupt explizite verhaltensbasierte oder bewusstseinsbasierte Theorien voraussetzen. Neuropsychologie und Neurophänomenologie sind wirkliche Desiderata, die allerdings sowohl eine theoriefähige Psychologie wie auch eine theoriefähige Phänomenologie voraussetzen.
  6. Zur Frage der ontologischen Geltung würde ich gerne die Hypothese beisteuern, dass möglicherweise die Bewusstseinsdaten emergente Phänomene sind analog wie viele andere Phänomene, wie z.B. auch die Gravitation. Dies bedeutet, dass unsere Materie nicht nur jene Eigenschaften implizit enthält, die sich im Verlauf der biologischen Evolution in immer komplexeren Zusammenhängen gezeigt haben, sondern im synchronisierten Zusammenwirken von Milliarden von Neuronen entsteht ein Ereignisfeld, das genau jene Qualität zeigt, die wir Bewusstsein nennen. Analog ist die Gravitation auch nur erfahrbar in bestimmten Konstellationen von Materie, ohne dass die Gravitation solch ein einzelner Körper wäre.

Eine Überscht über alle bisherigen Blogenträge des Autors cagent nach Titeln findet sich HIER.

BUCHPROJEKT 2015 – Zwischenreflexion 18.August 2015 – INFORMATION IN DER MOLEKULARBIOLOGIE – Maynard-Smith

Der folgende Beitrag bezieht sich auf das Buchprojekt 2015.

SPANNENDER PUNKT BEIM SCHREIBEN

1. Das Schreiben des Buches hat zu einem spannenden Punkt geführt, der mich seit Jahren umtreibt, den ich aber nie so richtig zu packen bekommen habe: alle große begriffliche Koordinaten laufen im Ereignis der Zelle als einer zentralen Manifestation von grundlegenden Prinzipien zusammen. Die Physik hat zwar generelle Vorarbeiten von unschätzbarem Wert geleistet, aber erst das Auftreten von selbst reproduzierenden molekularen Strukturen, die wir (biologische) Zellen nennen, macht Dynamiken sichtbar, die ‚oberhalb‘ ihrer ‚Bestandteile‘ liegen. Dies könnte man analog dem physikalischen Begriff der ‚Gravitation‘ sehen: dem physikalischen Begriff entspricht kein direktes Objekt, aber es beschreibt eine Dynamik, eine Gesetzmäßigkeit, die man anhand des Verhaltens der beobachtbaren Materie indirekt ‚ableitet‘.

DYNAMIK BIOLOGISCHER ZELLEN

2. Ähnlich verhält es sich mit verschiedenen Dynamiken von biologischen Zellen. Die Beschreibung ihrer einzelnen Bestandteile (Chromatin, Mitochondrien, Golgiapparat, Membran, …) als solcher sagt nichts darüber aus, was tatsächlich eine biologische Zelle charakterisiert. Ihre Haupteigenschaft ist die generelle Fähigkeit, eingebettet in eine allgemeine Entropiezunahme sich eine Struktur zu generieren, die sich temporär funktionsfähig halten kann und in der Lage ist, Informationen zu sammeln, mittels deren sie sich selbst so kopieren kann, dass die Kopie sich von neuem zu einer funktionsfähigen Struktur aufbauen kann. Wie dies im einzelnen chemisch realisiert wurde, ist beeindruckend, es ist atemberaubend, aber es ist letztlich austauschbar; für die Gesamtfunktion spielen die chemischen Details keine Rolle.

BEGRIFF INFORMATION

3. Und hier beginnt das Problem. Obwohl es von einem theoretischen Standpunkt aus klar ist, dass die Details noch nicht die eigentliche Geschichte erzählen, wird in den vielen umfangreichen Büchern über Genetik und Molekularbiologie die eigentliche ‚Story‘ nicht erzählt. Dies fängt schon an mit dem wichtigen Begriff der Information. Spätestens seit Schrödingers Buch von 1944 „What is Life?“ ist klar, dass das selbstreproduktive Verhalten von Zellen ohne das Genom nicht funktioniert. Und es wurde auch sehr bald der Begriff der Information eingeführt, um den ‚Inhalt‘ des Genoms theoretisch zu klassifizieren. Das Genom enthält ‚Informationen‘, aufgrund deren in einer Vererbung neue hinreichend ähnlich Strukturen entstehen können.

STATISTISCHER INFORMATIONSBEGRIFF

4. Leider wurde und wird der Informationsbegriff im Sinne des rein statistischen Informationsbegriffs von Shannon/ Weaver (1948) benutzt, der explizit Fragen möglicher Bedeutungsbezüge (Semantik) außen vor lässt. Damit ist er eigentlich weitgehend ungeeignet, der Rolle der im Genom verfügbaren Informationen gerect zu werden.

MEHR ALS STATISTIK

5. Einer, der diese Unzulänglichkeit des rein statistischen Informationsbegriffs für die Beschreibung der Rolle der Information im Kontext des Genoms und der Zelle samt ihrer Reproduktionsdynamik immer kritisiert hatte, war John Maynard Smith (1920 – 2004). In seinem Artikel “ The concept of information in biology“ von 2000 kann man dies wunderbar nachlesen.

6. Zwar hat auch Maynard Smith keine explizite übergreifende Theorie der Reproduktionsdynamik, aber er kann an verschiedenen Eigenschaften aufweisen, dass der rein statistische Informationsbegriff nicht ausreicht.

7. Während im Shannon-Weaver Modell ein fester Kode A von einem Sender in Transportereignisse übersetzt (kodiert) wird, die wiederum in den festen Kode A von einem Empfänger zurückübersetzt (dekodiert) werden, ist die Lage bei der Zelle anders.

8. Nimmt man an, dass der zu sendende Kode das DNA-Molekül ist, das in seiner Struktur eine potentielle Informationssequenz repräsentiert, dann ist der Sender eine Zelle in einer Umgebung. Der ‚DNA-Kode‘ (der feste Kode A) wird dann umgeschrieben (Transskription, Translation) in zwei verschiedene Kodes (mRNA, tRNA). Während man die Zustandsform des mRNA-Moleküls noch in Korrespondenz zum DNA-Kode sehen kann (abr nicht vollständig), enthalten die verschiedenen tRNA-Moleküle Bestandteile, die über den ursprünglichen DNA-Kode hinausgehen. Daraus wird dann eine Proteinstruktur erzeugt, die sowohl eine gewisse Kopie des ursprünglichen DNA-Moleküls (Kode A) enthält, aber auch zusätzlich einen kompletten Zellkörper, der mit dem Kode A nichts mehr zu tun hat. Außerdem gibt es den Empfänger bei Beginn der Übermittlung noch gar nicht. Der Empfänger wird im Prozess der Übermittlung erst erzeugt! Anders formuliert: beim biologischen Informationsaustausch im Rahmen einer Selbstreproduktion wird zunächst der potentielle Empfänger (eine andere Zelle) erzeugt, um dann den DNA-Kode im Empfänger neu zu verankern.

9. Innerhalb dieses Gesamtgeschehens gibt es mehrere Bereiche/ Phasen, in denen das Konzept eines rein statistischen Informationsbegriffs verlassen wird.

10. So weist Maynard Smith darauf hin, dass die Zuordnung von DNA-Sequenzen zu den später erzeugten Proteinen mindestens zweifach den statistischen Informationsbegriff übersteigt: (i) die erzeugten Proteinstrukturen als solche bilden keine einfache ‚Übersetzung‘ das DNA-Kodes verstanden als eine syntaktische Sequenz von definierten Einheiten eines definierten endlichen Alphabets. Die Proteinmoleküle kann man zwar auch als Sequenzen von Einheiten eines endlichen Alphabets auffassen, aber es handelt sich um ein ganz anderes Alphabet. Es ist eben nicht nur eine reine ‚Umschreibung‘ (‚Transkription‘), sondern eine ‚Übersetzung‘ (‚Translation‘, ‚Translatio‘), in die mehr Informationen eingehen, als die Ausgangssequenzen im DNA-Kode beinhalten. (ii) Der DNA-Kode enthält mindestens zwei Arten von Informationselementen: solche, die dann in Proteinstrukturen übersetzt werden können (mit Zusatzinformationen), und solche, die die Übersetzung der DNA-Informationselemente zeitlich steuern. Damit enthält der DNA-Kode selbst Elemente, die nicht rein statistisch zu betrachten sind, sondern die eine ‚Bedeutung‘ besitzen, eine ‚Semantik‘. Diese Bedeutung st nicht fixiert; sie kann sich ändern.

ALLGEMEINE ZEICHENLEHRE = SEMIOTIK

11. Für Elemente eines Kodes, denen ‚Bedeutungen‘ zugeordnet sind, gibt es in der Wissenschaft das begriffliche Instrumentarium der allgemeinen Zeichenlehre, spricht ‚Semiotik‘ (siehe z.B. Noeth 2000).

12. Nimmt man die empirischen Funde und die semiotische Begrifflichkeit ernst, dann haben wir es im Fall der Zelle also mit eindeutigen (und recht komplexen) Zeichenprozessen zu; man könnte von der Zelle in diesem Sinne also von einem ’semiotischen System‘ sprechen. Maynard Smith deutet den Grundbegriff von Jacques Lucien Monod (1910-1976) ‚gratuity‘ im Sinne, dass Signale in der Biologie ‚Zeichen‘ seien. Ob dies die Grundintention von Monod trifft, ist eine offene Frage; zumindest lässt die Maschinerie, die Monod beschreibt, diese Deutung zu.

13. Eine zusätzliche Komplikation beim biologischen Zeichenbegriff ergibt sich dadurch, dass eine Zelle ja nicht ‚isoliert‘ operiert. Eine Zelle ist normalerweise Teil einer Population in einer bestimmten Umgebung. Welche Strukturen der Proteinaufbauprozess (Wachstum, Ontogenese) auch hervorbringen mag, ob er gewisse Zeiten überdauert (gemessen in Generationen), hängt entscheidend davon ab, ob die Proteinstruktur in der Interaktion mit der Umgebung ‚hinreichend lange‘ jene ‚Arbeit‘ verrichten kann, die notwendig ist, um eine Selbstreproduktion zu ermöglichen.

14. Ob eine Proteinstruktur in diesem weiterführenden Sinne ‚lebensfähig‘ ist, hängt also entscheidend davon ab, ob sie zur jeweiligen Umgebung ‚passt‘. Eine lebensfähige Proteinstruktur ist in diesem Sinne – von einer höheren theoretischen Betrachtungsweise aus gesehen – nichts anderes als ein auf Interaktion basierendes ‚Echo‘ zur vorgegebenen Umgebung.

15. Dass dies ‚Echo‘ nicht ’stagniert‘, nicht ‚auf der Stelle tritt‘, nicht ‚um sich selbst kreist‘, liegt entscheidend daran, dass die ‚letzte‘ Struktur den Ausgangspunkt für ‚weitere Veränderungen‘ darstellt. Die Zufallsanteile im gesamten Selbstreproduktionsprozess fangen also nicht immer wieder ‚von vorne‘ an (also keine ‚Auswahl mit Zurücklegen‘), sondern sie entwickeln eine Informationsstruktur ‚weiter‘. In diesem Sinne bildet die Informationssequenz des DNA-Moleküls auch einen ‚Speicher‘, ein ‚Gedächtnis‘ von vergangenen erfolgreichen Versuchen. Je mehr Zellen in einer Population verfügbar sind, umso größer ist diese molekulare Erfolgsgedächtnis.

Diese Fortsetzung war nicht die letzte Zwischenreflexion. Es geht noch weiter: HIER

QUELLEN

Schroedinger, E. „What is Life?“ zusammen mit „Mind and Matter“ und „Autobiographical Sketches“. Cambridge: Cambridge University Press, 1992 (‚What is Life‘ zuerst veröffentlicht 1944; ‚Mind an Matter‘ zuerst 1958)
Claude E. Shannon, „A mathematical theory of communication“. Bell System Tech. J., 27:379-423, 623-656, July, Oct. 1948 (URL: http://cm.bell-labs.com/cm/ms/what/shannonday/paper.html; last visited May-15, 2008)
Claude E. Shannon; Warren Weaver (1948) „The mathematical theory of communication“. Urbana – Chicgo: University of Illinois Press.
John Maynard Smith (2000), „The concept of information in biology“, in: Philosophy of Science 67 (2):177-194
Noeth, W., Handbuch der Semiotik, 2. vollst. neu bearb. und erw. Aufl. mit 89 Abb. Stuttgart/Weimar: J.B. Metzler, xii + 668pp, 2000
Monod, Jacques (1971). Chance and Necessity. New York: Alfred A. Knopf

Einen Überblick über alle Blogbeiträge des Autors cagent nach Titeln findet sich HIER.

BEWUSSTSEIN – NICHTBEWUSSTSEIN AM BEISPIEL VON SEXUALITÄT UND GESCHLECHT

Letzte Änderung: 10.Mai 2014 (Links zu den vorausgehenden Beiträgen)

Genetische Informationen beeinflussen die Strukturbildung des Körpers und geschlechterspezifische Hormone beinflussen über Neuronen spezifische Verhaltenskomplexe (bis hin zur Änderung chromosomaler Strukturen)

Genetische Informationen beeinflussen die Strukturbildung des Körpers und geschlechterspezifische Hormone beinflussen über Neuronen spezifische Verhaltenskomplexe (bis hin zur Änderung chromosomaler Strukturen)

1. Im Kontext der aktuellen Diskussion zum Thema Bewusstsein – Nichtbewusstsein (siehe den letzten Beitrag hier) in diesem Blog deutet sich an, dass das Bewusstsein nicht nur nur einen kleinen Teil der tatsächlichen Vorgänge im Körper repräsentiert, sondern zusätzlich geht in die Repräsentation eine spezifische ‚Formatierung‘ ein, die sich so direkt in den auslösenden Ereignissen nicht finden muss.

2. Zu den vielfältigen Phänomenen, die im Bewusstsein aufschlagen, gehören auch Phänomene im Umfeld der Sexualität und der verschiedenen Geschlechter.

3. Wie die verschiedenen Begriffe in der Liste der Kategorien verraten (Sexualität, Sexualbeziehung, SexualarbeiterIn, usw.), gab es in diesem Blog schon öfters Einträge zu diesem Thema (SEXUALITÄT GESTERN, MORGEN, UND, SEXARBEITERiNNEN – SIND WIR WEITER?, (SEXARBEITERiNNEN – Teil 2 – GESCHICHTE UND GEGENWART). Diese Beiträge behandelten grob einzelne Aspekte, z.B. wie sich Sexualität manifestiert und viele Formen (gegenwärtig und vergangen), in denen Sexualität verknüpft ist mit Gewalt gegen Frauen. Dies ist fragmentarisch und bedürfte mannigfaltiger Ergänzungen. Hier soll nun jener Aspekt angesprochen werden, bei dem es um die genetischen und neuronalen Grundlagen der Sexualität und des Geschlechts geht.

4. Zu ‚erleben‘, dass man ’sexuell angeregt‘ ist, ’sexuelle Lust‘ verspürt, man ’sexuell befriedigt‘ ist – um nur einige Aspekte zu nennen – ist eines; ein anderes ist es, zu klären, warum dies überhaupt so ist: Woher kommt das? Warum hat man überhaupt diese Erlebnisse? Verändert sich dies? Haben andere das genauso? Usw.

5. In der Vergangenheit habe ich oft heutige Neurowissenschaftler kritisiert für ihre vielfache methodische Sorglosigkeiten oder für schlechte Artikel selbst in angesehensten wissenschaftlichen Journalen; dazu stehe ich, gleichzeitig habe ich aber auch kein Problem, anzuerkennen, dass die Neurowissenschaften uns – analog wie z.B. die Physik, die Chemie, die Molekularbiologie, die evolutionäre Biologie – in einer neuen Weise Einblicke in die Grundlagen unseres Fühlens und Denkens verschafft haben, die vorher undenkbar erschienen und die unser Bild von uns selbst (und anderen Lebewesen) nachhaltig verändert haben (sofern wir uns auf diese Erkenntnisse einlassen).

6. Im Rahmen der Überlegungen zum Bewusstsein-Nichtbewusstsein angewendet auf die Phänomene im Umfeld von ‚Sexualität‘ und ‚Geschlecht‘ liefert uns die Neurowissenschaft eine Menge interessanter Eckwerte.

7. Heute morgen habe ich in meinen Bücherschrank gegriffen und spontan 8 (Hand-)Bücher aus den Regalen geholt (siehe unten), die alle zur Neurowissenschaft zu rechnen sind (oder als ‚Physiologische Psychologie‘ zumindest sehr nahe benachbart sind). Sie stammen aus dem Zeitraum 1994 – 2012. Bis auf Gazzaniga (2009) und Baars (2010) behandeln alle das Thema ‚Sexualität‘ und ‚Geschlecht‘.

8. Sehr gut lesbar und recht ausführlich ist der Beitrag ‚Sexual Differentiation of the Nervous System‘ von Shah, N.M.; Jessel, T.M.; Sanes, J.R. in Kandell et al. (2012), Kap.56. Sieht man davon ab, dass im Beitrag selbst nicht direkt zitiert wird und die methodischen Fragen unerwähnt bleiben, kann man dem Beitrag aber die Argumentation entnehmen, dass die Gene der Chromosomen zunächst einmal im Rahmen der Embryogenese die Strukturbildung des Körpers beeinflussen (z.B. Ausbildung von Geschlechtsorganen, Ausbildung spezifischer Gehirnstrukturen). Die Steuerung übernehmen dabei spezifische Hormone. Liegen die Strukturen dann vor, steuern die gleichen oder ähnliche Hormone über die Rezeptoren von Neuronen spezifische neuronale Muster, die für bestimmte Verhaltensmuster (sexuelle Erregungszustände, Balzverhalten, Aggression (gegen Konkurrenten), sexuelle Vereinigung, Brutpflege, usw.) verantwortlich sind.

9. Das komplexe Wechselspiel von Strukturen, Hormonen (mit z.T. komplexen Transformationsketten), und passenden Rezeptoren, bietet allerlei Angriffspunkte für ‚Störungen‘, so dass ein Kind zunächst äußerlich z.B. männliche Geschlechtsorgane aufweist, es in seinem hormonellen Systemen darin aber nicht unterstützt wird. Während diese Prozesse heute physiologisch nachvollzogen (und z.T. durch geeignete medizinische Eingriffe ‚korrigiert‘) werden können, ist dies alles für die ’subjektive Erlebnisseite‘, für den/ die Betroffene(n) nicht direkt einsichtig. Er/ Sie empfängt Körpersignale, die mit dem Verhalten anderer Menschen nicht so recht zu korrelieren scheinen.

10. Ferner werden manche hormonellen Prozesse über die Wahrnehmung gesteuert (Milchproduktion bei Müttern aufgrund des Saugreizes). Die sensorischen Signale triggern die Produktion bestimmter Hormone, die wiederum Neuronen aktivieren, die dann zu einem bestimmten Verhalten führen (können). Zusätzlich wurde beobachtet, dass frühkindliche sensorische Erfahrungen (‚Stress‘ oder ‚umsorgt‘ sein) auch soweit in bestimmte Chromosomen hineinwirken können, dass diese sich auf das Verhalten auswirken.

11. Aufgrund der Komplexität des menschlichen Gehirns und des menschlichen Verhaltens samt den vielfältigen Wechsel- und Rückwirkungen ist es aber bei sehr vielen Verhaltensmustern noch nicht eindeutig, ob diese genetisch bedingt sind oder aufgrund des sozialen Umfelds. Dies betrifft insbesondere die vielfältigen Formen von gleichgeschlechtlicher Sexualität. Zwar konnte man nachweisen, dass das Rezeptorverhalten mancher Aktivitäten sich bei Menschen in gleichgeschlechtlichen Beziehungen sich so geändert hat, dass Männer das Rezeptorverhalten von Frauen zeigen und Frauen das Rezeptorverhalten von Männern, aber es ist bislang nicht auszuschließen, dass diese Änderungen allein durch das Verhalten zustande kamen.

12. Soweit meine recht grobe Zusammenfassung. Für Details sollte jeder den Beitrag selber nachlesen. Aus philosophischer Sicht kommt es hier auch nicht auf die molekularbiologischen Details an, sondern auf die allgemeine Struktur, die sich hier zeigt: auch im Falle der für Lebewesen zentralen Sexualität gründet sich unser Erleben und Verhalten auf konkreten neuronalen Schaltkreisen, die mittels Hormonen getriggert werden, und zwar so, dass damit nicht nur ‚Verhalten‘ gesteuert wird, sondern auch die genetischen Grundlagen selbst können selbstreferentiell modifiziert werden.

13. Für das Selbstverständnis von uns Menschen, die wir uns im Alltag an unserer Bewusstseinserfahrung und dem beobachtbaren Verhalten orientieren, kann dies zu Irritationen und Unmenschlichkeiten im Miteinander führen, wenn Menschen aufgrund einer abweichenden genetischen – hormonellen – neuronalen Struktur anders empfinden und sich anders verhalten. In der Geschichte hat dies real zu ‚Verteuflungen‘, ‚Verurteilungen‘, ‚Unterdrückung‘, ‚Ausgrenzungen‘ und ‚Verfolgungen‘ usw. geführt. Religiöse Traditionen haben hier genauso versagt wie andere Spielarten von Moral oder Ethik. Und auch heute ist die Verurteilung und Unterdrückung von ‚Homosexualität‘ (z.B. Rußland) offizielles Recht.

14. Während man konkrete Menschen, die aufgrund ihrer genetischen – hormonellen – neuronalen Strukturen anders erleben und sich verhalten als der ’statistische Durchschnitt‘, grundsätzlich als Menschen achten und sie unterstützen sollte, muss man davon die Frage unterscheiden, wie eine Gesellschaft offiziell mit den vorliegenden genetischen und körperlichen Strukturen der Menschheit auf Zukunft hin umgehen will. Auch wenn wir JEDEN AKTUELL LEBENDEN Menschen als Mitglied der Gattung homo sapiens sapiens achten sollten, müssen wir uns als Menschen die Frage stellen, (i) welche unserer ‚Bilder von uns selbst‘ denn noch ‚angemessen‘ sind und (ii) in welche Richtung denn die Entwicklung wohl geht bzw. ‚gehen sollte‘?

15. Die Menschenbilder, die uns die großen bekannten Religionen (Buddhismus, Judentum, Christentum, Islam) anbieten, sind nach meinem Verständnis vielfach zu überarbeiten. Die impliziten Menschenbilder der modernen Demokratien gehen in vielen Punkten deutlich über die Menschenbilder der Religionen hinaus, sind aber auch durch den Gang der Erkenntnis partiell überholt. Es wird nicht reichen, einfach nur das ‚Gewohnte‘ zu wiederholen.

16. ‚Sexualität‘ und darum herum aufbauend ‚Geschlecht‘ repräsentiert konkrete Prozesse (die anfällig für Störungen sind), die evolutionär geworden sind, die einem bestimmten Zweck dienten, und die im Heute neu hinterfragt werden könnten und müssten. Vieles von dem ‚Mann-Frau-Gerede‘ klebt am ‚Phänomen‘ und hilft wenig, ein wirkliches Verständnis der wirkenden Prozesse zu vermitteln.

QUELLEN

Buecher vom 12.April 2014 zum Thema genetisch-neuronale Grundlagen der Sexualität

Buecher vom 12.April 2014 zum Thema genetisch-neuronale Grundlagen der Sexualität

  1. Arbib, M.a. et.al (eds) The Handbook of Brain Theory and Neural Networks, Cambridge (MA): Bradford Book, 2003 (2nd ed.), S.680f, Motivation
  2. Baars, J.B.; Gage, N.M. Cognition, Brain, and Consciousness. Introduction to Cognitive Neuroscience, 2nd.ed., Amsterdam et: Elsevier, 2010
  3. Carlson, N.R., Physiologische Psychologie, München – Boston – San Francisco et.al:Pearson Studium, 2004 (8.Aufl.), Kap.10, Sexuelles Verhalten
  4. Gazzaniga, M. S. (Ed.), The Cognitive Neurosciences, London – Cambridge (MA): The MIT Press, 2009 (4th ed.), ‚motivation‘ als ‚Vermeidung‘ (116), als emotionale Reaktion Kap.61, Kap.11 beim Transfer-Lernen, Kap.70 bei Entscheidungsfindung
  5. Gazzaniga, M. S. (Ed.), The Cognitive Neurosciences, London – Cambridge (MA): The MIT Press, 1995, Kap.69-77, Kap.80
  6. Kandel, E.R.; Schwartz, J.H.; Jessell, T.M.; Siegelbaum, S.A.; Hudspeth, A.J.; (Eds.) Principles of Neural Science, 5th.ed., New York et.al: McGrawHill, 2012, Kap.3: Gene und Verhalten, Kap.22: Sensorik und Verarbeitung, Kap.58: Sexuelle Differenzierung des Nervensystems
  7. Nelson, C.A.; Luciana, M. (eds.), Handbook of Developmental Cognitive Neuroscience, Cambridge (MA) – London (Engl.): MIT Press, 2008 (2nd. ed.), S.394f Störungen während der Gehirnentwicklung und deren Folgen
  8. Shepherd, G.M., Neurobiology, 3rd.Ed, New York – Oxford: Oxford University Press, 1994, (ISBN-10: 0195088433, ISBN-13: 978-0195088434), Kap.24 ‚Mating‘

Einen Überblick über alle bisherigen Blogeinträge nach Titeln findet sich HIER.

BAUSTEINE DER ‚UNLOGIK‘ VON GESCHICHTE: Philosophie und Politik, Einzelner und Geschichte, Das Beharrliche an Ungerechtigkeit

DENKEN, KÖRPER, WELT, POLITIK

1. Seit dem letzten Sommer schreibe ich in diesem Blog immer wieder und immer mehr über ‚politische‘ Themen, obgleich ich dies weder geplant hatte noch eigentlich will; die Tagesereignisse wirken jedoch auf das philosophierende Denken wie eine Art ‚Störfeuer‘; ich möchte Strukturen unseres Denkens, unseres Wissens, unseres Handelns weiter klären, aber dann rasen Meldungen durch die Medien von Ereignissen, die Auswirkungen auf viele haben, von Menschen, die Entscheidungen fällen, die ganze Nationen elementar betreffen, und dann ist irgendwie klar, dass das individuelle Denken und der reale Gang der Geschichte nun mal irgendwie zusammenhängen. Das individuelle Denken findet in einer realen Matrix von Gegebenheiten, Handlungen anderer statt, von denen man zwar im Denken bis zu einem gewissen Grad ‚abstrahieren‘ kann, aber trotz denkerischer Abstraktion bestehen diese realen Zusammenhänge. Auch wenn ich im ‚Denkraum‘ abtauche bleibt mein Körper ein realer Moment in realen Prozessen, verlangt er nach Nahrung, hat einen amtlich registrierten Namen, bin ich eine Nummer in einer Verwaltungsmaschinerie, unterliege ich den Spielregeln der aktuell jetzt und hier geltenden Gesetze. Im Denken kann ich ‚anders‘ sein als der Moment, als der Augenblick, als es die realen Situationen vorsehen und erlauben, aber das Denken als Denken verändert nicht notwendigerweise die Realität. Ich kann über Grundprinzipien der Demokratie ’nachdenken‘ und zugleich mit meinem Körper in einer Situation leben, in der Demokratie abgebaut wird, und ich dadurch zu diesem Abbau dadurch mit beitrage, dass mein Körper ’nichts tut‘, was diesen Prozess stoppt.

2. In dem Maße, wie ich meine, das Zusammenspiel von Realität und Denken besser zu verstehen, in dem Maße verliert die Realität ihre ‚Unschuld‘. In dem Maße wie man zu verstehen meint, wie die Prozesse des Alltags nicht ’naturgegeben‘ sind, nicht ‚unabwendbar‘, sondern auch von uns Menschen, von jedem einzelnen von uns, ‚erzeugt‘, in dem Masse wird Denken ‚über‘ diese Realität mehr und mehr zu einem Denken ‚der Realität‘, in der jedes Wort, jede Geste, jedes Handeln ‚bedeutsam‘ wird: wenn ich ’schweige‘ dann ‚rede‘ ich in der Form der Zustimmung; wenn ich rede, dann dann rede ich in Form der realen Interaktion. Dann tritt mein Denken in einem scheinbar ’schwachen‘ aber dennoch ‚realen‘ Dialog mit der Welt, in der mein Körper vorkommt. Es ist aktuell die Welt des Jahres 2014 (andere Kalender haben andere Zahlen).

3. Ich beginne für mich zu realisieren, dass die Zeit des ‚politikfreien‘ Denkens möglicherweise vorbei ist. Ich stelle fest, dass ich nicht mehr so abstrahieren kann wie früher. Ich stelle fest, dass das Denken der großen Entwicklungslinien des Lebens auf der Erde und das Alltagsgeschehen immer mehr verschmilzt. Der atemberaubende kosmologische Prozess dieser unserer Erde als Teil von Sonnensystem, Milchstraße usw. bricht sich in den scheinbar ‚geschichtslosen‘ Aktionen von Milliarden menschlicher Individuen jeden Tag neu, und je mehr man das Wunder des Lebens zu erkennen meint, umso unfassbarer wird die Perspektiv- und Verantwortungslosigkeit, die unser ‚Alltagshandel‘ zu haben scheint.

IMPLIZITES WISSEN UND EXPLIZITES HANDELN

4. Ich sage bewusst ’scheint‘, da nach aktuellem Kenntnisstand fast alles, was die Lebenssituation auf der Erde betrifft und die Strukturen des biologischen Lebens, stattgefunden hat und stattfindet ohne unser Zutun. Allerdings hat die Existenz der menschlichen Lebensform auf dieser Erde seit ein paar Millionen Jahren die Erde im Handlungsbereich eben von uns Menschen zunehmend verändert. Diese Änderungen sind mittlerweile so stark, dass wir drauf und dran sind, wichtige Teilprozesse des Gesamtprozesses so zu stören, dass der Gesamtprozess damit nachhaltig gestört wird.

5. Dennoch, obwohl das beobachtbare Verhalten von uns Menschen große Einwirkungen auf die eigene Lebensumwelt erkennen lässt, und es Menschen, Gruppierungen, größere Organisationen und Firmen gibt, deren Verhalten ‚planvoll‘ wirkt, kann man sich nicht des Eindrucks erwehren, dass das ‚Planvolle‘ an dem Geschehen letztlich überwiegend wenig reflektiert ist und von individuellen Motiven einzelner angetrieben wird, die in der individuellen Psyche und deren individueller Geschichte wurzeln, und denen jeder Bezug zu einem größeren Ganzen abgeht. Dass ‚kleinwüchsige Männer‘ einen überhöhten Geltungsdrang haben, der viele Völker in einen Strudel von Kriegen und Zerstörung getrieben haben, ist nicht nur ein Klischee, sondern historische Realität. Dass persönliche Eitelkeiten und individuelles Machtstreben gepaart mit allerlei anderen individuellen Bedürfnissen Ländereien, Fabriken, ganze Völker ruiniert haben, ist auch real. Kurzum, das psychologische Format des einzelnen Menschen erscheint immer mehr als unzureichend für die Herausforderungen einer komplexen Massengesellschaft. Während die komplexen Prozesse einer Stadt, einer Region weitreichende vernetzte und rückgekoppelte Denkprozesse verlangen, die von Menschen ausgeführt und unterstützt werden, die in ihrem Denken und Fühlen dazu fähig sind, ist die normale psychologische Ausstattung eines einzelnen Menschen dafür im Normalfall gar nicht ausgelegt.

WENDEPUNKT DER EVOLUTION?

6. Immerhin, der Mensch, zumindest der homo sapiens sapiens, hat ca. 100.000 Jahre mit seiner psychologischen Ausstattung Erstaunliches bewegt und geleistet. Nun aber scheint homo sapiens sapiens sowohl mit seinem psychologischen Format wie auch mit seinen kognitiven Fähigkeiten wie ein Insekt um ein tödliches Licht zu kreisen, das im Fall des homo sapiens sapiens die in jedem Individuum eingebauten zeitlich eng begrenzten Bedürfnisse und Motive sind, die ihn wie ein unsichtbarer Magnet in ihrem Bann halten und letztlich im Alltag bestimmen. Die verschiedenen Religionen (alle, ohne Ausnahme!) haben bislang wenig dazu beigetragen, das Bild des Menschen real so aufzuhellen, dass wir diesem in unseren Genen eingeschriebenem Programm des ‚Handelns auf Kurzsicht, Nahbereich, triebhafter Elementarsteuerung‘ usw. irgendwie entkommen könnten. Letztlich haben sie es mit blumigen Worten und allerlei zufälligem Regelwerk festgeschrieben, den Status Quo zum Selbstzweck erklärt. Am allerschlimmsten, sie haben die ‚Erde‘ und den ‚Himmel‘ geteilt. Das ist die schlimmste Form des Atheismus, die es geben kann.

7. Historisch befindet sich der homo sapiens sapiens an dem bislang ‚höchsten Punkt‘ seiner Entwicklung. Zugleich ist dies eine Art ‚Scheitelpunkt‘ an dem ein nachhaltiger ‚Systemumbau‘ notwendig ist, soll das bislang Erreichte nicht im Desaster enden. Einerseits scheint es, als ob wir genügend Wissen ansammeln konnten, andererseits stecken wir alle in einer ‚unsichtbaren‘ psychologischen ‚Programmhülle‘, die die Gene in unserem Körper und Gehirn angelegt haben, die jeden einzelnen in seinem Bann hält und wie von einer unsichtbaren Macht gezogen täglich zu Gefühlen und Handlungen anregt, die sowohl individuell wie gemeinschaftlich eher ‚destruktiv‘ wirken als ‚konstruktiv‘.

8. Solange der gesellschaftliche Diskurs diese Problematik nicht offen und kompetent adressiert, solange werden wir das bisherige Programm unserer Gene weiter ausführen und damit unsere individuelle wie gemeinschaftliche Zukunft möglicherweise zerstören; nicht, weil wir dies explizit wollen, sondern weil wir implizit, ’nichtbewusst‘, Dinge tun, die unser genetisches Programm uns beständig ‚einflüstert‘, weil sich dieses Programm vor langer Zeit mal bewährt hatte. Moralisieren und die verschiedenen, aus dem Nichtwissen geborenen Religionen, helfen hier nicht weiter. Die Wissenschaft könnte helfen; alle bekannten Gesellschaftssysteme forcieren aber – wenn überhaupt – eine Wissenschaft, die auf kurzfristigen wirtschaftlichen Erfolg programmiert ist, und sich in den fachlichen Details verliert und gerade nicht ein solches Wissen, das Disziplinen übergreifend nach Zusammenhängen sucht und das alltägliche Fühlen und Denken in seiner Gesamtheit im Zusammenhang sieht mit dem zugrunde liegenden genetischen Programm.

WEN FRAGEN ERWACHSENE?

9. Kinder können die Erwachsenen fragen, was sie tun sollen, und sie fragen auch. Wen können die Erwachsenen fragen? Und wenn wir alle gleich wenig wissen, wen fragen wir dann zuerst?
10. Alle Antworten sind im Prinzip schon da. Ich bin auch überzeugt, dass wir die Antworten irgendwann finden werden. Wann? Bei einem historischen Prozess von ca. 13.8 Mrd Jahren kommt es nicht auf ein paar tausend ode ein paar zehntausend oder auch mehr Jahre an. Solange wir als einzelne nicht begreifen (und fühlen), dass wir grundsätzlich Teil dieses größeren Ganzen sind, solange können diese Gedanken ’schrecklich‘ wirken.

SELBSTBEHARRUNG DER UNGERECHTIGKEIT

11. Zum letzten Teil der Überschrift: wenn man sich lange genug die vielen ‚Ungerechtigkeiten‘ in unserer Welt anschaut, so beruhen sie ja allesamt auf dem Schema, dass einige wenige sich ‚Vorteile’/ ‚Privilegien‘ auf Kosten einer Mehrheit herausnehmen. Die Begründungen für diese Privilegien variieren im Laufe der Geschichte (auch dafür musste oft Gott herhalten: ‚göttliche Abstammung‘, ‚gottgewollt‘ …). Letztlich sind alle diese Begründungen nicht viel wert. Wenn das Leben als Ganzen der oberste Wert ist und alle Teile grundsätzlich ‚gleichberechtigt‘, dann können nur solche Lösungen zählen, in denen für die Gesamtheit ein Optimum angestrebt wird. Die Tendenz individuell oder gruppenmäßig Privilegien anzuhäufen, huldigt der Überlebenslogik, dass nur die ‚eigene Gruppe‘ überleben kann und soll und dass alle ‚anderen‘ Feinde sind. Dies ist die implizit kurzsichtige Logik der Gene. Für komplexe Gesellschaften als Teil komplexer Abläufe ist dies, wie sich allenthalben zeigt, kontraproduktiv oder sogar tödlich. Allerdings scheint es so zu sein, dass privilegierte Gruppen von sich aus fast nie ‚freiwillig‘ auf ihre Privilegien verzichten. Änderungen kamen daher immer entweder dadurch, dass die Privilegienbesitzer sich selbst zugrunde gewirtschaftet haben oder weil Unzufriedene sich dieses Schauspiel nicht mehr länger ansehen wollten und versucht haben, sich ihre angestammten Rechte notfalls mit Gewalt zurück zu holen. Revolutionen, Kriege, Terrorismus sind daher immer auch Indikatoren für Ungleichgewichte. Nach erfolgreichen Aufständen wurden dann die ‚Aufrührer‘ selbst zu ‚Privilegierten‘, usw.

RUM-Music

Musik vom 13.Maerz 2014, kann man hören muss man nicht. Eines von vielen experimentellen Stücken.

Eine Übersicht über alle bisherigen Blogeinträge nach Titeln findet sich HIER.

M.DONALD: EVOLUTION DES MENSCHLICHEN BEWUSSTSEINS – Kurzbesprechung, Teil 2

Diesem Beitrag ging voraus Teil 1.

1) Das siebte Kapitel ist überschrieben ‚The First Hybrid Minds on Earth‘ (etwa: ‚Die ersten hybriden Geister auf der Erde‘). (S.252)
2) [Anmerkung: Das Problem ist, dass es für den Plural des englischen Begriffs ‚minds‘ in diesem Kontext keine direkte Übersetzung gibt. Die Übersetzung ‚Geister‘ ist eher irreführend, da mit ‚Geister‘ im Deutschen etwas anderes assoziiert wird als mit dem Plural von ‚minds‘. Das liegt daran, dass der deutsche Singular ‚Geist‘ einmal die ‚geistige Kapazität‘ im allgemeinen meinen kann, aber auch ein ontologisch schillerndes Wesen, das als ‚Geist‘ zwar ‚irgendwie‘ da ist, aber nicht so, wie ein reales Wesen. Von der ‚geistigen Kapazität‘ im Singular gibt es im Deutschen aber keinen wirklichen Plural, also die ‚geistige Kapazität‘ in vielfachen Ausprägungen, viele ‚reale‘ Wesen mit einem ‚realen‘ Geist. Die Übersetzung von ‚mind‘ als ‚Verstand‘ oder ‚Vernunft‘ ist nicht ganz falsch, aber auch nicht ganz richtig. Aber auch von ‚Verstand‘ und ‚Vernunft‘ gibt es im Deutschen keinen Plural! Das ist eigentlich interessant. Warum kann man im Deutschen von ‚Geist‘, ‚Verstand‘ und ‚Vernunft‘ nicht im Plural sprechen bzw. denken? Faktisch sind diese Eigenschaften an individuelle Körper gebunden, von denen es viele gibt. Warum kann man im Deutschen dann nicht von ‚den Geistern‘, den ‚Verständen‘, ‚den Vernünften‘ sprechen? Ich denke, hier zeigt sich in der Sprache etwas, das man nicht so einfach hinnehmen sollte.]
3) Das Kapitel startet mit der These, dass die Entwicklung ’symbolischer Fähigkeiten‘ (’symbolic skills‘) nicht durch Beschränkung auf ein isoliertes Gehirn alleine erklärt werden können, da es sich um Phänomene handelt, die ‚inhärent vernetzte Phänomene‘ (‚inherent network phenomena‘) sind.(vgl. S.252)
4) [Anmerkung: Wenn ich einen Körper als Ansammlung von vielen Zellen (ca. 14 Billionen, 14 * 10^12) verstehe, die in ihrer Ausformung von einem genetischen Bauplan und seiner ‚Umsetzung‘ in Form von ‚Wachstum‘ abhängig sind, dann kann ich die genetische und die ontogenetische Maschinerie natürlich bis zu einem gewissen Grad beschreiben, ohne explizit Bezug auf externe Faktoren zu nehmen. Eine solche Beschreibung ist auch nicht ‚falsch‘, da das, was ich beschreibe, ja empirisch aufweisbar ist. Dennoch kann diese empirische nicht falsche Beschreibung in ihrem Verzicht auf korrelierende Kontext-Faktoren möglicherweise entscheidende Faktoren ‚unterschlagen‘ (‚verdrängen‘,…). Dies wäre dann der Fall, wenn sich die ‚körperinternen‘ Faktoren in ihren Veränderungen nur ‚verstehen lassen würden‘, wenn man die korrelierenden Faktoren einbeziehen würde. Verstehen ist aber relativ, kriterienabhängig: welche Eigenschaften erscheinen einem ‚wichtig‘, so dass man sie in eine Erklärung einbeziehen möchte? ]
5) [Anmerkung: In einer empirischen Erklärung gelten nur Phänomene, die notwendig sind, um das Auftreten eines bestimmten Phänomens auch in Form einer Voraussage ‚erklären‘ zu können, etwa: Wenn X gegeben ist, dann wird Y mit einer Wahrscheinlichkeit von p auftreten. Wenn ich mehrere biologische Arten A1, …, Ak habe, die eine Eigenschaft P0 gemeinsam haben, sich aber jeweils in mindestens einer Eigenschaft P1, …, Pk voneinander unterscheiden, dann würde eine Beschränkung auf P0 zwar nicht falsch sein, aber eben nicht alles erklären. Um die Art Ai in ihrer Besonderheit erklären zu können, müsste ich die Eigenschaften P0 + Pi erklären, nicht nur P0 alleine.]
6) [Anmerkung: Wie im Falle biologischer Systeme bekannt, entwickeln sich besondere Arten Ai mit einer Spezialeigenschaft Pi in der Regel immer in Abhängigkeit von einer besonderen Umgebungseigenschaften Ei. Dies bedeutet, man kann das Auftreten der Eigenschaft Pi bei der Art Ai nicht ‚verstehen‘, wenn man die korrelierende Eigenschaft Ei nicht berücksichtigt. Aus diesem Grund betrachtet die moderne Biologie biologische Systeme Ai niemals isoliert, sondern immer nur im Kontext von jeweiligen umgebenden Lebensräumen Ei und die ‚Wechselwirkungen‘ zwischen Umgebung und der Population der Art Ai. Diese Wechselwirkungen setzen sich zusammen aus individuellen Eigenschaften des jeweiligen individuellen biologischen Systems (z.B. spezifische Wahrnehmungsfähigkeit, Verdauungsfähigkeit, Bewegungsform, usw.) und verbunden damit mit der Zahl der Nachkommen während der Lebenszeit. Die individuellen Fähigkeiten erweisen ihre Bedeutung in der Fähigkeit, dass die Population als Ganze in jeder Generation über hinreichend viele und fähige Nachkommen verfügt. Diese Sicht der Dinge war in der Biologie nicht immer schon da; sie musste Schritt für Schritt erarbeitet werden.]
7) [Anmerkung: Die These von Donald , dass man den Kontext einbeziehen muss, ist von daher einerseits nichts grundlegend Neues. Andererseits legt er den Finger auf Kontexteigenschaften, die als solche qualitativ verschieden sind von den vorausgehenden. ‚Symbole‘ sind vieldeutige Werkzeuge, die der Mensch so in der Natur nicht vorgefunden, sondern die er selber geschaffen hat. In dem Maße, wie er sie geschaffen hat, können sie zu einem Teil seiner Umgebung werden, die wie die ’natürliche‘ Umgebung auf ihn ‚einwirken‘ kann. Und hier kommt die nächste Besonderheit: Symbole als Umgebung wirken nicht nur physisch auf den Menschen ein wie die natürliche Natur, sondern sie beeinflussen die gedanklichen Prozesse des Menschen, sie bilden ‚Formen‘, ‚Muster‘, ‚Regeln‘, Strukturen‘, ‚Inhalte‘ usw. der gedanklichen Prozesse, mit Hilfe deren sich der Mensch in seiner Welt ‚orientiert‘. Die Orientierung besteht darin, dass der Mensch ‚im Medium seiner Gedanken‘ seine Wahrnehmungen von der Welt (und sich selbst) ‚interpretiert‘. Anders gesagt: mit den Symbolen als Werkzeug schafft der Mensch eine Umgebung, die auf ihn zurückwirken kann, und mit Hilfe von der er die Welt interpretiert; eine bizarre ‚Rückkopplung‘. Dies ist keine genetisch-ontogenetisch vermittelte Koevolution sondern eine symbolisch vermittelte Koevolution ‚mit sich selbst‘; das ist eine neue Qualität. Der Mensch schafft sich in symbolischen Räumen ein Medium, das als dieses Medium auf sein Denken zurückwirkt und darin permanent sein Medium verändert.]
8) [Anmerkung: Verglichen mit der genetischen basierten Evolution ist diese Art von symbolischer Koevolution um Dimensionen schneller. Durch die ‚Ungleichzeitigkeit‘ von genetischer und symbolischer Koevolution ist ein massiver Konflikt vorprogrammiert: wird die schnellere symbolische Evolution die langsamere genetische Evolution letztlich strukturell verändern können (durch ‚Gentechnik‘) oder wird die symbolische Evolution durch Schaffung eines ‚künstlichen Geistes‘ die genetische Evolution überflüssig machen? ]
9) Diese These bedeutet im Fall der Sprache, dass es – nach Donald — nicht die Fähigkeit zum Sprechen als solche war, die zum Phänomen der Sprache in ihrem vollem Umfang geführt hat, sondern in der Bildung von ‚gedanklichen Gemeinschaften‘ (‚cognitive communities‘). Dies bedeutet, das Zusammensein und das Zusammenwirken von mehreren Menschen als solchen muss gegeben gewesen sein, damit sich aus einem elementaren ‚Sprechen‘ ein ‚Sprache‘ entwickeln konnte. (vgl. SS.252-254)
10) [Anmerkung: So suggestiv diese Formulierungen von Donald klingen mögen, so erscheint mir doch Vorsicht geboten. Wie schon das einfache Beispiel mit den beiden Nervenzellen A und B andeutete, die ein UND oder OR-Gatter realisieren: der einzelnen Zelle kann man dies Eigenschaft nicht ansehen. Noch kann man sagen, dass A sich nur so entwickeln konnte, weil es B gab (oder umgekehrt); in dem Falle reicht es aus, dass sowohl A als auch B bestimmte Grundeigenschaften besitzen, die in Kombination unterschiedliche Funktionen ‚zeigen‘. Das gleiche gilt für Atome; auch wenn man nicht sagt, dass Wasserstoff ‚H‘ sich bilden musste, weil es Sauerstoff ‚O‘ gab (oder umgekehrt), gilt, dass eine Kombination von ‚H‘ und ‚O‘ zu ‚H2O‘ möglich ist und dann in dieser Kombination ’neue‘ Eigenschaften zeigt. M.a.W. das Vorkommen von einzelnen Gehirnen im Rahmen einer Population bedeutet, dass die Gehirne ‚ihre eigene Umgebung‘ sind. Das Besondere wäre nicht die Umgebung als solche, sondern die Tatsache, dass Gehirne spezielle Eigenschaften besitzen, die, wenn sie auf ein anderes Gehirn treffen, ’sichtbar‘ werden. Im Falle der Sprache als einem vernetzten Beziehungssystem von ‚Sprachmaterial‘ (‚token‘) ‚Z‘, möglichem ‚intentionalem Gegenstand‘ ‚O'(‚real‘ oder ‚gedacht‘), ‚gewusster Bedeutungsbeziehung‘ ‚B: Z <---> O‘ und einem ’semiotischen System‘ ‚S‘ als Träger und Realisator dieser Bedeutungsbeziehungen, sind Gehirne in einem Körper – soweit wir sie kennen – die idealen Mediatoren für Sprache: Gehirne können intentionale Gegenstände O ‚repräsentieren‘, sie können Zeichenmaterial Z ‚produzieren‘, sie können beliebige Bedeutungsbeziehungen B realisieren, und sie können diese Fähigkeiten als dynamische Systeme kontinuierlich einsetzen. Dies bedeutet, die Präsenz von mindestens zwei Gehirnen bietet alle Voraussetzungen dafür, dass sich Sprache bilden kann. ]
11) [Anmerkung: Vor diesem Hintergrund erscheint es bemerkenswert, dass die Wissenschaft sich bislang so schwer tut, Sprachbildungsprozesse mit dem Computer nach zu vollziehen. Seit den pionierhaften Talking-Heads Experimenten eines Luc Steels sind wir nicht viel weiter gekommen (siehe Quellen unten) (vergleicht man die Forschungsmittel, die generell ausgegeben werden mit jenen, die für Forschungen zur künstlichen Intelligenz ausgegeben werden, so ist der Betrag für künstliche Intelligenz so niedrig, dass man ihn kaum in Prozenten ausdrücken kann. Aber ich bezweifle, ob es nur am Geld liegt.]
12) Das erste, was Kinder in solchen gedanklichen Gemeinschaften lernen müssen, das ist ein Satz von ‚reziproken Verhaltensmustern‘, in denen man sich wechselseitig der Aufmerksamkeit versichern kann. Dies wiederum geht nur, sofern die Gedächtnisstrukturen hinreichend differenziert sind. Objekte, Relationen, Strukturen, Rollen, Abläufe usw. müssen erinnert werden können; Selbstmodelle und Fremdmodelle, die Metareflexionen voraussetzen. Dies alles impliziert komplexe Lernprozesse, die wiederum Zeit brauchen und entsprechende soziale Umgebungen, die dazu beitragen, dass bestimmte Muster ’sozial einprogrammiert‘ werden. (vgl.SS.254-257)
13) [Anmerkung: Aufgrund des nachweisbaren Zusammenhangs zwischen bestimmten Umgebungseigenschaften Ei und bestimmten Eigenschaften Pi einer bestimmten Art Ai ist die Versuchung groß, diesen Zusammenhang ‚kausal‘ zu interpretieren, also im Sinne ‚weil‘ es Ei gibt, daher bildete sich Pi heraus. Mir scheint, dies ist – wenn überhaupt – höchstens die ‚halbe Wahrheit‘. Bedenkt man die Funktionsweise der genetischen basierten Evolution, so ist die primäre Quelle von möglichen Strukturen das Wechselspiel von Selbstreproduktion des genetischen Codes und der molekularen Übersetzung des Codes in Proteinstrukturen als Ontogenese. Dies bedeutet, dass – egal welche Umgebungseigenschaften jeweils gegeben sind – primär der verfügbare genetische Code und dessen molekulare Übersetzung darüber entscheidet, was sich überhaupt an Strukturen bilden kann. So könnte es grundsätzlich auch so sein, dass die Menge der genetisch bedingten Strukturen grundsätzlich nicht zu den umgebungsmäßig gegebenen Eigenschaften Ei passen würde. In diesem Fall könnten die Umgebungseigenschaften niemals ‚bewirken‘, dass sich ‚geeignete‘ Strukturen bilden. Der Eindruck von möglichen kausalen Zusammenhängen ist ‚beobachterabhängig‘ und eher ein ‚Artefakt des Denkens‘. Dass es zu scheinbaren ‚Anpassungen‘ kommen kann ist zwar ein ‚Auswahlprozesse‘ (Selektion‘), aber nicht in dem Sinne, dass die gegebenen Umgebungseigenschaften Ei aller erst die speziellen genetischen Eigenschaften Gi schaffen, die zu den phänotypischen Eigenschaften Pi führen, sondern weil der genetische und ontogenetische Prozess ‚von sich aus‘ die Eigenschaften Gi bereitstellen kann bzw. sie bereitgestellt hatte können diese dann ’selektiert‘ werden, weil jene Phänotypen, die aus diesen Gi hervorgegangen sind, mehr Nachkommen haben, als jene Phänotypen, die aus einem anderen Genotyp Gj hervorgegangen sind. Die Dramaturgie von geologischem Erdprozess und genetisch basierter Evolution ist damit in keiner Weise aufgeklärt; hier gibt es mehr Fragen als Antworten.‘]
14) Donald ergänzt seine Bemerkungen zum Gedächtnis dahingehend, dass er für das menschliche Gedächtnis postuliert, dass es die beobachtbaren Verhaltensleistungen nur unterstützen kann, wenn es in viele funktional differenzierte Bereich aufgegliedert ist, die parallel arbeiten können. So müssten wir grundsätzlich unterscheiden können zwischen ‚Selbst‘ und ‚Anderer‘, ‚Gegenwart‘, ‚Vergangenheit‘ und ‚Zukunft‘. (vgl. SS.257-259)
15) [Anmerkung: Es ist interessant, wie vage und allgemein die Aussagen zum Gedächtnis sind, obgleich doch gerade das Gedächtnis so zentral sein soll für die symbolisch vermittelte Kultur (ein ähnliches Phänomen war bei Norman zu beobachten. Auch bei ihm waren die Aussagen zum Gedächtnis sehr vage, plakativ, nicht durch harte empirische Modellbildung abgesicherten. Andererseits, wenn man sieht, wie schwer sich selbst die neuesten neurowissenschaftlichen Forschungen zum Raumgedächtnis und episodischen Gedächtnis tun, dann darf man Donald hier nicht zu hart kritisieren. Aber zumindest sollte er dann darauf hinweisen, dass es ziemlich spekulativ ist, was er da sagt…]

LITERATURHINWEISE

Steels, L.; Cooperation between distributed agents through self-organisation, Intelligent Robots and Systems ’90. ‚Towards a New Frontier of Applications‘, Proceedings. IROS ’90. IEEE International Workshop on, pp. 8 – 14 supl, 1990
Steels, Luc (1990) „Components of Expertise“ , AI Magazine Volume 11 Number 2 (1990), pp. 28-49.
Steels, L.; Mathematical analysis of behavior systems, From Perception to Action Conference, 1994., Proceedings, pp. 88 – 95, 1994
Steels, L.; A self-organizing spatial vocabulary, Artificial Life Journal, 2(3), pp. 319-332, 1995
Steels, L.; Language Games for Autonomous Robots, IEEE Intelligent Systems , Volume 16 Issue 5, pp.16 – 22, 2001
Steels, Luc; (2001) Grounding Symbols through Evolutionary Language Games. In: Cangelosi A. and Parisi D. (Eds.) Simulating the Evolution of Language Springer.
Steels, L.; Evolving grounded communication for robots, Trends in Cognitive Science 7(7), July 2003, pp.308 – 312
Steels, L.; Semiotic Dynamics for Embodied Agents, Intelligent Systems, IEEE, Volume: 21 , Issue: 3, pp. 32 – 38, 2006
Steels, L.; The Symbol Grounding Problem has been solved. So What’s Next?, In Glenberg, A.; Graesser, A.; Vega, M. de; (Eds.), Symbols, Embodiment, and Meaning, Oxford University Press, pp. 506-557, 2008
Steels, L.; Work on Symbol Grounding now needs concrete Experimentation, Intern. J. of Signs and Semiotic Systems, 1(1), pp. 57-58, 2011
Steels, Luc (2011) „Design Patterns in Fluid Construction Grammar“ , Amsterdam: John Benjamins Pub.
Steels, Luc (2011) „Modeling the cultural evolution of language.“ Physics of Life Reviews, 8(4) pp. 339-356.

Fortsetzung folgt in Teil 3.

Einen Überblick über alle bisherige Blogeinträge nach Titeln findet sich HIER.

NOTIZ: WARUM WIR SIND WER WIR SIND UND WAS DAS BEDEUTET

1) Nach unserem heutigen Wissensstand beginnt die Existenz des Körpers eines Exemplars des homo sapiens sapiens auf der heutigen Erde durch die Befruchtung einer bestimmten Zelle im Körper einer Frau durch eine bestimmte Zelle aus dem Körper eines Mannes. Eine von 10 Billionen (10^12) Zellen wird befruchtet, und – unter bestimmten Randbedingungen – beginnt diese Zelle dann zu ‚wachsen‘, d.h. es beginnt ein Teilungs- und Vervielfältigungsprozess, der im Laufe von Monaten und dann Jahren von dieser einen befruchteten Zelle zu einem Körper führt, der ca. 10 Billionen (10^12) Zellen umfassen wird, darin eingebettet ca. eine Billionen (10^12) Bakterien im Körper und etwa die gleiche Zahl auf der Oberfläche des Körpers.
2) Diese Zellen leben nicht ewig sondern werden innerhalb von Tagen/ Wochen/ Monaten – je nachdem, welche Funktion diese Zellen im Körper innehaben – immer wieder durch neue Zellen ersetzt. Der Körper als Körper bleibt gleich, aber seine Bestandteile, die Zellen, werden kontinuierlich ‚ausgetauscht‘, ‚ersetzt‘.
3) Hier gäbe es sehr viele interessante Dinge zu betrachten. Unter anderem stellt sich die Frage, wie diese ca. 10 Billionen Zellen ‚wissen‘ können, was sie jeweils ‚zu tun haben‘; wie kommt es überhaupt zu dieser ‚Selbstorganisation‘ der vielen Zellen aufgegliedert nach unterschiedlichen ‚Körperorganen‘ mit ganz unterschiedlichen, schwindelerregend komplexen Funktionen?
4) In Megastädten mit 20-30 Millionen – oder mehr – Einwohnern wissen wir, dass dies nur funktioniert, weil alle Bewohner bestimmte ‚Regeln‘ einhalten, die zuvor vereinbart worden sind (ausdrücklich oder ’stillschweigend‘). Dabei weiß normalerweise ein einzelner Bewohner nur einen kleinen ‚Teil‘ vom gesamten Räderwerk; es gibt unterschiedliche Verwaltungsebenen, unterschiedliche Arten von Institutionen, unterschiedlichste Rollen…
5) Die ‚Kultur der Städte‘ hat sich über viele tausend Jahre entwickelt, weil alle Beteiligten ‚gelernt‘ haben, was man wie tun kann; weil man dieses Wissen ‚weitergegeben‘ hat, ‚weiterentwickelt‘. Und jeder neue Bewohner muss ‚lernen‘, was er in einer Megastadt zu tun hat.
6) Der menschliche Körper hat ca. 50.000 mal mehr Zellen als eine 20 Mio Stadt. Woher aber wissen die einzelnen Zellen im Körper was sie jeweils zu tun haben? Vor allem, woher wissen sie, wie sie all diese unfassbar komplexen Funktionen in der Leber, in der Niere, in der Lunge, im Gehirn, im Blutsystem mit dem eingebetteten Immunsystem usw. ‚organisieren‘ sollen? Sobald die befruchteten Zelle ihr ‚Wachstum‘ beginnt, wissen alle beteiligten Zellen, ‚was zu tun‘ ist. Woher?
7) Die Biologie hat komplexe Antworten auf diese schwierigen Fragen erarbeitet. Im Kern läuft es darauf hinaus, dass sowohl die Struktureigenschaften wie auch das ‚Verhalten‘ einer einzelnen Zelle in ‚Abstimmung mit ihrer jeweiligen Umgebung‘ vom Zellkern, dem ‚Genom‘ gesteuert wird, einem Molekül, das als ‚Informationsträger‘ dient. Alle Details dieser Informationsverarbeitung sind zwar noch nicht bekannt, wohl aber der grundsätzliche Sachverhalt als solcher und einige wenige Teilprozesse.
8) Damit verlagert sich die Frage nach dem erstaunlichen ‚Wissen einer Zelle‘ auf die der ‚Entstehung dieses Wissens‘ im Genom. Und hier laufen alle bisherigen Antworten darauf hinaus, dass sich das ‚Wissen im Genom‘ samt der zugehörigen ‚Wissensverarbeitungsstrukturen‘ offensichtlich in einem speziellen Lernprozess entwickelt hat, den wir ‚chemische Evolution‘ nennen gefolgt von der ‚biologischen‘ Evolution (geschätzte Dauer ca. 4 Mrd Jahre vor heute bis ca. 200.000 Jahre vor heute (dem geschätzten ersten Auftreten des homo sapiens sapiens in Afrika).
9) Irgendwann in den letzten 200.000 Jahren begann dann das, was wir ‚kulturelle Evolution‘ nennen können. Ein Prozess der sich zusehends zu ‚beschleunigen‘ scheint, wenngleich die aktuelle körperliche Verfasstheit des Menschen aktuelle ‚Begrenztheiten‘ erkennen lässt, die sowohl durch die wachsende Komplexität wie auch durch die Beschleunigung ’sichtbar werden‘.
10) Wenn man all dies weiß, dann ist die Frage, wo und wie man zu einem bestimmten Zeitpunkt t ‚geboren‘ wird, abhängig von der Frage, was dieser Geburt vorausging: die Auswanderung unserer ‚Vorfahren‘ aus Afrika von ca. 60-70 Tsd Jahren, ihre Ausbreitung nach Asien, Europa, Nord- und Südamerika, ihre unterschiedlichen Entwicklungen, Entdeckung von Handwerk, Sesshaftwerdung, Städtebau, usw. Irgendwann gab es nahezu ‚überall auf dieser Erde‘ Lebewesen der Art homo sapiens sapiens; irgendwann wurden bestimmte Zellen in den Körpern von Frauen überall auf dieser Erde ‚befruchtet‘ und begannen ihr Wachstum. Irgendwann gab es die Zelle, aus der jeder von uns hervorging, gesteuert von dem gleichen unfassbar komplexen Programm, das sich im menschlichen Genom im Laufe von 4 Mrd Jahren ‚angereichert‘ hat.
11) Jeder von uns ist von daher das Ergebnis einer unfassbaren Geschichte des Lebens auf dieser Erde. WO jeder von uns geboren wurde ist von daher – betrachtet man alle Menschen gleichzeitig – in gewisser Weise ‚zufällig‘; zu einem bestimmten Zeitpunkt t0 der Erdgeschichte kann man nicht voraussagen, welcher Mann sich mit welcher Frau paaren wird und ob daraus eine Zelle hervorgehen wird, die zu einem Zeitpunkt t1>t0 dann zu ‚wachsen‘ beginnt. Sicher ist nur, wenn es zu solch einem neuen Wachstumsprozess einer Zelle kommt, dann nur deshalb, weil es zu einem Zeitpunkt t0 irgendwo eine Frau und einen Mann gab, die dies tun konnten und auch taten.
12) Mit Fortschreiten der Technologie wird man menschliche Zellen auch ohne die Körper ausgewachsener Frauen und Männer zum Wachstum bewegen können, mehr noch, man wird versuchen, die körperlichen Strukturen von Menschen durch gezielte Eingriffe zu verändern. Die aktuellen Wertvorstellungen verurteilen ein solches Vorgehen. Aber die aktuellen Wertvorstellungen (zu denen auch religiöse Vorstellungen gehören) sind ja auch ‚geworden‘, ein Ergebnis der ‚kulturellen Evolution‘; es ist wenig wahrscheinlich, dass die aktuellen Wertvorstellungen ‚ewig‘ bestehen; im Lichte neuer Erfahrungen und neuer Erkenntnisse werden sie sich ändern. Die Zeit wird kommen, dass der Mensch sich an der Veränderung genetischer Baupläne versuchen wird (unter dem Schlagwort ‚Gentechnologie‘ geschieht des ja schon im großen Stil im Bereich Pflanzen (und Tiere)). Hier werden unausweichlich ‚Fehler‘ gemacht werden; es ist nicht auszuschließen, dass diese ‚irreversibel‘ sind.
13) Das Problem ist dabei nicht in erster Linie die Gentechnologie als solche, sondern ihre wachsende ‚Monopolisierung‘ in wenigen globalen Firmen, die die ’natürlichen‘ Gene ‚ausrotten‘, um so kurzfristig lokal ihre Gewinne zu maximieren. Mit Hilfe von massiver Lobbyarbeit werden hier von wenigen global ‚Rechte‘ geschaffen, die – aufs Ganze gesehen – ein ‚Un-Recht‘ etablieren, das – würde es ungebremst sich weiter entwickeln können – in relativ kurzer Zeit das gesamte Leben ernsthaft bedrohen würde.
14) Der ‚Missbrauch‘ von Gentechnologie ist aber zu unterscheiden von der Gentechnologie selbst. Die Gentechnologie als solche erscheint vor dem Hintergrund der Gesamtentwicklung als ’natürliche Weiterentwicklung‘ der Evolution, als ’notwendig‘, und damit auch die Herausforderung, unser Wertesystem entsprechend weiter zu entwickeln. Zu verhindern ist die Monopolisierung und der Missbrauch von Gentechnologie.
15) Anders betrachtet, würden wir unser aktuelles Wertesystem ‚einfrieren‘ wollen indem wir ‚Denkverbote‘ aufstellen, dann würden wir genauso schnell einen ‚Untergang‘ heraufbeschwören, da der Lebensprozeß auf dieser Erde samt der Erde und ihrer kosmologischen Umgebung hochdynamisch ist (siehe auch unten). Eine ’statische‘ Ethik in einer ‚dynamischen‘ Umgebung ist ein Widerspruch in sich).
16) Der Verweis auf die chemische, die biologische und die kulturelle Evolution erklärt zwar ein wenig, WIE wir entstanden sind, lässt aber letztlich noch offen, WARUM es uns gibt, WER wir damit letztlich sind, WAS das alles zu bedeuten hat?
17) Bei all dem sollte klar sein, dass das Geschlecht (Mann, Frau, diverse genetisch bedingte Mischstrukturen), die Nationalität, die Zugehörigkeit zu einer bestimmten gesellschaftlichen Gruppe – und was wir Menschen im Laufe der Zeit sonst noch an sekundären Eigenschaften erfunden haben – keine substantielle Rolle spielen dürfen, wollen wir uns in der Zukunft ‚bewähren‘.
18) Das Leben auf der Erde gibt es nur, weil das Leben es bislang verstanden hat, alle diese Strukturen und Verhaltensweisen zu ‚belohnen‘, die sich den ‚Gegebenheiten der Erde‘ ‚angepaßt‘ haben, die sie ‚geschickt genutzt‘ haben.
19) Da u.a. die Sonne in unserem Sonnensystem in ca. 1 Mrd Jahren das Leben auf der Erde unmöglich machen wird, wird es darauf ankommen, dass das Leben, zu dem wir gehören, ‚lernt‘, sich nicht nur den Eigenschaften der Erde anzupassen, sondern mindestens die nächsten Galaxien einbeziehen muss. Dann gibt es eine kleine ‚Verschnaufspause‘ von ca. 3-4 Mrd Jahren bis die Andromeda Galaxie mit unserer Milchstraßen-Galaxie ‚verschmelzen‘ wird; ein Prozess, dessen Dauer auf ca. 1 Mrd Jahre geschätzt wird.
20) Das tägliche Hickhack um lokale Ressourcen, nationalen Animositäten, Firmenegoismen, Machtgelüsten weniger, religiösen Absolutheitsansprüchen, usw. das unseren Alltag durchzieht und zu dominieren scheint, ist auf jeden Fall nicht geeignet, die Lernprozesse in Gang zu setzen, die ‚zukunftsorientiert‘ sind. Persönlicher Ruhm Macht, Reichtum, Totale Wahrheitsansprüche,… all dies repräsentiert ein Wertesystem, das wenig geeignet ist, das zu unterstützen, was wir tatsächlich brauchen. Aber da das ‚Neue‘ seinem Wesen nach ‚radikal neu‘ ist, weiß man vorher nie genau, wann und wie das Neue sich Bahn brechen wird. In der Regel wird es sich an vielen verschiedenen Stellen mehr oder weniger zeitgleich ‚zeigen‘, ‚zu Worte‘ kommen, ‚getan werden‘. ‚Gewinnen‘ werden die, die es zuerst gesellschaftlich umsetzen können. Lassen wir uns überraschen.

Einen Überblick über alle Blogeinträge nach Titeln findet sich HIER

KANN ES DOCH EINEN KÜNSTLICHEN GEIST GEBEN?

Vorgeschichte

Dieser Blogeintrag geht zurück auf einen Vortrag, den ich auf der Jahrestagung der deutschen Sektion von YPO (Young Presidents Organization) gehalten habe. Der ursprüngliche Titel lautete „Das Digitale als Synomym für berechenbare Prozesse“. Als der Text zu diesem Vortrag fertig war (am Tag davor) deutete sich schon an, dass der Vortrag eigentlich eine weitere, sogar eine weiterführende Botschaft enthielt, die sich im ursprünglichen Titel nicht so widerspiegelte. Während ich den Vortrag dann hielt wurde mir klar, dass – in der Tat – der eigentliche Inhalt ein anderer war; der ursprüngliche Titel war nicht falsch, aber zu ‚eng‘.

Da ich jeden Vortrag nur einmal halte und mir für den Vortrag immer eine Problemstellung vornehme, die ich selber gerne geklärt haben möchte ohne zum Zeitpunkt er Themenstellung schon zu wissen, ob es wirklich so gehen wird, gibt es immer diese fluktuierenden Überlegungen und Formulierungen vorher, in denen das mögliche Thema um seine finale Gestalt ringt. Bislang war es immer so, dass es unmittelbar vor dem Vortrag eine starke Klarheit gab, im Vortrag selbst und in den anschließenden Fragen das Ganze nochmals heftig ‚aufleuchtete‘ und in den nachebbenden Gedanken und Gesprächen sich dann der ‚finale Gedanke‘ gezeigt hat.

So auch hier. Die benutzten Diagramme sind mit denen im Vortrag identisch, der Wortlaut nicht genau, aber dem Inhalt nach.

Ankündigungstext ohne Leser

Der folgende Text wurde von mir als Ankündigungstext verfasst, wurde dann aber doch nicht publiziert. Er gibt so ein wenig den ‚Flair‘ im Vorfeld wieder:

Wir leben in einer Zeit, in der die Computertechnik immer mehr Bereiche des täglichen Lebens durchdringt, uns in eine Symbiose mit dem Digitalen zwingt, der wir uns nur schwer bis gar nicht entziehen können: Im Haushalt, in der Haustechnik, beim Entwerfen und Bauen von Häusern, in der Musik, beim Fernsehen, bei der Filmproduktion, in den Verwaltungen, in der industriellen Produktion, bei der Verkehrssteuerung, in jedem Auto, in jedem Flugzeug, bei der täglichen Kommunikation,…und, und, und,…. Wie ist dies möglich? Wie kann eine Technologie für uns zu einer Art ‚zweiten Natur‘ werden? Wie kann eine einzige Technologie nahezu alle Lebensbereiche durchdringen? Wie kann Technik Eigenschaften annehmen, die wir eigentlich nur dem Menschen zuschreiben: Wahrnehmen, Begriffe bilden, Schlüsse ziehen, Wiedererkennen, Kreativ sein, Gefühle haben, Ansätze von Selbstbewusstsein? Wo führt dies hin? Wird uns die Computertechnik irgendwann doch überflüssig machen?

In seinem Vortrag wird Prof. Doeben-Henisch diesen Fragen nachgehen. Er führt zurück zum Ursprung des Computers, ins Zentrum der mathematischen Dispute um die Jahrhundertwende, die dann in den Personen von Kurt Goedel und Alan Matthew Turing zum neuen philosophisch-mathematischen Begriff ‚endlicher Prozess‘ bzw. zum Begriff der ‚Berechenbarkeit‘ führten. Der Mensch selbst stand Modell für das mathematische Konzept der Turingmaschine (1936/7), das dann wenige Jahre später zu realen Maschinen führte, die mit Relais, dann Röhren, schließlich mit Halbleitern demonstrierten, dass und wie man ‚rechnende Maschinen‘ bauen kann. Innerhalb von 60 Jahren eroberte diese Technologie die ganze Welt. Die binären Zustände der Computer zeigten sich mächtig genug, sich nahezu alles einzuverleiben: Zahlen, Texte, Bilder, Geräusche, Musik, Objekte, Gebäude, Pflanzen, Tiere, Abläufe, ganze Städte. Zur Zeit versuchen Forscher weltweit, Maschinen mit ‚künstlichem Geist‘ zu schaffen. Als Vorlage dient das menschliche Gehirn. Prof. Doeben-Henisch wird zeigen, warum wir im Moment keine Argumente haben, warum dies nicht gehen könnte.

Die Überlegungen zu den Grundlagen des menschlichen Geistes führen auch hinein in die Frage nach der Natur des Menschen, in seine Geschichte, in die Geschichte der Entstehung des Menschen, in die innere Logik der Evolution des Lebens auf der Erde. Die Forschung hat uns in den letzten 80 Jahren aufregende neue Einblicke in die Struktur des Lebens vermittelt, die wiederum verschränkt sind mit der Entwicklung des bekannten Universums selbst. Man kann sehen, dass das Digitale als lingua universalis berechenbarer Prozesse sich schon im Inneren des Biologischen selbst als ‚Sprache des Lebens‘ findet. Das Leben selbst als großer ‚Computer‘ oder, umgekehrt, der ‚Computer‘ als neue Spielart jenes Prinzips, das wir als Leben bezeichnen?

Dies sind einige der zentralen Themen, die im Vortrag angesprochen werden. Der Vortrag endet mit dem offensichtlichen Faktum der Ko-Evolution von Universum – Erde – biologischem Leben und digitaler Technologie. Was bedeutet dies für uns?

 

VORTRAG

(Anmerkung: Der geschriebene Text entspricht natürlich nicht exakt dem Wortlaut des frei vorgetragenen Vortrags)

Meine sehr verehrten Damen und Herren,

nachdem Sie in den vorausgehenden Vorträgen schon einiges gehört haben zu den vielfältigsten Phänomenen, die das Digitale in unserem heutigen Alltag hervorbringt, möchte ich mich in meinem Vortrag mehr der Frage  nach der Maschinerie hinter diesen Phänomenen widmen. Was sind das für Strukturen, die all dies möglich machen? Welches Prinzip ist so mächtig, dass es all diese verschiedenartigen Phänomene hervorbringen kann, die dem Menschen in seinen Lebensvollzügen immer näher kommen, ja, bisweilen sogar schon zu inneren Bestand von diesen werden?

Für die Beantwortung dieser Frage werde ich Sie mit drei Konzepten bekannt machen, die auf erstaunliche Weise untereinander zusammenhängen: das Konzept der rechnenden Maschine, das neue Bild des Menschen und die Einbettung beider Konzepte in den Gang der Evolution. Und sie werden dann sehen, dass diese Zusammenschau der drei Konzepte etwas ganz Neues aufscheinen lässt, nämlich das Konzept ‚Geist‘ als jene Größe, die in all diesen Prozessen als etwas ‚aufscheint‘, was ’schon immer da ist‘. Würde dieser erste Eindruck zutreffen, dann würde es bei den Versuchen der ‚Erschaffung‘ eines ‚künstlichen‘ Geistes weniger darum gehen, etwas ‚Neues‘ zu ‚erschaffen‘, sondern mehr darum, etwas, das ’schon immer da ist‘, mit neuen Methoden ’sichtbar‘ zu machen.

Ich werde zum Ende daher auch kurz auf ein Experiment hinweisen, in dem wir genau dies tun: den ‚Geist‘ in Form eines ‚künstlichen‘ Geistes sichtbar machen.

Beginnen wir mit uns selbst, dem dem Menschen, dem homo sapiens sapiens.

DER MENSCH

VIELSCHICHTIG

 

Vielschichtigkeit des Menschen (Quellen: Synthese aus vier Bildern von Wikipedia (en), siehe Literaturnachweise)

[Bild: vier Sichten des Menschen] Ich möchte mit einem Schaubild beginnen, das zeigt, wie vielschichtig wir Menschen bei näherer Betrachtung sind. Sie sehen einmal links die Oberfläche des Menschen, wie sie sich uns darbietet, wenn wir uns nackt zeigen. Doch bei der Frage, ob wir den Menschen mit dieser Oberfläche gleich setzen sollen, werden wir dies verneinen müssen. Wir wissen heute, dass hinter bzw. unter dieser Oberfläche eine Fülle von hochkomplexen Organen zu finden ist, die durch ihre kontinuierliche Arbeit alle unsere Lebensprozesse ermöglichen. Was wären wir ohne Herz, Nieren, Lunge, Leber, Magen, Darm usw.? Zugleich wissen wir, dass all diese wunderbaren Organe im Chaos enden würden, gäbe es nicht das Nervensystem mit dem Gehirn, das all diese Tätigkeiten – ergänzend zum Blutkreislauf und zum Immunsystem –– koordiniert, anregt, steuert. Und dann noch das augenfällige System von Knochen und Gelenken, in sich ein überaus lebendes System, ohne das alle Haut und Organe in einen Zellklumpen zusammenstürzen würden, der alsbald verenden würde. Vier überaus komplexe Systeme, die vielfach ineinander greifen und in diesem Zusammenwirken das Gesamtkunstwerk menschlicher Körper in seiner Grundstruktur ermöglichen. Wissen wir damit, was und wer der Mensch ist? Haben wir die Psyche, den Geist, die Seele vergessen?

Bevor ich darauf eine Antwort versuche, hier ein kurzer Szenenwechsel. Im Film würden man sagen, ein harter Schnitt.

FORMALISIERUNG DER VIELFALT ALS  SYSTEM

Formalisierung des Menschen als System mit Input und Output

[Bild: Box mit Eingang/ Ausgang und Verhaltensfunktion] Was Sie auf diesem Bild sehen können, ist ein Diagramm und eine kleine Formel.

Dieses Diagramm und diese Formel entspricht ein wenig der Art, wie ein mathematisch geschulter Ingenieur die zuvor präsentierte Vielfalt des Menschen hinschreiben könnte.

 

Die Box mit Überschrift ‚System‘ kann einen Menschen repräsentieren, der aus seiner Umgebung Stimuli – abgekürzt ‚S‘ – als Input ‚I‘ empfangen kann (also Augen, Ohren, Tastempfindungen usw.) und der über seinen Output ‚O‘ Reaktionen ‚R‘ an die Umgebung abgeben kann, also diverse Bewegungen, Schallereignisse, usw. Im Innern des Systems gibt es verschiedene interne Zustände (internal states, IS), die zum Funktionieren des Systems wichtig sind. Z.B. die diversen Organe, das Nervensystem, die Knochen, usw. Und zwischen all diesen Elementen, dem Input, den internen Zuständen und dem Output, gibt es einen funktionalen Zusammenhang, der im Bild einfach mit dem griechischen Buchstaben ‚phi‘ (Φ, φ) benannt wird.

 

Alternativ zu solche einem Diagramm würde man aber auch einfach die kürzere Formel hinschreiben, die genau das gleiche zum Ausdruck bringt: der funktionale Zusammenhang ‚phi‘ nimmt Inputwerte und aktuelle Zustände als Ausgangspunkt und berechnet daraus mögliche Änderungen der inneren Zustände und einen Output. Also, Beispiel, sie sitzen in einem Auto und sehen (=Input) eine rote Ampel. Da sie gelernt haben, bei Rot tunlichst stehen zu bleiben (=IS), verändern sie ihre Fußstellung und bremsen (=IS, O).

Dieses kleine Beispiel mag auch ein wenig verdeutlichen, wie Ingenieure vorgehen, wenn sie die vielfältige Wirklichkeit mit der Sprache der Mathematik vereinfachen und dadurch all die wunderbaren Dinge bauen können, die Sie jeden Tag wie selbstverständlich benutzen. Ohne diese mathematische Sprache würden wir noch immer steinzeitlich leben.

Betrachten wir noch ein weiteres Beispiel im Kontext des Menschen, das uns helfen wird, die Brücke zur rechnenden Maschine zu bauen.

 

GEHIRN UND NERVENZELLE

Gehirn als Teil der menschlichen Organe; daneben ein einzelnes Neuron (Quelle: zwei Bilder aus Wikipedia komponiert, aus Wikipedia (en), siehe Literaturnachweise)

[Bild: Gehirn links, Nervenzelle rechts] Werden wir ein wenig bescheidener und nehmen uns nur einen Teil des Menschen vor, sein Gehirn. Nach neuen Schätzungen umfasst ein Gehirn etwa 100 Mrd Neuronen (Kandel et al. 2012:S.21). Diese sind in der Regel nicht direkt miteinander verbunden.

 

Die typische Struktur eines Neurons sieht man rechts vom Gehirn. Es gibt genau einen Ausgangs (das Axon), der sich vieltausendfach verzweigen kann, sowie viele tausend Eingänge. In dem kleinen hervorgehobenen Kreis kann man die Eigenart der neuronalen Verbindungen erkennen: das Endstück eines Axons endet kurz vor der Oberfläche des Neurons; es bleibt ein kleiner synaptischer Spalt.

NERVENZELLE UND MEMBRAN

Neuron links mit Vergrößerung einer Synapse rechts. Neuronbild aus Wikipedia (en). Quelle siehe Literaturverzeichnis

[Bild: Neuron und Membran schematisiert] In dem nachfolgenden Bild ist dies schematisierend und vergrößert dargestellt. Die Oberfläche der empfangenden Zelle stellt eine Membran dar, die man postsynaptische Membran nennt, die zusammen mit dem Endstück des Axons eine Synapse bildet. Die Kommunikation zwischen Endstück und potsysnaptischer Membran wird über Moleküle (Transmittermoleküle) realisiert, die beim Auftreten eines elektrischen Potentials im Axon aus den Vesikeln entlassen werden. Diese diffundieren durch den synaptischen Spalt und können dort, falls sie ‚passen‘ an Rezeptormolekülen von Ionenkanälen andocken. Jede postsysnaptische Membran hat mehrere Tausend solcher Ionenkanäle. Docken diese Transmittermoleküle an den Rezeptoren an, öffnen sich die Ionenkanäle. Es findet dann ein schlagartiger Austausch von Ionen in und außerhalb der Membran statt. Dieser schlagartiger Austausch hat einen ebenso plötzlichen Wechsel des elektrischen Potentials zur Folge, was dann zu dem bekannten Ein-Aus-Signal eines Neurons führen kann.

 

Gäbe es nur Ionenkanäle, dann wäre mit dem einmaligen Öffnen der Kanäle – bildlich gesprochen – alles Pulver verschossen. Diese Membran würde nie mehr ein weiteres Signal erzeugen können. Das aber ist eigentlich ihre Aufgabe. Zu diesem Zweck gibt es noch einige tausend Ionenpumpen. Diese sind in der Lage Ionen gegen ein Konzentrationsgefälle von außen nach Innen oder umgekehrt zu pumpen. Dazu benötigen sie Energie. Da sie insgesamt langsamer arbeiten als der Ionenaustausch durch die Kanäle stattfindet, entstehen zwischen den einzelnen Signalereignissen Refraktionszeiten, in denen keine Schaltvorgänge möglich sind.

 

Sie sehen also, schon die vielen tausend Membranen einer einzigen Nervenzelle (es können bei einer Zelle mehr als 1 Mio sein!) bilden kleine, komplexe Maschinen, deren Funktion Signalerzeugung und Signalfluss im Gehirn ermöglicht.

 

Während ein Neurowissenschaftler zur Beschreibung einer Nervenzelle und des Gehirns auf alle diese unfassbar komplexen Details eingehen muss, kann ein Ingenieur, der ein künstliches Gehirn bauen möchte, sich fast entspannt zurücklehnen und die Frage stellen, welche Eigenschaften an einem Neuron denn wesentlich sind, um sein Schaltverhalten zu erfassen.

Eine typische Antwort würde so aussehen:

 

NERVENZELLE MATHEMATISCH

Formalisierung eines Neurons durch Konzentration auf die Schalteigenschaften

[Bild: Nervenzelle mathematisch] Sie sehen wieder ein Box, dieses Mal ‚Neuron‘ genannt. Der ‚Input‘ zu dieser Box bilden die Endstücke von anderen Neuronen. Im Bild sind es drei Eingänge, es könnten aber n-viele sein. Dazu ein Ausgang, das Axon, das sich auf n-viele viele andere Neuronen – letztlich auch auf sich selbst – verteilen kann. In der Box können Sie drei einfache Formeln erkennen, die drei aufeinander folgende Verarbeitungsstufen repräsentieren. In der ersten Stufe werden die mit wij gewichteten Aktionspotentiale aij der einzelnen Eingänge summiert zum Wert net_j. Dann wird mittels der Aktivierungsfuntkion f_act berechnet, ob diese summierten Eingangssignale zusammen mit dem letzten Aktionspotential a_j einen vorgegebenen Schwellwert theta (θ) überschreiten oder nicht. Falls der Schwellwert überschritten wird, wird ein neues Aktionspotential a_j erzeugt, das dann schließlich mit der Ausgabefunktion f_out in einen geeigneten Ausgabewert umgerechnet wird.

 

Genauso wenig wie eine einzelne Schwalbe bekanntlich einen Frühling macht, genauso wenig kann man mit einem einzelnen Neuron etwas interessantes anfangen. Der Ingenieur muss sich also noch etwas einfallen lassen, wie er die vielen Neuronen zusammenbringt. Vielleicht ahnen Sie schon, was jetzt kommt:

 

KÜNSTLICHES GEHIRN

Übergang von einm Zeitpunkt zum nächsten, beschrieben mit Vorschrift ’syn‘

[Bild: Mengen von Neuron-Verbindungen] Eine einfache Möglichkeit, die Gesamtheit aller Neuronen zu betrachten, besteht darin, jeweils zwei, die miteinander in Verbindung stehen, als ein Paar zu betrachten, das bestimmte Verbindungswerte besitzt, und dann die Menge aller dieser Paare als eine Einheit zu einem bestimmten Zeitpunkt. Im Bild ‚CON‘ genannt, die Menge aller Connections.

 

Was dann noch bleibt ist die Beschreibung der Dynamik dieser Zellen, die Art der Veränderungen von einem Zeitpunkt zum nächsten. Dieser Veränderungszusammenhang wird im Bild ‚dyn‘ genannt, eine mathematische Vorschrift, die sagt, wie ich vom Zustand der Zellen zu einem Zeitpunkt zum Zustand der Zellen beim nächsten Zeitpunkt komme.

 

Damit ist für den Ingenieur alles gesagt, was gesagt werden muss. Ob dieses künstliche Gehirn Bilder erkennen soll, Sprache sprechen, sich erinnern können soll, usw. all dies ist damit erfasst. Sollte der Ingenieur in der Praxis feststellen, dass er wichtige Eigenschaften übersehen hat, dann fügt er sie einfach in seine Formeln ein.

Gehen wir nach diesem Ausflug ins Gehirn nochmals zur Ausgangsbox mit dem Menschen zurück.

 

NOCHMALS SYSTEMBOX

Integration des Teilomodells ‚Gehirn‘ in das allgemeine Systemmodell vom ‚Menchen‘

[Bild: Nochmals die Systembox, jetzt mit Verfeinerungen] Soeben haben wir das Gehirn als eine Teilbereich des Körpers näher betrachtet. Wollen wir diese Erkenntnisse in der allgemeinen Box verorten, dann müssen wir sagen, dass die Menge CON eine Teilmenge der Menge IS der internen Zustände ist, und die Verarbeitungsvorschrift ‚dyn‘ ist ein Teil der allgemeinen Verhaltensfunktion φ des Menschen.

 

Sie können an diesem Beispiel einmal sehen, wie man mit der Sprache der Mathematik komplizierteste Sachverhalte auf einfache Strukturen zurückführen kann, und – und darauf kommt es in unserem Zusammenhang besonders an – dass der Mensch – also wir selbst – bei dieser Betrachtungsweise eine Struktur besitzt, die uns durch diese Struktur vergleichbar macht mit allen anderen Strukturen.

Eine der Strukturen, mit denen ich die Struktur des Menschen vergleichen möchte, ist die Struktur eines endlichen Prozesses.

Um zu beschreiben und zu erklären was ‚berechenbare Prozesse‘ sind, müssen wir einen kleinen Ausflug in die Welt der Logik und Mathematik machen.Ich hoffe dann zeigen zu können, warum die berechenbaren Prozesse und wir Menschen mehr gemeinsam haben, als die meisten vermuten, und warum das Reden vom ‚Geist‘, auch vom ‚künstlichen Geist‘ heute eine ganz andere Bedeutung bekommen hat, als es bislang üblich war.

 

DIGITALE MASCHINE

DISKUSSION DER MATHEMATIKER

Übersicht über eine formale Theorie und ihre Elemente nach Hilbert und Ackermann

[Bild: Schema einer formalen Theorie] Natürlich werde ich hier nicht auf die Details der Diskussionen im Kontext der sogenannten Grundlagenkrise der Mathematik zum Ende des 19. und zu Beginn des 20.Jahrhunderts eingehen können. Nur so viel sei hier gesagt, dass die Logiker und Mathematiker dieser Zeit ein Problem damit hatten, die Grundlagen der Mathematik so zu beschreiben, dass keine Paradoxien entstehen konnten, erst recht keine direkten Widersprüche in den formalen Systemen und natürlich wünschte man sich vollständige Systeme, d.h. formale Systeme, in denen man alle Aussagen, die im Sinne des Systems wahr sein sollen, auch beweisbar sind.

 

Eine der wichtigsten mathematischen Schulen innerhalb dieser Diskussionen war die Schule um David Hilbert, der die Lösung des Problems einer befriedigenden Darstellung der Mathematik darin sah, eine Reihe von möglichst einfachen formalen Systemen zu schaffen (basierend auf einer endlichen Menge von Axiomen), deren Widerspruchsfreiheit und Vollständigkeit mit sogenannten ‚endlichen Mitteln‘ gezeigt werden kann. Alle komplizierteren Theorien sollten dann auf diese einfachen Systeme zurückgeführt werden.

Im Alltag mag es uns nicht als Problem erscheinen, von ‚endlichen Mitteln‘ zu sprechen. Aber wenn es darum geht, allgemein zu beschreiben, was hinreichend geeignete endliche Mittel sind, um eine mathematische Theorie als widerspruchsfrei und vollständig zu erweisen, dann zeigt sich plötzlich, dass dies nicht so einfach ist, wie sich dies Hilbert und seine Schule erhofft hatten.

GOEDEL – TURING

Das Bild zeigt verschiedene frühe Formalisierungsbeiträge zum Thema ‚endliches Verfahren‘

[Bild: Goedel und Turing historisch] Es war Kurt Goedel, der 1930-31 zeigen konnte, dass das Grundlagenprogramm von Hilbert und seiner Schule prinzipiell unmöglich war. Er zeigte, dass eine mathematische Theorie, die mindestens so stark wie die Arithmetik ist, aus prinzipiellen Gründen nur eines von beiden sein kann: entweder widerspruchsfrei (konsistent) oder vollständig, aber nicht beides zugleich. Dieses Ergebnis trifft in das Herz jeder mathematischen Theorie, bis heute. Es zeigt, dass es prinzipielle Grenzen in der Beweisbarkeit von mathematischen Wahrheiten gibt.

Diese Probleme treten immer dann auf, wenn es darum geht, innerhalb (!) einer formalen Theorie (mindestens so stark wie eine Prädikatenlogik erster Stufe) die Widerspruchsfreiheit und Vollständigkeit zu beweisen. Natürlich kann man das Problem dadurch zu umgehen versuchen (was sehr viele versucht haben), eine zusätzliche ‚Beschreibungsebene‘ einzurichten, von der aus sie dann ‚über‘ (Griechisch ‚meta‘) die Objekte der anderen ebene ‚reden‘. Solche Art von Hierarchisierungen oder Typisierungen oder Metaebenen entsprechen der üblichen Arbeitsweise des menschlichen Gehirns. Allerdings bildet diese Strategie bei näherem Hinsehen keine wirkliche Lösung. Zwar verschwinden in der Objekttheorie all jene Elemente, die ‚über sich selbst‘ reden können, aber die Metaebene selbst, die ja auch den Berechenbarkeitsforderungen mathematischer Beweise genügen müssen, enthalten dann genau all jene Elemente wieder, die zu der von Kurz Goedel aufgedeckten Schwachstelle führen.

Eine letzte philosophische Würdigung dieser Sachverhalte scheint mir noch auszustehen.

Mit diesen Überlegungen sind wir beim Thema Berechenbarkeit angekommen.

Die Diskussion unter Mathematikern hängt von Beweisen ab, die geführt werden. Diese Beweise müssen mit sogenannten endlichen Mitteln geführt werden, damit sie nachvollziehbar sind. Goedel selbst hatte ein geniales Verfahren ersonnen, um unter Benutzung von natürlichen Zahlen seine Beweise zu führen. Aber er war von seinem eigenen Beweis nie begeistert, obgleich niemand ihn bis heute widerlegen konnte.

Es war dann einem gewissen Alan Matthew Turing vorbehalten fünf Jahre später die Beweise von Goedel nochmals mit anderen Mitteln zu führen. Und diese Beweismittel – später Turingmaschine genannt – fanden nicht nur die Zustimmung von Goedel, sondern von nahezu allen nachfolgenden Generationen. Bis heute ist die Turingmaschine das wichtigste mathematische Konzept für alle Berechenbarkeitsbeweise – und damit der mathematische Referenzpunkt für alles, was wir heute Computer nennen.

Weil dem so ist, weil das Konzept der Turingmaschine eine solch eminente philosophische und mathematische Bedeutung zukommt, lassen Sie mich dieses Konzept kurz vorstellen. Es ist so einfach, dass die meisten, die es zum ersten Mal kennen lernen, sofort fragen: und das soll alles sein? Ich versichere Ihnen, das ist alles und – und das möchte ich dann zum Abschluss zeigen – das Konzept der Turingmaschine findet sich auch schon im Kern von allem Biologischen. Ein Befund, den man nun nicht unbedingt erwarten muß.

TURINGMASCHINE

Das Konzept der Turingmaschine (rechts oben im Bild) als Teil eines Theoriebildungsprozesses

[Bild: Theorieprozess TM] So wie Newton angeblich beim Fallen eines Apfels seine entscheidende Einsicht in das Wesen des Gravitationsgesetzes bekommen haben soll, so beschreibt Turing selbst in dem entscheidenden Artikel von 1936-7, dass es die Arbeit eines Buchhalters im Büro war, die ihn inspiriert hat. So, wie der Buchhalter mit einem Stift auf einem Blatt Papier Zahl an Zahl fügt, so stellte er sich eine ideale Maschine vor (siehe im Bild rechts oben), die auf einem Band mit lauter Kästchen, entweder über ein Schreib-Lese-Fenster lesen kann, was in dem Kästchen geschrieben ist oder ein neues Zeichen in das Kästchen schreiben kann. Darüber hinaus kann die ideale endliche Maschine den Schreib-Lesekopf nur um ein Feld nach links oder rechts bewegen. Das ist alles. Das Verhalten der idealen endlichen Maschine wird gesteuert über eine endliche Liste von Befehlen

TM BEISPIEL

Bild einer 4-zeiligen Turingmaschine, Vereinfachung eines Beispiels von einer Webseite (Quelle: siehe Literaturvereichnis). Auf der Webseite kann man dieses Beispiel sowohl erweitern als auch real ausführen.

[Bild: TM mit vier Zeilen] In einem einfachen Beispiel einer TM können Sie solche Befehlszeilen erkennen: in der ersten Spalte steh der Name eines Zustandes (z0), dann folgt ein Feld mit dem Zeichen, das gelesen werden kann, dann eine Feld mit dem Namen des Folgezustandes (z0), dann das Zeichen, das in diesem Fall geschrieben werden soll, und schließlich ein Zeichen, welche Bewegung ausgeführt werden soll.

Im Beispiel würde man die erste Zeile etwa wie folgt lesen: Im Zustand z0 wird beim Lesen des Zeichens ‚#‘ der Zustand z0 beibehalten, für das Zeichen ‚#‘ würde das neue Zeichen ‚1‘ geschrieben und der Schreib-Lesekopf wird um 1 Feld nach rechts bewegt.

Im Beispiel umfasst das ganze Verhaltens-Programm 4 Zeilen.

Das ist alles. Das ist die berühmte Turingmaschine, die sich als weltweiter Standard zur Prüfung der Berechenbarkeit eines Prozesses durchgesetzt hat. Was immer bislang an anderen Formalismen gefunden wurde, sofern solch ein Formalismus endliche Berechenbarkeit beschreiben soll, war er niemals stärker als eine Turingmaschine.

Oder anders ausgedrückt:

Sofern es nicht möglich ist, zu zeigen, dass eine Turingmaschine, angesetzt auf ein Problem, nach endlichen vielen Schritten zu einem Ergebnis kommt, solange kann man nicht behaupten, dass dieses Problem (Turing-)berechenbar ist.

Auf der Basis der Turingmaschine wurden in den vergangenen Jahrzehnten eine ganze Reihe interessanter Unentscheidbarkeitsresultate bewiesen. Auf die kann ich hier jetzt nicht eingehen. In meinen Augen habe diese Ergebnisse alle eine sehr hohe philosophische Relevanz.

Wie eingangs festgestellt, sehe ich einen interessanten Zusammenhang zwischen der Turingmaschine, dem Menschen und der Evolution des Biologischen. Lassen Sie uns daher einen kurzen Blick darauf werfen.

EVOLUTION, KOEVOLUTION, …

GENOTYP UND PHÄNOTYP

Wechselwirkung zwischen Genotyp und Phänotyp einerseits und Phänotyp mit umgebender ökologischer Nische andererseits

[Bild: Genotyp und Phänotyp] Ausgangspunkt dieser Überlegungen ist das erstaunliche Faktum, dass die Vielfalt und Komplexität der Körper – der sogenannte Phänotyp – zurückführbar ist auf die zugrunde liegenden genetischen Informationen – auf den sogenannten Genotyp –. In einem Wachstumsprozess wird – ausgehend von einer einzigen Zelle – ein Körpergebilde mit vielen Billionen Zellen aufgebaut, die alle in einem sinnvollen funktionalen Zusammenhang enden.

Es lohnt, sich klar zu machen, dass dieses unfassbare Wunderwerke eine sehr lange, komplexe Entstehungsgeschichte hat, die selbst im universalen Maßstab ihresgleichen sucht.

EVOLUTION ALS TEIL DER ENTWICKLUNG DES UNIVERSUMS

Massstäbliches Diagramm zur Geschichte des Universums; Hervorhebung wichtiger Meilensteine für die Entstehung des Biologischen

[Bild: Entwicklung des Universums mit Evolution] Das Schaubild zeigt maßstabsgetreu wichtige Entwicklungsstationen im bekannten Universum an. Unsere Position auf der Zeitachse ist unmittelbar dort, wo das grüne Dreieck endet. Das grüne Dreieck zeigt an, ab wann zellbasiertes Leben auf der Erde nachweisbar ist. Die Erde begann ca. vor 4.55 Mrd Jahren. Die chemische Evolution, die dann zu ersten einfachen Zellen führte, setzte ungefähr vor 4 Mrd. Jahren ein, 200 Mio Jahre später eben erste einfachste Zellstrukturen. Es dauerte dann etwa 2.8 Mrd Jahre bis es zu ersten multizellulären Lebensformen kam, die dann einige hundert Mio Jahre später zur Besiedlung des Landes führte. Von diesem Zeitpunkt bis zu uns dauerte es nochmals 700 Mio Jahre.

Nach heutigem Wissensstand wird es nur ca. 1 Mrd Jahre dauern, bis in der Zukunft das Leben auf der Erde wegen der beginnenden Aufblähung der Sonne praktisch unmöglich werden wird.

Sind schon diese zeitlichen Verhältnisse atemberaubend, so ist es noch spannender, wenn man der Frage nachgeht, wie es denn überhaupt zur Ausbildung dieser extrem komplexen Strukturen kommen konnte.

Das Schwierigste ist dabei nicht einmal die biologische Evolution, die mit dem Auftreten der ersten Zellen vor ca. 3.8 Mrd. Jahren begann, sondern die härteste, bis heute nicht geknackte Nuss, ist eine Erklärung, wie es überhaupt zu den ersten Zellen kommen konnte. Denn selbst bei den einfachsten Zellen wirken schon so viele komplexe Strukturen zusammen, dass eine Erklärung der schrittweisen Entstehung dieser Strukturen im Rahmen der sogenannten chemischen Evolution bislang nicht völlig aufgehellt ist.

Kehren wir zu den ersten Zellen zurück.

Ich hatte angekündigt, dass die TM als Grundmodell der Berechenbarkeit sich im Herzen des Biologischen wiederfindet.

RIBOSOM ALS TURINGMASCHINE

Links im Bild ein Ribosom, das Proteine zusammenbaut, und rechts das Schema einer Turingmaschine

[Bild: links Ribosom, rechts Turingmaschine] Dies können Sie hier sehen:

Links sehen sie das Prozeßmodell, wie ein Ribosom – ein spezielles RNA-Molekül – Proteine erzeugt, indem es Informationen von einem Boten-RNA-Molekül bekommt und zugleich Aminosäurebasteine von Transfer-RNA-Molekülen. Der Dirigent im Hintergrund ist ein DNA-Molekül, dessen Bausteine als Informationseinheiten auf das Ribosom einwirken.

Was sie hier sehen ist das Herzstück allen biologischen Lebens und – möglicherweise – eines der wahren Wunder des ganzen Universums. Das, was allen bekannten Gesetzen der Physik zuwiderläuft und sich jeder anderen bekannten Erklärung entzieht das ist dieses DNA-Molekül. Das DNA-Molekül repräsentiert eine frei kombinierbare Anordnung von Aminosäuren, für die es in den möglichen Kombinationen keinerlei zwingende Gründe gibt. Durch die Verknüpfung mit dem proteinerzeugenden Mechanismus mittels mRNA, tRNA und Ribosom stellt die DNA aber eine Quelle von unerschöpflich vielen Bauplänen für Körperstrukturen dar.

Im Lichte des Konzepts der Turingmaschine bieten sich folgende Interpretationen an. Wie im Bild eingezeichnet lässt sich das Ribosom als eine Turingmaschine interpretieren, die als Input Eingaben von der mRNA und der tRNA bekommt und diese dann in eine Ausgabe als Protein verwandelt. Da das Ribosom, wie wir wissen, aber bzgl. seiner Eingaben nicht rückwärts gehen kann, sondern immer nur vorwärts, schöpft es die Möglichkeiten einer Turingmaschine nicht einmal ganz aus; es entspricht damit eher noch einer abgeschwächten TM mit Namen ‚endlicher deterministischer Automat‘.

Zentral bleibt das Faktum, dass wir im innersten Kern des Biologischen berechenbare Prozesse finden, die von einem DNA-Molekül gesteuert werden, das mit seinen Eigenschaften dem Konzept eines Zeichens sehr nahe kommt.

QUINTESSENZ des BIOLOGISCHEN

Zusammenfassung aller wichtigen Eckdaten zum Biologischen. Im Bild fehlt allerdings der Aspekt der Tendenz zum Aufbau komplexer Strukturen, und zwar tendenziell immer komplexerer Strukturen

[Bild: Zusammenfassung Biologisches] Fassen wir diese verschiedenen Aspekte des Biologischen nochmals zusammen:

Ausgangspunkt aller biologischer Phänomene ist das kosmische Faktum, dass die Entropie bislang noch nicht maximal ist. Aus den lokalen Entropiegefällen ist daher ‚freie Energie‘ verfügbar, die in Gestalt von chemischen, biochemischen und dann biologischen Prozessen lokal Strukturen entstehen lassen, die immanent in Richtung immer größerer Komplexität drängen. Dafür gibt es bislang keine befriedigende naturwissenschaftliche Theorie.

In Gestalt der zellbasierten biologischen Evolution können wir ein komplexes Zusammenspiel zwischen Genotyp und Phänotyp einerseits beobachten, aber simultan genauso wichtig das Zusammenspiel zwischen Phänotyp und umgebender Welt. Während der zufallsgesteuerte Genotyp den Raum möglicher Strukturen frei absuchen kann, führt die Bindung des Genotyps an den Phänotyp über die Interaktion mit der umgebenden Welt zu einem übergeordneten Selektionsprozess, der nur jene Phänotypen und damit daran gekoppelte Genotypen akzeptiert, die zur Umgebung passen. Daraus ergibt sich, dass die biologische Evolution simultan und unausweichlich immer nur als Ko-Evolution funktionieren kann.

Damit stellt sich die Frage, ob wir es bei der Emergenz des Geistigen als Eigenschaft des Biologischen mit einer Neuerschaffung des Geistes zu tun haben, oder ’nur‘ mit der Sichtbarmachung des stehts schon vorhandenen ‚Geistigen‘?

Hält man sich diesen Gesamtzusammenhang vor Augen, dann kann der direkte Vergleich zwischen dem Menschen und einer Turingmaschine in einem neuen Licht erscheinen.

MENSCH und KÜNSTLICHER GEIST

MENSCH TURINGMASCHINE

Oben Systemformel Mensch, unten Systemformel Turingmaschine (TM) und dann Universelle Turingmaschine (UTM)

[Bild: Formel Mensch und (U)TM] Sie sehen auf diesem Schaubild nochmals die schon bekannte Verhaltensformel des Menschen, die sich dadurch auszeichnet, dass wir vom Menschen annehmen können, dass er sich innerhalb seines wissensbasierten Verhaltens bis zu einem gewissen Grade kontinuierlich verändern kann. Man nennt dies Lernen.

Die ’normale‘ Turingmaschine kann dies zunächst nicht. Sie ist vollständig determiniert. Allerdings nur auf den ersten Blick.

Schon Turing hat gezeigt, dass man eine deterministische Turingmaschine sehr leicht zu einer universellen sich selbst modifizierenden Maschine ‚umbauen‘ kann, indem man einen Teil des Bandes dazu benutzt, dort die Beschreibung einer beliebigen Turingmaschine (oder eines Gehirns, oder…) zu speichern. Die ursprüngliche deterministische Turingmaschine kann dann diese andere Turingmaschine simulieren bis dahin, dass sie diese andere Beschreibung in Abhängigkeit von Umgebungsereignissen abändern kann. Damit ist eine universelle Turingmaschine (UTM) voll lernfähig.

Zieht man diese Möglichkeit in Betracht, dann gibt es weder strukturell noch verhaltensmässig einen wesentlichen Unterschied zwischen einem Menschen (sofern er mit der obigen Formel adäquat erfasst wird) und einer universellen Turingmaschine.

Bei solch einer Betrachtungsweise verwundert es dann nicht, dass Turing selbst in verschiedenen Aufsätzen offen darüber spekuliert hatte, dass eine universelle Turingmaschine im Prinzip die vom Menschen her bekannte Geistigkeit nicht nur nachzuahmen sondern in bestimmten Bereichen sogar übertreffen könnte. Letztlich sah er nur praktische Hindernisse auf dem Weg dahin, insbesondere die Schwierigkeit, eine Maschine an all den Lernprozessen teilhaben zu lassen, die Menschen normalerweise durchlaufen.

Künstlicher Geist?

Wenn man sich all diese Gedanken in einer Gesamtschau nochmals vor Augen stellt, dann kann man den Eindruck gewinnen, dass all das, was wir traditionell ‚Geist‘ nennen, also diverse Eigenschaften, die wir mit dem Verhalten des Menschen zusammen bringen, möglicherweise so zu verstehen ist, dass hier Eigenschaften ’sichtbar‘ werden von jenen ‚impliziten‘ Eigenschaften der dynamischen Materie, aus dem alles ist. Die mit den bisherigen Gesetzen der empirischen Wissenschaften nicht erklärbaren biologischen Phänomene wären dann ’nur‘ ‚Ausfaltungen‘ von empirischen Eigenschaften, die genau wie alles andere impliziten ‚Gesetzen‘ folgen.

Wenn dies stimmen würde, dann müsste die ‚Konstruktion‘ eines künstlichen Geistes immer dann möglich sein, wenn man die ‚Randbedingungen‘ für das ‚Aufscheinen‘ (Emergenz?) der geistigen Phänomene bereitstellen würde.

In einer Diskussion in der Nacht des 9.Oktobers dieses Jahres entstand angesichts dieser Sachlage die Idee, in der Stadt Goethes, den künstlichen Geist unter Beteiligung der Öffentlichkeit offiziell entstehen zu lassen.

In einer öffentlich kontrollierten Entstehung des künstlichen Geistes hätten alle eine Chance, ein wesentliches Prinzip dieses unseres Universums und deren Anwendung bzw. Nutzung besser verstehen zu können.

Es geht nicht darum, den Geist neu zu erfinden, sondern das, was vor allem Denken schon da ist, sichtbar zu machen.

Erkennnis ist nicht nur ein Wissensproblem, sondern auch ein Akzeptanzproblem: sind wir bereit zu akzeptieren wer wir wirklich sind: Teil eines universalen Geistwerdungsprozesses, der uns eine immer größere Mitwirkungsmöglichkeit zuweist (womit nicht ausgeschlossen ist, dass es irgendwo in den unendlichen Weiten des Universums ähnliche Prozesse gibt).

An dieser Stelle höre ich jetzt auf, obgleich es ja gerade erst anfängt…

[Anmerkung (11.April 2015): Nach zwei Jahren Diskussion konnte im April die Webseite zum Emerging Mind Projekt eröffnet werden. Offizieller Start ist der 10.November 2015. In diesem Projekt geht es genau um das, was in dem vorausgehenden Beitrag diskutiert wurde, die öffentliche Erzeugung eines Künstlichen Geistes samt den dazugehörigen begleitenden philosophischen Diskussionen und künstlerischen Aktionen.]

LITERATURVERWEISE

 

  1. Davis, M. Computability and Unsolvability, New York – Toronto – London: McGraw-Hill Book Company, Inc.,1958
  2. Davis, M. (Ed.). (1965). The Undecidable. Basic Papers On Undecidable Propositions, Unsolvable Problems And Computable Functions. Hewlett (NY): Raven Press.
  3. Doeben-Henisch, G.; Beschreibung TM auf der Seite: http://www.doeben-henisch.de/fh/I-TI04/VL/VL3/i-ti04-vl-vl3.html
  4. Gödel, K. Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I, In: Monatshefte Math.Phys., vol.38(1931),pp:175-198
  5. Gödel, K. Remarks before the princeton bicentennial conference on problems in mathematics, 1946. In: Martin Davis, 1965: pp.84-87
  6. Hilbert, D.; Ackermann, W. Grundzüge der theoretischen Logik, Berlin. J.Springer, 1928
  7. Hilbert in Wikipedia (en): Hilbert’s problems, URL: http://en.wikipedia.org/wiki/Hilbert%27sproblems (Last access Sept-30, 2012)
  8. Hilbert, D. Mathematische Probleme, Vortrag, gehalten auf dem internationalen Mathematiker-Kongreß zu Paris 1900, Göttinger Nachrichten 1900, S.253-297, URL:
    http://www.mathematik.uni-bielefeld.de/ kersten/hilbert/rede.html, und
    http://www.mathematik.uni-bielefeld.de/ kersten/hilbert/(Last Access Sept-30, 2012)
  9. Kandel, E.R.; Schwartz, J.H.; Jessell, T.M.; Siegelbaum, S.A.; Hudspeth, A.J.; (Eds.) Principles of Neural Science, 5th.ed., New York et.al: McGrawHill, 2012
  10. TM – Beispiel aus dem Internet, vereinfacht. Siehe http://keinerspieltmitmir.de/turing/ (letzter Besuch: 12.Nov.2012)
  11. Turing, A.M.; Intelligence Service. Schriften, ed. by Dotzler, B.; Kittler, F.; Berlin: Brinkmann & Bose, 1987, ISBN 3-922660-2-3
  12. Turing, A. M. On Computable Numbers with an Application to the Entscheidungsproblem. In: Proc. London Math. Soc., Ser.2, vol.42(1936), pp.230-265; received May 25, 1936;
    Appendix added August 28; read November 12, 1936; corr. Ibid. vol.43(1937), pp.544-546. Turing’s paper appeared in Part 2 of vol.42 which was issued in December 1936 (Reprint
    in M.DAVIS 1965, pp.116-151; corr. ibid. pp.151-154).(an online version at:
    http://www.comlab.ox.ac.uk/activities/ieg/e-library/sources/tp2-ie.pdf, last accesss Sept-30, 2012)
  13. Wikipedia (en): Body Surface at http://en.wikipedia.org/wiki/Human body (letzter Besuch: 12.Nov.2012)
  14. Wikipedia (en). Brain at http://en.wikipedia.org/wiki/Human brain (letzter Besuch: 12.Nov.2012)
  15. Wikipedia (en): Human skeleton at http://en.wikipedia.org/wiki/Human_skeleton (letzter Besuch 12.Nov.2012)
  16. Wikipedia (en):  Organs beyond the Body Surface at http://en.wikipedia.org/wiki/Human anatomy (letzter Besuch: 12.Nov.2012)
  17. Wikipedia (en): Neuron at http://en.wikipedia.org/wiki/Neuron (letzter Besuch: 12.Nov.2012)

Eine Übersicht über alle bisherigen Beiträge anhand der Titel findet sich HIER

SUCHE NACH DEM URSPRUNG UND DER BEDEUTUNG DES LEBENS (Paul Davies). Teil 2 (Information als Grundeigenschaft alles Materiellen?)

Paul Davies, The FIFTH MIRACLE: The Search for the Origin and Meaning of Life, New York:1999, Simon & Schuster

 Fortsetzung von Suche… (Teil 1)

Start: 27.Aug.2012

Letzte Fortsetzung: 1.Sept.2012

  1. Das dritte Kapitel ist überschrieben ‚Out of the Slime‘. (SS.69-96) Es startet mit Überlegungen zur Linie der Vorfahren (Stammbaum), die alle auf ‚gemeinsame Vorfahren‘ zurückführen. Für uns Menschen zu den ersten Exemplaren des homo sapiens in Afrika vor 100.000 Jahren, zu den einige Millionen Jahre zurückliegenden gemeinsamen Vorläufern von Affen und Menschen; ca. 500 Mio Jahre früher waren die Vorläufer Fische, zwei Milliarden Jahre zurück waren es Mikroben. Und diese Rückführung betrifft alle bekannten Lebensformen, die, je weiter zurück, sich immer mehr in gemeinsamen Vorläufern vereinigen, bis hin zu den Vorläufern allen irdischen Lebens, Mikroorganismen, Bakterien, die die ersten waren.(vgl. S.69f)

  2. [Anmerkung: Die Formulierung von einem ‚einzelnen hominiden Vorfahren‘ oder gar von der ‚afrikanischen Eva‘ kann den Eindruck erwecken, als ob der erste gemeinsame Vorfahre ein einzelnes Individuum war. Das scheint mir aber irreführend. Bedenkt man, dass wir ‚Übergangsphasen‘ haben von Atomen zu Molekülen, von Molekülen zu Netzwerken von Molekülen, von Molekülnetzwerken zu Zellen, usw. dann waren diese Übergänge nur erfolgreich, weil viele Milliarden und Abermilliarden von Elementen ‚gleichzeitig‘ beteiligt waren; anders wäre ein ‚Überleben‘ unter widrigsten Umständen überhaupt nicht möglich gewesen. Und es spricht alles dafür, dass dieses ‚Prinzip der Homogenität‘ sich auch bei den ‚komplexeren‘ Entwicklungsstufen fortgesetzt hat. Ein einzelnes Exemplar einer Art, das durch irgendwelche besonderen Eigenschaften ‚aus der Reihe‘ gefallen wäre, hätte gar nicht existieren können. Es braucht immer eine Vielzahl von hinreichend ‚ähnlichen‘ Exemplaren, dass ein Zusammenwirken und Fortbestehen realisiert werden kann. Die ‚Vorgänger‘ sind also eher keine spezifischen Individuen (wenngleich in direkter Abstammung schon), sondern immer Individuen als Mitglieder einer bestimmten ‚Art‘.]

  3. Es ist überliefert, dass Darwin im Sommer 1837, nach der Rückkehr von seiner Forschungsreise mit der HMS Beagle in seinem Notizbuch erstmalig einen irregulär verzweigenden Baum gemalt hat, um die vermuteten genealogischen Zusammenhänge der verschiedenen Arten darzustellen. Der Baum kodierte die Annahme, dass letztlich alle bekannten Lebensformen auf einen gemeinsamen Ursprung zurückgehen. Ferner wird deutlich, dass viele Arten (heutige Schätzungen: 99%) irgendwann ‚ausgestorben‘ sind. Im Falle einzelliger Lebewesen gab es aber – wie wir heute zunehmend erkennen können – auch das Phänomene der Symbiose: ein Mikroorganismus ‚frißt‘ andere und ‚integriert‘ deren Leistung ‚in sich‘ (Beispiel die Mitochondrien als Teil der heute bekannten Zellen). Dies bedeutet, dass ‚Aussterben‘ auch als ‚Synthese‘ auftreten kann.(vgl. SS.70-75)

  4. Die Argumente für den Zusammenhang auf Zellebene zwischen allen bekannten und ausgestorbenen Arten mit gemeinsamen Vorläufern beruhen auf den empirischen Fakten, z.B. dass die metabolischen Verläufe der einzelnen Zellen gleich sind, dass die Art und Weise der genetischen Kodierung und Weitergabe gleich ist, dass der genetische Kode im Detail der gleiche ist, oder ein kurioses Detail wie die molekulare Ausrichtung – bekannt als Chiralität –; obgleich jedes Molekül aufgrund der geltenden Gesetze sowohl rechts- oder linkshändig sein kann, ist die DNA bei allen Zellen ‚rechtshändig‘ und ihr Spiegelbild linkshändig. (vgl.SS.71-73)

  5. Da das DNA-Molekül bei allen bekannten Lebensformen in gleicher Weise unter Benutzung von Bausteinen aus Aminosäure kodiert ist, kann man diese Moleküle mit modernen Sequenzierungstechniken Element für Element vergleichen. Unter der generellen Annahme, dass sich bei Weitergabe der Erbinformationen durch zufällige Mutationen von Generation zur Generation Änderungen ergeben können, kann man anhand der Anzahl der verschiedenen Elemente sowohl einen ‚genetischen Unterschied‘ wie auch einen ‚genealogischen Abstand‘ konstruieren. Der genetische Unterschied ist direkt ’sichtbar‘, die genaue Bestimmung des genealogischen Abstands im ‚Stammbaum‘ hängt zusätzlich ab von der ‚Veränderungsgeschwindigkeit‘. Im Jahr 1999 war die Faktenlage so, dass man annimmt, dass es gemeinsame Vorläufer für alles Leben gegeben hat, die sich vor ca. 3 Milliarden Jahren in die Art ‚Bakterien‘ und ‚Nicht-Bakterien‘ verzweigt haben. Die Nicht-Bakterien haben sich dann weiter verzweigt in ‚Eukaryoten‘ und ‚Archäen‘. (vgl. SS.75-79)

  6. Davies berichtet von bio-geologischen Funden nach denen in de Nähe von Isua (Grönland) Felsen von vor mindestens -3.85 Milliarden Jahren gefunden wurden mit Spuren von Bakterien. Ebenso gibt es Funde von Stromatolythen (Nähe Shark Bay, Australien), mit Anzeichen für Cyanobakterien aus der Zeit von ca. -3.5 Milliarden Jahren und aus der gleichen Zeit Mikrofossilien in den Warrawoona Bergen (Australien). Nach den Ergebnissen aus 1999 hatten die Cyanobakterien schon -3.5 Mrd. Jahre Mechanismen für Photosynthese, einem höchst komplexen Prozess.(vgl. SS.79-81)

  7. Die immer weitere Zurückverlagerung von Mikroorganismen in die Vergangenheit löste aber nicht das Problem der Entstehung dieser komplexen Strukturen. Entgegen der früher verbreiteten Anschauung, dass ‚Leben‘ nicht aus ‚toter Materie‘ entstehen kann, hatte schon Darwin 1871 in einem Brief die Überlegung geäußert, dass in einer geeigneten chemischen Lösung über einen hinreichend langen Zeitraum jene Moleküle und Molekülvernetzungen entstehen könnten, die dann zu den bekannten Lebensformen führen. Aber erst in den 20iger Jahren des 20.Jahrhunderts waren es Alexander Oparin (Rußland) und J.B.S.Haldane (England) die diese Überlegungen ernst nahmen. Statt einem kleinen See,  wie bei Darwin, nahm Haldane an, dass es die Ozeane waren, die den Raum für den Übergangsprozess von ‚Materie‘ zu ‚Leben‘ boten. Beiden Forschern fehlten aber in ihrer Zeit die entscheidende Werkzeuge und Erkenntnisse der Biochemie und Molekularbiologie, um ihre Hypothesen testen zu können. Es war Harold Urey (USA) vorbehalten, 1953 mit ersten Laborexperimenten beginnen zu können, um die Hypothesen zu testen. (vgl. SS.81-86)

  8. Mit Hilfe des Studenten Miller arrangierte Urey ein Experiment, bei dem im Glaskolben eine ‚Mini-Erde‘ bestehend aus etwas Wasser mit den Gasen Methan, Hydrogen und Ammonium angesetzt wurde. Laut Annahme sollte dies der Situation um ca. -4 Millarden Jahren entsprechen. Miller erzeugte dann in dem Glaskolben elektrische Funken, um den Effekt von Sonnenlicht zu simulieren. Nach einer Woche fand er dann verschiedene Amino-Säuren, die als Bausteine in allen biologischen Strukturen vorkommen, speziell auch in Proteinen.(vgl. S.86f)

  9. Die Begeisterung war groß. Nachfolgende Überlegungen machten dann aber klar, dass damit noch nicht viel erreicht war. Die Erkenntnisse der Geologen deuteten in den nachfolgenden Jahren eher dahin, dass die Erdatmosphäre, die die sich mehrfach geändert hatte, kaum Ammonium und Methan enthielt, sondern eher reaktions-neutrales Kohlendioxyd und Schwefel, Gase die keine Aminosäuren produzieren. (vgl.S.87)

  10. Darüber hinaus ist mit dem Auftreten von Aminosäuren als Bausteine für mögliche größere Moleküle noch nichts darüber gesagt, ob und wie diese größere Moleküle entstehen können. Genauso wenig wie ein Haufen Ziegelsteine einfach so ein geordnetes Haus bilden wird, genauso wenig formen einzelne Aminosäuren ‚einfach so‘ ein komplexes Molekül (ein Peptid oder Polypeptid). Dazu muss der zweite Hauptsatz überwunden werden, nach dem ’spontane‘ Prozesse nur in Richtung Energieabbau ablaufen. Will man dagegen komplexe Moleküle bauen, muss man gegen den zweiten Hauptsatz die Energie erhöhen; dies muss gezielt geschehen. In einem angenommenen Ozean ist dies extrem unwahrscheinlich, da hier Verbindungen eher aufgelöst statt synthetisiert werden.(vgl.87-90)

  11. Der Chemiker Sidney Fox erweiterte das Urey-Experiment durch Zufuhr von Wärme. In der Tat bildeten sich dann Ketten von Aminosäurebausteinen die er ‚Proteinoide‘ nannte. Diese waren eine Mischung aus links- und rechts-händigen Molekülen, während die biologisch relevanten Moleküle alle links-händig sind. Mehr noch, die biologisch relevanten Aminosäureketten sind hochspezialisiert. Aus der ungeheuren Zahl möglicher Kombinationen die ‚richtigen‘ per Zufall zu treffen grenzt mathematisch ans Unmögliche.(vgl.S.90f) Dazu kommt, dass eine Zelle viele verschiedene komplexe Moleküle benötigt (neben Proteinen auch Lipide, Nukleinsäuren, Ribosomen usw.). Nicht nur ist jedes dieser Moleküle hochkomplex, sondern sie entfalten ihre spezifische Wirkung als ‚lebendiges Ensemble‘ erst im Zusammenspiel. Jedes Molekül ‚für sich‘ weiß aber nichts von einem Zusammenhang. Wo kommen die Informationen für den Zusammenhang her? (vgl.S.91f) Rein mathematisch ist die Wahrscheinlichkeit, dass sich die ‚richtigen‘ Proteine bilden in der Größenordnung von 1:10^40000, oder, um ein eindrucksvolles Bild des Physikers Fred Hoyle zu benutzen: genauso unwahrscheinlich, wie wenn ein Wirbelsturm aus einem Schrottplatz eine voll funktionsfähige Boeing 747 erzeugen würde. (vgl.S.95)

  12. Die Versuchung, das Phänomen des Lebens angesichts dieser extremen Unwahrscheinlichkeiten als etwas ‚Besonderes‘, als einen extrem glücklichen Zufall, zu charakterisieren, ist groß. Davies plädiert für eine Erklärung als eines ’natürlichen physikalischen Prozesses‘. (S.95f)

  13. Im Kapitel 4 ‚The Message in the Machine‘ (SS.97-122) versucht Davies mögliche naturwissenschaftliche Erklärungsansätze, beginnend bei den Molekülen, vorzustellen. Die Zelle selbst ist so ungeheuerlich komplex, dass noch ein Niels Bohr die Meinung vertrat, dass Leben als ein unerklärbares Faktum hinzunehmen sei (vgl.Anmk.1,S.99). Für die Rekonstruktion erinnert Davies nochmals daran, dass diejenigen Eigenschaften, die ‚lebende‘ Systeme von ’nicht-lebenden‘ Systemen auszeichnen, Makroeigenschaften sind, die sich nicht allein durch Verweis auf die einzelnen Bestandteile erklären lassen, sondern nur und ausschließlich durch das Zusammenspiel der einzelnen Komponenten. Zentrale Eigenschaft ist hier die Reproduktion. (vgl.SS.97-99)

  14. Reproduktion ist im Kern gebunden an das Kopieren von drei-dimensional charakterisierten DNA-Molekülen. Vereinfacht besteht solch ein DNA-Molekül aus zwei komplementären Strängen, die über eine vierelementiges Alphabet von Nukleinsäurebasen miteinander so verbunden sind, dass es zu jeder Nukleinsäurebase genau ein passendes Gegenstück gibt. Fehlt ein Gegenstück, ist es bei Kenntnis des Kodes einfach, das andere Stück zu ergänzen. Ketten von den vierelementigen Basen können ‚Wörter‘ bilden, die ‚genetische Informationen‘ kodieren. Ein ‚Gen‘ wäre dann solch ein ‚Basen-Wort‘. Und das ganze Molekül wäre dann die Summe aller Gene als ‚Genom‘. Das ‚Auftrennen‘ von Doppelsträngen zum Zwecke des Kopierens wie auch das wieder ‚Zusammenfügen‘ besorgen spezialisierte andere Moleküle (Enzyme). Insgesamt kann es beim Auftrennen, Kopieren und wieder Zusammenfügen zu ‚Fehlern‘ (Mutationen) kommen. (vgl.SS.100-104)

  15. Da DNA-Moleküle als solche nicht handlungsfähig sind benötigen sie eine Umgebung, die dafür Sorge trägt, dass die genetischen Informationen gesichert und weitergegeben werden. Im einfachen Fall ist dies eine Zelle. Um eine Zelle aufzubauen benötigt man Proteine als Baumaterial und als Enzyme. Proteine werden mithilfe der genetischen Informationen in der DNA erzeugt. Dazu wird eine Kopie der DNA-Informationen in ein Molekül genannt Boten-RNA (messenger RNA, mRNA) kopiert, dieses wandert zu einem komplexen Molekülnetzwerk genannt ‚Ribosom‘. Ribosomen ‚lesen‘ ein mRNA-Molekül als ‚Bauanleitung‘ und generieren anhand dieser Informationen Proteine, die aus einem Alphabet von 20 (bisweilen 21) Aminosäuren zusammengesetzt werden. Die Aminosäuren, die mithilfe des Ribosoms Stück für Stück aneinandergereiht werden, werden von spezialisierten Transportmolekülen (transfer RNA, tRNA) ‚gebracht‘, die so gebaut sind, dass immer nur dasjenige tRNA-Molekül andocken kann, das zur jeweiligen mRNA-Information ‚passt‘. Sobald die mRNA-Information ‚abgearbeitet‘ ist, liegt eines von vielen zehntausend möglichen Proteinen vor. (vgl.SS. 104-107) Bemerkenswert ist die ‚Dualität‘ der DNA-Moleküle (wie auch der mRNA) sowohl als ‚Material/ Hardware‘ wie auch als ‚Information/ Software‘. (vgl.S.108)

  16. Diese ‚digitale‘ Perspektive vertieft Davies durch weitere Betrachtung und führt den Leser zu einem Punkt, bei dem man den Eindruck gewinnt, dass die beobachtbaren und messbaren Materialien letztlich austauschbar sind bezogen auf die ‚impliziten Strukturen‘, die damit realisiert werden. Am Beispiel eines Modellflugzeugs, das mittels Radiowellen ferngesteuert wird, baut er eine Analogie dahingehend auf, dass die Hardware (das Material) des Flugzeugs wie auch der Radiowellen selbst als solche nicht erklären, was das Flugzeug tut. Die Hardware ermöglicht zwar grundsätzlich bestimmte Flugeigenschaften, aber ob und wie diese Eigenschaften genutzt werden, das wird durch ‚Informationen‘ bestimmt, die per Radiowellen von einem Sender/ Empfänger kommuniziert werden. Im Fall einer Zelle bilden komplexe Molekülnetzwerke die Hardware mit bestimmten verfügbaren chemischen Eigenschaften, aber ihr Gesamtverhalten wird gesteuert durch Informationen, die primär im DNA-Molekül kodiert vorliegt und die als ‚dekodierte‘ Information alles steuert.(vgl. SS.113-115)

  17. [Anmerkung: Wie schon zuvor festgestellt, repräsentieren Atome und Moleküle als solche keine ‚Information‘ ‚von sich aus‘. Sie bilden mögliche ‚Ereignisse‘ E ‚für andere‘ Strukturen S, sofern diese andere Strukturen S auf irgendeine Weise von E ‚beeinflusst‘ werden können. Rein physikalisch (und chemisch) gibt es unterschiedliche Einwirkungsmöglichkeiten (z.B. elektrische Ladungen, Gravitation,…). Im Falle der ‚Information‘ sind es aber nicht nur solche primären physikalisch-chemischen Eigenschaften, die benutzt werden, sondern das ‚empfangende‘ System S befindet sich in einem Zustand, S_inf, der es dem System ermöglicht, bestimmte physikalisch-chemische Ereignisse E als ‚Elemente eines Kodes‘ zu ‚interpretieren. Ein Kode ist minimal eine Abbildungsvorschrift, die Elemente einer Menge X (die primäre Ereignismenge) in eine Bildmenge Y (irgendwelche anderen Ereignisse, die Bedeutung) ‚übersetzt‘ (kodiert), also CODE: X —> Y. Das Materiell-Stoffliche wird damit zum ‚Träger von Informationen‘, zu einem ‚Zeichen‘, das von einem Empfänger S ‚verstanden‘ wird. Im Falle der zuvor geschilderten Replikation wurden ausgehend von einem DNA-Molekül (= X, Ereignis, Zeichen) mittels mRNA, tRNA und Ribosom (= Kode, CODE) bestimmte Proteine (=Y, Bedeutung) erzeugt. Dies bedeutet, dass die erzeugten Proteine die ‚Bedeutung des DNA-Moleküls‘ sind unter Voraussetzung eines ‚existierenden Kodes‘ realisiert im Zusammenspiel eines Netzwerkes von mRNA, tRNAs und Ribosom. Das Paradoxe daran ist, das die einzelnen Bestandteile des Kodes, die Moleküle mRNA, tRNA und Ribosom (letzteres selber hochkomplex) ‚für sich genommen‘ keinen Kode darstellen, nur in dem spezifischen Zusammenspiel! Wenn also die einzelnen materiellen Bestandteile, die Atome und Moleküle ‚für sich gesehen‘ keinen komplexen Kode darstellen, woher kommt dann die Information, die alle diese materiell hochkomplexen Bestandteile auf eine Weise ‚zusammenspielen‘ lässt, die weit über das hinausgeht, was die Bestandteile einzeln ‚verkörpern‘? ]

  18. "Zelle und Turingmaschine"

    zelle_tm

    [Anmerkung: Es gibt noch eine andere interssante Perspektive. Das mit Abstand wichtigste Konzept in der (theoretischen) Informatik ist das Konzept der Berechenbarkeit, wie es zunächst von Goedel 1931, dann von Turing in seinem berühmten Artikel von 1936-7 vorgelegt worden ist. In seinem Artikel definiert Turing das mathematische (!) Konzept einer Vorrichtung, die alle denkbaren berechenbaren Prozesse beschreiben soll. Später gaben andere dieser Vorrichtung den Namen ‚Turingmaschine‘ und bis heute haben alle Beweise immer nur dies eine gezeigt, dass es kein anderes formales Konzept der intuitiven ‚Berechenbarkeit‘ gibt, das ’stärker‘ ist als das der Turingmaschine. Die Turingmaschine ist damit einer der wichtigsten – wenn nicht überhaupt der wichtigste — philosophischen Begriff(e). Viele verbinden den Begriff der Turingmaschine oft mit den heute bekannten Computern oder sehen darin die Beschreibung eines konkreten, wenngleich sehr ‚umständlichen‘ Computers. Das ist aber vollständig an der Sache vorbei. Die Turingmaschine ist weder ein konkreter Computer noch überhaupt etwas Konkretes. Genau wie der mathematische Begriff der natürlichen Zahlen ein mathematisches Konzept ist, das aufgrund der ihm innewohnenden endlichen Unendlichkeit niemals eine reale Zahlenmenge beschreibt, sondern nur das mathematische Konzept einer endlich-unendlichen Menge von abstrakten Objekten, für die die Zahlen des Alltags ‚Beispiele‘ sind, genauso ist auch das Konzept der Turingmaschine ein rein abstraktes Gebilde, für das man konkrete Beispiele angeben kann, die aber das mathematische Konzept selbst nie erschöpfen (die Turingmaschine hat z.B. ein unendliches Schreib-Lese-Band, etwas, das niemals real existieren kann).
    ]

  19. [Anmerkung: Das Interessante ist nun, dass man z.B. die Funktion des Ribosoms strukturell mit dem Konzept einer Turingmaschine beschreiben kann (vgl. Bild). Das Ribosom ist jene Funktionseinheit von Molekülen, die einen Input bestehend aus mRNA und tRNAs überführen kann in einen Output bestehend aus einem Protein. Dies ist nur möglich, weil das Ribosom die mRNA als Kette von Informationseinheiten ‚interpretiert‘ (dekodiert), die dazu führen, dass bestimmte tRNA-Einheiten zu einem Protein zusammengebaut werden. Mathematisch kann man diese funktionelle Verhalten eines Ribosoms daher als ein ‚Programm‘ beschreiben, das gleichbedeutend ist mit einer ‚Funktion‘ bzw. Abbildungsvorschrift der Art ‚RIBOSOM: mRNA x tRNA —> PROTEIN. Das Ribosom stellt somit eine chemische Variante einer Turingmaschine dar (statt digitalen Chips oder Neuronen). Bleibt die Frage, wie es zur ‚Ausbildung‘ eines Ribosoms kommen kann, das ’synchron‘ zu entsprechenden mRNA-Molekülen die richtige Abbildungsvorschrift besitzt.
    ]
  20. Eine andere Blickweise auf das Phänomen der Information ist jene des Mathematikers Chaitin, der darauf aufmerksam gemacht hat, dass man das ‚Programm‘ eines Computers (sein Algorithmus, seine Abbildungsfunktion, seine Dekodierungsfunktion…) auch als eine Zeichenkette auffassen kann, die nur aus Einsen und Nullen besteht (also ‚1101001101010..‘). Je mehr Wiederholungen solch eine Zeichenkette enthalten würde, um so mehr Redundanz würde sie enthalten. Je weniger Wiederholung, um so weniger Redundanz, um so höher die ‚Informationsdichte‘. In einer Zeichenkette ohne jegliche Redundanz wäre jedes einzelne Zeichen wichtig. Solche Zeichenketten sind formal nicht mehr von reinen zufallsbedingten Ketten unterscheidbar. Dennoch haben biologisch nicht alle zufälligen Ketten eine ’nützliche‘ Bedeutung. DNA-Moleküle ( bzw. deren Komplement die jeweiligen mRNA-Moleküle) kann man wegen ihrer Funktion als ‚Befehlssequenzen‘ als solche binär kodierten Programme auffassen. DNA-Moleküle können also durch Zufall erzeugt worden sein, aber nicht alle zufälligen Erzeugungen sind ’nützlich‘, nur ein verschwindend geringer Teil.  Dass die ‚Natur‘ es geschafft hat, aus der unendlichen Menge der nicht-nützlichen Moleküle per Zufall die herauszufischen, die ’nützlich‘ sind, geschah einmal durch das Zusammenspiel von Zufall in Gestalt von ‚Mutation‘ sowie Auswahl der ‚Nützlichen‘ durch Selektion. Es stellt sich die Frage, ob diese Randbedingungen ausreichen, um das hohe Mass an Unwahrscheinlichkeit zu überwinden. (vgl. SS. 119-122)
  21. [Anmerkung: Im Falle ‚lernender‘ Systeme S_learn haben wir den Fall, dass diese Systeme einen ‚Kode‘ ‚lernen‘ können, weil sie in der Lage sind, Ereignisse in bestimmter Weise zu ‚bearbeiten‘ und zu ’speichern‘, d.h. sie haben Speichersysteme, Gedächtnisse (Memory), die dies ermöglichen. Jedes Kind kann ‚lernen‘, welche Ereignisse welche Wirkung haben und z.B. welche Worte was bedeuten. Ein Gedächtnis ist eine Art ‚Metasystem‘, in dem sich ‚wahrnehmbare‘ Ereignisse E in einer abgeleiteten Form E^+ so speichern (= spiegeln) lassen, dass mit dieser abgeleiteten Form E^+ ‚gearbeitet‘ werden kann. Dies setzt voraus, dass es mindestens zwei verschiedene ‚Ebenen‘ (layer, level) im Gedächtnis gibt: die ‚primären Ereignisse‘ E^+ sowie die möglichen ‚Beziehungen‘ RE, innerhalb deren diese vorkommen. Ohne dieses ‚Beziehungswissen‘ gibt es nur isolierte Ereignisse. Im Falle multizellulärer Organismen wird diese Speicheraufgabe durch ein Netzwerk von neuronalen Zellen (Gehirn, Brain) realisiert. Der einzelnen Zelle kann man nicht ansehen, welche Funktion sie hat; nur im Zusammenwirken von vielen Zellen ergeben sich bestimmte Funktionen, wie z.B. die ‚Bearbeitung‘ sensorischer Signale oder das ‚Speichern‘ oder die Einordnung in eine ‚Beziehung‘. Sieht man mal von der spannenden Frage ab, wie es zur Ausbildung eines so komplexen Netzwerkes von Neuronen kommen konnte, ohne dass ein einzelnes Neuron als solches ‚irgend etwas weiß‘, dann stellt sich die Frage, auf welche Weise Netzwerke von Molekülen ‚lernen‘ können.  Eine minimale Form von Lernen wäre das ‚Bewahren‘ eines Zustandes E^+, der durch ein anderes Ereignis E ausgelöst wurde; zusätzlich müsste es ein ‚Bewahren‘ von Zuständen geben, die Relationen RE zwischen primären Zuständen E^+ ‚bewahren‘. Solange wir es mit frei beweglichen Molekülen zu tun haben, ist kaum zu sehen, wie es zu solchen ‚Bewahrungs-‚ sprich ‚Speicherereignissen‘ kommen kann. Sollte es in irgend einer Weise Raumgebiete geben, die über eine ‚hinreichend lange Zeit‘ ‚konstant bleiben, dann wäre es zumindest im Prinzip möglich, dass solche ‚Bewahrungsereignisse‘ stattfinden. Andererseits muss man aber auch sehen, dass diese ‚Bewahrungsereignisse‘ aus Sicht eines möglichen Kodes nur möglich sind, wenn die realisierenden Materialien – hier die Moleküle bzw. Vorstufen zu diesen – physikalisch-chemische Eigenschaften aufweisen, die grundsätzlich solche Prozesse nicht nur ermöglichen, sondern tendenziell auch ‚begünstigen‘, und dies unter Berücksichtigung, dass diese Prozesse ‚entgegen der Entropie‘ wirken müssen. Dies bedeutet, dass — will man keine ‚magischen Kräfte‘ annehmen —  diese Reaktionspotentiale schon in den physikalisch-chemischen Materialien ‚angelegt‘ sein müssen, damit sie überhaupt auftreten können. Weder Energie entsteht aus dem Nichts noch – wie wir hier annehmen – Information. Wenn wir also sagen müssen, dass sämtliche bekannte Materie nur eine andere Zustandsform von Energie ist, dann müssen wir vielleicht auch annehmen, dass alle bekannten ‚Kodes‘ im Universum nichts anderes sind als eine andere Form derjenigen Information, die von vornherein in der Energie ‚enthalten‘ ist. Genauso wie Atome und die subatomaren Teilchen nicht ’neutral‘ sind sondern von vornherein nur mit charakteristischen (messbaren) Eigenschaften auftreten, genauso müsste man dann annehmen, dass die komplexen Kodes, die wir in der Welt und dann vor allem am Beispiel biologischer Systeme bestaunen können, ihre Wurzeln in der grundsätzlichen ‚Informiertheit‘ aller Materie hat. Atome formieren zu Molekülen, weil die physikalischen Eigenschaften sie dazu ‚bewegen‘. Molkülnetzwerke entfalten ein spezifisches ‚Zusammenspiel‘, weil ihre physikalischen Eigenschaften das ‚Wahrnehmen‘, ‚Speichern‘ und ‚Dekodieren‘ von Ereignissen E in einem anderen System S grundsätzlich ermöglichen und begünstigen. Mit dieser Annahme verschwindet ‚dunkle Magie‘ und die Phänomene werden ‚transparent‘, ‚messbar‘, ‚manipulierbar‘, ‚reproduzierbar‘. Und noch mehr: das bisherige physikalische Universum erscheint in einem völlig neuen Licht. Die bekannte Materie verkörpert neben den bislang bekannten physikalisch-chemischen Eigenschaften auch ‚Information‘ von ungeheuerlichen Ausmaßen. Und diese Information ‚bricht sich selbst Bahn‘, sie ‚zeigt‘ sich in Gestalt des Biologischen. Das ‚Wesen‘ des Biologischen sind dann nicht die ‚Zellen als Material‘, das Blut, die Muskeln, die Energieversorgung usw., sondern die Fähigkeit, immer komplexer Informationen aus dem Universum ‚heraus zu ziehen, aufzubereiten, verfügbar zu machen, und damit das ‚innere Gesicht‘ des Universums sichtbar zu machen. Somit wird ‚Wissen‘ und ‚Wissenschaft‘ zur zentralen Eigenschaft des Universums samt den dazugehörigen Kommunikationsmechanismen.]

  22. Fortsetzung Teil 3

Einen Überblick über alle bisherigen Themen findet sich HIER

Zitierte  Literatur:

Chaitin, G.J. Information, Randomness & Incompleteness, 2nd ed.,  World Scientific, 1990

Turing, A. M. On Computable Numbers with an Application to the Entscheidungsproblem. In: Proc. London Math. Soc., Ser.2, vol.42(1936), pp.230-265; received May 25, 1936; Appendix added August 28; read November 12, 1936; corr. Ibid. vol.43(1937), pp.544-546. Turing’s paper appeared in Part 2 of vol.42 which was issued in December 1936 (Reprint in M.DAVIS 1965, pp.116-151; corr. ibid. pp.151-154).

 Interessante Links:

Ein Video in Youtube, das eine Rede von Pauls Davies dokumentiert, die thematisch zur Buchbesprechung passt und ihn als Person etwas erkennbar macht.

Teil 1:
http://www.youtube.com/watch?v=9tB1jppI3fo

Teil 2:
http://www.youtube.com/watch?v=DXXFNnmgcVs

Teil 3:
http://www.youtube.com/watch?v=Ok9APrXfIOU

Teil 4:
http://www.youtube.com/watch?v=vXqqa1_0i7E

Part 5:
http://www.youtube.com/watch?v=QVrRL3u0dF4
Es gibt noch einige andere Videos mit Paul Davies bei Youtube.