Archiv der Kategorie: Maschine – semiotische

SEMIOTIK UND KÜNSTLICHE INTELLIGENZ. EIN VIELVERSPRECHENDES TEAM. Nachschrift eines Vortrags an der Universität Passau am 22.Okt.2015

KONTEXT

  1. Im Rahmen der interdisziplinären Ringvorlesung Grenzen (Wintersemester 2015/16) an der Universität Passau (organisiert von der Deutsche Gesellschaft für Semiotik (DGS) e.V. in Kooperation mit der Professur für Neuere deutsche Literaturwissenschaft und Mediensemiotik (Prof. Dr. Jan-Oliver Decker und Dr. Stefan Halft) hatte ich einen Vortrag angenommen mit dem Titel Semiotik und künstliche Intelligenz. Ein vielversprechendes Team. Wie immer halte ich Vorträge immer zu Fragen, die ich bis dahin noch nicht ausgearbeitet hatte und nutze diese Herausforderung, es dann endlich mal zu tun.
  2. Die Atmosphäre beim Vortrag war sehr gut und die anschließenden Gespräche brachte viele interessanten Aspekte zutage, was wir im Rahmen der DGS noch tun sollten/ könnten, um das Thema weiter zu vertiefen.

MOTIV – WARUM DIESES THEMA

  1. Angesichts der vielfältigen Geschichte der Semiotik könnte man natürlich ganze Abende nur mit Geschichten über die Semiotik füllen. Desgleichen im Fall der künstlichen Intelligenz [KI]. Der Auslöser für das Thema war dann auch der spezielle Umstand, dass im Bereich der KI seit etwa den 80iger Jahren des 20.Jahrhunderts in einigen Forschungsprojekten das Thema Semiotik ganz neu auftaucht, und nicht als Randthema sondern verantwortlich für die zentralen Begriffe dieser Forschungen. Gemeint sind die berühmten Roboterexperimente von Luc Steels (ähnlich auch aufgegriffen von anderen, z.B. Paul Vogt) (siehe Quellen unten).
  2. Unter dem Eindruck großer Probleme in der klassischen KI, die aus einem mangelnden direkten Weltbezug resultierten (das sogenannte grounding Problem) versuchte Steels, Probleme des Zeichen- und Sprachlernens mit Hilfe von Robotern zu lösen, die mit ihren Sensoren direkten Kontakt zur empirischen Welt haben und die mit ihren Aktoren auch direkt auf die Welt zurück wirken können. Ihre internen Verarbeitungsprozesse können auf diese Weise abhängig gemacht werden (eine Form von grounding) von der realen Welt (man spricht hier auch von embodied intelligence).
  3. Obwohl Steels (wie auch Vogt) auf ungewöhnliche Weise grundlegende Begriffe der Semiotik einführen, wird dieser semiotische Ansatz aber nicht weiter reflektiert. Auch findet nicht wirklich eine Diskussion des Gesamtansatzes statt, der aus dieser Kombination von Semiotik und Robotik/ KI entsteht bzw. entstehen könnte. Dies ist schade. Der Vortrag Semiotik und künstliche Intelligenz. Ein vielversprechendes Team stellt einen Versuch dar, heraus zu arbeiten, warum die Kombination Semiotik und KI nicht nur Sinn macht, sondern eigentlich das Zeug hätte, zu einem zentralen Forschungsparadigma für die Zukunft zu werden. Tatsächlich liegt dem Emerging Mind Projekt, das hier im Blog schon öfters erwähnt wurde und am 10.November 2015 offiziell eröffnet werden wird, genau dieses Semiotik-KI-Paradigma zugrunde.

WELCHE SEMIOTIK?

  1. Wer Wörterbücher zur Semiotik aufschlägt (z.B. das von Noeth 2000), wird schnell bemerken, dass es eine große Vielfalt von Semiotikern, semiotischen Blickweisen, Methoden und Theorieansätze gibt, aber eben nicht die eine große Theorie. Dies muss nicht unbedingt negativ sein, zumal dann nicht, wenn wir ein reiches Phänomen vor uns haben, das sich eben einer einfachen Theoriebildung widersetzt. Für die Praxis allerdings, wenn man Semiotik in einer realen Theoriebildung einsetzen möchte, benötigt man verbindliche Anknüpfungspunkte, auf die man sich bezieht. Wie kann man solch eine Entscheidung motivieren?
  2. Aus der Sicht der Wissenschaftsphilosophie biete es sich an, die unterschiedlichen Zugangsweisen zur Erfahrung und und Beschreibung von Wirklichkeit als quasi Koordinatensystem zu wählen, diesem einige der bekanntesten semiotischen Ansätze zu zuordnen und dann zu schaue, welche dieser semiotischen Positionen der Aufgabenstellung am nächsten kommen. Von einer Gesamttheorie her betrachtet sind natürlich alle Ansätze wichtig. Eine Auswahl bzw. Gewichtung kann nur pragmatische Gründe haben.

ZUGÄNGE ZUR WIRKLICHKEIT

  1. Grundsätzlich gibt es aus heutiger Sicht zwei Zugangsweisen: über den intersubjektiven (empirischen) Bereich und über das subjektive Erleben.
  2. Innerhalb des empirischen Bereichs gab es lange Zeit nur den Bereich des beobachtbaren Verhaltens [SR] (in der Psychologie) ohne die inneren Zustände des Systems; seit ca. 50-60 Jahren eröffnen die Neurowissenschaften auch einen Zugriff auf die Vorgänge im Gehirn. Will man beide Datenbereiche korrelieren, dann gerät man in das Gebiet der Neuropsychologie [NNSR].
  3. Der Zugang zur Wirklichkeit über den subjektiven Bereich – innerhalb der Philosophie auch als phänomenologischer Zugang bekannt – hat den Vorteil einer Direktheit und Unmittelbarkeit und eines großen Reichtums an Phänomenen.
  4. Was den meisten Menschen nicht bewusst ist, ist die Tatsache, dass die empirischen Phänomene nicht wirklich außerhalb des Bewusstseins liegen. Die Gegenstände in der Zwischenkörperzone (der empirische Bereich) sind als Gegenstände zwar (was wir alle unterstellen) außerhalb des Bewusstseins, aber die Phänomene, die sie im Bewusstsein erzeugen, sind nicht außerhalb, sondern im Bewusstsein. Das, was die empirischen Phänomene [PH_em] von den Phänomenen, unterscheidet, die nicht empirisch [PH_nem] sind, ist die Eigenschaft, dass sie mit etwas in der Zwischenkörperwelt korrespondieren, was auch von anderen Menschen wahrgenommen werden kann. Dadurch lässt sich im Falle von empirischen Phänomenen relativ leicht Einigkeit zwischen verschiedenen Kommunikationsteilnehmern über die jeweils korrespondierenden Gegenstände/ Ereignisse erzielen.
  5. Bei nicht-empirischen Phänomenen ist unklar, ob und wie man eine Einigkeit erzielen kann, da man nicht in den Kopf der anderen Person hineinschauen kann und von daher nie genau weiß, was die andere Person meint, wenn sie etwas Bestimmtes sagt.
  6. Die Beziehung zwischen Phänomenen des Bewusstseins [PH] und Eigenschaften des Gehirns – hier global als NN abgekürzt – ist von anderer Art. Nach heutigem Wissensstand müssen wir davon ausgehen, dass alle Phänomene des Bewusstseins mit Eigenschaften des Gehirns korrelieren. Aus dieser Sicht wirkt das Bewusstsein wie eine Schnittstelle zum Gehirn. Eine Untersuchung der Beziehungen zwischen Tatsachen des Bewusstseins [PH] und Eigenschaften des Gehirns [NN] würde in eine Disziplin fallen, die es so noch nicht wirklich gibt, die Neurophänomenologie [NNPH] (analog zur Neuropsychologie).
  7. Der Stärke des Bewusstseins in Sachen Direktheit korrespondiert eine deutliche Schwäche: im Bewusstsein hat man zwar Phänomene, aber man hat keinen Zugang zu ihrer Entstehung! Wenn man ein Objekt sieht, das wie eine Flasche aussieht, und man die deutsche Sprache gelernt hat, dann wird man sich erinnern, dass es dafür das Wort Flasche gibt. Man konstatiert, dass man sich an dieses Wort in diesem Kontext erinnert, man kann aber in diesem Augenblick weder verstehen, wie es zu dieser Erinnerung kommt, noch weiß man vorher, ob man sich erinnern wird. Man könnte in einem Bild sagen: das Bewusstsein verhält sich hier wie eine Kinoleinwand, es konstatiert, wenn etwas auf der Leinwand ist, aber es weiß vorher nicht, ob etwas auf die Leinwand kommen wird, wie es kommt, und nicht was kommen wird. So gesehen umfasst das Bewusstsein nur einen verschwindend kleinen Teil dessen, was wir potentiell wissen (können).

AUSGEWÄHLTE SEMIOTIKER

  1. Nach diesem kurzen Ausflug in die Wissenschaftsphilosophie und bevor hier einzelne Semiotiker herausgegriffen werden, sei eine minimale Charakterisierung dessen gegeben, was ein Zeichen sein soll. Minimal deshalb, weil alle semiotischen Richtungen, diese minimalen Elemente, diese Grundstruktur eines Zeichens, gemeinsam haben.
  2. Diese Grundstruktur enthält drei Komponenten: (i) etwas, was als Zeichenmaterial [ZM] dienen kann, (ii) etwas, das als Nichtzeichenmaterial [NZM] fungieren kann, und (iii) etwas, das eine Beziehung/ Relation/ Abbildung Z zwischen Zeichen- und Nicht-Zeichen-Material in der Art repräsentiert, dass die Abbildung Z dem Zeichenmaterial ZM nicht-Zeichen-Material NZM zuordnet. Je nachdem, in welchen Kontext man diese Grundstruktur eines Zeichens einbettet, bekommen die einzelnen Elemente eine unterschiedliche Bedeutung.
  3. Dies soll am Beispiel von drei Semiotikern illustriert werden, die mit dem zuvor charakterisierten Zugängen zur Wirklichkeit korrespondieren: Charles William Morris (1901 – 1979), Ferdinand de Saussure (1857-1913) und Charles Santiago Sanders Peirce (1839 – 1914) .
  4. Morris, der jüngste von den Dreien, ist im Bereich eines empirischen Verhaltensansatzes zu positionieren, der dem verhaltensorientierten Ansatz der modernen empirischen Psychologie nahe kommt. In diesem verhaltensbasierten Ansatz kann man die Zeichengrundstruktur so interpretieren, dass dem Zeichenmaterial ZM etwas in der empirischen Zwischenwelt korrespondiert (z.B. ein Laut), dem Nicht-Zeichen-Material NZM etwas anderes in der empirischen Außenwelt (ein Objekt, ein Ereignis, …), und die Zeichenbeziehung Z kommt nicht in der empirischen Welt direkt vor, sondern ist im Zeichenbenutzer zu verorten. Wie diese Zeichenbeziehung Z im Benutzer tatsächlich realisiert ist, war zu seiner Zeit empirische noch nicht zugänglich und spielt für den Zeichenbegriff auch weiter keine Rolle. Auf der Basis von empirischen Verhaltensdaten kann die Psychologie beliebige Modellannahmen über die inneren Zustände des handelnden Systems machen. Sie müssen nur die Anforderung erfüllen, mit den empirischen Verhaltensdaten kompatibel zu sein. Ein halbes Jahrhundert nach Morris kann man anfangen, die psychologischen Modellannahmen über die Systemzustände mit neurowissenschaftlichen Daten abzugleichen, sozusagen in einem integrierten interdisziplinären neuropsychologischen Theorieansatz.
  5. Saussure, der zweit Jüngste von den Dreien hat als Sprachwissenschaftler mit den Sprachen primär ein empirisches Objekt, er spricht aber in seinen allgemeinen Überlegungen über das Zeichen in einer bewusstseinsorientierten Weise. Beim Zeichenmaterial ZM spricht er z.B. von einem Lautbild als einem Phänomen des Bewusstseins, entsprechend von dem Nicht-Zeichenmaterial auch von einer Vorstellung im Bewusstsein. Bezüglich der Zeichenbeziehung M stellt er fest, dass diese außerhalb des Bewusstseins liegt; sie wird vom Gehirn bereit gestellt. Aus Sicht des Bewusstseins tritt diese Beziehung nur indirekt in Erscheinung.
  6. Peirce, der älteste von den Dreien, ist noch ganz in der introspektiven, phänomenologischen Sicht verankert. Er verortet alle drei Komponenten der Zeichen-Grundstruktur im Bewusstsein. So genial und anregend seine Schriften im einzelnen sind, so führt diese Zugangsweise über das Bewusstsein zu großen Problemen in der Interpretation seiner Schriften (was sich in der großen Bandbreite der Interpretationen ausdrückt wie auch in den nicht selten geradezu widersprüchlichen Positionen).
  7. Für das weitere Vorgehen wird in diesem Vortrag der empirische Standpunkt (Verhalten + Gehirn) gewählt und dieser wird mit der Position der künstlichen Intelligenz ins Gespräch gebracht. Damit wird der direkte Zugang über das Bewusstsein nicht vollständig ausgeschlossen, sondern nur zurück gestellt. In einer vollständigen Theorie müsste man auch die nicht-empirischen Bewusstseinsdaten integrieren.

SPRACHSPIEL

  1. Ergänzend zu dem bisher Gesagten müssen jetzt noch drei weitere Begriffe eingeführt werden, um alle Zutaten für das neue Paradigma Semiotik & KI zur Verfügung zu haben. Dies sind die Begriffe Sprachspiel, Intelligenz sowie Lernen.
  2. Der Begriff Sprachspiel wird auch von Luc Steels bei seinen Roboterexperimenten benutzt. Über den Begriff des Zeichens hinaus erlaubt der Begriff des Sprachspiels den dynamischen Kontext des Zeichengebrauchs besser zu erfassen.
  3. Steels verweist als Quelle für den Begriff des Sprachspiels auf Ludwig Josef Johann Wittgenstein (1889-1951), der in seiner Frühphase zunächst die Ideen der modernen formalen Logik und Mathematik aufgriff und mit seinem tractatus logico philosophicus das Ideal einer am logischen Paradigma orientierten Sprache skizzierte. Viele Jahre später begann er neu über die normale Sprache nachzudenken und wurde sich selbst zum schärfsten Kritiker. In jahrelangen Analysen von alltäglichen Sprachsituationen entwickelte er ein facettenreiches Bild der Alltagssprache als ein Spiel, in dem Teilnehmer nach Regeln Zeichenmaterial ZM und Nicht-Zeichen-Material NZM miteinander verknüpfen. Dabei spielt die jeweilige Situation als Kontext eine Rolle. Dies bedeutet, das gleiche Zeichenmaterial kann je nach Kontext unterschiedlich wirken. Auf jeden Fall bietet das Konzept des Sprachspiels die Möglichkeit, den ansonsten statischen Zeichenbegriff in einen Prozess einzubetten.
  4. Aber auch im Fall des Sprachspielkonzepts benutzt Steels zwar den Begriff Sprachspiel, reflektiert ihn aber nicht soweit, dass daraus ein explizites übergreifendes theoretisches Paradigma sichtbar wird.
  5. Für die Vision eines neuen Forschungsparadigmas Semiotik & KI soll also in der ersten Phase die Grundstruktur des Zeichenbegriffs im Kontext der empirischen Wissenschaften mit dem Sprachspielkonzept von Wittgenstein (1953) verknüpft werden.

INTELLIGENZ

  1. Im Vorfeld eines Workshops der Intelligent Systems Division des NIST 2000 gab es eine lange Diskussion zwischen vielen Beteiligten, wie man denn die Intelligenz von Maschinen messen sollte. In meiner Wahrnehmung verhedderte sich die Diskussion darin, dass damals nach immer neuen Klassifikationen und Typologien für die Architektur der technischen Systeme gesucht wurde, anstatt das zu tun, was die Psychologie schon seit fast 100 Jahren getan hatte, nämlich auf das Verhalten und dessen Eigenschaften zu schauen. Ich habe mich in den folgenden Jahren immer wieder mit der Frage des geeigneten Standpunkts auseinandergesetzt. In einem Konferenzbeitrag von 2010 (zusammen mit anderen, insbesondere mit Louwrence Erasmus) habe ich dann dafür argumentiert, das Problem durch Übernahme des Ansatzes der Psychologie zu lösen.
  2. Die Psychologie hatte mit Binet (1905), Stern (1912 sowie Wechsler (1939) eine grundsätzliche Methode gefunden hatte, die Intelligenz, die man nicht sehen konnte, indirekt durch Rückgriff auf Eigenschaften des beobachtbaren Verhaltens zu messen (bekannt duch den Begriff des Intelligenz-Quotienten, IQ). Die Grundidee bestand darin, dass zu einer bestimmten Zeit in einer bestimmten Kultur bestimmte Eigenschaften als charakteristisch für ein Verhalten angesehen werden, das man allgemein als intelligent bezeichnen würde. Dies impliziert zwar grundsätzlich eine gewisse Relativierung des Begriffs Intelligenz (was eine Öffnung dahingehend impliziert, dass zu anderen Zeiten unter anderen Umständen noch ganz neue Eigenschaftskomplexe bedeutsam werden können!), aber macht Intelligenz grundsätzlich katalogisierbar und damit messbar.
  3. Ein Nebeneffekt der Bezugnahme auf Verhaltenseigenschaften findet sich in der damit möglichen Nivellierung der zu messenden potentiellen Strukturen in jenen Systemen, denen wir Intelligenz zusprechen wollen. D.h. aus Sicht der Intelligenzmessung ist es egal ob das zu messende System eine Pflanze, ein Tier, ein Mensch oder eine Maschine ist. Damit wird – zumindest im Rahmen des vorausgesetzten Intelligenzbegriffs – entscheidbar, ob und in welchem Ausmaß eine Maschine möglicherweise intelligent ist.
  4. Damit eignet sich dieses Vorgehen auch, um mögliche Vergleiche zwischen menschlichem und maschinellem Verhalten in diesem Bereich zu ermöglichen. Für das Projekt des Semiotk & KI-Paradigmas ist dies sehr hilfreich.

LERNEN

  1. An dieser Stelle ist es wichtig, deutlich zu machen, dass Intelligenz nicht notwendigerweise ein Lernen impliziert und Lernen nicht notwendigerweise eine Intelligenz! Eine Maschine (z.B. ein schachspielender Computer) kann sehr viele Eigenschaften eines intelligenten Schachspielers zeigen (bis dahin, dass der Computer Großmeister oder gar Weltmeister besiegen kann), aber sie muss deswegen nicht notwendigerweise auch lernfähig sein. Dies ist möglich, wenn erfahrene Experten hinreichend viel Wissen in Form eines geeigneten Programms in den Computer eingeschrieben haben, so dass die Maschine aufgrund dieses Programms auf alle Anforderungen sehr gut reagieren kann. Von sich aus könnte der Computer dann nicht dazu lernen.
  2. Bei Tieren und Menschen (und Pflanzen?) gehen wir von einer grundlegenden Lernfähigkeit aus. Bezogen auf das beobachtbare Verhalten können wir die Fähigkeit zu Lernen dadurch charakterisieren, dass ein System bis zu einem Zeitpunkt t bei einem bestimmten Reiz s nicht mit einem Verhalten r antwortet, nach dem Zeitpunkt t aber dann plötzlich doch, und dieses neue Verhalten über längere Zeit beibehält. Zeigt ein System eine solche Verhaltensdynamik, dann darf man unterstellen, dass das System in der Lage ist, seine inneren Zustände IS auf geeignete Weise zu verändern (geschrieben: phi: I x IS —> IS x O (mit der Bedeutung I := Input (Reize, Stimulus s), O := Output (Verhaltensantworten, Reaktion r), IS := interne Zustände, phi := Name für die beobachtbare Dynamik).
  3. Verfügt ein System über solch eine grundlegende Lernfähigkeit (die eine unterschiedlich reiche Ausprägung haben kann), dann kann es sich im Prinzip alle möglichen Verhaltenseigenschaften aneignen/ erwerben/ erlernen und damit im oben beschriebenen Sinne intelligent werden. Allerdings gibt es keine Garantie, dass eine Lernfähigkeit notwendigerweise zu einer bestimmten Intelligenz führen muss. Viele Menschen, die die grundsätzliche Fähigkeit besitzen, Schachspielen oder Musizieren oder Sprachen zu lernen,  nutzen diese ihre Fähigkeiten niemals aus; sie verzichten damit auf Formen intelligenten Verhaltens, die ihnen aber grundsätzlich offen stehen.
  4. Wir fordern also, dass die Lernfähigkeit Teil des Semiotik & KI-Paradigmas sein soll.

LERNENDE MASCHINEN

  1. Während die meisten Menschen heute Computern ein gewisses intelligentes Verhalten nicht absprechen würden, sind sie sich mit der grundlegenden Lernfähigkeit unsicher. Sind Computer im echten Sinne (so wie junge Tiere oder menschliche Kinder) lernfähig?
  2. Um diese Frage grundsätzlich beantworten zu können, müsste man ein allgemeines Konzept von einem Computer haben, eines, das alle heute und in der Zukunft existierende und möglicherweise in Existenz kommende Computer in den charakteristischen Eigenschaften erschöpfend beschreibt. Dies führt zur Vor-Frage nach dem allgemeinsten Kriterium für Computer.
  3. Historisch führt die Frage eigentlich direkt zu einer Arbeit von Turing (1936/7), in der er den Unentscheidbarkeitsbeweis von Kurt Gödel (1931) mit anderen Mitteln nochmals nachvollzogen hatte. Dazu muss man wissen, dass es für einen formal-logischen Beweis wichtig ist, dass die beim Beweis zur Anwendung kommenden Mittel, vollständig transparent sein müssen, sie müssen konstruktiv sein, was bedeutet, sie müssen endlich sein oder effektiv berechenbar. Zum Ende des 19.Jh und am Anfang des 20.Jh gab es zu dieser Fragestellung eine intensive Diskussion.
  4. Turing wählte im Kontrast zu Gödel keine Elemente der Zahlentheorie für seinen Beweis, sondern nahm sich das Verhalten eines Büroangestellten zum Vorbild: jemand schreibt mit einem Stift einzelne Zeichen auf ein Blatt Papier. Diese kann man einzeln lesen oder überschreiben. Diese Vorgabe übersetze er in die Beschreibung einer möglichst einfachen Maschine, die ihm zu Ehren später Turingmaschine genannt wurde (für eine Beschreibung der Elemente einer Turingmaschine siehe HIER). Eine solche Turingmaschine lässt sich dann zu einer universellen Turingmaschine [UTM] erweitern, indem man das Programm einer anderen (sekundären) Turingmaschine auf das Band einer primären Turingmaschine schreibt. Die primäre Turingmaschine kann dann nicht nur das Programm der sekundären Maschine ausführen, sondern kann es auch beliebig abändern.
  5. In diesem Zusammenhang interessant ist, dass der intuitive Begriff der Berechenbarkeit Anfang der 30ige Jahre des 20.Jh gleich dreimal unabhängig voneinander formal präzisiert worden ist (1933 Gödel und Herbrand definierten die allgemein rekursiven Funktionen; 1936 Church den Lambda-Kalkül; 1936 Turing die a-Maschine für ‚automatische Maschine‘, später Turing-Maschine). Alle drei Formalisierungen konnten formal als äquivalent bewiesen werden. Dies führte zur sogenannten Church-Turing These, dass alles, was effektiv berechnet werden kann, mit einem dieser drei Formalismen (also auch mit der Turingmaschine) berechnet werden kann. Andererseits lässt sich diese Church-Turing These selbst nicht beweisen. Nach nunmehr fast 80 Jahren nimmt aber jeder Experte im Feld an, dass die Church-Turing These stimmt, da bis heute keine Gegenbeispiele gefunden werden konnten.
  6. Mit diesem Wissen um ein allgemeines formales Konzept von Computern kann man die Frage nach der generellen Lernfähigkeit von Computern dahingehend beantworten, dass Computer, die Turing-maschinen-kompatibel sind, ihre inneren Zustände (im Falle einer universellen Turingmaschine) beliebig abändern können und damit die Grundforderung nach Lernfähigkeit erfüllen.

LERNFÄHIGE UND INTELLIGENTE MASCHINEN?

  1. Die Preisfrage stellt sich, wie eine universelle Turingmaschine, die grundsätzlich lernfähig ist, herausfinden kann, welche der möglichen Zustände interessant genug sind, um damit zu einem intelligenten Verhalten zu kommen?
  2. Diese Frage nach der möglichen Intelligenz führt zur Frage der verfügbaren Kriterien für Intelligenz: woher soll eine lernfähige Maschine wissen, was sie lernen soll?
  3. Im Fall biologischer Systeme wissen wir mittlerweile, dass die lernfähigen Strukturen als solche dumm sind, dass aber durch die schiere Menge an Zufallsexperimenten ein Teil dieser Experimente zu Strukturen geführt hat, die bzgl. bestimmter Erfolgskriterien besser waren als andere. Durch die Fähigkeit, die jeweils erfolgreichen Strukturen in Form von Informationseinheiten zu speichern, die dann bei der nächsten Reproduktion erinnert werden konnten, konnten sich die relativen Erfolge behaupten.
  4. Turing-kompatible Computer können speichern und kodieren, sie brauchen allerdings noch Erfolgskriterien, um zu einem zielgerichtete Lernen zu kommen.

LERNENDE SEMIOTISCHE MASCHINEN

  1. Mit all diesen Zutaten kann man jetzt lernende semiotische Maschinen konstruieren, d.h. Maschinen, die in der Lage sind, den Gebrauch von Zeichen im Kontext eines Prozesses, zu erlernen. Das dazu notwendige Verhalten gilt als ein Beispiel für intelligentes Verhaltens.
  2. Es ist hier nicht der Ort, jetzt die Details solcher Sprach-Lern-Spiele auszubreiten. Es sei nur soviel gesagt, dass man – abschwächend zum Paradigma von Steels – hier voraussetzt, dass es schon mindestens eine Sprache L und einen kundigen Sprachteilnehmer gibt (der Lehrer), von dem andere Systeme (die Schüler), die diese Sprache L noch nicht kennen, die Sprache L lernen können. Diese Schüler können dann begrenzt neue Lehrer werden.
  3. Zum Erlernen (Training) einer Sprache L benötigt man einen definierten Kontext (eine Welt), in dem Lehrer und Schüler auftreten und durch Interaktionen ihr Wissen teilen.
  4. In einer Evaluationsphase (Testphase), kann dann jeweils überprüft werden, ob die Schüler etwas gelernt haben, und wieviel.
  5. Den Lernerfolge einer ganzen Serie von Lernexperimenten (ein Experiment besteht aus einem Training – Test Paar) kann man dann in Form einer Lernkurve darstellen. Diese zeigt entlang der Zeitachse, ob die Intelligenzleistung sich verändert hat, und wie.
  6. Gestaltet man die Lernwelt als eine interaktive Softwarewelt, bei der Computerprogramme genauso wie Roboter oder Menschen mitwirken können, dann kann man sowohl Menschen als Lehrer benutzen wie auch Menschen im Wettbewerb mit intelligenten Maschinen antreten lassen oder intelligente Maschinen als Lehrer oder man kann auch hybride Teams formen.
  7. Die Erfahrungen zeigen, dass die Konstruktion von intelligenten Maschinen, die menschenähnliche Verhaltensweisen lernen sollen, die konstruierenden Menschen dazu anregen, ihr eigenes Verhalten sehr gründlich zu reflektieren, nicht nur technisch, sondern sogar philosophisch.

EMERGING MIND PROJEKT

  1. Die zuvor geschilderten Überlegungen haben dazu geführt, dass ab 10.November 2015 im INM Frankfurt ein öffentliches Forschungsprojekt gestartet werden soll, das Emerging Mind Projekt heißt, und das zum Ziel hat, eine solche Umgebung für lernende semiotische Maschinen bereit zu stellen, mit der man solche semiotischen Prozesse zwischen Menschen und lernfähigen intelligenten Maschinen erforschen kann.

QUELLEN

  • Binet, A., Les idees modernes sur les enfants, 1909
  • Doeben-Henisch, G.; Bauer-Wersing, U.; Erasmus, L.; Schrader,U.; Wagner, W. [2008] Interdisciplinary Engineering of Intelligent Systems. Some Methodological Issues. Conference Proceedings of the workshop Modelling Adaptive And Cognitive Systems (ADAPCOG 2008) as part of the Joint Conferences of SBIA’2008 (the 19th Brazilian Symposium on Articial Intelligence); SBRN’2008 (the 10th Brazilian Symposium on Neural Networks); and JRI’2008 (the Intelligent Robotic Journey) at Salvador (Brazil) Oct-26 – Oct-30(PDF HIER)
  • Gödel, K. Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I, In: Monatshefte Math.Phys., vol.38(1931),pp:175-198
  • Charles W. Morris, Foundations of the Theory of Signs (1938)
  • Charles W. Morris (1946). Signs, Language and Behavior. New York: Prentice-Hall, 1946. Reprinted, New York: George Braziller, 1955. Reprinted in Charles Morris, Writings on the General Theory of Signs (The Hague: Mouton, 1971), pp. 73-397. /* Charles William Morris (1901-1979) */
  • Charles W. Morris, Signication and Signicance (1964)
  • NIST: Intelligent Systems Division: http://www.nist.gov/el/isd/
  • Winfried Noth: Handbuch der Semiotik. 2., vollständig neu bearbeitete Auflage. Metzler, Stuttgart/Weimar 2000
  • Charles Santiago Sanders Peirce (1839-1914) war ein US-amerikanischer Mathematiker, Philosoph und Logiker. Peirce gehort neben William James und John Dewey zu den maßgeblichen Denkern des Pragmatismus; außerdem gilt er als Begründer der modernen Semiotik. Zur ersten Einführung siehe: https://de.wikipedia.org/wiki/Charles Sanders Peirce Collected Papers of Charles Sanders Peirce. Bände I-VI hrsg. von Charles Hartshorne und Paul Weiss, 1931{1935; Bände VII-VIII hrsg. von Arthur W. Burks 1958. University Press, Harvard, Cambridge/Mass. 1931{1958
  • Writings of Charles S. Peirce. A Chronological Edition. Hrsg. vom Peirce Edition Project. Indiana University Press,Indianapolis, Bloomington 1982. (Bisher Bände 1{6 und 8, geplant 30 Bände)
  • Saussure, F. de. Grundfragen der Allgemeinen Sprachwissenschaft, 2nd ed., German translation of the original posthumously publication of the Cours de linguistic general from 1916 by H.Lommel, Berlin: Walter de Gruyter & Co., 1967
  • Saussure, F. de. Course in General Linguistics, English translation of the original posthumously publication of the Cours de linguistic general from 1916, London: Fontana, 1974
  • Saussure, F. de. Cours de linguistique general, Edition Critique Par Rudolf Engler, Tome 1,Wiesbaden: Otto Harrassowitz, 1989 /*This is the critical edition of the dierent sources around the original posthumously publication of the Cours de linguistic general from 1916. */
  • Steels, Luc (1995): A Self-Organizing Spatial Vocabulary. Articial Life, 2(3), S. 319-332
  • Steels, Luc (1997): Synthesising the origins of language and meaning using co-evolution, self-organisation and level formation. In: Hurford, J., C.Knight und M.Studdert-Kennedy (Hrsg.). Edinburgh: Edinburgh Univ. Press.

  • Steels, Luc (2001): Language Games for Autonomous Robots. IEEE Intelligent Systems, 16(5), S. 16-22. Steels, Luc (2003):

  • Evolving grounded Communication for Robots. Trends in Cognitive Science, 7(7), S. 308-312.

  • Steels, Luc (2003): Intelligence with Representation. Philosophical Transactions of the Royal Society A, 1811(361), S. 2381-2395.

  • Steels, Luc (2008): The symbol grounding problem has been solved, so what’s next?. In M. de Vega, Symbols and Embodiment: Debates on Meaning and Cognition. Oxford: Oxford University Press, S. 223-244.
  • Steels, Luc (2012): Grounding Language through Evolutionary Language Games. In: Language Grounding in Robots. Springer US, S. 1-22.

  • Steels, Luc (2015), The Talking Heads experiment: Origins of words and meanings, Series: Computational Models of Language Evolution 1. Berlin: Language Science Press.
  • Stern, W., Die psychologischen Methoden der Intelligenzprüfung und deren Anwendung an Schulkindern, Leipzig: Barth, 1912

  • Turing, A. M. On Computable Numbers with an Application to the Entscheidungsproblem. In: Proc. London Math. Soc., Ser.2, vol.42(1936), pp.230-265; received May 25, 1936; Appendix added August 28; read November 12, 1936; corr. Ibid. vol.43(1937), pp.544-546. Turing’s paper appeared in Part 2 of vol.42 which was issued in December 1936 (Reprint in M.DAVIS 1965, pp.116-151; corr. ibid. pp.151-154).(an online version at: http://www.comlab.ox.ac.uk/activities/ieg/elibrary/sources/tp2-ie.pdf, last accesss Sept-30, 2012)

  • Turing, A.M. Computing machinery and intelligence. Mind, 59, 433-460. 1950

  • Turing, A.M.; Intelligence Service. Schriften, ed. by Dotzler, B.; Kittler, F.; Berlin: Brinkmann & Bose, 1987, ISBN 3-922660-2-3

  • Vogt, P. The physical symbol grounding problem, in: Cognitive Systems Research, 3(2002)429-457, Elsevier Science B.V.
  • Vogt, P.; Coumans, H. Investigating social interaction strategies for bootstrapping lexicon development, Journal of Articial Societies and Social Simulation 6(1), 2003

  • Wechsler, D., The Measurement of Adult Intelligence, Baltimore, 1939, (3. Auage 1944)

  • Wittgenstein, L.; Tractatus Logico-Philosophicus, 1921/1922 /* Während des Ersten Weltkriegs geschrieben, wurde das Werk 1918 vollendet. Es erschien mit Unterstützung von Bertrand Russell zunächst 1921 in Wilhelm Ostwalds Annalen der Naturphilosophie. Diese von Wittgenstein nicht gegengelesene Fassung enthielt grobe Fehler. Eine korrigierte, zweisprachige Ausgabe (deutsch/englisch) erschien 1922 bei Kegan Paul, Trench, Trubner und Co. in London und gilt als die offizielle Fassung. Die englische Übersetzung stammte von C. K. Ogden und Frank Ramsey. Siehe einführend Wikipedia-DE: https://de.wikipedia.org/wiki/Tractatus logicophilosophicus*/

  • Wittgenstein, L.; Philosophische Untersuchungen,1936-1946, publiziert 1953 /* Die Philosophischen Untersuchungen sind Ludwig Wittgensteins spätes, zweites Hauptwerk. Es übten einen außerordentlichen Einfluss auf die Philosophie der 2. Hälfte des 20. Jahrhunderts aus; zu erwähnen ist die Sprechakttheorie von Austin und Searle sowie der Erlanger Konstruktivismus (Paul Lorenzen, Kuno Lorenz). Das Buch richtet sich gegen das Ideal einer logik-orientierten Sprache, die neben Russell und Carnap Wittgenstein selbst in seinem ersten Hauptwerk vertreten hatte. Das Buch ist in den Jahren 1936-1946 entstanden, wurde aber erst 1953, nach dem Tod des Autors, veröffentlicht. Siehe einführend Wikipedia-DE: https://de.wikipedia.org/wiki/Philosophische Untersuchungen*/

Eine Übersicht über alle Blogeinträge des Autors cagent nach Titeln findet sich HIER

SUCHE NACH DEM URSPRUNG UND DER BEDEUTUNG DES LEBENS. Reflexionen zum Buch von Paul Davies “The fifth Miracle”

Paul Davies, The FIFTH MIRACLE: The Search for the Origin and Meaning of Life, New York:1999, Simon & Schuster

 Start: 20.Aug.2012

Letzte Fortsetzung: 26.Aug.2012

  1. Mein Interesse an der Astrobiologie geht zurück auf das wundervolle Buch von Peter Ward und Donald Brownlee (2000) „Rare Earth: Why Complex Life is Uncommon in the Universe“. Obwohl ich zum Thema aus verschiedenen Gebieten schon einiges gelesen hatte war es doch dieses Buch, das all die verschiedenen Fakten für mich in einen Zusammenhang stellte, der das Phänomen ‚Leben‘ in einen größeren Zusammenhang erscheinen lies, der Zusammenhang mit der Geschichte des ganzen Universums. Dinge, die zuvor merkwürdig und ungereimt erschienen, zeigten sich in einem neuen Licht. Neben anderen Büchern war es dann das berühmte Büchlein „What Is Life?“ von Erwin Schroedinger (1944), das half, manche Fragen zu verschärfen Neben anderen Publikationen fand ich hier das Buch von von Horst Rauchfuß (2005) „Chemische Evolution und der Ursprung des Lebens“ sehr erhellend (hatte früher dazu andere Bücher gelesen wie z.B. Manfred Eigen (1993, 3.Aufl.) „Stufen zum Leben. Die frühe Evolution im Visier der Molekularbiologie“). Einen weiteren Schub erhielt die Fragestellung durch das – nicht so gut lesbare, aber faktenreiche – Buch von J. Gale (2009) „Astrobiology of Earth: The Emergence, Evolution and Future of Life on a Planet in Turmoil“. Gegenüber ‚Rare Earth‘ ergibt es keine neuen grundsätzlichen Erkenntnisse, wohl aber viele aktuelle Ergänzungen und z.T. Präzisierungen. Dass ich bei diesem Sachstand dann noch das Buch von Paul Davies gelesen habe, war eher systematische Neugierde (parallel habe ich noch angefangen Christian de Duve (1995) „Vital Dust. The origin and Evolution of Life on Earth“ sowie Jonathan I.Lunine (2005) „Astrobiology. A multidisciplinary Approach“).

  2. Der Titel des Buchs „Das fünfte Wunder“ (The 5th Miracle) wirkt auf den ersten Blick leicht ‚esoterisch‘ und für sachlich orientierte Leser daher eher ein wenig abschreckend, aber Paul Davies ist ein angesehener Physiker und hat hier ein Buch geschrieben, das auf der Basis der Physik und Chemie die grundlegende Frage zum Ursprung und der Bedeutung des Lebens systematisch und spannend aufrollt. Hier wird man nicht einfach mit Fakten überschüttet (obgleich er diese hat), sondern anhand von Beobachtungen, daraus sich ergebenden Fragen und Hypothesen beschreibt er einen gedanklichen Prozess, der über Fragen zu Antworten führt, die wiederum neue Fragen entstehen lassen. Es gibt wenige wissenschaftliche Bücher, die so geschrieben sind. Ich halte es für ein glänzendes Buch, wenngleich manche Hypothesen sich durch die weitere Forschung als nicht so ergiebig erwiesen haben. Seine grundsätzlichen Überlegungen bleiben davon unberührt.

  3. Den leicht irritierenden Titel erklärt Davies auf S.22 als Anspielung auf den biblischen Schöpfungsbericht, wo in Vers 11 vom ersten Buch Mose (= Buch Genesis) (abgekürzt Gen 1:11) beschrieben wird, dass Gott die Pflanzen geschaffen habe. Nach Davies war dies das fünfte Wunder nachdem zuvor laut Davies das Universeum (universe), das Licht (light), der Himmel (firmament) und das trockene Land (dry land) geschaffen worden seien. Einer bibelwissenschaftlichen Analyse hält diese einfache Analyse von Davies sicher nicht stand. Sie spielt auch für den gesamten restlichen Text überhaupt keine Rolle. Von daher erscheint mir dieser Titel sehr unglücklich und wenig hilfreich. Für mich beschreibt der Untertitel des Buches den wahren Inhalt am besten: „Die Suche nach dem Ursprung und der Bedeutung des Lebens“.

  4. Im Vorwort (Preface, pp.11-23) formuliert Davies seine zentralen Annahmen. Mit einfachen Worten könnte man es vielleicht wie folgt zusammen fassen: Das Phänomen des Lebens zu definieren bereitet große Schwierigkeiten. Es zu erklären übersteigt die bisher bekannten physikalischen Gesetze. Dass Leben irgendwann im Kosmos aufgetreten ist und der ungefähre Zeitraum wann, das ist Fakt. Nicht klar ist im Detail, wie es entstehen konnte. Ferner ist nicht klar, ob es ein außergewöhnlicher Zufall war oder ob es im Raum der physikalischen Möglichkeiten einen favorisierten Pfad gibt, der durch die ‚inhärenten‘ Eigenschaften von Energie (Materie) dies ‚erzwingt‘. Nur im letzteren Fall wäre es sinnvoll, anzunehmen, dass Leben überall im Universum entstehen kann und – höchstwahrscheinlich – auch entstanden ist.

  5. Dies sind dürre trockene Worte verglichen mit dem Text von Davies, der mit den zentralen Aussagen auch gleich ein bischen Forschungs- und Ideengeschichte rüberbringt (verwoben mit seiner eigenen Lerngeschichte) und der einen exzellenten Schreibstil hat (von daher kann ich jedem nur empfehlen, das Buch selbst zu lesen).

  6. Für Davies ist die Frage der Entstehung des Lebens (Biogenese, engl. Biogenesis) nicht ‚irgend ein anderes‘ Problem, sondern repräsentiert etwas ‚völlig Tieferes‘, das die Grundlagen der gesamten Wissenschaft und des gesamten Weltbildes herausfordert (vgl. S.18). Eine Lösung verlangt radikal neue Ideen, neue Ansätze gegenüber dem Bisherigen (vgl. S.17). Das Phänomen des Lebens entzieht sich eindeutig dem zweiten Hauptsatz der Thermodynamik (der einen Ausgleich aller Energieunterschiede impliziert) und seine Besonderheiten ergeben sich nicht einfach durch bloßen Aufweis seiner chemischen Bestandteile (vgl. S.19). Er vermutet die Besonderheit des Phänomen Lebens in der ‚Organisation von Information‘, was dann die Frage aufwirft, wo diese Information herkommt (vgl.S.19). Als informationsgetriebene Objekte entziehen sich die Phänomene des Lebens allen bekannten Gesetzen der Physik und Chemie (und der Biologie, sofern sie diesen Aspekt nicht als Leitthema hat?).

  7. Davies zieht aus diesen Annahmen den Schluß, dass kein bekanntes Naturgesetz solche hochkomplexe Strukturen von zusammenhanglosen chemischen Bestandteilen induzieren konnte. Er sieht in dem ganzen Entstehungsprozess ein ‚atemberaubendes geniales (ingeniuos)‘ lebens-freundliches Universum, das zu verstehen, wir ganz am Anfang stehen. (vgl. S.20).

  8. Dass Davies aufgrund der atemberaubenden Komplexität von lebensfreundlichen Strukturen eine Interaktion der Erde mit anderen Planeten (z.B. dem Mars) in früheren Phasen nicht ausschließt und im weiteren Verlauf auch akribisch das Für und Wider untersucht, sei hier nur angemerkt. Ein eindeutiges Ergebnis gibt es aufgrund der komplizierten Zusammenhänge – soweit ich sehe – bis heute nicht. Ob spezielle Moleküle, die Bestandteile von lebenskonstituierenden Strukturen geworden sind, teilweise von außerhalb der Erde gekommen sind oder nicht, berührt die wichtigen Grundfragen nach der Struktur und der ‚Bedeutung‘ von Leben im Universum nicht.

  9. Das erste Kapitel (SS.25-47) überschreibt er mit ‚Die Bedeutung des Lebens‘. Er beginnt nochmals mit der Feststellung, dass die Wissenschaft bislang nicht mit Sicherheit weiß, wie das Phänomen des Lebens tatsächlich begann (auf der Erde? mit Unterstützung aus dem Weltall,… ?)(vgl. S.26), um dann nochmals an die bekannten Fakten zu erinnern, wann in der zurückliegenden Zeit Lebensphänomene dokumentiert sind: das älteste gut dokumentierte Tierfossil datiert auf -560 Mio Jahren und findet sich in Australien (Flinders Ranges, nördlich von Adelaide). Etwa 15 Mio Jahre später findet man eine Artenexplosion, die vom Meer ausgehend das Land mit Pflanzen und Tieren ‚kolonisierte‘. Davor aber, ab etwa -1 Milliarde Jahre rückwärts, gab es nur einzellige Organismen. Alle Evidenzen sprechen nach Davies dafür, dass alle späteren komplexen Lebensformen sich aus diesen einfachen, einzelligen Formen entwickelt haben.(vgl.S.29)

  10. Von diesen einzelligen Lebewesen (‚Mikroorganismen‘, ‚Bakterien‘ genannt) weiß man, dass Sie seit mindestens -3.5 Milliarden Jahre existieren [Ergänzung, kein Zitat bei Davies: nach Christian de Duve gibt es auf der ganzen Erde aus allen Zeiten Ablagerungen von Mikroorganismen, die sich versteinert haben und als Stromatolithen Zeugnis geben von diesen Lebensformen, vgl. Duve S.4f] (vgl. S.45)(laut Davies kann ein Löffel Erde bester Qualität 10 Billionen (10*10^12) Mikroorganismen enthalten, die 10.000 verschiedene Arten repräsentieren!(vgl. S.45). Die Verbindungen zwischen den verschiedenen Lebensformen werden durch Vergleiche ihrer Biochemie (auch Metabolismus) und über ihr genetisches Material identifiziert.(vgl. S.46) Von den heute bekannten Mikroorganismen leben diejenigen, die den ältesten Formen von Mikroorganismen am ähnlichsten sind, in großen Meerestiefen am Fuße unterseeischer Vulkane.(vgl. S.47)

  11. Zugleich weiß man nach Davies, dass die lebenden Zelle in ihrer Größe das komplexeste System darstellen, was wir Menschen kennen. (vgl.S.29) Und genau dies bereitet ihm Kopfzerbrechen: Wie ist es möglich, dass ‚geistlose Moleküle‘, die letztlich nur ihre unmittelbaren Nachbarn ’stoßen und ziehen‘ können, zu einer ingeniösen Kooperation zusammenfinden, wie sie eine lebende Zelle verkörpert? (vgl. S.30)

  12. Welche Eigenschaften sind letztlich charakteristisch für eine lebende Zelle? Davies listet oft genannte Eigenschaften auf (Autonomie, Reproduktion, Metabolismus, Ernährung , Komplexität, Organisation, Wachstum und Entwicklung, Informationsgehalt, Hardware/ Software Einheit , Permanenz und Wechsel (vgl.SS.33-36)) und stellt dann fest, dass es offensichtlich keine einfache Eigenschaft ist, die ‚Lebendes‘ von ‚Nicht-Lebendem‘ trennt. (vgl. S.36) Auch scheint eine ‚rein mechanistische‘ Erklärung der chemischen Kausalketten nicht ausreichend zu sein. Es gibt das Moment der ‚Selbstbestimmung‘ (self-determination) bei jeder Zelle, eine Form von ‚Autonomie‘, die sich von keinen physikalischen Eigenschaften herleiten lassen. (vgl. S.33) Biologische Komplexität ist offensichtlich ‚instruierte Komplexität‘, die auf Information basiert (information-based). (vgl. S.31)

  13. Damit würde sich andeuten, dass die beiden Eigenschaften ‚Metabolismus‘ und ‚Reproduktion‘ zwei Kerneigenschaften darstellen (vgl. S.36f), die sich in dem Vorstellungsmodell ‚Hardware (= Metabolismus)‘ und ‚Software (= Reproduktion)‘ wiederfinden.

  14. An dieser Stelle lenkt Davies den Blick nochmals auf ein zentrales Faktum des ganzen Phänomen Lebens, auf das außergewöhnlichste Molekül, das wir kennen, bestehend aus vielen Milliarden sequentiell angeordneten Atomen, bezeichnet als Desoxyribonukleinsäure (deoxyribonucleic acid) (DNA), eine Ansammlung von ‚Befehlen‘, um damit Organismen (Pflanzen, Tiere inklusiv Menschen) ‚hervorbringen‘ zu können. Und dieses Molekül ist unvorstellbar alt, mindestens 3.5 Milliarden Jahre. (vgl. S.41)

  15. Wenn Davies dann weiter schreibt, dass diese DNA die Fähigkeit hat, sich zu Vervielfältigen (to replicate) (vgl. S.41f), dann ist dies allerdings nicht die ganze Wahrheit, denn das Molekül als solches kann strenggenommen garnichts. Es benötigt eine spezifische Umgebung, damit ein Vervielfältigungsprozess einsetzen kann, an den sich dann ein höchst komplexer Umsetzungsprozeß anschliesst, durch den die DNA-Befehle in irgendwelche dynamischen organismischen Strukturen überführt werden. D.h. dieses ‚Wunder‘ an Molekül benötigt zusätzlich eine geeignete ebenfalls höchst komplexe Umgebung an ‚Übersetzern‘ und ‚Machern, die aus dem ‚Bauplan‘ (blueprint) ein lebendes Etwas generieren. Das zuvor von Davies eingeführte Begriffspaar ‚Hardware’/ ‚Software‘ wäre dann so zu interpretieren, dass die DNA eine Sequenz von Ereignissen ist, die als ‚Band‘ einer Turingmaschine einen möglichen Input darstellen und die Umgebung einer DNA wäre dann der ausführende Teil, der einerseits diese DNA-Ereignisse ‚lesen‘ kann, sie mittels eines vorgegebenen ‚Programms‘ ‚dekodiert‘ und in ‚Ausgabeereignisse‘ (Output) überführt. Folgt man dieser Analogie, dann ist der eigentliche ‚berechnende‘ Teil, die ‚rechnende Maschine‘ eine spezifisch beschaffene ‚Umgebung‘ eines DNA-Moleküls (COMPUTER_ENV)! In der ‚Natur‘ ist diese rechnende Maschine realisiert durch Mengen von spezifischen Molekülen, die miteinander so interagieren können, dass ein DNA-Molekül als ‚Input‘ eine Ereigniskette auslöst, die zum ‚Aufbau‘ eines Organismus führt (minimal einer einzelnen Zelle (COMPUTER_INDIVIDUAL)), der dann selbst zu einer ‚rechnenden Maschine‘ wird, also (vereinfacht) COMPUTER_ENV: DNA x ENV —> COMPUTER_INDIVIDUAL.

  16. Die von Davies erwähnte Vervielfältigung (Replikation) wäre dann grob eine Abbildung entweder von einem individuellen System (COMPUTER_INDIVIDUAL) zu einem neuen DNA-Molekül, das dann wieder zu einem Organismus führen kann, oder – wie später dann weit verbreitet – von zwei Organismen, die ihre DNA-Informationen ‚mischen‘ zu einer neuen DNA, vereinfachend REPLICATION: COMPUTER_INDIVIDUAL [x COMPUTER_INDIVIDUAL] x ENV —> DNA.

  17. Sobald in der Entwicklung des Lebens die Brücke von ‚bloßen‘ Molekülen zu einem Tandem aus (DNA-)Molekül und Übersetzer- und Bau-Molekülen – also COMPUTER_ENV und COMPUTER_INDIVUDAL — geschlagen war, ab dann begann die ‚biologische Evolution‘ (wie Darwin und Vorläufer) sie beschrieben haben ‚zu laufen‘. Dieser revolutionäre Replikationsmechanismus mit DNA-Molekülen als Informationsformat wurde zum Generator aller Lebensformen, die wir heute kennen. (vgl.S.42)

  18. Aus der Kenntnis dieses fundamentalen Replikationsmechanismus folgt aber keinerlei Hinweis, wie es zu diesem hochkomplexen Mechanismus überhaupt kommen konnte, und das vor mehr als 3.5 Milliarden Jahren irgendwo unter der Erdoberfläche [Eigene Anmerkung: eine Frage, die auch im Jahr 2012 noch nicht voll befriedigend beantwortet ist!]. (vgl.S.44)

  19. Im Kapitel 2 ‚Against the Tide‘ (S.49-67) greift Davies nochmals den Aspekt des zweiten Hauptsatzes der Thermodynamik auf, nachdem in einem geschlossenen System die Energie erhalten bleibt und vorhandene Ungleichheiten in der Verteilung der Energie (geringere Entropie, geringere Unordnung = höhere Ordnung) auf Dauer ausgeglichen werden, bis eine maximale Gleichverteilung vorliegt (maximale Entropie, maximale Unordnung, minimale Ordnung). [Anmerkung: Dies setzt implizit voraus, dass Energieverdichtungen in einer bestimmten Region des geschlossenen Systems prinzipiell ‚auflösbar‘ sind. Materie als einer Zustandsform von Energie realisiert sich (vereinfacht) über Atome und Verbindungen von Atomen, die unter bestimmten Randbedingungen ‚auflösbar‘ sind. Verbindungen von Atomen speichern Energie und stellen damit eine höhere ‚Ordnung‘ dar als weniger verbundene Atome.]

  20. Wie oben schon festgestellt, stellt die Zusammenführung von Atomen zu komplexen Molekülen, und eine Zusammenfügung von Molekülen zu noch komplexeren Strukturen, wie sie das Phänomen des Lebens auszeichnet, lokal begrenzt eine ‚Gegenbewegung‘ zum Gesetz der Zunahme von Entropie dar. Das Phänomen des Lebens widersetzt sich darin dem allgemeinen Trend (‚against the tide‘). Dies ist nur möglich, weil die biologischen Strukturen (Moleküle, Molekülverbände, Zellen, Replikation…) für ihre Zwecke Energie einsetzen! Dies bedeutet, sie benötigen ‚frei verfügbare Energie‘ (free energy) aus der Umgebung. Dies sind entweder Atomverbindungen, deren Energie sich mittels eines geringen Energieaufwandes teilweise erschließen lässt (z.B. Katalyse mittels Enzymen), oder aber die Nutzung von ‚Wärme‘ (unterseeische Vulkane, Sonnenlicht,…). Letztlich ist es die im empirischen Universum noch vorhandene Ungleichverteilungen von Energie, die sich partiell mit minimalem Aufwand nutzen lässt, die biologische Strukturen ermöglicht. Aufs Ganze gesehen führt die Existenz von biologischen Strukturen auf Dauer aber doch auch zum Abbau eben dieser Ungleichheiten und damit zum Anwachsen der Entropie gemäß dem zweiten Hauptsatz. (vgl. 49-55) [Anmerkung: durch fortschreitende Optimierungen der Energienutzungen (und auch der organismischen Strukturen selbst) kann die Existenz von ‚Leben‘ im empirischen Universum natürlich ’sehr lange‘ andauern.]

  21. Davies weist an dieser Stelle ausdrücklich darauf hin, dass die scheinbare Kompatibilität des Phänomens Leben mit dem zweiten Hauptsatz der Thermodynamik nicht bedeutet, dass die bekannten Gesetze der Physik damit auch schon ‚erklären‘ würden, wie es überhaupt zur Ausbildung solcher komplexer Ordnungen im Universum kommen kann, wie sie die biologischen Strukturen darstellen. Sie tun es gerade nicht.(vgl. S.54) Er zitiert hier u.a. auch Erwin Schroedinger mit den Worten ‚Wir müssen damit rechnen, einen neuen Typ von physikalischem Gesetz zu finden, das damit klarkommt‘ (vgl. S.52)

  22. Davies macht hier auch aufmerksam auf die strukturelle Parallelität zwischen dem physikalischen Begriff der Entropie, dem biologischen Begriff der Ordnung und dem von Shannon geprägten Begriff der Information. Je mehr ‚Rauschen‘ (noise) wir in einer Telefonverbindung haben, um so weniger können wir die gesprochenen Worte des Anderen verstehen. Rauschen ist ein anderes Wort für ‚Unordnung = Entropie‘. Je geringer die Entropie heißt, d.h. umso höher die ‚Ordnung‘ ist, um so höher ist der Informationsgehalt für Sender und Empfänger. Shannon hat daher ‚Information‘ als ‚Negentropie‘, als ’negative Entropie‘ definiert. Biologische ‚Ordnung‘ im Sinne von spezifisch angeordneten Atomen und Molekülen würde im Sinne der Shannonschen Informationstheorie dann einen hohen Informationsgehalt repräsentieren, wie überhaupt jede Form von Ordnung dann als ‚Information‘ aufgefasst werden kann, da diese sich von einer ‚gleichmachenden Unordnung‘ ‚abhebt‘.(vgl. S.56)

  23. Wie kann aus einem Rauschen (Unordnung) Information (Ordnung) entstehen? Davies (im Einklang mit Schroedinger) weist darauf hin, dass die Ordnung aus der frei verfügbaren Energie aus der Umgebung stammt.(vgl. S.56f). Das DNA-Molekül repräsentiert in diesem Sinne als geordnete Struktur auch Information, die durch ‚Mutationen‘ (= Rauschen!) verändert werden kann. Es werden aber nur jene Organismen in einer bestimmten Umgebung überleben, deren in der DNA-gespeicherten Information für die jeweilige Umgebung ‚hinreichend gut‘ ist. D.h. in der Interaktion zwischen (DNA, Replikationsmechanismus, Umgebung) filtert die Umgebung jene Informationen heraus, die ‚geeignet‘ sind für eine fortdauernde Interaktion [Anmerkung: salopp könnte man auch sagen, dass die Umgebung (bei uns die Erde) sich genau jene biologischen Strukturen ‚heranzüchtet‘, die für eine Kooperation ‚geeignet‘ sind, alle anderen werden aussortiert.](vgl. S.57)

  24. Ein anderer Aspekt ist der Anteil an ‚Fehlern‘ in der DNA-Bauanleitung bzw. während des Replikationsprozesses. Ab einem bestimmten Anteil können Fehler einen funktionstüchtigen Organismus verhindern. Komplexe Organismen setzen entsprechend leistungsfähige Fehlervermeidungsmechanismen voraus. (vgl. SS.58-60)

  25. Weiterhin ist zu beachten, dass ‚Information‘ im Sinne von Shannon eine rein statistische Betrachtung von Wahrscheinlichkeiten im Auftreten von bestimmten Kombinationen von Elementen einer Grundmenge darstellt. Je ’seltener‘ eine Konfiguration statistisch auftritt, umso höher ist ihr Informationsgehalt (bzw.  ‚höhere Ordnungen‘ sind ’seltener‘). Dies Betrachtungsweise lässt die Dimension der ‚Bedeutung‘ ganz außer Acht.

  26. Eine Bedeutung liegt immer dann vor, wenn ein Sender/ Empfänger von einer Entität (z.B. von einem DNA-Molekül oder von einem Abschnitt eines DNA-Moleküls) auf eine andere Entität (z.B. anderen Molekülen) ’schließen‘ kann. Im Falle der biologischen Strukturen wäre dies z.B. der Zusammenhang zwischen einem DNA-Molekül und jenen organismischen Strukturen, die aufgrund der Information im DNA-Molekül ‚gebaut‘ werden sollen. Diese zu bauenden organismischen Strukturen würden dann die ‚Bedeutung‘ darstellen, die mit einem DNA-Molekül zu verbinden wäre.

  27. Shannonsche Information bzw. biologische Ordnung haben nichts mit dieser ‚(biologischen) Bedeutung‘ zu tun. Die biologische Bedeutung in Verbindung mit einem DNA-Molekül wäre damit in dem COMPUTER_ENV zu lokalisieren, der den ‚Input‘ DNA ‚umsetzt/ verwandelt/ übersetzt/ transformiert…‘ in geeignete biologische Strukturen.(vgl.S.60) [Anmerkung: Macht man sich hier die Begrifflichkeit der Semiotik zunutze, dann könnte man auch sagen, dass die spezifische Umgebung COMPUTER_ENV eine semiotische Maschine darstellt, die die ‚Syntax‘ der DNA übersetzt in die ‚Semantik‘ biologischer Organismen. Diese semiotische Maschine des Lebens ist ‚implementiert‘ als ein ‚chemischer Computer‘, der mittels diverser chemischer Reaktionsketten arbeitet, die auf den Eigenschaften unterschiedlicher Moleküle und Umgebungseigenschaften beruhen.]

  28. Mit den Begriffen ‚Entropie‘, ‚Ordnung‘ und ‚Information‘ erwächst unweigerlich die Frage, wie konnte Ordnung bzw. Information im Universum entstehen, wo doch der zweite Hauptsatz eigentlich nur die Entropie favorisiert? Davies lenkt den Blick hier zurück auf den Ursprung des bekannten Universums und folgt dabei den Eckwerten der Big-Bang Theorie, die bislang immer noch die überzeugendste empirische Beschreibung liefert. In seiner Interpretation fand zu Beginn eine Umwandlung von Energie sowohl in die uns bekannte ‚Materie‘ statt (positive Energie), zugleich aber auch in ‚Gravitation‘ (negative Energie). Beide Energien heben sich gegenseitig auf. (vgl. S.61f)

  29. Übernimmt man die übliche Deutung, dass die ‚kosmische Hintergrundstrahlung‘ einen Hinweis auf die Situation zu Beginn des Universums liefert, dann war das Universum zu Beginn ’nahezu strukturlos‘, d.h. nahe bei der maximalen Entropie, mit einer minimale Ordnung, nahezu keiner Information. (vgl. S.62f) Wie wir heute wissen, war es dann die Gravitation, die dazu führte, dass sich die fast maximale Entropie schrittweise abbaute durch Bildung von Gaswolken und dann von Sternen, die aufgrund der ungeheuren Verdichtung von Materie dann zur Rückverwandlung von Materie in Energie führte, die dann u.a. als ‚freie Energie‘ verfügbar wurde. [Anmerkung: der andere Teil führt zu Atomverbindungen, die energetisch ‚höher aufgeladen‘ sind. Diese stellt auch eine Form von Ordnung und Information dar, also etwa INF_mat gegenüber der INF_free.] Davies sieht in dieser frei verfügbare Energie die Quelle für Information. (vgl. S.63)

  30. Damit wird auch klar, dass der zweite Hauptsatz der Thermodynamik nur eine Seite des Universums beschreibt. Die andere Seite wird von der Gravitation bestimmt, und diese arbeitet der Entropie diametral entgegen. Weil es die Gravitation gibt, gibt es Ordnung und Information im Universum. Auf dieser Basis konnten und können sich biologische Strukturen entwickeln. (vgl. S.64)

  31.  [Anmerkung: In dieser globalen Perspektive stellt die Biogenese letztlich eine folgerichtige Fortsetzung innerhalb der ganzen Kosmogenese dar. Aktuell bildet sie die entscheidende Phase, in der die Information als freie Energie die Information als gebundene Energie zu immer komplexeren Strukturen vorantreibt, die als solche einer immer mehr ‚verdichtete‘ (= komplexere) Information verkörpern. Biologische Strukturen bilden somit eine neue ‚Zustandsform‘ von Information im Universum.]

  32. Mit den Augen der Quantenphysik und der Relativitätstheorie zeigt sich noch ein weiterer interessanter Aspekt: die einzelnen Teilchen, aus denen sich die bekannte Materie konstituiert, lassen ‚an sich‘, ‚individuell‘ keine ‚Kontexte‘ erkennen; jedes Teilchen ist wie jedes andere auch. Dennoch ist es so, dass ein Teilchen je nach Kontext etwas anderes ‚bewirken‘ kann. Diese ‚Beziehungen‘ zwischen den Teilchen, charakterisieren dann ein Verhalten, das eine Ordnung bzw. eine Information repräsentieren kann. D.h. Ordnung bzw. Information ist nicht ‚lokal‘, sondern eine ‚globale‘ Eigenschaft. Biologische Strukturen als Repräsentanten von Information einer hochkomplexen Art sind von daher wohl kaum durch physikalische Gesetze beschreibbar, die sich auf lokale Effekte beschränken. Man wird sicher eine neue Art von Gesetzen benötigen. (vgl. S.67)

  33. [Anmerkung: Eine strukturell ähnliche Situation haben wir im Falle des Gehirns: der einzelnen Nervenzelle im Verband von vielen Milliarden Zellen kann man als solche nicht ansehen, welche Funktion sie hat. Genauso wenig kann man einem einzelnen neuronalen Signal ansehen, welche ‚Bedeutung‘ es hat. Je nach ‚Kontext‘ kann es von den Ohren kommen und einen Aspekt eines Schalls repräsentieren, oder von den Augen, dann kann es einen Aspekt des Sehfeldes repräsentieren, usw. Dazu kommt, dass durch die immer komplexere Verschaltung der Neuronen ein Signal mit zahllosen anderen Signalen ‚vermischt‘ werden kann, so dass die darin ‚kodierte‘ Information ’semantisch komplex‘ sein kann, obgleich das Signal selbst ‚maximal einfach‘ ist. Will man also die ‚Bedeutung‘ eines neuronalen Signals verstehen, muss man das gesamte ‚Netzwerk‘ von Neuronen betrachten, die bei der ‚Signalverarbeitung‘ zusammen spielen. Und das würde noch nicht einmal ausreichen, da der komplexe Signalfluss als solcher seine eigentliche ‚Bedeutung‘ erst durch die ‚Wirkungen im Körper‘ ‚zeigt‘. Die Vielzahl der miteinander interagierenden Neuronen stellen quasi nur die ‚Syntax‘ eines neuronalen Musters dar, dessen ‚Bedeutung‘ (die semantische Dimension) in den vielfältigen körperlichen Prozessen zu suchen ist, die sie auslösen bzw. die sie ‚wahrnehmen‘. Tatsächlich ist es sogar noch komplexer, da für die ‚handelnden Organismen‘ zusätzlich noch die ‚Umgebung‘ (die Außenwelt zum Körper) berücksichtigen müssen.]

  34. Davies erwähnt im Zusammenhang der Gravitation als möglicher Quelle für Information auch Roger Penrose und Lee Smolin. Letzterer benutzt das Konzept der ‚Selbstorganisation‘ und sieht zwischen der Entstehung von Galaxien und biologischen Populationen strukturelle Beziehungen, die ihn zum Begriff der ‚eingebetteten Hierarchien von selbstorganisierenden Systemen führen. (vgl. S.65)

     

Fortsetzung Teil 2

Einen Überblick über alle bisherigen Themen findet sich HIER