Archiv der Kategorie: Gödel

EPISTEMISCHE SCHOCKWELLEN. Die letzten 3500 Jahre

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 20.Sept. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

KONTEXT

Die Diskussion im Kontext des letzten Textes von Freud zur Psychoanalyse lässt erkennen, wie sich das Bild von uns Menschen über uns selbst dadurch in gewisser Weise ändern kann und letztlich dann ändert, wenn wir uns auf diese Gedanken einlassen. Die Einbeziehung des ‚Unbewussten‘ in das Gesamtbild des Systems homo sapiens verschiebt so manche Beziehungen im Gefüge des menschlichen Selbstbildes, und nicht nur das, es wirkt sich auch aus auf das Gesamtbild der empirischen Wissenschaften, auf ihr Gesamtgefüge. Dies hatte sich ja auch schon angedeutet in der vorausgehenden Diskussion des Buches von Edelman, die noch nicht abgeschlossen ist.

Dies hat mich angeregt, über Freud und Edelman hinausgehenden einige der epistemischen Schockwellen zusammen zu stellen, denen das menschliche Selbstverständnis in den letzten ca. 3500 Jahren ausgesetzt war. Dabei muss man sich darüber im Klaren sein, dass es natürlich immer nur eine Minderheit war, die überhaupt an den übergreifenden Erkenntnissen teilhaben konnte, und selbst diese Minderheit zerfällt in unterschiedliche Subgruppen ohne ein kohärentes Gesamtbild.

EPISTEMISCHE SCHOCKWELLEN

Unter ‚Schockwellen‘ werden hier energetische Ereignisse verstanden, die nur gelegentlich auftreten, und die geeignet sind, bestehende Strukturen zumindest zum Schwingen, zum Erbeben zu bringen, wenn nicht gar zu ihrer Zerstörung führen. ‚Epistemisch‘ bezieht sich auf die Dimension des Erkennens, des Verstehens, zu dem Exemplare des Homo sapiens fähig sind. ‚Epistemische Schockwellen‘ sind also Ereignisse, durch die das Selbstverständnis, die Weltbilder der Menschen in Schwingungen versetzt wurden bzw. sich neu aufbauen mussten.

Die folgende Zusammenschau solcher epistemischer Schockwellen ist in keiner Weise vollständig, weitgehend nicht differenziert genug, rechtfertigt sich aber dadurch, dass es darum geht in einer überschaubaren Weise einen Grundeindruck von der Dynamik des Geistes zu vermitteln, die dem Geschehen des biologisch fundierten Lebens innewohnt.

CLUSTER RELIGION

 

Stichworte zu 'Epistemische Schockwellen', Teil 1. ca. -1500 bis ca. 1500
Stichworte zu ‚Epistemische Schockwellen‘, Teil 1. ca. -1500 bis ca. 1500

Zwischen ca. -1500 bis etwa 650 gab mindestens 8 große das Weltverstehen prägende Ereignisse – daneben viele andere, weitere –, die wir im Nachgang als ‚Religionen‘ bezeichnen. Religionen zeichnen sich aus durch ‚Gründer‘, durch ‚Botschaften‘, durch ‚Erfahrungen‘ und dann meistens nachfolgend durch ‚Regeln‘ und Bildung von ‚Organisationsformen‘. Sie erheben einen Anspruch auf ‚Deutung der Welt‘ mit ‚Sinn‘, ‚Werten‘ und ‚Spielregeln‘. Sie versprechen auch den Kontakt zu eine Letzten, Größten, Umfassenden, Endgültigen, dem alles andere unter zu ordnen ist. Vielfach gehen diese Versprechungen auch einher mit speziellen ‚außergewöhnlichen Erlebnissen‘, die im einzelnen stattfinden.

In Vorderasien und Europa waren dies vor allem das Duo Judentum-Christentum und der Islam. Während diese sich explizit auf einen ‚Schöpfer‘ bezogen, kam der indische Subkontinent neben der vielfältigen Götterwelt des Hinduismus in seinem Grundtenor — realisiert im Buddhismus — ohne einen expliziten Schöpfer aus, allerdings nicht ohne eine tiefgreifende Existenzerfahrung des einzelnen Menschen, der sich durch einen geeigneten Lebensstil und Meditation möglichst weitgehend von einem normalen Alltag und seinen vielfältigen Spannungen isolierte.

So verschieden Jugentum-Christentum, Islam auf der einen Seite und Indischer Existentialismus auf der anderen Seite auf den ersten Blick wirken können, kann man aber dennoch auffällige strukturelle Parallelen erkennen.

Die sprachliche Seite der genannten Religionen tendiert dazu, nicht die Weite und Vielfalt der Welt zu kommunizieren, keine weiterreichende Erkenntnisse, sondern die Sprache hat einzig den Zweck, eine bestimmte, abgegrenzte Idee zu kommunizieren, diese abzugrenzen von allem anderen, bis dahin, dass alle Abweichungen diskreditiert werden. Jene Menschen, die sich sprachlich von der ‚Norm‘ entfernen sind Abweichler, Dissidenten, Ungläubige, Verräter, Feinde. Die Sprache wird also nicht gesehen als ein offener, lebendiger, dynamischer Raum von ‚Wahrheit‘, die sich weiter entwickeln kann, sondern als eine symbolische Fessel, eine symbolische Mauer, die einige wenige Ideen abgrenzen sollen. Auch der Buddhismus, der eigentlich sein Fundament in einer schwer beschreibbaren individuellen Existenzerfahrung sieht, praktiziert Sprache überwiegend als Gefängnis.

Betrachtet man sich die Geschichte dieser Religionen bis heute, dann ist diese Starrheit unübersehbar. Alle modernen Erkenntnisse und Entwicklungen prallen an der Sprache dieser Religionen ab.

Neben der sprachlichen Dimension haben alle diese Religionen auch eine ‚Erlebnisdimension‘, oft auch ‚Spiritualität‘ oder ‚Mystik‘ genannt. Einzelne, Gruppierungen, Bewegungen erzähltem davon, schrieben es auf, dass sie ‚besondere, tiefgreifende Erlebnisse‘ hatten, die ihnen ‚klar gemacht haben‘, was wirklich ‚wichtig‘ ist, ‚worin der Sinn des Lebens‘ liegt, Erlebnisse, die ihnen ‚Frieden‘ geschenkt haben, ‚Erfüllung‘, ‚Wahrheit‘. Und diese Erlebnisse waren immer so stark, dass sie diese Menschen aus allen Schichten dazu bewegt haben, ihr Lebens radikal zu ändern und von da an eben ‚erleuchtet‘ zu leben. Diese Menschen gab es nicht nur im Umfeld des Buddhismus, sondern auch zu Tausenden, Zehntausenden im Umfeld des Judentum-Christentums.

Solange diese religiösen Bewegungen sich im Umfeld der etablierten religiösen Überzeugungen und Praktiken bewegen wollten, mussten sie sich – wie immer auch ihre individuellen Erlebnisse waren – diesem Umfeld anpassen. In vielen Fällen führte dies auch zu Absetzbewegungen, zur Entwicklung neuer religiöser Bewegungen. Das Problem dieser erlebnisbasierten Bewegungen war, dass sie entweder nicht die Sprache benutzen durften, die sie zur Beschreibung ihrer Erlebnisse brauchten (da nicht erlaubt), oder aber, sie benutzten eine neue Sprache, und dies führte zum Konflikt mit den etablierten Sprachspielen.

Unter den vielen hunderten Bewegungen allein im Bereich Judentum-Christentum, die z.T. viele tausend, ja zehntausend  Mitglieder hatten und dabei oft auch materiell sehr wohlhabend bis reich wurden, möchte ich zwei kurz erwähnen: die Reformation angefeuert von Martin Luther und den Jesuitenorden, angefeuert von Ignatius von Loyola. Im historischen Klischee werden beide Bewegungen oft als direkte Gegner skizziert, da der Jesuitenorden kurz nach Beginn der Reformationsbewegung gegründet wurde und der katholische Papst gerade diesen Orden auch zur ‚Bekämpfung der Reformation‘ einsetzte. Dieses Bild verdeckt aber die wirklich interessanten Sachverhalte.

Der Jesuitenorden entstand aus den spirituellen Erfahrungen eines baskischen Adligen, deren innere Logik, Beschreibung und Praxis, im Lichte der Erkenntnisse der modernen Psychologie (und Psychoanalyse) stand halten würde. Außerdem war der Orden aufgrund dieser Spiritualität extrem weltoffen, wissenschaftsaffin, und revolutionierte die damals beginnende christliche Missionierung der Welt, indem jeweils die Kultur der verschiedenen Erdteile studiert und übernommen und sogar gegen zerstörerische Praktiken der europäischen Kolonisatoren geschützt wurden. Genau dieses wahre Gesicht des Ordens mit einer radikal individuell-erlebnisbasierten Spiritualität und daraus resultierenden Weltoffenheit und Menschlichkeit führte dann zum Verbot und Aufhebung des Ordens weltweit, verbunden mit Einkerkerungen, Folter und Tod ohne Vorankündigung. Das korrupte Papsttum ließ sich damals von dem portugiesischen und spanischen Hof erpressen, die ihre menschenverachtende Geschäfte in den Kolonien, speziell Südamerika, bedroht sahen. Dies war nicht die einzige Aufhebung und Misshandlung, die der Orden seitens des Papstums erfuhr. Während Luther sich gegen das Papsttum erhob und es auf einen Konflikt ankommen ließ, blieben die Jesuiten dem Papst treu und wurden vernichtet.

Diese Minigeschichte ließe sich aber zu einem großen Thema erweitern, da eben die sprachlich fixierten Religionen generell ein Problem mit Wahrheit und damit mit jeglicher Art von Erfahrung haben. Die Akzeptanz individueller Erfahrung als möglicher Quell von ‚Wahrheit‘, möglicherweise einer weiter reichenden alternativen Wahrheit zu der sprachlich fixierten (und damit eingesperrten) Wahrheit der Religionen, eine solche Akzeptanz würde das Wahrheitsmonopol dieser Religionen aufheben. Bislang hat keine der genannten Religionen es geschafft, von sich aus ihr problematisches Wahrheitsmonopol in Frage zu stellen.

JUDENTUM – CHRISTENTUM – PHILOSOPHIE

In der Zeit vor den modernen empirischen Wissenschaften existierte wissenschaftliches Denken entweder gar nicht oder in enger Verbindung mit dem philosophischen Denken bzw. der Medizin.

In der alten und klassischen Griechischen Philosopie (ca. -800 bis -200) wurde das Weltverstehen in vielen Bereichen erstmalig sehr grundlegend reflektiert, unabhängig von bestimmten religiösen Überzeugungen, obgleich natürlich auch diese Denker nicht im luftleeren Raum lebten sondern in konkreten Kulturen mit einer damals üblichen Moral, Ethik, Spielregeln, Sprachspielen.

Unter den vielen bedeutenden Konzepten war das größte systematische Konzept wohl jenes von Aristoteles, Schüler Platons, und den an ihn anschließenden Schulen. Während dieses griechische Denken nach der Eroberung Griechenlands durch die Römer in Mittel- und Westeuropa bis zum Jahr 1000 mehr oder weniger unbekannt war (Kriege, radikal anti-wissenschaftliche Einstellung der katholischen Kirche) war der damalige Islam sehr offen für Wissen. Das griechische Denken war im Islam weitgehend bekannt, lag entsprechend in arabischen Übersetzungen vor, und durch eine Vielzahl von Schulen, Bildungsstätten und großen Bibliotheken (z.T. mehrere hundert Tausend Bücher!) wurde dieses Wissen gepflegt und weiter entwickelt (welcher Kontrast zum heutigen Islam!). Und nur über diese Umweg über den hochgebildeten Islam mit Übersetzungsschulen in Spanien kam das Wissen der Griechen ab ca. 1000 wieder in das christliche Mittel- und West-Europa.

Mit dem Entstehen eines aufgeschlosseneren Bildungssystem in Europa wanderten die griechischen Gedanken über Bücher und Gelehrte wieder in europäische Bildungsstätten ein. Es gab eine Zeit der intensiven Auseinandersetzung zwischen bisheriger christlicher Theologie und Aristoteles. Auf dem Höhepunkt der begrifflichen Integration von christlichem Glauben und Aristotelischer Weltsicht gab es aber ‚Abspaltungstendenzen‘ in mehreren Bereichen.

POLITIK – WISSENSCHAFT – SPIRITUALITÄT

Das zunehmend freie und kritische Denken begann mit der Infragestellung der bis dahin waltenden absolutistischen Machtstrukturen.

Das methodisch geschulte universitäre Denken begann, über die aristotelischen Konzepte hinaus zu denken. Anknüpfungspunkte gab es genügend.

Das individuelle Erleben der Menschen, ihre Frömmigkeit, ihre Spiritualität suchte nach neuen Wegen, benutzte eine neue Sprache, um sich besser ausdrücken zu können.

Das neue politische Denken führte später zur französischen Revolution und vielen ähnlichen politischen Erneuerungsbewegungen.

Das neue philosophische Denken führt alsbald zum Bildung der neuen empirischen Wissenschaften mit neuer Logik und Mathematik.

Die neue Spiritualität lies viele neue religiöse Bewegungen entstehen, die quer zu allen etablierten Glaubensformen lagen, u.a. auch zur Reformation.

PHILOSOPHIE – WISSENSCHAFT

Stichworte zu 'Epistemische Schockwellen', Teil2. ca. ca. 1550 bis ca.2018
Stichworte zu ‚Epistemische Schockwellen‘, Teil2. ca. ca. 1550 bis ca.2018

Aus der Vielzahl der philosophischen Denker bieten sich vier besonders an: Descartes, Kant, Wittgenstein und Carnap.

Von heute aus betrachtet markieren diese Vier entscheidende Umbrüche des philosophischen Denkens, das von den Entwicklungen in der Logik, Mathematik,Physik, Geowissenschaften, Biologie und Psychologie zusätzlich profitiert hat und noch immer profitiert.

Descartes versuchte zu klären, inwieweit sich die Wahrheitsfrage nur durch Rekurs auf das eigene Denken lösen ließe. Sein Fixpunkt in der Gewissheit des eigenen Denkens (cogito ergo sum) wurde aber erkauft durch einen fortbestehenden Dualismus zwischen Körper (res extensa) und Denken/ Geist (res cogitans), den er mit einem irrationalen Gedanken zu einer Zirbeldrüse zu kitten versuchte.

Kant führte dieses Forschungsprogramm von Descartes letztlich weiter. Sein Vermittlungsversuch zwischen fehlbarer konkreter empirischer Erfahrung und den allgemeinen Prinzipien der Mathematik und des Denkens (des Geistes) ging über Descartes insoweit hinaus, dass er auf eine Zirbeldrüsen-ähnliche Lösung verzichtete und stattdessen davon ausging, dass der Mensch in seinem Denken von vornherein in abstrakten Kategorien wahrnimmt und denkt. Unsere menschliche Konstitution ist so, dass wir so wahrnehmen und Denken. Er konstatierte damit ein Faktum, das wir heute mit all unseren Erkenntnissen nur bestätigen können. Es blieb bei ihm offen, warum dies so ist. Es zeichnet seine intellektuelle Redlichkeit aus, dass er die offenen Enden seiner erkenntnistheoretischen (epistemischen) Analysen nicht krampfhaft mit irgendwelchen Pseudo-Lösungen versucht hat zu vertuschen.

Wittgenstein war der erste, der sich mit dem Funktionieren der Sprache und ihrer Wechselwirkung mit unserem Denken ernsthaft, ja radikal beschäftigte. Während er in seinem Frühwerk noch der Statik der damaligen modernen Logik huldigte, begann er dann später alle diese statischen formalen Konstruktionen in der Luft zu zerreißen, durchlief weh-tuende detaillierte Analysen der Alltagssprache, machte vor nichts Halt, und hinterließ mit seinem frechen und angstfreien Denken einen Trümmerhaufen, dessen Verdienst es ist, den Raum frei gemacht zu haben für einen echten Neuanfang.

Carnap wirkt in diesem Zusammenhang auf den ersten Blick wie ein Antipode zu Wittgenstein, und in der Tat hat er ja das vor-wittgensteinsche Sprachverständnis in seinen Studien zu den formalen Sprachen, zur Logik, zur logischen Semantik weiter angewendet. Allerdings hat er dies dann auch im Kontext der empirischen Wissenschaften getan. Und in diesem Kontext hat sein formal-scholastisches Denken immerhin dazu beigetragen, die Grundstrukturen moderner empirische Theorien mit einem formalen Kern frei zu legen und ihre Eigenschaften zu untersuchen.

Alle diese genannten Ansätze (Kant, Wittgenstein, Carnap) wurden später mehrfach kritisiert, abgewandelt, weiter entwickelt, aber es waren diese Ansätze, die die nachfolgenden Richtungen entscheidend beeinflusst haben.

Ein interessanter Grenzfall ist Freud (s.u.). Irgendwie könnte man ihn auch zur Philosophie rechnen.

LOGIK – MATHEMATIK

Aus heutiger Sicht kann man sich gar nicht mehr vorstellen, dass es eine Zeit gegeben hat, in der die moderne Logik und Mathematik nicht verfügbar war. Nahezu alles, was unseren Alltag ausmacht setzt sehr viel Mathematik als beschreibende Sprache, als Berechnung, als Simulation voraus. Dass mathematisches Denken in den Schulen so wenig – und immer weniger – behandelt wird, ist sehr irritierend.

Logik und Mathematik sind einen weiten Weg gegangen.

Ein Meilenstein ist der Übergang von der klassischen aristotelischen Logik (eng an der Alltagssprache, Einbeziehung inhaltlichen Alltagsdenkens) zur modernen formalen Logik seit Frege (formale Sprache, formaler Folgerungsbegriff).

Eng verknüpft mit der Entwicklung der neuen formalen Logik ist auch die Entwicklung der modernen Mathematik, die entscheidend mit der Erfindung der Mengenlehre durch Cantor ihren Durchbruch fand, und dann mit Russel-Whitehead und Hilbert die Neuzeit erreichte. Keine der modernen Arbeiten in Gebieten wie z.B. Algebra, Topologie, Geometrie sind ohne diese Arbeiten denkbar, ganz zu schweigen von der modernen theoretischen Physik.

EMPIRISCHE WISSENSCHAFTEN

Erste Ausläufer empirischer Wissenschaft gab es schon vor Galilei (man denke z.B. nur an die bahnbrechenden Forschungen zur Medizin von dem islamischen Gelehrten (und Philosophen, Logiker, Theologen!) Avicenna). Doch an der Person Galileis kristallisiert sich der Konflikt zwischen neuem, offenen wissenschaftlichen Denken und dem alten, geschlossenen christlichen Denken. Zudem hat Galilei eben konsequent sowohl eine experimentelle Messmethode angewendet wie auch eine beginnende mathematische Beschreibung. Mit Newton gelang dann eine Fassung von Experiment und Theorie, die atemberaubend war: die Bewegung der Himmelskörper ließ sich nicht nur mit einfachen mathematischen Formeln beschreiben, sondern auch noch mit bis dahin unbekannter Präzision voraus sagen. Es sollte dann zwar noch fast 300 Jahre dauern, bis die moderne Physik eine erste Theorie zur Entstehung des ganzen Weltalls formulieren konnte samt ersten experimentellen Bestätigungen, aber die Befreiung des Denkens von dogmatischen Sprachbarrieren war geschafft. Die Wissenschaft insgesamt hatte sich freigeschwommen.

Schon im 17.Jahrhundert hatte Niels Stensen entdeckt, dass die unterschiedlichen Ablagerungsschichten der Erde in zeitlicher Abfolge zu interpretieren sind und man daher auf geologische Prozesse schließen kann, die die Erde durchlaufen haben muss.

Zwei Jahrhunderte später, schon im 19.Jahrhundert, wurde diese historische Sicht der Erde ergänzt durch Charles Darwin, der am Beispiel der Pflanzen- und Tierwelt auch Hinweise auf eine Entwicklung der Lebensformen fand. Sowohl die Erde als auch die biologischen Lebensformen haben eine Entwicklung durchlaufen, zudem in enger Wechselwirkung.

Fast parallel zu Darwin machte Freud darauf aufmerksam, dass unser ‚Bewusstsein‘ nicht die volle Geschichte ist. Der viel größere Anteil unseres menschlichen Systems ist ’nicht bewusst‘, also ‚unbewusst‘. Das Bewusstsein ‚erzählt‘ uns nur ‚Bruchstücke‘ jener Geschichten, die weitgehend im ‚Nicht-Bewusstein‘ oder ‚Unbewussten‘ ablaufen.

Die weitere Entwicklung der Biologie lieferte viele Argumente, die das Bild von Freud stützen.

Der Versuch von Watson, 1913, die Psychologie als empirische Verhaltenswissenschaft zu begründen, wurde und wird oft als Gegensatz zu Psychoanalyse gesehen. Das muss aber nicht der Fall sein. Mit der Verhaltensorientierung gelang der Psychologie seither viele beeindruckende theoretische Modelle und Erklärungsleistungen.

Von heute aus gesehen, müsste man ein Biologie – Psychologie – Psychoanalyse Cluster befürworten, das sich gegenseitig die Bälle zuspielt.

Durch die Einbeziehung der Mikro- und Molekularbiologie in die Evolutionsbiologie konnten die molekularen Mechanismen der Evolution entschlüsselt werden.Mittlerweile steht ein fast komplettes Modell der biologischen Entwicklung zur Verfügung. Dies erlaubt es sowohl, Kants (als auch Descartes) Überlegungen von den biologischen Voraussetzungen her aufzuklären (z.B. Edelman!), wie auch die Psychologie samt der Psychoanalyse.

COMPUTER

Als Gödel 1931 die Unentscheidbarkeit anspruchsvoller mathematischer Theorien (das fängt bei der Arithmetik an!) beweisen konnte, wirkte dies auf den ersten Blick negativ. Um seinen Beweis führen zu können, benötigte Gödel aber sogenannte ‚endliche Mittel‘. Die moderne Logik hatte dazu ein eigenes Forschungsprogramm entwickelt, was denn ‚endliche Beweismethoden‘ sein könnten. Als Turing 1936/7 den Beweis von Gödel mit dem mathematischen Konzept eines Büroangestellten wiederholte, entpuppte sich dieses mathematische Konzept später als ein Standardfall für ‚endliche Mittel‘. Turings ‚mathematisches Konzept eines Büroangestellten‘ begründete dann die spätere moderne Automatentheorie samt Theorie der formalen Sprachen, die das Rückgrat der modernen Informatik bildet. Das ‚mathematische Konzept eines Büroangestellten‘ von Turing wurde ihm zu Ehren später ‚Turingmaschine‘ genannt und bildet bis heute den Standardfall für das, was mathematisch ein möglicher Computer berechnen kann bzw. nicht kann.

Im weiteren Verlauf zeigte sich, dass gerade das Konzept des Computers ein extrem hilfreiches Werkzeug für das menschliche Denken sein kann, um die Grenzen des menschlichen Wahrnehmens, Erinnerns und Denkens auszugleichen, auszuweiten.

Schon heute 2018 ist der Computer zu einem unverzichtbaren Bestandteil der Gesellschaft geworden. Das Wort von der ‚Digitalen Gesellschaft‘ ist keine Fiktion mehr.

ZEITGEIST

Der extrem kurze Rückblick in die Geschichte zeigt, wie schwer sich die Ausbildung und Verbreitung von Ideen immer getan hat. Und wenn wir uns die gesellschaftliche Realität heute anschauen, dann müssen wir konstatieren, dass selbst in den hochtechnisierten Ländern die gesamte Ausbildung stark schwächelt. Dazu kommt das eigentümliche Phänomen, dass das Alltagsdenken trotz Wissenschaft wieder vermehrt irrationale, gar abergläubische Züge annimmt, selbst bei sogenannten ‚Akademikern‘. Die Herrschaft von Dogmatismen ist wieder auf dem Vormarsch. Die jungen Generationen in vielen Ländern werden über mobile Endgeräte mit Bildern der Welt ‚programmiert‘, die wenig bis gar nicht zu wirklichen Erkenntnissen führen. Wissen als solches, ist ‚wehrlos‘; wenn es nicht Menschen gibt, die mit viel Motivation, Interesse und Ausdauer und entsprechenden Umgebungen zum Wissen befähigt werden, dann entstehen immer mehr ‚Wissens-Zombies‘, die nichts verstehen und von daher leicht ‚lenkbar‘ sind…

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

 

DESCARTES IMPLODIEREN LASSEN. Dualität mutiert zur Monade

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062
14.Juli 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

IDEE

Bei der Lektüre des Buches ’Quanten sind anders’ (2006) von Görnitz [1] bin ich auf den Seiten 27-49 über Erklärungen gestolpert, die man so zwar eigentlich in allen heutigen Interpretationen zu Descartes wiederfindet, die aber deswegen nicht unbedingt richtig sein müssen. Möglicherweise angeregt durch den Erklärungskontext bei Görnitz sowie meinen eigenen Überlegungen in verschiedenen Zusammenhängen (u.a. in den Rekonstruktionen von Stace, insbesondere ab Teil 3  und 4) erscheint mir die schnelle Etikettierung von Descartes Ansatz als Dualist nur bedingt hilfreich, zumindest wenn man über ihn vom heutigen Wissensstand aus spricht.

I. DESCARTES

a) Descartes klassisch interpretiert: Vereinfachend kann man die klassische Interpretation von Descartes in zwei Punkten zusammenfassen.1) Bei der Suche nach einem ’Ankerpunkt’ für sein Denken meinte Descartes in der ’Gewissheit seiner eigenen Denktätigkeit’ einen Punkt gefunden zu haben , von dem aus sich alles weitere – die verschiedenen wechselnden Inhalte und Formen – sortieren und diskutieren lassen. 2) Von diesem markierten Denkpunkt aus hat er dann versucht, diese beiden ’Pole’ seiner Bewusstheit– das ’Sich-im-Denken-gewiss-sein’ und die ’wechselnden Inhalte’ – seinsmäßig (ontologisch) zu ’interpretieren. Eine solche Interpretation in Form von spezifischen ’Zuordnungen’ folgt nicht zwingend aus den Phänomenen des Ausgangspunktes. Diese Zuordnung stellt eine freie Auswahl aus verschiedenen Denkmöglichkeiten dar.

Descartes wählte für seine freie Zuordnung (Deutung,Interpretation, Kodierung) die Begriffe ’res cogitans’ und ’res extensa’, die zur damaligen Zeit in verschiedenen philosophischen Konzepten verfügbar waren. Und er ordnete dann seine ’Gewissheit’ der ’res cogitans’ zu und die wechselnden Inhalte und Formen der ’res extensa’. Belässt man es bei dieser Interpretation, dann spaltet sich in der Tat die Wirklichkeit in zwei ontologisch unterschiedliche Seinsbereiche auf, deren Beziehung untereinander logisch größte Probleme aufwirft.

Dass Descartes selbst hier eine Lösung über eine postulierte ’Zirbeldrüse’ andachte (was die logischen Probleme faktisch nicht löste), soll uns hier weiter nicht beschäftigen.

2b) Descartes neu interpretiert: Nach dem heutigen Wissensstand können wir annehmen, dass das bewusste Denken sich – wie genau, das ist noch nicht vollständig geklärt – in Verbindung mit dem ’Gehirn’ abspielt. Das Gehirn ist ein Organ unseres Körpers und wäre im Sinne Descartes der ’res extensa’ zuzuordnen. Anstatt nun eine weiter ’Substanz’ zu postulieren, die ’res cogitans’, wie es Descartes tat (und vermutlich aufgrund seines Wissensstandes auch gar nicht anders konnte), könnten wir heute sagen, dass das bewusste Denken, die Selbstgewissheit, eine ’Eigenschaft des Gehirns’ ist, genauer eine ’Funktion des Gehirns’. Damit wären ’res cogitans’ und ’res extensa’ nicht mehr zwei ontologisch unverbundene Seinsweisen sondern die ’res cogitans’ wird zu einer Eigenschaft, zu einer Funktion der ’res extensa’. Die res extensa, als ’Sammelbecken’ von statischen Eigenschaften, wird mit der ’res cogitans’ zu jenem’ dynamischen Etwas’ als das wir heute die ’Materie (= res extensa)’ erleben und erforschen. Statt einer klassischen Dualität haben wir dann eine dynamische ’Monadizität’, eine Art ’Implosion‘ der res cogitans in die res extensa hinein (Anmerkung: In direkte Antwort zu Descartes waren es speziell Spinoza und Leibniz, die seinen dualistischen Ansatz ablehnend-kritisch sahen. In der Einleitung zum 5.Kapitel seiner Ethik hat Spinoza [2] den Ansatz von Descartes analysiert und als nicht akzeptabel verworfen. Sein eigener Lösungsansatz versucht die ’Einheit’ von Denken und Körper durch Annahme einer in Gott gründenden ’einen Substanz’ zu retten, die in vielen Punkten ebenso wenig nachvollziehbar ist wie Descartes Rettungsversuch über die Zirbeldrüse. (Für die weitere kritische Diskussion von Spinoza siehe auch Decher (2015) [3]:SS.101-108) Der Lösungsansatz von Leibniz in seiner ’Monadologie’ [4] kommt einem systematisch-modernen Denken weiter entgegen, doch bringt er auch als Letztbegründung wieder Gott ins Spiel (vgl. Decher (2015) [3]:SS.110-117). Würde man diesen Faktor bei Leibniz ’herausrechnen’, dann erscheint seine Monadologie in einem interessanten Licht. Der hier benutze Begriff der ’Monadizität’ setzt das Wort ’Monadologie’ voraus.).

Im Denken selbst erscheint zwar ’Denken’ und ’Inhalt’ als etwas Getrenntes, aber ’ontologisch’ ist das Denken (die klassische ’res cogitans’) eine ’inhärente Eigenschaft’ des Körpers, der Materie (die klassische ’res extensa’). Eine Zirbeldrüse im Sinne des Descartes wird damit überflüssig.

c) Geist-Materie: Bislang wird der Begriff ‚Geist-Materie‘ kaum benutzt.  Mit dieser neuen implodierten Einheit von Denken und Sein lösen sich viele klassische Probleme, die aus einer speziellen Interpretation der primären Phänomene resultierten, es stellen sich aber ganz neue, möglicherweise noch radikalere Herausforderungen. Denn jetzt wird das ’Bewusstsein’, das ’Sich-Selbst-Denken’ zu einer genuinen Eigenschaft der Materie. Während die einen darin eine ’Abwertung’ des Denkens und des ’Geistigen’ sehen, werden die anderen darin eine ’Aufwertung’ des Körperlichen, des Materiellen sehen (oder auch, ganz im Gegenteil, eine ‚Verwässerung‘ des Materiebegriffs).

Die moderne Physik, hier allen voraus die Quantenphysik, hat schon längst die Positionen der klassischen Physik und damit eines deterministischen Objektdenkens aufgebrochen. Die schöne heile Welt der abgrenzbaren Objekte, der deterministischen Verhältnisse, wurde mit den neuen Forschungen quasi weggesprengt. Der fließende Übergang von Energie und Materie, das Verschwinden aller Determinismen, bei einer gleichzeitig zu beobachtenden Dynamik des bekannten Universums, das sich nicht als reines ’Chaos’ präsentiert, sondern als eine Quelle gerichteter und steigender Komplexität, allerdings nicht deterministisch, sondern ’frei’ … dies wirft tonnenweise Fragen auf, die bislang nicht einmal im Ansatz geklärt sind. Historisch mag man Descartes als jenen Meilenstein ansehen, an dem die Aporie des klassischen Geist-Materie Denkens sein historisches Maximum erreicht hat, das aber dann mit der modernen Quantenphysik (wann genau?) seine denkerische Transformation hinein in eine neue ontologische Geist-Materie-Einheit erlebte.

Im Prinzip war das klassische griechische Denken davon nicht weit entfernt, aber es fehlten ihnen damals einfach die notwendigen Daten.

d) Nachbemerkungen: Görnitz erwähnt in der Kritik an Descartes Dualismus auch zwei der heutigen Standardeinwände gegen Descartes Gewissheitsansatz: Freud mit seinem Unbewussten und Gödel mit seiner Unentscheidbarkeit hinreichend komplexer formaler Systeme (vgl. Görnitz S.45). Im Lichte der neuen Interpretation erscheinen mir beide Hinweise nicht zielführend zu sein.

Die Tatsache, dass ein Großteil der Vorgänge in unserem Körper – möglicherweise muss man heute sogar sagen: der überwiegende Teil – nicht im Zugriff des Bewusstseins liegt, muss nicht notwendigerweise ein Totschlagargument gegen die Position der Gewissheit von Descartes sein. Die ’Gewissheit im Denken’ bezieht sich ja gerade nicht auf die wahrnehmbaren ’Inhalte’ des Denkens, die variieren, die ganz unterschiedlichen Wirkursachen zu verdanken sind, sondern auf die Fähigkeit, in diesem Wandel einen Bezugspunkt zu haben, relativ zu dem der Wandel überhaupt ’bewusst’ sein kann. Dass das ’Unbewusste’ sich ’auswirken’ kann – in seinen Auswirkungen dann sehr wohl bewusst’ –unterscheidet es nicht von jeder beliebigen anderen bewusst wahrnehmbaren Wirkung von irgendwelchen anderen Wirkursachen. Entscheidend ist vielmehr, dass der Mensch über jene Form von Bewusstsein verfügt, die die Andersartigkeit der Phänomene wie auch ihren Wandel ’bemerken’ kann. Diese formale Bewusstheit wird ergänzt um ein –weitgehend unbewusst arbeitendes – Gedächtnis (eine Funktion des Gehirns), das auf ’automatische’ (vom Gehirn vorgegebene) Weise den Strom der Phänomene selektiert, abstrahiert, assoziiert und vieles mehr. In diesem Zusammenspiel von ’Sich-Selbst-Bewusst-Sein-können‘ und der ’ordnenden Funktion’ des Gedächtnisses kann das sich seiner bewusste Subjekt den Strom der Phänomene (wodurch auch immer verursacht) soweit ’sortieren’, dass Muster, Regel erkennbar werden, die Zeitreihen erlauben, mittels denen das punktuelle Bewusstsein sich denkerisch in Räume und Zeiten hinein ausdehnen kann, die es selbst in einem komplexen Geschehen vorkommend erscheinen lassen.

Dass diese Bewusstheit samt Ordnungstätigkeit sich ’täuschen’ kann ist zwar bekannt, aber – wie wir heute wissen können – bis zu einem gewissen Grad ’ausgleichbar’, speziell dann, wenn die einzelnen Gehirne gelernt haben, ’im Verbund’ zu denken.

Auch der berühmte Unentscheidbarkeitsbeweis von Kurt Gödel (1931) [5] scheint hier fehl am Platz zu sein. Gödel bezieht sich nicht auf Phänomene des Bewusstseins sondern auf die Möglichkeit, die Eigenschaften eines formalen Systems (Anmerkung: Er benutzte das System der Arithmetik. ) formal so zu beschreiben, dass alle (=Vollständigkeit) wahren(=speziell ausgezeichnete) Aussagen dieses Systems formal ableitbar sind. Aufgrund der inhärenten Doppelstruktur eines solchen formalen Beweises von Objektsprache (das zu beschreibenden System) und Metasprache (die Sprache des Beweises), die dann die Objektsprache in der Metasprache nachvollziehen muss, kann es grundsätzlich keinen vollständigen Beweis geben. Dies liegt einfach an der Struktur eines solchen Beweises. Dieser beweistheoretische Sachverhalt, auf den Gödel in wunderbarer Weise hingewiesen hat (was später von Turing (1936/7) [6] auf eine andere Weise ebenfalls gezeigt worden ist), berührt die Überlegungen von Descartes in keiner Weise. Vielmehr ist der metalogische Beweis von Gödel (und auch von Turing (und von vielen anderen)) ein wunderbares Beispiel, wie die Struktur des Selbstbewusstseins im Zusammenspiel mit dem (denkenden) Gedächtnis gerade in der Lage ist, die Eigenschaften solcher formaler Systeme und der metalogischen Beweise nicht nur zu vollziehen, sondern sie auf eine Weise zu vollziehen, die dann andere Gehirne mit ihrem Bewusstsein nachvollziehen können.

Diese relative Struktur des Bewusstseins (und des zugehörigen Gehirns) ist genau die Stärke des menschlichen Denkens. Im Prinzip wissen wir im Augenblick nichts, aber in einem kontinuierlichen Prozess können wir immer mehr Strukturen aufbauen, die uns die Möglichkeit verschaffen, ’im Prinzip’ ’Alles’ wissen zu können. In diesem Zusammenhang hat die Menschheit gelernt, dass ihre Gehirne bei anwachsender Komplexität der äußeren Welt – die weitgehend vom Menschen mit verursacht ist – trotz aller Wunderbarkeit des Gehirns an physische, und damit endliche Grenzen, der Verarbeitung stößt. Glücklicherweise hat die Menschheit mittlerweile programmierbare Maschinen erfunden (die Computer), beherrscht ihre Vernetzung, so dass die menschlichen Gehirne ihre physischen Grenzen im Prinzip mittels dieser programmierbaren Maschinen wieder ein Stück überwinden könnten. Aktuell hat man aber den Eindruck, dass die Menschheit sich noch schwer tut, diese neue Technologie in maximal symbiotischer Weise konstruktiv einzusetzen.

4 QUELLEN

[1] T. Goernitz, Quanten Sind Anders: Die verborgene Einheit der Welt, 1st ed. Heidelberg: Spektrum Akademischer Verlag,2006.

[2] Spinoza, “Werke. Bd 1+2, lateinisch – deutsch,” Darmstadt, 1967.

[3] F. Decher, Handbuch der Philosophie des Geistes, 1st ed. Darmstadt: WBG Wissenschaftliche Buchgesellschaft, 2015.

[4] G. Leibniz, Monadologie und andere metaphysische Schriften, Französisch-Deutsch, 1st ed., J. Schneider, Ed. Hamburg:Felix Meiner Verlag, 2002.

[5] K. Goedel, “Über formal unentscheidbare Saetze der principia mathematica und verwandter Systeme, I,” Monatshefte fuer Mathematik und Physik, vol. 38, pp. 173–98, 1931.

[6] A. M. Turing, “On computable numbers, with an application to the Entscheidungsproblem,” Proceedings of the London Mathematical Society, vol. 42, no. 2, p. 230–265, 1936-7.

KONTEXT BLOG

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER

SEMIOTIK UND KÜNSTLICHE INTELLIGENZ. EIN VIELVERSPRECHENDES TEAM. Nachschrift eines Vortrags an der Universität Passau am 22.Okt.2015

KONTEXT

  1. Im Rahmen der interdisziplinären Ringvorlesung Grenzen (Wintersemester 2015/16) an der Universität Passau (organisiert von der Deutsche Gesellschaft für Semiotik (DGS) e.V. in Kooperation mit der Professur für Neuere deutsche Literaturwissenschaft und Mediensemiotik (Prof. Dr. Jan-Oliver Decker und Dr. Stefan Halft) hatte ich einen Vortrag angenommen mit dem Titel Semiotik und künstliche Intelligenz. Ein vielversprechendes Team. Wie immer halte ich Vorträge immer zu Fragen, die ich bis dahin noch nicht ausgearbeitet hatte und nutze diese Herausforderung, es dann endlich mal zu tun.
  2. Die Atmosphäre beim Vortrag war sehr gut und die anschließenden Gespräche brachte viele interessanten Aspekte zutage, was wir im Rahmen der DGS noch tun sollten/ könnten, um das Thema weiter zu vertiefen.

MOTIV – WARUM DIESES THEMA

  1. Angesichts der vielfältigen Geschichte der Semiotik könnte man natürlich ganze Abende nur mit Geschichten über die Semiotik füllen. Desgleichen im Fall der künstlichen Intelligenz [KI]. Der Auslöser für das Thema war dann auch der spezielle Umstand, dass im Bereich der KI seit etwa den 80iger Jahren des 20.Jahrhunderts in einigen Forschungsprojekten das Thema Semiotik ganz neu auftaucht, und nicht als Randthema sondern verantwortlich für die zentralen Begriffe dieser Forschungen. Gemeint sind die berühmten Roboterexperimente von Luc Steels (ähnlich auch aufgegriffen von anderen, z.B. Paul Vogt) (siehe Quellen unten).
  2. Unter dem Eindruck großer Probleme in der klassischen KI, die aus einem mangelnden direkten Weltbezug resultierten (das sogenannte grounding Problem) versuchte Steels, Probleme des Zeichen- und Sprachlernens mit Hilfe von Robotern zu lösen, die mit ihren Sensoren direkten Kontakt zur empirischen Welt haben und die mit ihren Aktoren auch direkt auf die Welt zurück wirken können. Ihre internen Verarbeitungsprozesse können auf diese Weise abhängig gemacht werden (eine Form von grounding) von der realen Welt (man spricht hier auch von embodied intelligence).
  3. Obwohl Steels (wie auch Vogt) auf ungewöhnliche Weise grundlegende Begriffe der Semiotik einführen, wird dieser semiotische Ansatz aber nicht weiter reflektiert. Auch findet nicht wirklich eine Diskussion des Gesamtansatzes statt, der aus dieser Kombination von Semiotik und Robotik/ KI entsteht bzw. entstehen könnte. Dies ist schade. Der Vortrag Semiotik und künstliche Intelligenz. Ein vielversprechendes Team stellt einen Versuch dar, heraus zu arbeiten, warum die Kombination Semiotik und KI nicht nur Sinn macht, sondern eigentlich das Zeug hätte, zu einem zentralen Forschungsparadigma für die Zukunft zu werden. Tatsächlich liegt dem Emerging Mind Projekt, das hier im Blog schon öfters erwähnt wurde und am 10.November 2015 offiziell eröffnet werden wird, genau dieses Semiotik-KI-Paradigma zugrunde.

WELCHE SEMIOTIK?

  1. Wer Wörterbücher zur Semiotik aufschlägt (z.B. das von Noeth 2000), wird schnell bemerken, dass es eine große Vielfalt von Semiotikern, semiotischen Blickweisen, Methoden und Theorieansätze gibt, aber eben nicht die eine große Theorie. Dies muss nicht unbedingt negativ sein, zumal dann nicht, wenn wir ein reiches Phänomen vor uns haben, das sich eben einer einfachen Theoriebildung widersetzt. Für die Praxis allerdings, wenn man Semiotik in einer realen Theoriebildung einsetzen möchte, benötigt man verbindliche Anknüpfungspunkte, auf die man sich bezieht. Wie kann man solch eine Entscheidung motivieren?
  2. Aus der Sicht der Wissenschaftsphilosophie biete es sich an, die unterschiedlichen Zugangsweisen zur Erfahrung und und Beschreibung von Wirklichkeit als quasi Koordinatensystem zu wählen, diesem einige der bekanntesten semiotischen Ansätze zu zuordnen und dann zu schaue, welche dieser semiotischen Positionen der Aufgabenstellung am nächsten kommen. Von einer Gesamttheorie her betrachtet sind natürlich alle Ansätze wichtig. Eine Auswahl bzw. Gewichtung kann nur pragmatische Gründe haben.

ZUGÄNGE ZUR WIRKLICHKEIT

  1. Grundsätzlich gibt es aus heutiger Sicht zwei Zugangsweisen: über den intersubjektiven (empirischen) Bereich und über das subjektive Erleben.
  2. Innerhalb des empirischen Bereichs gab es lange Zeit nur den Bereich des beobachtbaren Verhaltens [SR] (in der Psychologie) ohne die inneren Zustände des Systems; seit ca. 50-60 Jahren eröffnen die Neurowissenschaften auch einen Zugriff auf die Vorgänge im Gehirn. Will man beide Datenbereiche korrelieren, dann gerät man in das Gebiet der Neuropsychologie [NNSR].
  3. Der Zugang zur Wirklichkeit über den subjektiven Bereich – innerhalb der Philosophie auch als phänomenologischer Zugang bekannt – hat den Vorteil einer Direktheit und Unmittelbarkeit und eines großen Reichtums an Phänomenen.
  4. Was den meisten Menschen nicht bewusst ist, ist die Tatsache, dass die empirischen Phänomene nicht wirklich außerhalb des Bewusstseins liegen. Die Gegenstände in der Zwischenkörperzone (der empirische Bereich) sind als Gegenstände zwar (was wir alle unterstellen) außerhalb des Bewusstseins, aber die Phänomene, die sie im Bewusstsein erzeugen, sind nicht außerhalb, sondern im Bewusstsein. Das, was die empirischen Phänomene [PH_em] von den Phänomenen, unterscheidet, die nicht empirisch [PH_nem] sind, ist die Eigenschaft, dass sie mit etwas in der Zwischenkörperwelt korrespondieren, was auch von anderen Menschen wahrgenommen werden kann. Dadurch lässt sich im Falle von empirischen Phänomenen relativ leicht Einigkeit zwischen verschiedenen Kommunikationsteilnehmern über die jeweils korrespondierenden Gegenstände/ Ereignisse erzielen.
  5. Bei nicht-empirischen Phänomenen ist unklar, ob und wie man eine Einigkeit erzielen kann, da man nicht in den Kopf der anderen Person hineinschauen kann und von daher nie genau weiß, was die andere Person meint, wenn sie etwas Bestimmtes sagt.
  6. Die Beziehung zwischen Phänomenen des Bewusstseins [PH] und Eigenschaften des Gehirns – hier global als NN abgekürzt – ist von anderer Art. Nach heutigem Wissensstand müssen wir davon ausgehen, dass alle Phänomene des Bewusstseins mit Eigenschaften des Gehirns korrelieren. Aus dieser Sicht wirkt das Bewusstsein wie eine Schnittstelle zum Gehirn. Eine Untersuchung der Beziehungen zwischen Tatsachen des Bewusstseins [PH] und Eigenschaften des Gehirns [NN] würde in eine Disziplin fallen, die es so noch nicht wirklich gibt, die Neurophänomenologie [NNPH] (analog zur Neuropsychologie).
  7. Der Stärke des Bewusstseins in Sachen Direktheit korrespondiert eine deutliche Schwäche: im Bewusstsein hat man zwar Phänomene, aber man hat keinen Zugang zu ihrer Entstehung! Wenn man ein Objekt sieht, das wie eine Flasche aussieht, und man die deutsche Sprache gelernt hat, dann wird man sich erinnern, dass es dafür das Wort Flasche gibt. Man konstatiert, dass man sich an dieses Wort in diesem Kontext erinnert, man kann aber in diesem Augenblick weder verstehen, wie es zu dieser Erinnerung kommt, noch weiß man vorher, ob man sich erinnern wird. Man könnte in einem Bild sagen: das Bewusstsein verhält sich hier wie eine Kinoleinwand, es konstatiert, wenn etwas auf der Leinwand ist, aber es weiß vorher nicht, ob etwas auf die Leinwand kommen wird, wie es kommt, und nicht was kommen wird. So gesehen umfasst das Bewusstsein nur einen verschwindend kleinen Teil dessen, was wir potentiell wissen (können).

AUSGEWÄHLTE SEMIOTIKER

  1. Nach diesem kurzen Ausflug in die Wissenschaftsphilosophie und bevor hier einzelne Semiotiker herausgegriffen werden, sei eine minimale Charakterisierung dessen gegeben, was ein Zeichen sein soll. Minimal deshalb, weil alle semiotischen Richtungen, diese minimalen Elemente, diese Grundstruktur eines Zeichens, gemeinsam haben.
  2. Diese Grundstruktur enthält drei Komponenten: (i) etwas, was als Zeichenmaterial [ZM] dienen kann, (ii) etwas, das als Nichtzeichenmaterial [NZM] fungieren kann, und (iii) etwas, das eine Beziehung/ Relation/ Abbildung Z zwischen Zeichen- und Nicht-Zeichen-Material in der Art repräsentiert, dass die Abbildung Z dem Zeichenmaterial ZM nicht-Zeichen-Material NZM zuordnet. Je nachdem, in welchen Kontext man diese Grundstruktur eines Zeichens einbettet, bekommen die einzelnen Elemente eine unterschiedliche Bedeutung.
  3. Dies soll am Beispiel von drei Semiotikern illustriert werden, die mit dem zuvor charakterisierten Zugängen zur Wirklichkeit korrespondieren: Charles William Morris (1901 – 1979), Ferdinand de Saussure (1857-1913) und Charles Santiago Sanders Peirce (1839 – 1914) .
  4. Morris, der jüngste von den Dreien, ist im Bereich eines empirischen Verhaltensansatzes zu positionieren, der dem verhaltensorientierten Ansatz der modernen empirischen Psychologie nahe kommt. In diesem verhaltensbasierten Ansatz kann man die Zeichengrundstruktur so interpretieren, dass dem Zeichenmaterial ZM etwas in der empirischen Zwischenwelt korrespondiert (z.B. ein Laut), dem Nicht-Zeichen-Material NZM etwas anderes in der empirischen Außenwelt (ein Objekt, ein Ereignis, …), und die Zeichenbeziehung Z kommt nicht in der empirischen Welt direkt vor, sondern ist im Zeichenbenutzer zu verorten. Wie diese Zeichenbeziehung Z im Benutzer tatsächlich realisiert ist, war zu seiner Zeit empirische noch nicht zugänglich und spielt für den Zeichenbegriff auch weiter keine Rolle. Auf der Basis von empirischen Verhaltensdaten kann die Psychologie beliebige Modellannahmen über die inneren Zustände des handelnden Systems machen. Sie müssen nur die Anforderung erfüllen, mit den empirischen Verhaltensdaten kompatibel zu sein. Ein halbes Jahrhundert nach Morris kann man anfangen, die psychologischen Modellannahmen über die Systemzustände mit neurowissenschaftlichen Daten abzugleichen, sozusagen in einem integrierten interdisziplinären neuropsychologischen Theorieansatz.
  5. Saussure, der zweit Jüngste von den Dreien hat als Sprachwissenschaftler mit den Sprachen primär ein empirisches Objekt, er spricht aber in seinen allgemeinen Überlegungen über das Zeichen in einer bewusstseinsorientierten Weise. Beim Zeichenmaterial ZM spricht er z.B. von einem Lautbild als einem Phänomen des Bewusstseins, entsprechend von dem Nicht-Zeichenmaterial auch von einer Vorstellung im Bewusstsein. Bezüglich der Zeichenbeziehung M stellt er fest, dass diese außerhalb des Bewusstseins liegt; sie wird vom Gehirn bereit gestellt. Aus Sicht des Bewusstseins tritt diese Beziehung nur indirekt in Erscheinung.
  6. Peirce, der älteste von den Dreien, ist noch ganz in der introspektiven, phänomenologischen Sicht verankert. Er verortet alle drei Komponenten der Zeichen-Grundstruktur im Bewusstsein. So genial und anregend seine Schriften im einzelnen sind, so führt diese Zugangsweise über das Bewusstsein zu großen Problemen in der Interpretation seiner Schriften (was sich in der großen Bandbreite der Interpretationen ausdrückt wie auch in den nicht selten geradezu widersprüchlichen Positionen).
  7. Für das weitere Vorgehen wird in diesem Vortrag der empirische Standpunkt (Verhalten + Gehirn) gewählt und dieser wird mit der Position der künstlichen Intelligenz ins Gespräch gebracht. Damit wird der direkte Zugang über das Bewusstsein nicht vollständig ausgeschlossen, sondern nur zurück gestellt. In einer vollständigen Theorie müsste man auch die nicht-empirischen Bewusstseinsdaten integrieren.

SPRACHSPIEL

  1. Ergänzend zu dem bisher Gesagten müssen jetzt noch drei weitere Begriffe eingeführt werden, um alle Zutaten für das neue Paradigma Semiotik & KI zur Verfügung zu haben. Dies sind die Begriffe Sprachspiel, Intelligenz sowie Lernen.
  2. Der Begriff Sprachspiel wird auch von Luc Steels bei seinen Roboterexperimenten benutzt. Über den Begriff des Zeichens hinaus erlaubt der Begriff des Sprachspiels den dynamischen Kontext des Zeichengebrauchs besser zu erfassen.
  3. Steels verweist als Quelle für den Begriff des Sprachspiels auf Ludwig Josef Johann Wittgenstein (1889-1951), der in seiner Frühphase zunächst die Ideen der modernen formalen Logik und Mathematik aufgriff und mit seinem tractatus logico philosophicus das Ideal einer am logischen Paradigma orientierten Sprache skizzierte. Viele Jahre später begann er neu über die normale Sprache nachzudenken und wurde sich selbst zum schärfsten Kritiker. In jahrelangen Analysen von alltäglichen Sprachsituationen entwickelte er ein facettenreiches Bild der Alltagssprache als ein Spiel, in dem Teilnehmer nach Regeln Zeichenmaterial ZM und Nicht-Zeichen-Material NZM miteinander verknüpfen. Dabei spielt die jeweilige Situation als Kontext eine Rolle. Dies bedeutet, das gleiche Zeichenmaterial kann je nach Kontext unterschiedlich wirken. Auf jeden Fall bietet das Konzept des Sprachspiels die Möglichkeit, den ansonsten statischen Zeichenbegriff in einen Prozess einzubetten.
  4. Aber auch im Fall des Sprachspielkonzepts benutzt Steels zwar den Begriff Sprachspiel, reflektiert ihn aber nicht soweit, dass daraus ein explizites übergreifendes theoretisches Paradigma sichtbar wird.
  5. Für die Vision eines neuen Forschungsparadigmas Semiotik & KI soll also in der ersten Phase die Grundstruktur des Zeichenbegriffs im Kontext der empirischen Wissenschaften mit dem Sprachspielkonzept von Wittgenstein (1953) verknüpft werden.

INTELLIGENZ

  1. Im Vorfeld eines Workshops der Intelligent Systems Division des NIST 2000 gab es eine lange Diskussion zwischen vielen Beteiligten, wie man denn die Intelligenz von Maschinen messen sollte. In meiner Wahrnehmung verhedderte sich die Diskussion darin, dass damals nach immer neuen Klassifikationen und Typologien für die Architektur der technischen Systeme gesucht wurde, anstatt das zu tun, was die Psychologie schon seit fast 100 Jahren getan hatte, nämlich auf das Verhalten und dessen Eigenschaften zu schauen. Ich habe mich in den folgenden Jahren immer wieder mit der Frage des geeigneten Standpunkts auseinandergesetzt. In einem Konferenzbeitrag von 2010 (zusammen mit anderen, insbesondere mit Louwrence Erasmus) habe ich dann dafür argumentiert, das Problem durch Übernahme des Ansatzes der Psychologie zu lösen.
  2. Die Psychologie hatte mit Binet (1905), Stern (1912 sowie Wechsler (1939) eine grundsätzliche Methode gefunden hatte, die Intelligenz, die man nicht sehen konnte, indirekt durch Rückgriff auf Eigenschaften des beobachtbaren Verhaltens zu messen (bekannt duch den Begriff des Intelligenz-Quotienten, IQ). Die Grundidee bestand darin, dass zu einer bestimmten Zeit in einer bestimmten Kultur bestimmte Eigenschaften als charakteristisch für ein Verhalten angesehen werden, das man allgemein als intelligent bezeichnen würde. Dies impliziert zwar grundsätzlich eine gewisse Relativierung des Begriffs Intelligenz (was eine Öffnung dahingehend impliziert, dass zu anderen Zeiten unter anderen Umständen noch ganz neue Eigenschaftskomplexe bedeutsam werden können!), aber macht Intelligenz grundsätzlich katalogisierbar und damit messbar.
  3. Ein Nebeneffekt der Bezugnahme auf Verhaltenseigenschaften findet sich in der damit möglichen Nivellierung der zu messenden potentiellen Strukturen in jenen Systemen, denen wir Intelligenz zusprechen wollen. D.h. aus Sicht der Intelligenzmessung ist es egal ob das zu messende System eine Pflanze, ein Tier, ein Mensch oder eine Maschine ist. Damit wird – zumindest im Rahmen des vorausgesetzten Intelligenzbegriffs – entscheidbar, ob und in welchem Ausmaß eine Maschine möglicherweise intelligent ist.
  4. Damit eignet sich dieses Vorgehen auch, um mögliche Vergleiche zwischen menschlichem und maschinellem Verhalten in diesem Bereich zu ermöglichen. Für das Projekt des Semiotk & KI-Paradigmas ist dies sehr hilfreich.

LERNEN

  1. An dieser Stelle ist es wichtig, deutlich zu machen, dass Intelligenz nicht notwendigerweise ein Lernen impliziert und Lernen nicht notwendigerweise eine Intelligenz! Eine Maschine (z.B. ein schachspielender Computer) kann sehr viele Eigenschaften eines intelligenten Schachspielers zeigen (bis dahin, dass der Computer Großmeister oder gar Weltmeister besiegen kann), aber sie muss deswegen nicht notwendigerweise auch lernfähig sein. Dies ist möglich, wenn erfahrene Experten hinreichend viel Wissen in Form eines geeigneten Programms in den Computer eingeschrieben haben, so dass die Maschine aufgrund dieses Programms auf alle Anforderungen sehr gut reagieren kann. Von sich aus könnte der Computer dann nicht dazu lernen.
  2. Bei Tieren und Menschen (und Pflanzen?) gehen wir von einer grundlegenden Lernfähigkeit aus. Bezogen auf das beobachtbare Verhalten können wir die Fähigkeit zu Lernen dadurch charakterisieren, dass ein System bis zu einem Zeitpunkt t bei einem bestimmten Reiz s nicht mit einem Verhalten r antwortet, nach dem Zeitpunkt t aber dann plötzlich doch, und dieses neue Verhalten über längere Zeit beibehält. Zeigt ein System eine solche Verhaltensdynamik, dann darf man unterstellen, dass das System in der Lage ist, seine inneren Zustände IS auf geeignete Weise zu verändern (geschrieben: phi: I x IS —> IS x O (mit der Bedeutung I := Input (Reize, Stimulus s), O := Output (Verhaltensantworten, Reaktion r), IS := interne Zustände, phi := Name für die beobachtbare Dynamik).
  3. Verfügt ein System über solch eine grundlegende Lernfähigkeit (die eine unterschiedlich reiche Ausprägung haben kann), dann kann es sich im Prinzip alle möglichen Verhaltenseigenschaften aneignen/ erwerben/ erlernen und damit im oben beschriebenen Sinne intelligent werden. Allerdings gibt es keine Garantie, dass eine Lernfähigkeit notwendigerweise zu einer bestimmten Intelligenz führen muss. Viele Menschen, die die grundsätzliche Fähigkeit besitzen, Schachspielen oder Musizieren oder Sprachen zu lernen,  nutzen diese ihre Fähigkeiten niemals aus; sie verzichten damit auf Formen intelligenten Verhaltens, die ihnen aber grundsätzlich offen stehen.
  4. Wir fordern also, dass die Lernfähigkeit Teil des Semiotik & KI-Paradigmas sein soll.

LERNENDE MASCHINEN

  1. Während die meisten Menschen heute Computern ein gewisses intelligentes Verhalten nicht absprechen würden, sind sie sich mit der grundlegenden Lernfähigkeit unsicher. Sind Computer im echten Sinne (so wie junge Tiere oder menschliche Kinder) lernfähig?
  2. Um diese Frage grundsätzlich beantworten zu können, müsste man ein allgemeines Konzept von einem Computer haben, eines, das alle heute und in der Zukunft existierende und möglicherweise in Existenz kommende Computer in den charakteristischen Eigenschaften erschöpfend beschreibt. Dies führt zur Vor-Frage nach dem allgemeinsten Kriterium für Computer.
  3. Historisch führt die Frage eigentlich direkt zu einer Arbeit von Turing (1936/7), in der er den Unentscheidbarkeitsbeweis von Kurt Gödel (1931) mit anderen Mitteln nochmals nachvollzogen hatte. Dazu muss man wissen, dass es für einen formal-logischen Beweis wichtig ist, dass die beim Beweis zur Anwendung kommenden Mittel, vollständig transparent sein müssen, sie müssen konstruktiv sein, was bedeutet, sie müssen endlich sein oder effektiv berechenbar. Zum Ende des 19.Jh und am Anfang des 20.Jh gab es zu dieser Fragestellung eine intensive Diskussion.
  4. Turing wählte im Kontrast zu Gödel keine Elemente der Zahlentheorie für seinen Beweis, sondern nahm sich das Verhalten eines Büroangestellten zum Vorbild: jemand schreibt mit einem Stift einzelne Zeichen auf ein Blatt Papier. Diese kann man einzeln lesen oder überschreiben. Diese Vorgabe übersetze er in die Beschreibung einer möglichst einfachen Maschine, die ihm zu Ehren später Turingmaschine genannt wurde (für eine Beschreibung der Elemente einer Turingmaschine siehe HIER). Eine solche Turingmaschine lässt sich dann zu einer universellen Turingmaschine [UTM] erweitern, indem man das Programm einer anderen (sekundären) Turingmaschine auf das Band einer primären Turingmaschine schreibt. Die primäre Turingmaschine kann dann nicht nur das Programm der sekundären Maschine ausführen, sondern kann es auch beliebig abändern.
  5. In diesem Zusammenhang interessant ist, dass der intuitive Begriff der Berechenbarkeit Anfang der 30ige Jahre des 20.Jh gleich dreimal unabhängig voneinander formal präzisiert worden ist (1933 Gödel und Herbrand definierten die allgemein rekursiven Funktionen; 1936 Church den Lambda-Kalkül; 1936 Turing die a-Maschine für ‚automatische Maschine‘, später Turing-Maschine). Alle drei Formalisierungen konnten formal als äquivalent bewiesen werden. Dies führte zur sogenannten Church-Turing These, dass alles, was effektiv berechnet werden kann, mit einem dieser drei Formalismen (also auch mit der Turingmaschine) berechnet werden kann. Andererseits lässt sich diese Church-Turing These selbst nicht beweisen. Nach nunmehr fast 80 Jahren nimmt aber jeder Experte im Feld an, dass die Church-Turing These stimmt, da bis heute keine Gegenbeispiele gefunden werden konnten.
  6. Mit diesem Wissen um ein allgemeines formales Konzept von Computern kann man die Frage nach der generellen Lernfähigkeit von Computern dahingehend beantworten, dass Computer, die Turing-maschinen-kompatibel sind, ihre inneren Zustände (im Falle einer universellen Turingmaschine) beliebig abändern können und damit die Grundforderung nach Lernfähigkeit erfüllen.

LERNFÄHIGE UND INTELLIGENTE MASCHINEN?

  1. Die Preisfrage stellt sich, wie eine universelle Turingmaschine, die grundsätzlich lernfähig ist, herausfinden kann, welche der möglichen Zustände interessant genug sind, um damit zu einem intelligenten Verhalten zu kommen?
  2. Diese Frage nach der möglichen Intelligenz führt zur Frage der verfügbaren Kriterien für Intelligenz: woher soll eine lernfähige Maschine wissen, was sie lernen soll?
  3. Im Fall biologischer Systeme wissen wir mittlerweile, dass die lernfähigen Strukturen als solche dumm sind, dass aber durch die schiere Menge an Zufallsexperimenten ein Teil dieser Experimente zu Strukturen geführt hat, die bzgl. bestimmter Erfolgskriterien besser waren als andere. Durch die Fähigkeit, die jeweils erfolgreichen Strukturen in Form von Informationseinheiten zu speichern, die dann bei der nächsten Reproduktion erinnert werden konnten, konnten sich die relativen Erfolge behaupten.
  4. Turing-kompatible Computer können speichern und kodieren, sie brauchen allerdings noch Erfolgskriterien, um zu einem zielgerichtete Lernen zu kommen.

LERNENDE SEMIOTISCHE MASCHINEN

  1. Mit all diesen Zutaten kann man jetzt lernende semiotische Maschinen konstruieren, d.h. Maschinen, die in der Lage sind, den Gebrauch von Zeichen im Kontext eines Prozesses, zu erlernen. Das dazu notwendige Verhalten gilt als ein Beispiel für intelligentes Verhaltens.
  2. Es ist hier nicht der Ort, jetzt die Details solcher Sprach-Lern-Spiele auszubreiten. Es sei nur soviel gesagt, dass man – abschwächend zum Paradigma von Steels – hier voraussetzt, dass es schon mindestens eine Sprache L und einen kundigen Sprachteilnehmer gibt (der Lehrer), von dem andere Systeme (die Schüler), die diese Sprache L noch nicht kennen, die Sprache L lernen können. Diese Schüler können dann begrenzt neue Lehrer werden.
  3. Zum Erlernen (Training) einer Sprache L benötigt man einen definierten Kontext (eine Welt), in dem Lehrer und Schüler auftreten und durch Interaktionen ihr Wissen teilen.
  4. In einer Evaluationsphase (Testphase), kann dann jeweils überprüft werden, ob die Schüler etwas gelernt haben, und wieviel.
  5. Den Lernerfolge einer ganzen Serie von Lernexperimenten (ein Experiment besteht aus einem Training – Test Paar) kann man dann in Form einer Lernkurve darstellen. Diese zeigt entlang der Zeitachse, ob die Intelligenzleistung sich verändert hat, und wie.
  6. Gestaltet man die Lernwelt als eine interaktive Softwarewelt, bei der Computerprogramme genauso wie Roboter oder Menschen mitwirken können, dann kann man sowohl Menschen als Lehrer benutzen wie auch Menschen im Wettbewerb mit intelligenten Maschinen antreten lassen oder intelligente Maschinen als Lehrer oder man kann auch hybride Teams formen.
  7. Die Erfahrungen zeigen, dass die Konstruktion von intelligenten Maschinen, die menschenähnliche Verhaltensweisen lernen sollen, die konstruierenden Menschen dazu anregen, ihr eigenes Verhalten sehr gründlich zu reflektieren, nicht nur technisch, sondern sogar philosophisch.

EMERGING MIND PROJEKT

  1. Die zuvor geschilderten Überlegungen haben dazu geführt, dass ab 10.November 2015 im INM Frankfurt ein öffentliches Forschungsprojekt gestartet werden soll, das Emerging Mind Projekt heißt, und das zum Ziel hat, eine solche Umgebung für lernende semiotische Maschinen bereit zu stellen, mit der man solche semiotischen Prozesse zwischen Menschen und lernfähigen intelligenten Maschinen erforschen kann.

QUELLEN

  • Binet, A., Les idees modernes sur les enfants, 1909
  • Doeben-Henisch, G.; Bauer-Wersing, U.; Erasmus, L.; Schrader,U.; Wagner, W. [2008] Interdisciplinary Engineering of Intelligent Systems. Some Methodological Issues. Conference Proceedings of the workshop Modelling Adaptive And Cognitive Systems (ADAPCOG 2008) as part of the Joint Conferences of SBIA’2008 (the 19th Brazilian Symposium on Articial Intelligence); SBRN’2008 (the 10th Brazilian Symposium on Neural Networks); and JRI’2008 (the Intelligent Robotic Journey) at Salvador (Brazil) Oct-26 – Oct-30(PDF HIER)
  • Gödel, K. Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I, In: Monatshefte Math.Phys., vol.38(1931),pp:175-198
  • Charles W. Morris, Foundations of the Theory of Signs (1938)
  • Charles W. Morris (1946). Signs, Language and Behavior. New York: Prentice-Hall, 1946. Reprinted, New York: George Braziller, 1955. Reprinted in Charles Morris, Writings on the General Theory of Signs (The Hague: Mouton, 1971), pp. 73-397. /* Charles William Morris (1901-1979) */
  • Charles W. Morris, Signication and Signicance (1964)
  • NIST: Intelligent Systems Division: http://www.nist.gov/el/isd/
  • Winfried Noth: Handbuch der Semiotik. 2., vollständig neu bearbeitete Auflage. Metzler, Stuttgart/Weimar 2000
  • Charles Santiago Sanders Peirce (1839-1914) war ein US-amerikanischer Mathematiker, Philosoph und Logiker. Peirce gehort neben William James und John Dewey zu den maßgeblichen Denkern des Pragmatismus; außerdem gilt er als Begründer der modernen Semiotik. Zur ersten Einführung siehe: https://de.wikipedia.org/wiki/Charles Sanders Peirce Collected Papers of Charles Sanders Peirce. Bände I-VI hrsg. von Charles Hartshorne und Paul Weiss, 1931{1935; Bände VII-VIII hrsg. von Arthur W. Burks 1958. University Press, Harvard, Cambridge/Mass. 1931{1958
  • Writings of Charles S. Peirce. A Chronological Edition. Hrsg. vom Peirce Edition Project. Indiana University Press,Indianapolis, Bloomington 1982. (Bisher Bände 1{6 und 8, geplant 30 Bände)
  • Saussure, F. de. Grundfragen der Allgemeinen Sprachwissenschaft, 2nd ed., German translation of the original posthumously publication of the Cours de linguistic general from 1916 by H.Lommel, Berlin: Walter de Gruyter & Co., 1967
  • Saussure, F. de. Course in General Linguistics, English translation of the original posthumously publication of the Cours de linguistic general from 1916, London: Fontana, 1974
  • Saussure, F. de. Cours de linguistique general, Edition Critique Par Rudolf Engler, Tome 1,Wiesbaden: Otto Harrassowitz, 1989 /*This is the critical edition of the dierent sources around the original posthumously publication of the Cours de linguistic general from 1916. */
  • Steels, Luc (1995): A Self-Organizing Spatial Vocabulary. Articial Life, 2(3), S. 319-332
  • Steels, Luc (1997): Synthesising the origins of language and meaning using co-evolution, self-organisation and level formation. In: Hurford, J., C.Knight und M.Studdert-Kennedy (Hrsg.). Edinburgh: Edinburgh Univ. Press.

  • Steels, Luc (2001): Language Games for Autonomous Robots. IEEE Intelligent Systems, 16(5), S. 16-22. Steels, Luc (2003):

  • Evolving grounded Communication for Robots. Trends in Cognitive Science, 7(7), S. 308-312.

  • Steels, Luc (2003): Intelligence with Representation. Philosophical Transactions of the Royal Society A, 1811(361), S. 2381-2395.

  • Steels, Luc (2008): The symbol grounding problem has been solved, so what’s next?. In M. de Vega, Symbols and Embodiment: Debates on Meaning and Cognition. Oxford: Oxford University Press, S. 223-244.
  • Steels, Luc (2012): Grounding Language through Evolutionary Language Games. In: Language Grounding in Robots. Springer US, S. 1-22.

  • Steels, Luc (2015), The Talking Heads experiment: Origins of words and meanings, Series: Computational Models of Language Evolution 1. Berlin: Language Science Press.
  • Stern, W., Die psychologischen Methoden der Intelligenzprüfung und deren Anwendung an Schulkindern, Leipzig: Barth, 1912

  • Turing, A. M. On Computable Numbers with an Application to the Entscheidungsproblem. In: Proc. London Math. Soc., Ser.2, vol.42(1936), pp.230-265; received May 25, 1936; Appendix added August 28; read November 12, 1936; corr. Ibid. vol.43(1937), pp.544-546. Turing’s paper appeared in Part 2 of vol.42 which was issued in December 1936 (Reprint in M.DAVIS 1965, pp.116-151; corr. ibid. pp.151-154).(an online version at: http://www.comlab.ox.ac.uk/activities/ieg/elibrary/sources/tp2-ie.pdf, last accesss Sept-30, 2012)

  • Turing, A.M. Computing machinery and intelligence. Mind, 59, 433-460. 1950

  • Turing, A.M.; Intelligence Service. Schriften, ed. by Dotzler, B.; Kittler, F.; Berlin: Brinkmann & Bose, 1987, ISBN 3-922660-2-3

  • Vogt, P. The physical symbol grounding problem, in: Cognitive Systems Research, 3(2002)429-457, Elsevier Science B.V.
  • Vogt, P.; Coumans, H. Investigating social interaction strategies for bootstrapping lexicon development, Journal of Articial Societies and Social Simulation 6(1), 2003

  • Wechsler, D., The Measurement of Adult Intelligence, Baltimore, 1939, (3. Auage 1944)

  • Wittgenstein, L.; Tractatus Logico-Philosophicus, 1921/1922 /* Während des Ersten Weltkriegs geschrieben, wurde das Werk 1918 vollendet. Es erschien mit Unterstützung von Bertrand Russell zunächst 1921 in Wilhelm Ostwalds Annalen der Naturphilosophie. Diese von Wittgenstein nicht gegengelesene Fassung enthielt grobe Fehler. Eine korrigierte, zweisprachige Ausgabe (deutsch/englisch) erschien 1922 bei Kegan Paul, Trench, Trubner und Co. in London und gilt als die offizielle Fassung. Die englische Übersetzung stammte von C. K. Ogden und Frank Ramsey. Siehe einführend Wikipedia-DE: https://de.wikipedia.org/wiki/Tractatus logicophilosophicus*/

  • Wittgenstein, L.; Philosophische Untersuchungen,1936-1946, publiziert 1953 /* Die Philosophischen Untersuchungen sind Ludwig Wittgensteins spätes, zweites Hauptwerk. Es übten einen außerordentlichen Einfluss auf die Philosophie der 2. Hälfte des 20. Jahrhunderts aus; zu erwähnen ist die Sprechakttheorie von Austin und Searle sowie der Erlanger Konstruktivismus (Paul Lorenzen, Kuno Lorenz). Das Buch richtet sich gegen das Ideal einer logik-orientierten Sprache, die neben Russell und Carnap Wittgenstein selbst in seinem ersten Hauptwerk vertreten hatte. Das Buch ist in den Jahren 1936-1946 entstanden, wurde aber erst 1953, nach dem Tod des Autors, veröffentlicht. Siehe einführend Wikipedia-DE: https://de.wikipedia.org/wiki/Philosophische Untersuchungen*/

Eine Übersicht über alle Blogeinträge des Autors cagent nach Titeln findet sich HIER

PHILOSOPHIEWERKSTATT VOM 11.Januar 2014 – Rückblick – Lernen braucht Wissen und Emotionen

Letzte Änderung: Mo 12.Jan.2014 (Strukturierung, Am Ende Ausblick mit Terminen und Programmvorschlag)

ZUSAMMENFASSUNG

1) Mittlerweile liegt die dritte PHILOSOPHIEWERKSTATT 11.Jan.2014 hinter uns. Wie schon die letzten Male waren es sehr intensive Gespräche, die entstanden. Das tatsächliche Programm wich vom Plan ein wenig ab. Der Rückblick verlief wie geplant, war aber in sich schon ziemlich intensiv. Es gab dann eine längere Pause mit Essen, Trinken und viel Reden. Es folgte dann der neue Input zum Thema ‚Sind Emotionen (im weitesten Sinne) für ein Lernen notwendig?‘. Damit knüpften wir nochmals an das gemeinsame Brainatorming vom 14.Dez.2013 an; außerdem passte es gut zum Rückblick.
2) Kurz zusammengefasst waren die Überlegungen etwa wie folgt: bei einem komplexen System wie einem Tier oder gar einem Menschen ist eine klare Beschreibung von ‚Wissen‘ und ‚Emotionen (i.w.S.)‘ schwer bis unmöglich. Die meisten Menschen haben zum Thema zwar eine Meinung in ihrem Alltag, aber bei genaueren Nachfragen ist es kaum möglich, zu klären, was jemand meint, wenn er nach seinem ‚Bauchgefühl‘ entscheidet: Wann tut er das? Wie? Gibt es Unterschiede? usw. Dass stark Emotionen das Verhalten allgemein und das Lernen insbesondere beeinflussen können, scheint aufgrund der Alltagserfahrung klar zu sein.

EXPERIMENT ZU ‚EMOTION UND WISSEN‘

3) Die Frage ist also, ob es ein Experiment geben könnte, das einfach genug ist, und doch so, dass man alle beteiligten Komponenten ‚klar‘ verstehen und kontrollieren kann, das zugleich aber noch aussagekräftig genug ist, um zum Verhältnis von ‚Wissen‘ und Emotionen‘ etwas sagen zu können.

PSYCHOLOGIE UND INFORMATIK

4) Der Vortragende wählte dazu eine Kombination aus Psychologie und Informatik. Die Psychologen haben zu Beginn des 20.Jahrhunderts gelernt, wie sie ‚Intelligenz‘ messen können, ohne zu wissen, was ‚Intelligenz‘ in einem Lebewesen genau ist. Die Methode, die ‚Intelligenz‘ eines Systems durch Bezugnahme auf das Verhalten bei der Lösung einer Menge von Aufgaben zu beschreiben, dadurch zu quantifizieren, und damit ‚vergleichbar‘ zu machen, ist nicht auf Menschen beschränkt. Man kann damit auch Tiere messen und auch — heute — Computer. Damit könnte man bezogen auf ein definiertes Aufgabenset feststellen, in welchem Ausmaß ein Computer und ein Menschen ‚verhaltensmäßig übereinstimmen‘ oder nicht.

COMPUTER: WAS IST DAS?

5) Bei dieser Gelegenheit gab es einen Hinweis auf den Begriff ‚Computer‘. Die meisten Menschen verbinden mit dem Begriff ‚Computer‘ die konkreten Geräte, mit denen man im Alltag arbeitet (Smartphones, Tablets, eReader, PCs,…). Dies ist nicht ganz falsch, da alle diese Geräte beispielhafte Realisierungen des abstrakten Konzeptes eines berechnenden Automaten sind, das historisch bedeutsam im Kontext des Grundlagenstreits der Mathematik zu Beginn des 20.Jahrhunderts von Turing 1936/7 in die Diskussion eingeführt worden ist. Er hatte versucht, den Beweis von Gödel von 1931, zu den Grenzen der Entscheidbarkeit mathematischer Theorien, mit anderen Mitteln als Gödel sie benutzt hatte, vorzunehmen, um den Beweis dadurch möglicherweise verständlicher zu machen (was Gödel persönlich auch so sah; Gödel war nämlich mit seinem eigenen Beweis unzufrieden gewesen, und hatte Turings Lösungsansatz in einer Rede in Princeton ausdrücklich als ‚verständlicher‘ gelobt). Am Beispiel eines Büroangestellten, der mit einem Schreibstift auf einem Blatt Papier seine Zahlen notiert und rechnet, hatte Gödel das Konzept der maximal einfachen Maschine für maximal komplexe Aufgaben formuliert, die alles, was mit endlichen Mitteln berechenbar ist, berechnen kann. Später wurde diese seine abstrakte Maschine ihm zu Ehren Turingmaschine genannt. Während eine Turingmaschine duch die Unendlichkeit des Schreib-Lesebandes letztlich einen unendlich großen Speicher besitzt, hat jede konkrete gebaute Maschine, die wie eine Turingmaschine arbeitet, immer nur einen endlichen Speicher. In diesem Sinne kann ein realer Computer die Leistung einer idealen Turingmaschine immer nur annähern.
6) Was ein Computer im Stil einer Turingmaschine letztlich alles ‚tun‘ kann, hängt davon ab, wie man ihn programmiert. Bislang werden Programme für bestimmte klar umrissene Aufgaben geschrieben, und man erwartet, dass das Programm in einer bestimmten Situation genau das tut, was man von ihm erwartet (einen Text schreiben; Bremsen, wenn man auf das Bremspedal tritt; einen Alarm geben, wenn ein bestimmter Wert gefährlich überschritten wird; usw.). Programme, die in diesem Sinne ‚erwartungskonform‘ sind, sind ‚deterministisch‘, sind ‚reaktiv‘, d.h. sie sind in ihrem Verhalten genau festgelegt. Dass die meisten Menschen vor diesem Alltagshintergrund davon ausgehen, dass Computer ja eigentlich ‚dumm‘ sind, ist nachvollziehbar.
7) Allerdings ist dieser Eindruck auch irreführend, denn Computer ‚als solche‘ können im Prinzip alles, was ‚berechenbar‘ ist, d.h. auch ‚Denken‘, ‚Fühlen‘, usw., wenn man sie nur ‚lässt‘. Die meisten übersehen, dass wir Menschen alle unsere wunderbaren Eigenschaften nicht haben, weil wir sie ‚gelernt‘ haben, sondern weil unser Körper und unser Gehirn in bestimmter Weise so vorgeprägt ist, dass wir überhaupt ‚Wahrnehmen‘, ‚Erinnern‘, ‚Denken‘ usw. können.

Experimenteller Rahmen, offen für Philosophie, Psychologie und Neurowissenschaften
Experimenteller Rahmen, offen für Philosophie, Psychologie und Neurowissenschaften

OFFENE SYSTEME, REAKTIV UND ADAPTIV

8) Die strukturellen Gemeinsamkeiten zwischen uns Menschen und einem möglichen Computer werden deutlich, wenn man sowohl Menschen als auch Computer abstrakt als ‚Input-Output-Systeme‘ betrachtet. Sowohl vom Menschen wie auch vom Computer können wir annehmen, dass sie auf spezifische Weise Ereignisse aus der ‚Umgebung‘ (der ‚Welt‘ (W)) aufnehmen können (Sinnesorgane, Sensoren, Leseband), die wir hier abstrakt einfach als ‚Systeminput‘ oder einfach ‚Input‘ (I) bezeichnen. Genauso können wir annehmen, dass Menschen wie Computer auf die Welt (W) zurückwirken können (über diverse Aktoren, Schreibband). Die Menge dieser Rückwirkungen bezeichnen wir hier als ‚Output‘ (O). Ferner gehen wir immer davon aus, dass es zwischen dem beobachtbaren Output ‚O‘ und dem beobachtbaren Input ‚I‘ einen irgendwie gearteten ‚gesetzmäßigen‘ oder ‚regelhaften‘ Zusammenhang gibt, den wir hier einfach ‚phi‘ nennen, also ‚phi‘ ordnet dem Input ‚I‘ auf spezifische Weise einen bestimmten Output ‚O‘ zu. Die Mathematiker sprechen in diesem Zusammenhang von einer ‚Abbildung‘ oder ‚Funktion‘, geschrieben z.B. als ‚phi: I —> O‘. Die Informatiker sprechen von einem ‚Algorithmus‘ oder einem ‚Programm‘. Gemeint ist in allen Fällen das Gleiche.
9) In der Form ‚phi‘ ordnet dem Input ‚I‘ einen Output ‚O‘ zu wissen wir so gut wie nichts über die innere Struktur des Systems. Dies ändert sich, wenn wir zusätzlich den Begriff ‚innere Zustände‘ (‚inner states‘, IS) einführen. Damit können wir das Reden über ein System nahezu beliebig verfeinern. Diese inneren Zustände ‚IS‘ können ‚Neuronen‘ sein, ‚Erlebnisse‘ (‚Qualia‘), chemische Prozesse, was immer man braucht. Die Einbeziehung der inneren Zustände ‚IS‘ erlaubt sogleich einige interessante Differenzierungen.
10) Zunächst mal können wir unsere Redeweise erweitern zu ‚phi‘ ordnet einem Input ‚I‘ mit Hilfe der aktuellen inneren Zustände ‚IS‘ einen entsprechenden Output ‚O‘ zu, phi: I x IS —> O. Das heißt, die inneren Zustände ‚IS‘, was immer diese im einzelnen genau sind, sind ‚mitursächlich‘ dafür, dass dieser bestimmte Output ‚O‘ zustande kommt. Bsp: Wenn ich bei einem Getränkeautomaten ein Getränk auswähle, das geforderte Geld einwerfe und dann auf Ausführung drücke, dann wird der Automat (falls er nicht ‚defekt‘ ist) mir das gewählte Getränk ausgeben. Er wird immer nur das tun, und nichts anderes.
11) Von lernenden Systemen wie Tieren oder Menschen wissen wir, dass ihre Reaktionen (ihr Output ‚O‘) sich im Laufe der Zeit ändern können, weil sie ‚durch Lernen‘ ihre inneren Zustände ‚IS‘ ändern können. In diesem Fall müssten wir von der Verhaltensfunktion ‚phi‘ sagen: ‚phi‘ ordnet dem aktuellen Input ‚I‘ und unter Berücksichtigung der aktuellen internen Zustände ‚IS‘ nicht nur einen bestimmten Output ‚O‘ zu, sondern kann auch dabei gleichzeitig seine eigenen internen Zustände ‚IS‘ in spezifischer Weise ‚ändern‘, also phi: I x IS —> IS x O. Ein ‚lernendes‘ System ist in diesem Sinne ’selbstveränderlich‘, ‚adaptiv‘, ‚anpassungsfähig‘ usw.
12) Der wichtige Punkt hier ist nun, dass diese adaptive Verhaltensformel ( phi: I x IS —> IS x O) nicht nur auf Tiere und Menschen anwendbar ist, sondern auch — ohne Einschränkungen — auf das Konzept des Computers. Dass wir bis heute kaum wirklich lernfähige Computer haben, liegt vor allem an zwei Gründen: (i) im Alltag wollen wir lieber ‚dumme‘ Maschinen, weil sie uns für bestimmte Zwecke klare Erwartungen erfüllen sollen; (ii) zum anderen gibt es nahezu kaum Programmierer, die wissen, wie man ein lernfähiges Programm schreibt. Der Begriff ‚Künstliche Intelligenz‘ (KI) (bzw. Engl.: ‚artificial intelligence‘ (AI)) existiert zwar seit Beginn des Denkens über und Entwickelns von Computern, aber da wir bis heute nur rudimentäre Vorstellungen davon haben, was Lernen beim Menschen bedeutet, weiß keiner so recht, wie er einen Computer programmieren soll, der die Intelligenz von Menschen hinreichend ’nachahmt‘. In einer typischen Informatikausbildung in Deutschland kommt weder Psychologie noch Neurowissenschaften vor. Dazu muss man sagen, dass die Nachfrage nach lernfähigen Computern in der Realität bislang auch gering war (in vielen Filmen über intelligente Maschinen wird das Thema ausgiebig durchgespielt; dort meist negativ besetzt: die ‚bösen‘ Maschinen, die die Menschheit ausrotten wollen).

VERSCHIEDENE SICHTEN DER WISSENSCHAFTEN

13) Im vorausgehenden Schaubild wird aber auch noch etwas anderes angedeutet, was in den vorausgegangenen Sitzungen immer wieder mal anklang: Ich kann den Menschen von verschiedenen Blickpunkten aus betrachten: (NN) Von den Neuronen des Gehirns aus (Neurowissenschaften); (SR) vom beobachtbaren Verhalten aus (Psychologie); (PHN) Von den Phänomenen des Bewusstseins aus (Philosophie, Phänomenologie), oder in Kombinationen: (NN-SR) Neuro-Psychologie; (NN-PHN) Neuro-Phänomenologie; (PHN-SR) Phänomenologische Psychologie. Das Problem hierbei ist (was sehr oft übersehen wird), dass es zwischen den drei Sehweisen NN, SR und PHN keine direkten Verbindungen gibt: Das Neuron als solches sagt nichts über das Verhalten oder über Bewusstseinstatbestände; ein beobachtbares Verhalten sagt nichts über Neuronen oder Bewusstseinstatbestände; ein bewusstes Erlebnis sagt nichts über Neuronen oder beobachtbares Verhalten. Eine Verbindung zwischen diesen verschiedenen Sehweisen herzustellen ist von daher kein Selbstläufer, sondern eine eigenständige Leistung mit hohen methodischen Anforderungen (man sollte nicht überrascht sein, wenn man ein Buch mit dem Begriff ‚Neuropsychologie‘ aufschlägt und man findet auf keiner Seite die entsprechenden methodischen Maßnahmen….).
14) Für das vorgesehene Experiment soll die verhaltensorientierte Sicht der Psychologie als Hauptperspektive gewählt werden. Andere Perspektiven werden nach Bedarf zugeschaltet.

BEWUSSTSEIN DER PHILOSOPHEN, DER PSYCHOLOGEN, der NEUROWISSENSCHAFTEN

15) Ohne auf Details einzugehen sei hier angenommen, dass die philosophische Perspektive eigentlich nur die Kategorie ‚Bewusstsein‘ (‚consciousness‘ (CNSC)) kennt und dazu unterschiedliche Annahmen darüber, warum das Bewusstsein so ist, wie es ist. Die verhaltensbasierte Psychologie hat eine ganze Bandbreite von Denkmodellen entwickelt, die mögliche ‚Funktionen‘ im System beschreiben. Dazu gehören recht umfangreiche Modelle zu unterschiedlichen Gedächtnisformen wie z.B. ‚Sensorisch‘ (’sensorical memory‘, (SM)), ‚Kurzzeitspeicher’/ ‚Arbeitsspeicher‘ (’short term memory‘ (STM)) und ‚Langzeitspeicher‘ (‚long term memory‘ (LTM)). Letzteres mit sehr differenzierten Teilstrukturen). Heutzutage wird eine starke Korrelation zwischen dem philosophischen Konzept ‚Bewusstsein‘ und dem psychologischen Konzept ‚Arbeitsgedächtnis‘ angenommen. Die Neurowissenschaften entdecken immer mehr Funktionale Schaltkreise im Gehirn, die wiederum auf unterschiedliche Weise (Ebenen, Hierarchien) angeordnet sind. So gibt es funktionale Schaltkreise auf einer hohen integrativen Ebene, deren Korrelation mit dem psychologischen Konzept ‚Arbeitsgedächtnis‘ und dem philosophischen Konzept ‚Bewusstsein‘ korrelieren. Doch sind diese Sachverhalte sehr komplex und keinesfalls eindeutig. Für das nachfolgende Experiment spielt dies keine Rolle. Es orientiert sich am beobachtbaren Verhalten und ist bzgl. der internen Mechanismen, die das Verhalten hervorbringen, ’neutral‘.

EXPERIMENTELLER RAHMEN (UNVOLLSTÄNDIG)

16) Der äußere Rahmen des Experiments ist jetzt also eine Welt ‚W‘, in der das lernende System ‚LS‘ irgendwelche ‚Aufgaben‘ lösen muss. Für die Erreichung einer Lösung benötigt das lernende System ‚Wissen‘. Wie dann gezeigt werden soll, reicht Wissen alleine aber nicht aus. Neben ‚Wissen‘ benötigt ein lernendes System auch etwas, wodurch das Wissen ‚bewertet‘ werden kann, andernfalls kann es nicht lernen. Eine Möglichkeit, solche ‚Bewertungen‘ vornehmen zu können, sind ‚eingebaute‘ (‚intrinsische‘, ‚endogene‘, ‚angeborene’…) Zustände, die in Form von ‚Emotionen‘ (im weitesten Sinne wie z.B. ‚Hunger‘, ‚Durst‘ (= Bedürfnisse), ‚Neugierede‘, ‚Angst‘, ‚Schmerzen‘, ‚Lust’……) auftreten und das Verhalten ‚bewerten‘ können.

Fortsetzung folgt….

Die nächsten Termine für eine Philosophie-Werkstatt sind geplant für 8. Februar, 8. März, 12. April, 10. Mai, 14. Juni 2014.

Als Programmvorschlag für 8.Febr.2014 liegt vor:

  • Teil 1: In Gruppengesprächen und Plenum klären, was der Diskussionsstand ist, was fehlt, welche Themen neu addressiert werden sollen.
  • Teil 2: Fortsetzung des Themas: Wie können Emotionen helfen, dem Wissen eine handlungsfähige Struktur zu geben?
  • Teil 3: Philosophische Begründung für ein Kunstexperiment und Realisierung eines Beispiels

Einen Überblick über alle bishrigen Blogeinträge nach Titeln findet sich HIER.

REDUKTIONISMUS, EMERGENZ, KREATIVITÄT, GOTT – S.A.Kauffman – Teil 4

Vorausgehender Teil 3

NICHTVORAUSSAGBARKEIT DER WIRTSCHAFT

1. Im Kapitel ‚The Evolution of the Economy‘ (‚Die Evolution der Wirtschaft‘) (SS.150-176) beschreibt Kauffman, wie sich die bislang aufgefundenen Eigenschaften der Nichtergodizität und der Präadaptation auch im Bereich der Wirtschaft – bei ihm in Anlehnung an die ‚biosphere‘ ‚ecosphere‘ genannt – wiederfinden, mit allerlei Konsequenzen. Z.B. folgt aus der Annahme der Gültigkeit seiner Modellvorstellungen, dass eine Wirtschaft – in der Theorie – am besten gedeihen kann, wenn es eine möglichst große Vielfalt gibt. Denn dann ist die Chance zur Bildung neuer, innovativer – koevolutionärer – Lösungen am höchsten. Das System stimuliert sich dann quasi ’selbst‘, immer mehr. Zugleich folgt aus seinem Modell die prinzipielle Nichtvoraussagbarkeit der diversen Entwicklungen. (vgl.S.150f)
2. Als ein Beispiel für die Schwierigkeit der Voraussagbarkeit des wirtschaftlichen Geschehens und der Nichtreduzierbarkeit dieser Vorgänge auf die Physik führt Kauffman das berühmte Arrow-Debreu Modell des kompetitiven Gleichgewichts an (heute ein Kern der General equilibrium theory). Das Arrow-Debreu Modell wird bisweilen auch Arrow-Debreu-McKenzie Modell genannt, da neben Kenneth Arrow und Gérard Debreu später Lionel W.McKenzie einige Verbesserungen in das Modell eingebracht hatte.
3. Die Nichtreduzierbarkeit auf die Physik sieht Kauffman dadurch gegeben, dass die teilnehmenden Markt-Akteure u.a. auch mit ‚Werten‘ operieren, die sie den verschiedenen handelbaren Gütern zuordnen. Da nach Kauffman physikalische Modelle nur über reale Ereignisse in der realen Welt operieren können, folgt für ihn aus dieser Annahme die Nichtanwendbarkeit der Physik. (vgl. S.155) [Anmerkung: Wie schon früher angemerkt, hängt diese Schlussfolgerung an einer bestimmten Definition von Physik. Wenn man davon ausgeht, dass die Physik sich prinzipiell mit der ‚ganzen‘ Natur beschäftigt, dann würde sich die Physik – mit wachsenden Einsichten in die Besonderheiten der Welt – konzeptuell beständig weiter ausdehnen! Vom Selbstverständnis einer Physik her wären dann auch Akteure mit Werturteilen nicht notwendigerweise aus einer physikalischen Theoriebildung ausgeschlossen. Dann aber wären alle heute bekannten wissenschaftlichen Disziplinen nur ‚Spielarten‘ der einen Disziplin Physik. Das wirkt auch nicht sehr überzeugend. Hier stellt sich die wissenschaftstheoretische Frage nach der Abgrenzbarkeit der verschiedenen Disziplinen voneinander bzw. nach ihrer möglichen inhaltlichen Beziehung. Ich habe nicht den Eindruck, dass diese Frage bislang irgendwo nennenswert diskutiert wird. Aus ökonomischen und politischen Überlebensinteressen heraus erscheint eine erfolgreiche Abgrenzung meist erfolgversprechender als eine diffuse Vereinigung.]
4. Die Nichtanwendbarkeit der ökonomischen Modelle – und damit die Unmöglichkeit einer seriösen Voraussagbarkeit – sieht Kauffman sowohl in der Nichtvoraussagbarkeit der zu einem bestimmten Zeitpunkt tatsächlich vorhandenen Güter gegeben wie auch in der Nichtvoraussagbarkeit der zu einem bestimmten Zeitpunkt neu erfundenen Güter.(vgl. S.155) Der tiefere Grund scheint in der Unmöglichkeit zu liegen, den ökonomischen Entwicklungsprozess selbst zu modellieren.(vgl. S.156).
5. Kauffman erwähnt auch die Theorien game theory (‚Spieltheorie‘) und rational expectations (‚Rationale Erwartungen‘). In beiden Fällen sieht er eine Nichtanwendbarkeit in der Realität, da diese Theorien – wie schon im Falle der zuvor erwähnten Gleichgewichtstheorie – die zugrunde liegenden nicht voraussagbaren Entwicklungsprozesse weder beschreiben noch in Rechnung stellen können. (vgl. SS.156-158)
6. [Anmk: In der grundsätzlichen Kritik würde ich Kauffman zwar folgen, aber die Frage ist, ob man damit diesen verschiedenen Theoriebildungen gerecht wird. Insofern die genannten Theorien einen ‚totalen‘ Erklärungsanspruch erheben, muss man sie sicher kritisieren, da sonst falsche Erwartungen geweckt werden. Aber der Wert dieser Theorien liegt in der Praxis meist darin, dass die beteiligten Wissenschaftler mit Hilfe solcher Theorien (= Modellen) versuchen, ihr Verständnis der wirtschaftlichen Vorgänge zu klären und zu schärfen. Ohne solche Modelle gäbe es nur ein Grau-in-Grau von Datenfluten ohne erkennbare Strukturen. Mit solchen Modellen zeigen sich mögliche interessante Strukturen, die Anlass geben können, weiter zu denken. Und in allen drei Fällen kann man beobachten, wie diese Modellbildungen eine anhaltende Diskussion erzeugt haben und erzeugen, die zu immer weiteren Klärungen voranschreitet, einschließlich massiver Kritik, warum das Modell als Ganzes oder Teile davon nicht anwendbar sind. ]

WIRTSCHAFT UND AUTOKATALYSE

7. Nachdem Kauffman drei sehr prominente Modelle ökonomischen Geschehens in dem Punkt kritisiert hat, dass sie den allem Geschehen zugrunde liegende Prozess der Entwicklung nicht beschreiben, stellt er selbst ein Modell für solch einen Entwicklungsprozess vor. Dazu benutzt er wieder sein schon mehrfach zitiertes ‚autokatalytisches Modell‘. Die Kernidee ist ja, dass es zu einem bestimmten Zeitpunkt eine bestimmte Menge von Gütern und Akteuren gibt. Zu einem Gut gibt es entweder ein ‚komplimentäres‘ Gut (ein Auto benötigt Reifen, eine Innenausstattung, usw.) oder ein ’substituierendes‘ Gut (z.B. statt Dampfantrieb ein Elektroantrieb). Diese komplimentären und ersetzenden Möglichkeiten stehen ferner in Wechselwirkungen mit einem an Akteure gebundenen Bedarf, der seiner Natur nach in keiner Weise umfassend und erschöpfend beschrieben noch vorweg genommen werden. Man kann leicht sehen, wie diese wechselseitigen ‚Stimulationen‘ umso vielfältiger und intensiver sein können, als die aktuelle Menge an verfügbaren Gütern und erwartenden Akteuren größer und vielfältiger ist. Kauffman spricht hier von Ko-Konstruktionen bzw. Ko-Evolution. Und, so wenig dieser gesamte Prozess des sich wechselseitigen Stimulierens und Hervorbringens in irgend einer Weise voraussagbar ist, so wenig ist auch das erfinderische Verhalten der beteiligten Akteure, der Menschen, als solches voraussagbar. (SS.158-163)
8. Auf den Seiten 163-172 stellt Kauffman dann konkrete Simulationen vor, die mit Computerversionen des Modells gerechnet worden sind. Die Details spielen hier keine Rolle. Allerdings zeigt sich in diesen Simulationen, dass verschiedene Phänomene in diesem Modell einem ‚Potenzgesetz‘ (‚power law‘) folgen. Damit stellt er eine Verbindung her zum Modell der ’selbstorganisierenden Kritikalität‘ Self-organized criticality (SOC), das in der Physik entdeckt worden war zur Beschreibung komplexer Phänomene in der Natur. Er selbst konnte in Experimenten nachweisen, wie sich die Verteilung der Lebenszeit von Individuen oder die Verteilung von Aussterbensereignisse mit solch einem Modell beschreiben lassen.(vgl. S.172f) Das Modell der selbsorganisierenden Kritikalität lies sich auch anhand der Daten der Lebenszeit von Firmen nachweisen. (vgl.S.174)

GRENZEN VON COMPUTERMODELLEN ZUR VORAUSSAGE WIRTSCHAFTLICHER PROZESSE

9. Abschliessend zweifelt er daran, dass man mittels Computersimulationen wirtschaftliche Prozesse so simulieren könne, dass man daraus belastbare Vorhersagen für die Zukunft gewinnen könnte.(vgl.S.174) Nochmals zitiert er Gödel mit seinem Unvollständigkeitsbeweis und stellt mit Blick auf die ökonomischen Modelle fest, dass die Ergebnisse von Gödel im Falle der Ökonomie auf jeden Fall auch zutreffen.
10. [Anmk: Eine detaillierte Diskussion der verschiedenen von Kauffman zitierten Modelle und Theorien ist in dem hier gesetzten Rahmen einer ersten Besprechung nicht geeignet. In anderen Kontexten werde ich verschiedene dieser Modelle noch genauer untersuchen und dann bei Gelegenheit im Blog darüber berichten. Die grundsätzliche Stossrichtung der Argumentation erscheint mir aber plausibel und wichtig. In der Tat ist es die innere Logik des Prozesses selbst, die interessant ist und die daraus sich ergebende Nichtvoraussagbarkeit der nächsten Prozesschritte. Dennoch geschieht das Ganze nicht vollständig ‚planlos‘, was sich aus verschiedenen Voraussetzungen ergibt. Hier zeigt sich eine interessante Paradoxie, die weiter zu ergründen ist.]

Zur Fortsetzung siehe Teil 5

Eine Übersicht über alle bisherigen Einträge in den Blog nach Titeln findet sich HIER.

REDUKTIONISMUS, ERMERGENZ, KREATIVITÄT, GOTT – S.A.Kauffman – Teil 1

ZUSAMMENHANG MIT DEM BLOG

Letzte Korrekturen: 23.März 2013

(1)Der Zusammenhang mit dem Blog besteht darin, dass im Blog der klassische Widerspruch zwischen ‚Geist‘ auf der einen Seite und ‚Materie‘ auf der anderen von vielen Seiten neu reflektiert wird. Dabei zeigte sich u.a. dass durch die Einbeziehung der neueren Erkenntnisse über das Biologische und seiner Entstehung die Phänomene des Biologischen zu einer neuen Sicht der Materie und der Energie führen können, zu einer Sicht, die deutlich macht, dass die klassische Sicht der Physik sich immer mehr als unbefriedigend erweist. Ergänzt wurden diese Reflexionen durch frühere Einträge im Blog, in denen auch die Sicht des ‚Geistes‘ aus Sicht der Philosophie dahingehend ‚aufgebrochen‘ worden sind, dass auch die klassische Philosophie im Lichte der neueren Erkenntnisse zum Leben ihre eigenen Erkenntnisvoraussetzungen neu bedenken kann und auch muss (dies wurde spätestens seit dem Vortrag in Bremerhaven offenbar!). Zwar bedeutet die Einbeziehung naturwissenschaftlicher Erkenntnisse eine ‚Verletzung‘ des klassischen philosophischen – und insbesondere des phänomenologischen – Paradigmas, aber es bedeutet keine vollständige Auflösung noch gar eine ‚Zerstörung‘ der Philosophie, sondern – möglicherweise – eine notwendige ‚Erneuerung‘, die schließlich dazu führen kann, die unselige Trennung zwischen Geistes- und Naturwissenschaften aufzuheben. Diese Trennung erscheint im neuen Denken als ein ‚Artefakt‘ des klassischen Denkens aufgrund falscher Voraussetzungen.
(2) Diese veränderte Sicht auf das Verhältnis zwischen ‚Geist‘ und ‚Materie/ Energie‘ wirkt sich auch aus auf eine veränderte Sicht zum Glauben an das mit ‚Gott‘ Gemeinte, zur Rolle der Religionen und Kirchen (siehe z.B. den Blog zum 24.Dez.2012 und seinen Teil 2).
(3)In diesem Zusammenhang bin ich auf das Buch von Stuart Alan Kauffman gestossen „Reinventing The Sacred. A new View of Science, Reason, and Religion.“ (etwa: Die Wiederentdeckung des Heiligen. Eine neue Sicht der Wissenschaft, des Verstandes und der Religion). Veröffentlicht 2008 (siehe weitere Angaben zu Kauffman unten).

EINSTIEG IN DAS BUCH

(4) Die Einleitung und das erste Kapitel sind ein wenig ’schleppend‘ und ich war schon fast versucht, es wieder weg zu legen, aber dann ab S.10 nimmt das Bucht deutlich Fahrt auf. Und ich habe den Eindruck, dieses Buch kann helfen, die neue Sicht insbesondere im Bereich Physik und Biologie weiter zu differenzieren. Außerdem hat das Buch die unangenehme Eigenschaft, dass Kauffman praktisch nirgends richtig zitiert. Es gibt zwar im Anhang verschiedene Quellenangaben, aber im Text werden die Namen von Autoren oder deren Aussagen zwar erwähnt, aber es gibt keine klare Quellenangaben. Das ist schade, ärgerlich und erschwert das Nachlesen (in diesem Blog mache ich das zwar auch sehr oft, aber es ist auch ein Blog und keine offizielle Veröffentlichung).
(5) Das große Thema des Buches ist nach Kauffman die Unzulänglichkeit einer Physik (bzw. der ganzen Naturwissenschaft), sofern sie sich ‚reduktionistisch‘ versteht, d.h. die Wirklichkeit ausschließlich interpretiert als Rückführung aller Phänomene auf eine Ansammlung von Teilchen. Dieser Denkweise hält er Fakten entgegen, die aus seiner Sicht etwas anderes repräsentieren: die ‚Emergenz‘ des Biologischen, das sich von der Molekülebene aus bis hin zu den komplexen gesellschaftlichen Ausprägungen als eine Form des ‚Zusammenwirken‘ zeigt, die sich nicht aus den physikalischen Gesetzen ableiten lässt, aber dennoch ‚real‘ ist. D.h. es gibt Realität, die uns alle bestimmt, die sich nicht physikalisch (bzw. allgemeiner ’naturwissenschaftlich‘) erklären lässt.
(6) In diesem ‚irreduziblen‘ Phänomen des ‚Biologischen‘ sieht Kauffman eine ‚Kreativität‘ am Werk, die typisch ist für diese Phänomene und er möchte den Begriff ‚Gott‘ für diese das ganze Universum durchwaltende ‚Kreativität‘ benutzen, sozusagen das mit ‚Gott‘ Gemeinte als das sich überall ‚kreativ‘ Zeigende und darin sich Manifestierende (vgl. z.B. S.XI). In diesem Verständnis sieht er einen Anknüpfungspunkt an den weltweiten Glauben an einen Schöpfergott (‚creator god‘), speziell natürlich in der jüdisch-christlichen Tradition (vgl. S.XII). Damit wird das Göttliche stückweise ‚empirisch‘, was neue Ansatzpunkte liefert für ein in der Welt lokalisierte ‚Spiritualität (’spirituality‘), für eine Wiederentdeckung des ‚Heiligen‘ (’sacred‘).(vgl. S.XII)
(7) Den ‚Reduktionismus‘ sieht er schon in den Anfängen der Wissenschaft (Galilei, Descartes, Newton, Laplace) gegeben (vgl. S.2), er kulminiert in der modernen Sicht, dass die Physik letztlich annimmt, dass wir ‚am Grunde‘ der Materie nur ‚Partikel oder Strings haben, die sich in Bewegung befinden‘ (vgl. S.3). Aber mit dieser Basis lässt sich die Vielfalt der biologischen Phänomene nicht beschreiben, auf keinen Fall ‚voraussagen‘. (vgl. S.3ff) Und von daher kann er sagen, dass diese (biologischen) Phänomene (dazu gehören auch die gesellschaftlichen Ausprägungen, insbesondere die Wirtschaft) jenseits der bisherigen Naturgesetze liegen. (Vgl. S.5)
(8) Für Kauffman charakteristisch am Biologischen ist neben seiner vollständigen Nicht-Voraussagbarkeit dass es sich trotz nicht vorhandener Gesetze quasi von selbst organisiert, eine große Vielfalt entwickelt, dabei aber kohärent bleibt.(vgl. S.6) Eine Besonderheit des Biologischen in ihrem selbstorganisatorischen Auftreten ist auch die Eigenschaft der ‚Agentenschaft‘ (‚agency‘), die einhergeht mit Fragen von ‚Werten‘ (‚values‘) und des ‚Tuns‘ (‚doings‘). Biologische Systeme sind nicht ’neutral‘, sondern sie sehen in allem ‚Werte‘. (vgl. SS.6-9)
(9) Und in diesem Kontext der sich überall zeigenden Kreativität wiederholt er seinen Vorschlag aus dem Vorwort, dass das mit ‚Gott‘ Gemeinte zu sehen ist als dasjenige, was sich in all dem manifestiert. Dazu gehört auch eine entsprechende ‚Mystik‘.(vgl. S.6,9)

REDUKTIONISMUS (VERSUCH DER ZURÜCKFÜHRUNG ALLER PHÄNOMENE AUF EINFACHSTE ELEMENTE)

(10)Der Punkt ohne Wiederkehr der Reduktionisten sind die einfachsten, kleinsten Elemente/ Teilchen/ Strings mit ihrer ‚Selbstbewegung‘, hinter und neben denen nichts mehr geht. Kauffman zitiert hier u.a. das Diktum des (großen?) Physikers Weinberg „Je mehr wir das Universum verstehen, umso bedeutungsloser wird es.“(vgl. S.10)
(11)Diese Art des reduktionistischen Denkens weist vielerlei Schwachstellen und Ungereimtheiten auf. Ungereimtheiten, die nah betrachtet eigentlich schon eher eklatante Denkfehler sind, bei denen man sich nur wundern kann, dass Nobelpreisträger sie nicht wahrhaben wollen. Doch zunächst wiederholt Kaufffman einige dieser Ungereimtheiten auf den SS.10-18. Mit der Fixierung des Blicks auf letzte kleinste Elemente gibt es keine ‚Handelnde‘ (‚agency‘) mehr, damit keine ‚Werte‘ und keine ‚Bedeutung‘. Eine ‚teleologische Sprache‘ ist verpönt. Newtons Gesetze induzieren einen umfassenden Determinismus (allerdings noch mit einer umkehrbaren Zeit!). Theistische Gottesauffassungen tendieren nun zu ‚Deistischen‘ (Gott als ‚Uhrmacher‘-Typ…); Gott interveniert nicht mehr. (vgl.S.15) Ein ‚freier Wille‘ wird fragwürdig. Wie soll der Geist mit einem mechanistischen Körper interagieren? Descartes kreiert den expliziten Dualismus.(vgl. S.15)

ARGUMENTE GEGEN EINEN NAIVEN REDUKTIONISMUS

(12)Kauffman zitiert auf den SS.19-21 den Physiker und Nobelpreisträger Philip W.Anderson, der in einer Arbeit 1972 darauf aufmerksam gemacht hat, dass es mit steigender Komplexität in der Anordnung der Atome in Moleküle ‚Symmetriebrüche‘ dahingehend gibt, dass die Lokalisierung der Atome in diesen Verbindungen ab einem bestimmten Punkt nicht mehr in alle mögliche Richtungen stattfindet, sondern nur noch in bestimmte (man spricht von ‚Chiralität‘ im Sinne von ‚Rechts-‚ oder ‚Linkshändigkeit‘). Dies bedeutet, dass auf einer ‚höheren‘ Organisationsebene ‚Phänomene‘ ‚real‘ werden, die sich nicht aus den einzelnen ‚Bestandteilen‘ ‚ableiten‘ lassen. Ein Reduktionismus würde hier nicht nur nichts erklären, sondern würde – im Gegenteil – reale Phänomene ‚leugnen‘.
(13)Kauffman zitiert auf den SS.22f nochmals Anderson mit einer Überlegung zur Berechenbarkeit und dass dieser Berechenbarkeitsbegriff nicht auf physikalischen Eigenschaften beruht. Hier gehen nach meinem Verständnis aber verschiedene Dinge durcheinander. (i) Die Vermischung des Konzepts ‚Turingmaschine‘ von Turing mit dem Rechnerarchitekturkonzept von von Neumann: Turing hatte keine Rechnerarchitektur beschrieben sondern ein logisch-mathematisches Konzept für Berechenbarkeit formuliert, das keinerlei Annahmen bzgl. einer bestimmten Architektur trifft (im Gegensatz zu von Neumann); (ii) die Anführung der Unentscheidbarkeits- und Unvollständigkeitsbeweise von Goedel und Turing an dieser Stelle wirken ein wenig ‚Beziehungslos‘; man weiß nicht so richtig, was sie hier sollen; (iii) die Beweise mit Hilfe der Turingmaschine sind nicht an konkrete physikalische Eigenschaften geknüpft: dies benutzt Anderson/ Kauffman als Argumente gegen den Reduktionismus. Hier zeigen sich Eigenschaften auf einer ‚höheren Ebene‘, die sich nicht auf einzelne Bestandteil zurückführen lassen.
(14)Kauffman erwähnt auf SS.23f das philosophische Konzept der ’supervenience‘ (von vielen einzelnen Aussagen auf einer ‚tieferen‘ Ebene auf eine Aussage auf einer ‚höheren‘ Ebene schließen, wobei die ‚höhere‘ Ebene ‚types‘ (Typen, Klassen) verkörpert und die tiefere (Realisierungs-)Ebene ‚token‘ (Instanzen, Elemente der Klassen). Diese Einlassung bleibt allerdings zu vage, um ihre Tragweite beurteilen zu können.
(15)Kauffman zitiert dann einen anderen Nobelpreisträger, den Physiker Robert Laughlin (SS.24f). Am Beispiel von Gasen und festen Körpern macht Laughlin darauf aufmerksam, dass viele reale Eigenschaften von solchen großen Aggregaten nur messbar und definierbar sind auf der Ebene der Gesamtaggregate; eine Rückführung auf die einzelnen Bestandteile macht keinen Sinn.
(16)Kauffman zitiert ferner (S.25) den Physiker Leo Kadanoff (kein Nobelpreisträger, aber lange Jahre Präsident der amerikanischen Gesellschaft der Physiker (‚American Physical Society (APS)‘). Er konnte aufzeigen, dass die Navier-Stokes Gleichungen für das Verhalten von Flüssigkeiten, die nicht quantenmechanisch abgeleitet werden können, von einem idealisierten (mathematischen) Modell abgeleitet werden können. Auch diese Eigenschaften hängen also nicht ab von den zugrunde liegenden Elementen/ Teilchen/ Strings.
(17)Auf den SS.25-27 erwähnt Kauffman das Beispiel der klassischen Thermodynamik von Sadi Carnot, nach dem (2.Hauptsatz der Thermodynamik) die Entropie in einem geschlossenen System nur zunehmen kann. Dies bedeutet, dass die Zeit nur eine Richtung kennt. Damit entsteht ein Widerspruch zur klassischen Mechanik von Newton, in der die Zeit sowohl ‚vorwärts‘ wie auch ‚rückwärts‘ laufen konnte. Boltzman, Gibbs und andere haben zwar versucht, diesen Widerspruch durch Einführung der statistischen Mechanik zu lösen (alle Elemente streben dem Zustand einer ‚höheren Wahrscheinlichkeit‘ zu), aber diese Begründung erfolgt nicht aus den Elementen selbst, sondern aufgrund von Zusammenhängen, die über die einzelnen Elemente hinausgehen (Kauffman zitiert stattdessen ein anderes Argument, das mich nicht überzeugt).
(18)Auf den SS.27f diskutiert Kauffman das Problem der Naturkonstanten. Das Standard-Modell der Physik vereint mit der allgemeinen Relativitätstheorie können das bekannte Universum nur erklären, wenn sie 23 spezielle Naturkonstanten annehmen. Die konkreten Werte dieser Konstanten lassen sich nicht irgend woher aus einem Modell generisch ableiten, sondern müssen speziell, von Hand, bestimmt werden. Verändert man einzelne Werte auch nur geringfügig, dann hätten wir ein vollständig anderes Universum. Nach dem Physiker Lee Smolin würde schon eine Abweichung in der Größenordnung von (1/10)^27 das Universum ‚lebensunfreundlich‘ machen. (Vgl.S.28). Diese speziellen Makroeigenschaften lassen sich in keiner Weise aus den bekannten Eigenschaften der einzelnen Elemente/ Teilchen/ Strings ableiten. Sie zeigen sich nur im Zusammenhang.
(19)Mögliche Antworten (vgl. S.28f) sind das starke und das schwache anthropische Prinzip: (i) Im starken anthropischen Prinzip wird ein Schöpfer-Gott angenommen, der die Welt genauso geschaffen hat, wie sie nun mal für ‚Leben‘ günstig ist. Dies ist aber keine überzeugende Antwort. (ii) Im schwachen anthropischen Prinzip nimmt man eine Vielzahl von Welten an. Einige von diesen haben die Parameter so, wie sie für das Leben ‚günstig‘ sind; unser Universum ist eines davon.
(20)Die Annahme einer Vielzahl möglicher Universen hat bislang die meisten Argumente für sich. Die Position des klassischen Reduktionismus wirkt in diesem Kontext mehrfach unglaubwürdig und letztlich argumentativ schwach.

DIE NICHTREDUZIERBARKEIT DER BIOLOGIE AUF DIE PHYSIK

(21)Auf den Seiten 31-43 entwickelt Kauffman zusätzliche Argumente, warum der klassische Reduktionismus nicht funktioniert, indem er die Besonderheiten der Biologie thematisiert. Allerdings springt er nach meinem Verständnis bisweilen zwischen verschiedenen Argumenten im Text hin und her, was die Argumentation erschwert.
(22)So ist der anfängliche Hinweis des Einflusses von Malthus auf Darwin wenig geeignet, die Besonderheit des Phänomens des Biologischen heraus zu stellen. Dies ist schon eher gegeben mit der Einsicht Darwins, dass zwischen der Elterngeneration und der Kindgeneration Veränderungen stattfinden können, die je nach Kontext mehr oder weniger ‚erfolgreich‘ sein können. Dies führte einerseits zum Aufsprengen des statischen Klassifikationssystems von Carl Linnaeus (vgl. S.32) und erlaubte eine zunehmende ‚logische‘ Interpretation der geologischen Befunde. (vgl.S.33) In den 1930igern vereinigte sich das evolutionäre Konzept Darwins mit der modernen Genetik (Mayer, Dobzhansky u.a.), weiter intensiviert durch die Erkenntnisse der Molekularbiologie ab den 1950igern (Watson, Crick u.a.).(vgl. S.33) Das Feststellen von Eigenschaften auf höherer Ebene der Komplexität, die sich nicht aus den zugrunde liegenden Elementen direkt ableiten lassen, nennt Kauffman dann ‚epistemologische Emergenz‘ (also etwa ‚Emergenz aus erkenntnistheoretischer Sicht‘), und die reale Gegebenheit von biologischen Strukturen höherer Komplexität bezeichnet er als ‚ontologische Emergenz‘. (vgl. S.34)
(23)Die Entstehung der vielen, immer komplexeren Arten, dazu stark variierend, lässt sich nach Kauffman nicht allein aus den beteiligten Elementen ableiten. Dies ist allein schon deshalb schwierig, weil viele wichtige beteiligten Faktoren ‚zufälliger‘ Natur sind. (vgl. S.37f) Dazu kommt aber noch ein ganz anderer Umstand. Nimmt man – mit den meisten Physikern – an, dass die Raum-Zeit kontinuierlich ist [Anmerkung: was nicht zwingend der Fall sein muss], dann hat Georg Cantor (1845 – 1918) aufgezeigt, dass die reellen Zahlen eine überabzählbar große Menge darstellen. Dies bedeutet, man kann sie nicht aufzählen. Dies wiederum bedeutet, dass es keinen Computer geben kann, diese Menge zu simulieren. Dies gilt dann auch für ein Universum mit einer kontinuierlichen Raum-Zeit.(vgl. S.39f)
(24)Dieses letzte Argument von Kauffman mit der Nichtaufzählbarkeit empfinde ich als wenig zwingend (wenngleich die Nichtaufzählbarkeit als solche natürlich Fakt ist). Wichtiger sind vielmehr jene Argumente, die auf zentrale Eigenschaften des Biologischen abheben, die sich nicht aus den Bestandteilen alleine ableiten lassen. In diesem Sinne verweist Kauffman auf den Umstand, dass der Mechanismus der Selbstreproduktion nicht an ein bestimmtes Material gebunden ist und sich von daher im gesamten Universum ‚irgendwo‘ ereignen könnte. (vgl. S.40f) In diesen Zusammenhang gehört das Astrobiologie-Programm und die Entwicklung einer ‚Allgemeinen Biologie‘, die über die Bedingungen des Lebens auch jenseits der Bedingungen auf der Erde nachdenkt.
(25)Kauffman spekuliert dann auch darüber, dass die Entdeckung des evolutionären Prinzips durch Darwin nicht nach dem Muster der ‚Induktion‘ entstanden sei, also viele einzelne Beispiele und dann eine verallgemeinernde Idee, sondern dass Darwins Überlegungen auf einer komplexeren Ebene abgelaufen seien, auf der er seine Konzepte definiert habe. (vgl.41-43) Diese Überlegungen erscheinen mir sehr spekulativ und wenig hilfreich. Entscheidend ist, ob wir empirische Phänomene einer Art P haben, die sich nicht aus den Eigenschaften P‘ vermuteter ‚einfacherer‘ Bestandteile direkt ableiten lassen. Wenn nicht, dann haben wir mit den Phänomenen P ‚genuine‘ empirische Phänomene, die erst auf einer höheren Organisationsstufe ’sichtbar‘ werden. Ob diese Einsichten ‚induktiv‘ oder ‚deduktiv‘ gewonnen wurden, spielt keine Rolle.
(26)Als solche ‚genuinen‘ Eigenschaften der Biologie nennt Kauffman Eigenschaften wie sie mit den Begriffen ‚Leben‘, ‚Handelnder‘, ‚Wert‘, ‚Bedeutung‘, ‚Bewusstsein‘ bezeichnet werden.

URSPRUNG DES LEBENS

(27)Auf den SS.44-71 versucht Kauffman, den Ursprung des Lebens mit den Augen einer Allgemeinen Biologie zu bestimmen, die als Disziplin nicht nur völlig eigenständig gegenüber einer Physik ist, sondern darüber hinaus diese sogar beeinflussen und herausfordern kann. [ANMERKUNG: in einem Gespräch mit meinem Freund, dem Physiker MW (nicht zu verwechseln mit dem Physiker vom Cafe Siesmayer, das war der Freund und Physiker MK), hatten wir letztlich den Punkt der Disziplingrenzen diskutiert. Er meinte, dass es keine klaren Grenzen gäbe, wo die Physik anfängt oder aufhört. Letztlich hat die Physik einen ganz allgemeinen Erklärungsanspruch bzgl. der erfahrbaren Natur. Wenn sie das Biologische als eigenständiges Naturphänomen akzeptieren würde – woran sie niemand hindern kann außer sie sich selbst – dann gäbe es keine Abgrenzung hin zur Biologie).
(28) Die Ideen zur Entstehung des Lebens konzentrieren sich letztlich um die Frage eines geeigneten Modells, die Entstehung einer biologischen Zelle zu erklären. Eine Zelle wird dabei als ein ‚offenes System‘ angenommen, das sich nicht in einem Gleichgewichtszustand‘ befindet und zur Erhaltung dieses Nicht-Gleichgewichts beständig Energie zuführen muss. Zusätzlich besitzt sie die besondere Eigenschaft, sich selbst vollständig zu Duplizieren. (vgl.S.46f) Da eine ’normale‘ Zelle schon sehr komplex ist, wird nach ‚einfacheren Vorläuferstufen‘ gefragt, aus denen sich dann das komplexere Modell herleiten lässt.
(29)Nach Kauffman versteht die Wissenchaft bis heute nicht genau, wie die Verdopplungsfähigkeit genau funktioniert. Er will daher zunächst der Frage nachgehen wie sich Moleküle in einfachen Systemen reduplizieren können.(vgl.S.47)
(30)Kauffman diskutiert dann mehrere Theorieansätze (vgl. SS.47-54), bis er den Theorieansatz vorstellt, den er ‚kollektive Autokatalyse‘ nennt. Damit ist gemeint, dass die Molküle einer Menge sich zwar nicht selbst reproduzieren können, aber sie dienen sich wechselseitig als Katalysatoren, dass andere Moleküle dies tun können.(vgl. S.55) In diesem Sinne sind z.B. die Zellen in unserem Körper ‚autokatalytische‘ Zellen: die einzelnen Moleküle in der Zelle können sich selbst nicht vermehren, aber die Zelle als ganze wirkt als Katalysator dafür, dass die vielen Moleküle im Innern der Zelle dies können.(vgl.S.56) Dies bedeutet, dass das Gesamtverhalten ein wesentlicher Faktor darstellt, damit zwischen den Elementen bestimmten Reaktionen möglich sind.(vgl. S.58f)
(31)Für die Theorie der autokatalytischen Mengen benutzt Kauffman das Konzept des ‚Zufallsgraphen‘ (random graphs) von Paul Erdös und Alfréd Rényi (1959), der dann zum Konzept des ‚chemisch-Reaktionsgraphen‘ erweitert wird. Die verschiedenen chemischen Reaktionen werden dann in Form unterschiedlicher verbindender Kanten/ Pfeile repräsentiert. (vgl.SS.61ff) Mit Hilfe dieses Graphenkonzeptes lässt sich einfach ein ‚aktueller‘ Zustand definieren und ein ‚Nachfolgezustand‘, durch den die Menge der ‚möglichen neuen Nachbarn‘ (‚the adjacent possible‘) definierbar wird.(vgl.S.64) Im Übergang zu den neuen Nachbarn wird ein neuer aktueller Zustand zusammen mit den soeben neuen Nachbarn definiert, der wieder neue Nachbarn erlaubt, usw. Mit Hilfe dieses ‚Ausbreitungskonzeptes‘ will Kauffman auch ‚Kreativität‘ definieren, die Kreativität des Universums. (vgl. S.64) Simulation einfacher Modelle solcher autokatalytischer Mengen haben nun gezeigt, dass ab einer bestimmten Anzahl von Elementen die ‚Reaktionsdichte‘ natürlicherweise zunimmt, was dann sehr schnell zu großen ‚Clustern‘ führt.(vgl.S.65f)
(32)Andere haben diese Modelle dahingehend weiterentwickelt, dass sie sich ‚vererben‘ können und bei dieser Vererbung Veränderungen erlauben.(vgl. S.67f) Weitere Eigenschaften (Quellen von freier Energie, Metabolismus) lassen sich in dieses Modell integrieren. (vgl.SS.68-70) Noch ist offen, ob sich dieses mathematische Modell voll lauf reale Molekülmengen anwenden lässt. Klar ist allerdings, dass sich die Eigenschaften des Gesamtsystems nicht aus den Bestandteilen alleine herleiten lässt. Ein klassischer Reduktionismus wäre also ausgeschlossen.
(33)Fortsetzung folgt … kritische Auseinandersetzung am Schluss…

Fortsetzung von TEIL 2

Quellen:

Kauffman, S.A., Reinventing the Sacred. A new View of Science, Reason, and Religion. New York: Basic Books, 2008 (Paperback 2010)

Über S.A.Kauffman in der Englischen Wikipedia: http://en.wikipedia.org/wiki/Stuart_Kauffman (Zuletzt besucht 5.Jan.2013)

Interessante Vorlesungen von Kauffman als Videos: http://csb.cs.tut.fi/stu_news.php (Zuletzt besucht 5.Jan.2013)

Eine Übersicht über alle bisherige Blogeinträge nach Themen findet sich HIER

KANN ES DOCH EINEN KÜNSTLICHEN GEIST GEBEN?

Vorgeschichte

Dieser Blogeintrag geht zurück auf einen Vortrag, den ich auf der Jahrestagung der deutschen Sektion von YPO (Young Presidents Organization) gehalten habe. Der ursprüngliche Titel lautete „Das Digitale als Synomym für berechenbare Prozesse“. Als der Text zu diesem Vortrag fertig war (am Tag davor) deutete sich schon an, dass der Vortrag eigentlich eine weitere, sogar eine weiterführende Botschaft enthielt, die sich im ursprünglichen Titel nicht so widerspiegelte. Während ich den Vortrag dann hielt wurde mir klar, dass – in der Tat – der eigentliche Inhalt ein anderer war; der ursprüngliche Titel war nicht falsch, aber zu ‚eng‘.

Da ich jeden Vortrag nur einmal halte und mir für den Vortrag immer eine Problemstellung vornehme, die ich selber gerne geklärt haben möchte ohne zum Zeitpunkt er Themenstellung schon zu wissen, ob es wirklich so gehen wird, gibt es immer diese fluktuierenden Überlegungen und Formulierungen vorher, in denen das mögliche Thema um seine finale Gestalt ringt. Bislang war es immer so, dass es unmittelbar vor dem Vortrag eine starke Klarheit gab, im Vortrag selbst und in den anschließenden Fragen das Ganze nochmals heftig ‚aufleuchtete‘ und in den nachebbenden Gedanken und Gesprächen sich dann der ‚finale Gedanke‘ gezeigt hat.

So auch hier. Die benutzten Diagramme sind mit denen im Vortrag identisch, der Wortlaut nicht genau, aber dem Inhalt nach.

Ankündigungstext ohne Leser

Der folgende Text wurde von mir als Ankündigungstext verfasst, wurde dann aber doch nicht publiziert. Er gibt so ein wenig den ‚Flair‘ im Vorfeld wieder:

Wir leben in einer Zeit, in der die Computertechnik immer mehr Bereiche des täglichen Lebens durchdringt, uns in eine Symbiose mit dem Digitalen zwingt, der wir uns nur schwer bis gar nicht entziehen können: Im Haushalt, in der Haustechnik, beim Entwerfen und Bauen von Häusern, in der Musik, beim Fernsehen, bei der Filmproduktion, in den Verwaltungen, in der industriellen Produktion, bei der Verkehrssteuerung, in jedem Auto, in jedem Flugzeug, bei der täglichen Kommunikation,…und, und, und,…. Wie ist dies möglich? Wie kann eine Technologie für uns zu einer Art ‚zweiten Natur‘ werden? Wie kann eine einzige Technologie nahezu alle Lebensbereiche durchdringen? Wie kann Technik Eigenschaften annehmen, die wir eigentlich nur dem Menschen zuschreiben: Wahrnehmen, Begriffe bilden, Schlüsse ziehen, Wiedererkennen, Kreativ sein, Gefühle haben, Ansätze von Selbstbewusstsein? Wo führt dies hin? Wird uns die Computertechnik irgendwann doch überflüssig machen?

In seinem Vortrag wird Prof. Doeben-Henisch diesen Fragen nachgehen. Er führt zurück zum Ursprung des Computers, ins Zentrum der mathematischen Dispute um die Jahrhundertwende, die dann in den Personen von Kurt Goedel und Alan Matthew Turing zum neuen philosophisch-mathematischen Begriff ‚endlicher Prozess‘ bzw. zum Begriff der ‚Berechenbarkeit‘ führten. Der Mensch selbst stand Modell für das mathematische Konzept der Turingmaschine (1936/7), das dann wenige Jahre später zu realen Maschinen führte, die mit Relais, dann Röhren, schließlich mit Halbleitern demonstrierten, dass und wie man ‚rechnende Maschinen‘ bauen kann. Innerhalb von 60 Jahren eroberte diese Technologie die ganze Welt. Die binären Zustände der Computer zeigten sich mächtig genug, sich nahezu alles einzuverleiben: Zahlen, Texte, Bilder, Geräusche, Musik, Objekte, Gebäude, Pflanzen, Tiere, Abläufe, ganze Städte. Zur Zeit versuchen Forscher weltweit, Maschinen mit ‚künstlichem Geist‘ zu schaffen. Als Vorlage dient das menschliche Gehirn. Prof. Doeben-Henisch wird zeigen, warum wir im Moment keine Argumente haben, warum dies nicht gehen könnte.

Die Überlegungen zu den Grundlagen des menschlichen Geistes führen auch hinein in die Frage nach der Natur des Menschen, in seine Geschichte, in die Geschichte der Entstehung des Menschen, in die innere Logik der Evolution des Lebens auf der Erde. Die Forschung hat uns in den letzten 80 Jahren aufregende neue Einblicke in die Struktur des Lebens vermittelt, die wiederum verschränkt sind mit der Entwicklung des bekannten Universums selbst. Man kann sehen, dass das Digitale als lingua universalis berechenbarer Prozesse sich schon im Inneren des Biologischen selbst als ‚Sprache des Lebens‘ findet. Das Leben selbst als großer ‚Computer‘ oder, umgekehrt, der ‚Computer‘ als neue Spielart jenes Prinzips, das wir als Leben bezeichnen?

Dies sind einige der zentralen Themen, die im Vortrag angesprochen werden. Der Vortrag endet mit dem offensichtlichen Faktum der Ko-Evolution von Universum – Erde – biologischem Leben und digitaler Technologie. Was bedeutet dies für uns?

 

VORTRAG

(Anmerkung: Der geschriebene Text entspricht natürlich nicht exakt dem Wortlaut des frei vorgetragenen Vortrags)

Meine sehr verehrten Damen und Herren,

nachdem Sie in den vorausgehenden Vorträgen schon einiges gehört haben zu den vielfältigsten Phänomenen, die das Digitale in unserem heutigen Alltag hervorbringt, möchte ich mich in meinem Vortrag mehr der Frage  nach der Maschinerie hinter diesen Phänomenen widmen. Was sind das für Strukturen, die all dies möglich machen? Welches Prinzip ist so mächtig, dass es all diese verschiedenartigen Phänomene hervorbringen kann, die dem Menschen in seinen Lebensvollzügen immer näher kommen, ja, bisweilen sogar schon zu inneren Bestand von diesen werden?

Für die Beantwortung dieser Frage werde ich Sie mit drei Konzepten bekannt machen, die auf erstaunliche Weise untereinander zusammenhängen: das Konzept der rechnenden Maschine, das neue Bild des Menschen und die Einbettung beider Konzepte in den Gang der Evolution. Und sie werden dann sehen, dass diese Zusammenschau der drei Konzepte etwas ganz Neues aufscheinen lässt, nämlich das Konzept ‚Geist‘ als jene Größe, die in all diesen Prozessen als etwas ‚aufscheint‘, was ’schon immer da ist‘. Würde dieser erste Eindruck zutreffen, dann würde es bei den Versuchen der ‚Erschaffung‘ eines ‚künstlichen‘ Geistes weniger darum gehen, etwas ‚Neues‘ zu ‚erschaffen‘, sondern mehr darum, etwas, das ’schon immer da ist‘, mit neuen Methoden ’sichtbar‘ zu machen.

Ich werde zum Ende daher auch kurz auf ein Experiment hinweisen, in dem wir genau dies tun: den ‚Geist‘ in Form eines ‚künstlichen‘ Geistes sichtbar machen.

Beginnen wir mit uns selbst, dem dem Menschen, dem homo sapiens sapiens.

DER MENSCH

VIELSCHICHTIG

 

Vielschichtigkeit des Menschen (Quellen: Synthese aus vier Bildern von Wikipedia (en), siehe Literaturnachweise)

[Bild: vier Sichten des Menschen] Ich möchte mit einem Schaubild beginnen, das zeigt, wie vielschichtig wir Menschen bei näherer Betrachtung sind. Sie sehen einmal links die Oberfläche des Menschen, wie sie sich uns darbietet, wenn wir uns nackt zeigen. Doch bei der Frage, ob wir den Menschen mit dieser Oberfläche gleich setzen sollen, werden wir dies verneinen müssen. Wir wissen heute, dass hinter bzw. unter dieser Oberfläche eine Fülle von hochkomplexen Organen zu finden ist, die durch ihre kontinuierliche Arbeit alle unsere Lebensprozesse ermöglichen. Was wären wir ohne Herz, Nieren, Lunge, Leber, Magen, Darm usw.? Zugleich wissen wir, dass all diese wunderbaren Organe im Chaos enden würden, gäbe es nicht das Nervensystem mit dem Gehirn, das all diese Tätigkeiten – ergänzend zum Blutkreislauf und zum Immunsystem –– koordiniert, anregt, steuert. Und dann noch das augenfällige System von Knochen und Gelenken, in sich ein überaus lebendes System, ohne das alle Haut und Organe in einen Zellklumpen zusammenstürzen würden, der alsbald verenden würde. Vier überaus komplexe Systeme, die vielfach ineinander greifen und in diesem Zusammenwirken das Gesamtkunstwerk menschlicher Körper in seiner Grundstruktur ermöglichen. Wissen wir damit, was und wer der Mensch ist? Haben wir die Psyche, den Geist, die Seele vergessen?

Bevor ich darauf eine Antwort versuche, hier ein kurzer Szenenwechsel. Im Film würden man sagen, ein harter Schnitt.

FORMALISIERUNG DER VIELFALT ALS  SYSTEM

Formalisierung des Menschen als System mit Input und Output

[Bild: Box mit Eingang/ Ausgang und Verhaltensfunktion] Was Sie auf diesem Bild sehen können, ist ein Diagramm und eine kleine Formel.

Dieses Diagramm und diese Formel entspricht ein wenig der Art, wie ein mathematisch geschulter Ingenieur die zuvor präsentierte Vielfalt des Menschen hinschreiben könnte.

 

Die Box mit Überschrift ‚System‘ kann einen Menschen repräsentieren, der aus seiner Umgebung Stimuli – abgekürzt ‚S‘ – als Input ‚I‘ empfangen kann (also Augen, Ohren, Tastempfindungen usw.) und der über seinen Output ‚O‘ Reaktionen ‚R‘ an die Umgebung abgeben kann, also diverse Bewegungen, Schallereignisse, usw. Im Innern des Systems gibt es verschiedene interne Zustände (internal states, IS), die zum Funktionieren des Systems wichtig sind. Z.B. die diversen Organe, das Nervensystem, die Knochen, usw. Und zwischen all diesen Elementen, dem Input, den internen Zuständen und dem Output, gibt es einen funktionalen Zusammenhang, der im Bild einfach mit dem griechischen Buchstaben ‚phi‘ (Φ, φ) benannt wird.

 

Alternativ zu solche einem Diagramm würde man aber auch einfach die kürzere Formel hinschreiben, die genau das gleiche zum Ausdruck bringt: der funktionale Zusammenhang ‚phi‘ nimmt Inputwerte und aktuelle Zustände als Ausgangspunkt und berechnet daraus mögliche Änderungen der inneren Zustände und einen Output. Also, Beispiel, sie sitzen in einem Auto und sehen (=Input) eine rote Ampel. Da sie gelernt haben, bei Rot tunlichst stehen zu bleiben (=IS), verändern sie ihre Fußstellung und bremsen (=IS, O).

Dieses kleine Beispiel mag auch ein wenig verdeutlichen, wie Ingenieure vorgehen, wenn sie die vielfältige Wirklichkeit mit der Sprache der Mathematik vereinfachen und dadurch all die wunderbaren Dinge bauen können, die Sie jeden Tag wie selbstverständlich benutzen. Ohne diese mathematische Sprache würden wir noch immer steinzeitlich leben.

Betrachten wir noch ein weiteres Beispiel im Kontext des Menschen, das uns helfen wird, die Brücke zur rechnenden Maschine zu bauen.

 

GEHIRN UND NERVENZELLE

Gehirn als Teil der menschlichen Organe; daneben ein einzelnes Neuron (Quelle: zwei Bilder aus Wikipedia komponiert, aus Wikipedia (en), siehe Literaturnachweise)

[Bild: Gehirn links, Nervenzelle rechts] Werden wir ein wenig bescheidener und nehmen uns nur einen Teil des Menschen vor, sein Gehirn. Nach neuen Schätzungen umfasst ein Gehirn etwa 100 Mrd Neuronen (Kandel et al. 2012:S.21). Diese sind in der Regel nicht direkt miteinander verbunden.

 

Die typische Struktur eines Neurons sieht man rechts vom Gehirn. Es gibt genau einen Ausgangs (das Axon), der sich vieltausendfach verzweigen kann, sowie viele tausend Eingänge. In dem kleinen hervorgehobenen Kreis kann man die Eigenart der neuronalen Verbindungen erkennen: das Endstück eines Axons endet kurz vor der Oberfläche des Neurons; es bleibt ein kleiner synaptischer Spalt.

NERVENZELLE UND MEMBRAN

Neuron links mit Vergrößerung einer Synapse rechts. Neuronbild aus Wikipedia (en). Quelle siehe Literaturverzeichnis

[Bild: Neuron und Membran schematisiert] In dem nachfolgenden Bild ist dies schematisierend und vergrößert dargestellt. Die Oberfläche der empfangenden Zelle stellt eine Membran dar, die man postsynaptische Membran nennt, die zusammen mit dem Endstück des Axons eine Synapse bildet. Die Kommunikation zwischen Endstück und potsysnaptischer Membran wird über Moleküle (Transmittermoleküle) realisiert, die beim Auftreten eines elektrischen Potentials im Axon aus den Vesikeln entlassen werden. Diese diffundieren durch den synaptischen Spalt und können dort, falls sie ‚passen‘ an Rezeptormolekülen von Ionenkanälen andocken. Jede postsysnaptische Membran hat mehrere Tausend solcher Ionenkanäle. Docken diese Transmittermoleküle an den Rezeptoren an, öffnen sich die Ionenkanäle. Es findet dann ein schlagartiger Austausch von Ionen in und außerhalb der Membran statt. Dieser schlagartiger Austausch hat einen ebenso plötzlichen Wechsel des elektrischen Potentials zur Folge, was dann zu dem bekannten Ein-Aus-Signal eines Neurons führen kann.

 

Gäbe es nur Ionenkanäle, dann wäre mit dem einmaligen Öffnen der Kanäle – bildlich gesprochen – alles Pulver verschossen. Diese Membran würde nie mehr ein weiteres Signal erzeugen können. Das aber ist eigentlich ihre Aufgabe. Zu diesem Zweck gibt es noch einige tausend Ionenpumpen. Diese sind in der Lage Ionen gegen ein Konzentrationsgefälle von außen nach Innen oder umgekehrt zu pumpen. Dazu benötigen sie Energie. Da sie insgesamt langsamer arbeiten als der Ionenaustausch durch die Kanäle stattfindet, entstehen zwischen den einzelnen Signalereignissen Refraktionszeiten, in denen keine Schaltvorgänge möglich sind.

 

Sie sehen also, schon die vielen tausend Membranen einer einzigen Nervenzelle (es können bei einer Zelle mehr als 1 Mio sein!) bilden kleine, komplexe Maschinen, deren Funktion Signalerzeugung und Signalfluss im Gehirn ermöglicht.

 

Während ein Neurowissenschaftler zur Beschreibung einer Nervenzelle und des Gehirns auf alle diese unfassbar komplexen Details eingehen muss, kann ein Ingenieur, der ein künstliches Gehirn bauen möchte, sich fast entspannt zurücklehnen und die Frage stellen, welche Eigenschaften an einem Neuron denn wesentlich sind, um sein Schaltverhalten zu erfassen.

Eine typische Antwort würde so aussehen:

 

NERVENZELLE MATHEMATISCH

Formalisierung eines Neurons durch Konzentration auf die Schalteigenschaften

[Bild: Nervenzelle mathematisch] Sie sehen wieder ein Box, dieses Mal ‚Neuron‘ genannt. Der ‚Input‘ zu dieser Box bilden die Endstücke von anderen Neuronen. Im Bild sind es drei Eingänge, es könnten aber n-viele sein. Dazu ein Ausgang, das Axon, das sich auf n-viele viele andere Neuronen – letztlich auch auf sich selbst – verteilen kann. In der Box können Sie drei einfache Formeln erkennen, die drei aufeinander folgende Verarbeitungsstufen repräsentieren. In der ersten Stufe werden die mit wij gewichteten Aktionspotentiale aij der einzelnen Eingänge summiert zum Wert net_j. Dann wird mittels der Aktivierungsfuntkion f_act berechnet, ob diese summierten Eingangssignale zusammen mit dem letzten Aktionspotential a_j einen vorgegebenen Schwellwert theta (θ) überschreiten oder nicht. Falls der Schwellwert überschritten wird, wird ein neues Aktionspotential a_j erzeugt, das dann schließlich mit der Ausgabefunktion f_out in einen geeigneten Ausgabewert umgerechnet wird.

 

Genauso wenig wie eine einzelne Schwalbe bekanntlich einen Frühling macht, genauso wenig kann man mit einem einzelnen Neuron etwas interessantes anfangen. Der Ingenieur muss sich also noch etwas einfallen lassen, wie er die vielen Neuronen zusammenbringt. Vielleicht ahnen Sie schon, was jetzt kommt:

 

KÜNSTLICHES GEHIRN

Übergang von einm Zeitpunkt zum nächsten, beschrieben mit Vorschrift ’syn‘

[Bild: Mengen von Neuron-Verbindungen] Eine einfache Möglichkeit, die Gesamtheit aller Neuronen zu betrachten, besteht darin, jeweils zwei, die miteinander in Verbindung stehen, als ein Paar zu betrachten, das bestimmte Verbindungswerte besitzt, und dann die Menge aller dieser Paare als eine Einheit zu einem bestimmten Zeitpunkt. Im Bild ‚CON‘ genannt, die Menge aller Connections.

 

Was dann noch bleibt ist die Beschreibung der Dynamik dieser Zellen, die Art der Veränderungen von einem Zeitpunkt zum nächsten. Dieser Veränderungszusammenhang wird im Bild ‚dyn‘ genannt, eine mathematische Vorschrift, die sagt, wie ich vom Zustand der Zellen zu einem Zeitpunkt zum Zustand der Zellen beim nächsten Zeitpunkt komme.

 

Damit ist für den Ingenieur alles gesagt, was gesagt werden muss. Ob dieses künstliche Gehirn Bilder erkennen soll, Sprache sprechen, sich erinnern können soll, usw. all dies ist damit erfasst. Sollte der Ingenieur in der Praxis feststellen, dass er wichtige Eigenschaften übersehen hat, dann fügt er sie einfach in seine Formeln ein.

Gehen wir nach diesem Ausflug ins Gehirn nochmals zur Ausgangsbox mit dem Menschen zurück.

 

NOCHMALS SYSTEMBOX

Integration des Teilomodells ‚Gehirn‘ in das allgemeine Systemmodell vom ‚Menchen‘

[Bild: Nochmals die Systembox, jetzt mit Verfeinerungen] Soeben haben wir das Gehirn als eine Teilbereich des Körpers näher betrachtet. Wollen wir diese Erkenntnisse in der allgemeinen Box verorten, dann müssen wir sagen, dass die Menge CON eine Teilmenge der Menge IS der internen Zustände ist, und die Verarbeitungsvorschrift ‚dyn‘ ist ein Teil der allgemeinen Verhaltensfunktion φ des Menschen.

 

Sie können an diesem Beispiel einmal sehen, wie man mit der Sprache der Mathematik komplizierteste Sachverhalte auf einfache Strukturen zurückführen kann, und – und darauf kommt es in unserem Zusammenhang besonders an – dass der Mensch – also wir selbst – bei dieser Betrachtungsweise eine Struktur besitzt, die uns durch diese Struktur vergleichbar macht mit allen anderen Strukturen.

Eine der Strukturen, mit denen ich die Struktur des Menschen vergleichen möchte, ist die Struktur eines endlichen Prozesses.

Um zu beschreiben und zu erklären was ‚berechenbare Prozesse‘ sind, müssen wir einen kleinen Ausflug in die Welt der Logik und Mathematik machen.Ich hoffe dann zeigen zu können, warum die berechenbaren Prozesse und wir Menschen mehr gemeinsam haben, als die meisten vermuten, und warum das Reden vom ‚Geist‘, auch vom ‚künstlichen Geist‘ heute eine ganz andere Bedeutung bekommen hat, als es bislang üblich war.

 

DIGITALE MASCHINE

DISKUSSION DER MATHEMATIKER

Übersicht über eine formale Theorie und ihre Elemente nach Hilbert und Ackermann

[Bild: Schema einer formalen Theorie] Natürlich werde ich hier nicht auf die Details der Diskussionen im Kontext der sogenannten Grundlagenkrise der Mathematik zum Ende des 19. und zu Beginn des 20.Jahrhunderts eingehen können. Nur so viel sei hier gesagt, dass die Logiker und Mathematiker dieser Zeit ein Problem damit hatten, die Grundlagen der Mathematik so zu beschreiben, dass keine Paradoxien entstehen konnten, erst recht keine direkten Widersprüche in den formalen Systemen und natürlich wünschte man sich vollständige Systeme, d.h. formale Systeme, in denen man alle Aussagen, die im Sinne des Systems wahr sein sollen, auch beweisbar sind.

 

Eine der wichtigsten mathematischen Schulen innerhalb dieser Diskussionen war die Schule um David Hilbert, der die Lösung des Problems einer befriedigenden Darstellung der Mathematik darin sah, eine Reihe von möglichst einfachen formalen Systemen zu schaffen (basierend auf einer endlichen Menge von Axiomen), deren Widerspruchsfreiheit und Vollständigkeit mit sogenannten ‚endlichen Mitteln‘ gezeigt werden kann. Alle komplizierteren Theorien sollten dann auf diese einfachen Systeme zurückgeführt werden.

Im Alltag mag es uns nicht als Problem erscheinen, von ‚endlichen Mitteln‘ zu sprechen. Aber wenn es darum geht, allgemein zu beschreiben, was hinreichend geeignete endliche Mittel sind, um eine mathematische Theorie als widerspruchsfrei und vollständig zu erweisen, dann zeigt sich plötzlich, dass dies nicht so einfach ist, wie sich dies Hilbert und seine Schule erhofft hatten.

GOEDEL – TURING

Das Bild zeigt verschiedene frühe Formalisierungsbeiträge zum Thema ‚endliches Verfahren‘

[Bild: Goedel und Turing historisch] Es war Kurt Goedel, der 1930-31 zeigen konnte, dass das Grundlagenprogramm von Hilbert und seiner Schule prinzipiell unmöglich war. Er zeigte, dass eine mathematische Theorie, die mindestens so stark wie die Arithmetik ist, aus prinzipiellen Gründen nur eines von beiden sein kann: entweder widerspruchsfrei (konsistent) oder vollständig, aber nicht beides zugleich. Dieses Ergebnis trifft in das Herz jeder mathematischen Theorie, bis heute. Es zeigt, dass es prinzipielle Grenzen in der Beweisbarkeit von mathematischen Wahrheiten gibt.

Diese Probleme treten immer dann auf, wenn es darum geht, innerhalb (!) einer formalen Theorie (mindestens so stark wie eine Prädikatenlogik erster Stufe) die Widerspruchsfreiheit und Vollständigkeit zu beweisen. Natürlich kann man das Problem dadurch zu umgehen versuchen (was sehr viele versucht haben), eine zusätzliche ‚Beschreibungsebene‘ einzurichten, von der aus sie dann ‚über‘ (Griechisch ‚meta‘) die Objekte der anderen ebene ‚reden‘. Solche Art von Hierarchisierungen oder Typisierungen oder Metaebenen entsprechen der üblichen Arbeitsweise des menschlichen Gehirns. Allerdings bildet diese Strategie bei näherem Hinsehen keine wirkliche Lösung. Zwar verschwinden in der Objekttheorie all jene Elemente, die ‚über sich selbst‘ reden können, aber die Metaebene selbst, die ja auch den Berechenbarkeitsforderungen mathematischer Beweise genügen müssen, enthalten dann genau all jene Elemente wieder, die zu der von Kurz Goedel aufgedeckten Schwachstelle führen.

Eine letzte philosophische Würdigung dieser Sachverhalte scheint mir noch auszustehen.

Mit diesen Überlegungen sind wir beim Thema Berechenbarkeit angekommen.

Die Diskussion unter Mathematikern hängt von Beweisen ab, die geführt werden. Diese Beweise müssen mit sogenannten endlichen Mitteln geführt werden, damit sie nachvollziehbar sind. Goedel selbst hatte ein geniales Verfahren ersonnen, um unter Benutzung von natürlichen Zahlen seine Beweise zu führen. Aber er war von seinem eigenen Beweis nie begeistert, obgleich niemand ihn bis heute widerlegen konnte.

Es war dann einem gewissen Alan Matthew Turing vorbehalten fünf Jahre später die Beweise von Goedel nochmals mit anderen Mitteln zu führen. Und diese Beweismittel – später Turingmaschine genannt – fanden nicht nur die Zustimmung von Goedel, sondern von nahezu allen nachfolgenden Generationen. Bis heute ist die Turingmaschine das wichtigste mathematische Konzept für alle Berechenbarkeitsbeweise – und damit der mathematische Referenzpunkt für alles, was wir heute Computer nennen.

Weil dem so ist, weil das Konzept der Turingmaschine eine solch eminente philosophische und mathematische Bedeutung zukommt, lassen Sie mich dieses Konzept kurz vorstellen. Es ist so einfach, dass die meisten, die es zum ersten Mal kennen lernen, sofort fragen: und das soll alles sein? Ich versichere Ihnen, das ist alles und – und das möchte ich dann zum Abschluss zeigen – das Konzept der Turingmaschine findet sich auch schon im Kern von allem Biologischen. Ein Befund, den man nun nicht unbedingt erwarten muß.

TURINGMASCHINE

Das Konzept der Turingmaschine (rechts oben im Bild) als Teil eines Theoriebildungsprozesses

[Bild: Theorieprozess TM] So wie Newton angeblich beim Fallen eines Apfels seine entscheidende Einsicht in das Wesen des Gravitationsgesetzes bekommen haben soll, so beschreibt Turing selbst in dem entscheidenden Artikel von 1936-7, dass es die Arbeit eines Buchhalters im Büro war, die ihn inspiriert hat. So, wie der Buchhalter mit einem Stift auf einem Blatt Papier Zahl an Zahl fügt, so stellte er sich eine ideale Maschine vor (siehe im Bild rechts oben), die auf einem Band mit lauter Kästchen, entweder über ein Schreib-Lese-Fenster lesen kann, was in dem Kästchen geschrieben ist oder ein neues Zeichen in das Kästchen schreiben kann. Darüber hinaus kann die ideale endliche Maschine den Schreib-Lesekopf nur um ein Feld nach links oder rechts bewegen. Das ist alles. Das Verhalten der idealen endlichen Maschine wird gesteuert über eine endliche Liste von Befehlen

TM BEISPIEL

Bild einer 4-zeiligen Turingmaschine, Vereinfachung eines Beispiels von einer Webseite (Quelle: siehe Literaturvereichnis). Auf der Webseite kann man dieses Beispiel sowohl erweitern als auch real ausführen.

[Bild: TM mit vier Zeilen] In einem einfachen Beispiel einer TM können Sie solche Befehlszeilen erkennen: in der ersten Spalte steh der Name eines Zustandes (z0), dann folgt ein Feld mit dem Zeichen, das gelesen werden kann, dann eine Feld mit dem Namen des Folgezustandes (z0), dann das Zeichen, das in diesem Fall geschrieben werden soll, und schließlich ein Zeichen, welche Bewegung ausgeführt werden soll.

Im Beispiel würde man die erste Zeile etwa wie folgt lesen: Im Zustand z0 wird beim Lesen des Zeichens ‚#‘ der Zustand z0 beibehalten, für das Zeichen ‚#‘ würde das neue Zeichen ‚1‘ geschrieben und der Schreib-Lesekopf wird um 1 Feld nach rechts bewegt.

Im Beispiel umfasst das ganze Verhaltens-Programm 4 Zeilen.

Das ist alles. Das ist die berühmte Turingmaschine, die sich als weltweiter Standard zur Prüfung der Berechenbarkeit eines Prozesses durchgesetzt hat. Was immer bislang an anderen Formalismen gefunden wurde, sofern solch ein Formalismus endliche Berechenbarkeit beschreiben soll, war er niemals stärker als eine Turingmaschine.

Oder anders ausgedrückt:

Sofern es nicht möglich ist, zu zeigen, dass eine Turingmaschine, angesetzt auf ein Problem, nach endlichen vielen Schritten zu einem Ergebnis kommt, solange kann man nicht behaupten, dass dieses Problem (Turing-)berechenbar ist.

Auf der Basis der Turingmaschine wurden in den vergangenen Jahrzehnten eine ganze Reihe interessanter Unentscheidbarkeitsresultate bewiesen. Auf die kann ich hier jetzt nicht eingehen. In meinen Augen habe diese Ergebnisse alle eine sehr hohe philosophische Relevanz.

Wie eingangs festgestellt, sehe ich einen interessanten Zusammenhang zwischen der Turingmaschine, dem Menschen und der Evolution des Biologischen. Lassen Sie uns daher einen kurzen Blick darauf werfen.

EVOLUTION, KOEVOLUTION, …

GENOTYP UND PHÄNOTYP

Wechselwirkung zwischen Genotyp und Phänotyp einerseits und Phänotyp mit umgebender ökologischer Nische andererseits

[Bild: Genotyp und Phänotyp] Ausgangspunkt dieser Überlegungen ist das erstaunliche Faktum, dass die Vielfalt und Komplexität der Körper – der sogenannte Phänotyp – zurückführbar ist auf die zugrunde liegenden genetischen Informationen – auf den sogenannten Genotyp –. In einem Wachstumsprozess wird – ausgehend von einer einzigen Zelle – ein Körpergebilde mit vielen Billionen Zellen aufgebaut, die alle in einem sinnvollen funktionalen Zusammenhang enden.

Es lohnt, sich klar zu machen, dass dieses unfassbare Wunderwerke eine sehr lange, komplexe Entstehungsgeschichte hat, die selbst im universalen Maßstab ihresgleichen sucht.

EVOLUTION ALS TEIL DER ENTWICKLUNG DES UNIVERSUMS

Massstäbliches Diagramm zur Geschichte des Universums; Hervorhebung wichtiger Meilensteine für die Entstehung des Biologischen

[Bild: Entwicklung des Universums mit Evolution] Das Schaubild zeigt maßstabsgetreu wichtige Entwicklungsstationen im bekannten Universum an. Unsere Position auf der Zeitachse ist unmittelbar dort, wo das grüne Dreieck endet. Das grüne Dreieck zeigt an, ab wann zellbasiertes Leben auf der Erde nachweisbar ist. Die Erde begann ca. vor 4.55 Mrd Jahren. Die chemische Evolution, die dann zu ersten einfachen Zellen führte, setzte ungefähr vor 4 Mrd. Jahren ein, 200 Mio Jahre später eben erste einfachste Zellstrukturen. Es dauerte dann etwa 2.8 Mrd Jahre bis es zu ersten multizellulären Lebensformen kam, die dann einige hundert Mio Jahre später zur Besiedlung des Landes führte. Von diesem Zeitpunkt bis zu uns dauerte es nochmals 700 Mio Jahre.

Nach heutigem Wissensstand wird es nur ca. 1 Mrd Jahre dauern, bis in der Zukunft das Leben auf der Erde wegen der beginnenden Aufblähung der Sonne praktisch unmöglich werden wird.

Sind schon diese zeitlichen Verhältnisse atemberaubend, so ist es noch spannender, wenn man der Frage nachgeht, wie es denn überhaupt zur Ausbildung dieser extrem komplexen Strukturen kommen konnte.

Das Schwierigste ist dabei nicht einmal die biologische Evolution, die mit dem Auftreten der ersten Zellen vor ca. 3.8 Mrd. Jahren begann, sondern die härteste, bis heute nicht geknackte Nuss, ist eine Erklärung, wie es überhaupt zu den ersten Zellen kommen konnte. Denn selbst bei den einfachsten Zellen wirken schon so viele komplexe Strukturen zusammen, dass eine Erklärung der schrittweisen Entstehung dieser Strukturen im Rahmen der sogenannten chemischen Evolution bislang nicht völlig aufgehellt ist.

Kehren wir zu den ersten Zellen zurück.

Ich hatte angekündigt, dass die TM als Grundmodell der Berechenbarkeit sich im Herzen des Biologischen wiederfindet.

RIBOSOM ALS TURINGMASCHINE

Links im Bild ein Ribosom, das Proteine zusammenbaut, und rechts das Schema einer Turingmaschine

[Bild: links Ribosom, rechts Turingmaschine] Dies können Sie hier sehen:

Links sehen sie das Prozeßmodell, wie ein Ribosom – ein spezielles RNA-Molekül – Proteine erzeugt, indem es Informationen von einem Boten-RNA-Molekül bekommt und zugleich Aminosäurebasteine von Transfer-RNA-Molekülen. Der Dirigent im Hintergrund ist ein DNA-Molekül, dessen Bausteine als Informationseinheiten auf das Ribosom einwirken.

Was sie hier sehen ist das Herzstück allen biologischen Lebens und – möglicherweise – eines der wahren Wunder des ganzen Universums. Das, was allen bekannten Gesetzen der Physik zuwiderläuft und sich jeder anderen bekannten Erklärung entzieht das ist dieses DNA-Molekül. Das DNA-Molekül repräsentiert eine frei kombinierbare Anordnung von Aminosäuren, für die es in den möglichen Kombinationen keinerlei zwingende Gründe gibt. Durch die Verknüpfung mit dem proteinerzeugenden Mechanismus mittels mRNA, tRNA und Ribosom stellt die DNA aber eine Quelle von unerschöpflich vielen Bauplänen für Körperstrukturen dar.

Im Lichte des Konzepts der Turingmaschine bieten sich folgende Interpretationen an. Wie im Bild eingezeichnet lässt sich das Ribosom als eine Turingmaschine interpretieren, die als Input Eingaben von der mRNA und der tRNA bekommt und diese dann in eine Ausgabe als Protein verwandelt. Da das Ribosom, wie wir wissen, aber bzgl. seiner Eingaben nicht rückwärts gehen kann, sondern immer nur vorwärts, schöpft es die Möglichkeiten einer Turingmaschine nicht einmal ganz aus; es entspricht damit eher noch einer abgeschwächten TM mit Namen ‚endlicher deterministischer Automat‘.

Zentral bleibt das Faktum, dass wir im innersten Kern des Biologischen berechenbare Prozesse finden, die von einem DNA-Molekül gesteuert werden, das mit seinen Eigenschaften dem Konzept eines Zeichens sehr nahe kommt.

QUINTESSENZ des BIOLOGISCHEN

Zusammenfassung aller wichtigen Eckdaten zum Biologischen. Im Bild fehlt allerdings der Aspekt der Tendenz zum Aufbau komplexer Strukturen, und zwar tendenziell immer komplexerer Strukturen

[Bild: Zusammenfassung Biologisches] Fassen wir diese verschiedenen Aspekte des Biologischen nochmals zusammen:

Ausgangspunkt aller biologischer Phänomene ist das kosmische Faktum, dass die Entropie bislang noch nicht maximal ist. Aus den lokalen Entropiegefällen ist daher ‚freie Energie‘ verfügbar, die in Gestalt von chemischen, biochemischen und dann biologischen Prozessen lokal Strukturen entstehen lassen, die immanent in Richtung immer größerer Komplexität drängen. Dafür gibt es bislang keine befriedigende naturwissenschaftliche Theorie.

In Gestalt der zellbasierten biologischen Evolution können wir ein komplexes Zusammenspiel zwischen Genotyp und Phänotyp einerseits beobachten, aber simultan genauso wichtig das Zusammenspiel zwischen Phänotyp und umgebender Welt. Während der zufallsgesteuerte Genotyp den Raum möglicher Strukturen frei absuchen kann, führt die Bindung des Genotyps an den Phänotyp über die Interaktion mit der umgebenden Welt zu einem übergeordneten Selektionsprozess, der nur jene Phänotypen und damit daran gekoppelte Genotypen akzeptiert, die zur Umgebung passen. Daraus ergibt sich, dass die biologische Evolution simultan und unausweichlich immer nur als Ko-Evolution funktionieren kann.

Damit stellt sich die Frage, ob wir es bei der Emergenz des Geistigen als Eigenschaft des Biologischen mit einer Neuerschaffung des Geistes zu tun haben, oder ’nur‘ mit der Sichtbarmachung des stehts schon vorhandenen ‚Geistigen‘?

Hält man sich diesen Gesamtzusammenhang vor Augen, dann kann der direkte Vergleich zwischen dem Menschen und einer Turingmaschine in einem neuen Licht erscheinen.

MENSCH und KÜNSTLICHER GEIST

MENSCH TURINGMASCHINE

Oben Systemformel Mensch, unten Systemformel Turingmaschine (TM) und dann Universelle Turingmaschine (UTM)

[Bild: Formel Mensch und (U)TM] Sie sehen auf diesem Schaubild nochmals die schon bekannte Verhaltensformel des Menschen, die sich dadurch auszeichnet, dass wir vom Menschen annehmen können, dass er sich innerhalb seines wissensbasierten Verhaltens bis zu einem gewissen Grade kontinuierlich verändern kann. Man nennt dies Lernen.

Die ’normale‘ Turingmaschine kann dies zunächst nicht. Sie ist vollständig determiniert. Allerdings nur auf den ersten Blick.

Schon Turing hat gezeigt, dass man eine deterministische Turingmaschine sehr leicht zu einer universellen sich selbst modifizierenden Maschine ‚umbauen‘ kann, indem man einen Teil des Bandes dazu benutzt, dort die Beschreibung einer beliebigen Turingmaschine (oder eines Gehirns, oder…) zu speichern. Die ursprüngliche deterministische Turingmaschine kann dann diese andere Turingmaschine simulieren bis dahin, dass sie diese andere Beschreibung in Abhängigkeit von Umgebungsereignissen abändern kann. Damit ist eine universelle Turingmaschine (UTM) voll lernfähig.

Zieht man diese Möglichkeit in Betracht, dann gibt es weder strukturell noch verhaltensmässig einen wesentlichen Unterschied zwischen einem Menschen (sofern er mit der obigen Formel adäquat erfasst wird) und einer universellen Turingmaschine.

Bei solch einer Betrachtungsweise verwundert es dann nicht, dass Turing selbst in verschiedenen Aufsätzen offen darüber spekuliert hatte, dass eine universelle Turingmaschine im Prinzip die vom Menschen her bekannte Geistigkeit nicht nur nachzuahmen sondern in bestimmten Bereichen sogar übertreffen könnte. Letztlich sah er nur praktische Hindernisse auf dem Weg dahin, insbesondere die Schwierigkeit, eine Maschine an all den Lernprozessen teilhaben zu lassen, die Menschen normalerweise durchlaufen.

Künstlicher Geist?

Wenn man sich all diese Gedanken in einer Gesamtschau nochmals vor Augen stellt, dann kann man den Eindruck gewinnen, dass all das, was wir traditionell ‚Geist‘ nennen, also diverse Eigenschaften, die wir mit dem Verhalten des Menschen zusammen bringen, möglicherweise so zu verstehen ist, dass hier Eigenschaften ’sichtbar‘ werden von jenen ‚impliziten‘ Eigenschaften der dynamischen Materie, aus dem alles ist. Die mit den bisherigen Gesetzen der empirischen Wissenschaften nicht erklärbaren biologischen Phänomene wären dann ’nur‘ ‚Ausfaltungen‘ von empirischen Eigenschaften, die genau wie alles andere impliziten ‚Gesetzen‘ folgen.

Wenn dies stimmen würde, dann müsste die ‚Konstruktion‘ eines künstlichen Geistes immer dann möglich sein, wenn man die ‚Randbedingungen‘ für das ‚Aufscheinen‘ (Emergenz?) der geistigen Phänomene bereitstellen würde.

In einer Diskussion in der Nacht des 9.Oktobers dieses Jahres entstand angesichts dieser Sachlage die Idee, in der Stadt Goethes, den künstlichen Geist unter Beteiligung der Öffentlichkeit offiziell entstehen zu lassen.

In einer öffentlich kontrollierten Entstehung des künstlichen Geistes hätten alle eine Chance, ein wesentliches Prinzip dieses unseres Universums und deren Anwendung bzw. Nutzung besser verstehen zu können.

Es geht nicht darum, den Geist neu zu erfinden, sondern das, was vor allem Denken schon da ist, sichtbar zu machen.

Erkennnis ist nicht nur ein Wissensproblem, sondern auch ein Akzeptanzproblem: sind wir bereit zu akzeptieren wer wir wirklich sind: Teil eines universalen Geistwerdungsprozesses, der uns eine immer größere Mitwirkungsmöglichkeit zuweist (womit nicht ausgeschlossen ist, dass es irgendwo in den unendlichen Weiten des Universums ähnliche Prozesse gibt).

An dieser Stelle höre ich jetzt auf, obgleich es ja gerade erst anfängt…

[Anmerkung (11.April 2015): Nach zwei Jahren Diskussion konnte im April die Webseite zum Emerging Mind Projekt eröffnet werden. Offizieller Start ist der 10.November 2015. In diesem Projekt geht es genau um das, was in dem vorausgehenden Beitrag diskutiert wurde, die öffentliche Erzeugung eines Künstlichen Geistes samt den dazugehörigen begleitenden philosophischen Diskussionen und künstlerischen Aktionen.]

LITERATURVERWEISE

 

  1. Davis, M. Computability and Unsolvability, New York – Toronto – London: McGraw-Hill Book Company, Inc.,1958
  2. Davis, M. (Ed.). (1965). The Undecidable. Basic Papers On Undecidable Propositions, Unsolvable Problems And Computable Functions. Hewlett (NY): Raven Press.
  3. Doeben-Henisch, G.; Beschreibung TM auf der Seite: http://www.doeben-henisch.de/fh/I-TI04/VL/VL3/i-ti04-vl-vl3.html
  4. Gödel, K. Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I, In: Monatshefte Math.Phys., vol.38(1931),pp:175-198
  5. Gödel, K. Remarks before the princeton bicentennial conference on problems in mathematics, 1946. In: Martin Davis, 1965: pp.84-87
  6. Hilbert, D.; Ackermann, W. Grundzüge der theoretischen Logik, Berlin. J.Springer, 1928
  7. Hilbert in Wikipedia (en): Hilbert’s problems, URL: http://en.wikipedia.org/wiki/Hilbert%27sproblems (Last access Sept-30, 2012)
  8. Hilbert, D. Mathematische Probleme, Vortrag, gehalten auf dem internationalen Mathematiker-Kongreß zu Paris 1900, Göttinger Nachrichten 1900, S.253-297, URL:
    http://www.mathematik.uni-bielefeld.de/ kersten/hilbert/rede.html, und
    http://www.mathematik.uni-bielefeld.de/ kersten/hilbert/(Last Access Sept-30, 2012)
  9. Kandel, E.R.; Schwartz, J.H.; Jessell, T.M.; Siegelbaum, S.A.; Hudspeth, A.J.; (Eds.) Principles of Neural Science, 5th.ed., New York et.al: McGrawHill, 2012
  10. TM – Beispiel aus dem Internet, vereinfacht. Siehe http://keinerspieltmitmir.de/turing/ (letzter Besuch: 12.Nov.2012)
  11. Turing, A.M.; Intelligence Service. Schriften, ed. by Dotzler, B.; Kittler, F.; Berlin: Brinkmann & Bose, 1987, ISBN 3-922660-2-3
  12. Turing, A. M. On Computable Numbers with an Application to the Entscheidungsproblem. In: Proc. London Math. Soc., Ser.2, vol.42(1936), pp.230-265; received May 25, 1936;
    Appendix added August 28; read November 12, 1936; corr. Ibid. vol.43(1937), pp.544-546. Turing’s paper appeared in Part 2 of vol.42 which was issued in December 1936 (Reprint
    in M.DAVIS 1965, pp.116-151; corr. ibid. pp.151-154).(an online version at:
    http://www.comlab.ox.ac.uk/activities/ieg/e-library/sources/tp2-ie.pdf, last accesss Sept-30, 2012)
  13. Wikipedia (en): Body Surface at http://en.wikipedia.org/wiki/Human body (letzter Besuch: 12.Nov.2012)
  14. Wikipedia (en). Brain at http://en.wikipedia.org/wiki/Human brain (letzter Besuch: 12.Nov.2012)
  15. Wikipedia (en): Human skeleton at http://en.wikipedia.org/wiki/Human_skeleton (letzter Besuch 12.Nov.2012)
  16. Wikipedia (en):  Organs beyond the Body Surface at http://en.wikipedia.org/wiki/Human anatomy (letzter Besuch: 12.Nov.2012)
  17. Wikipedia (en): Neuron at http://en.wikipedia.org/wiki/Neuron (letzter Besuch: 12.Nov.2012)

Eine Übersicht über alle bisherigen Beiträge anhand der Titel findet sich HIER

SUCHE NACH DEM URSPRUNG UND DER BEDEUTUNG DES LEBENS (Paul Davies). Teil 2 (Information als Grundeigenschaft alles Materiellen?)

Paul Davies, The FIFTH MIRACLE: The Search for the Origin and Meaning of Life, New York:1999, Simon & Schuster

 Fortsetzung von Suche… (Teil 1)

Start: 27.Aug.2012

Letzte Fortsetzung: 1.Sept.2012

  1. Das dritte Kapitel ist überschrieben ‚Out of the Slime‘. (SS.69-96) Es startet mit Überlegungen zur Linie der Vorfahren (Stammbaum), die alle auf ‚gemeinsame Vorfahren‘ zurückführen. Für uns Menschen zu den ersten Exemplaren des homo sapiens in Afrika vor 100.000 Jahren, zu den einige Millionen Jahre zurückliegenden gemeinsamen Vorläufern von Affen und Menschen; ca. 500 Mio Jahre früher waren die Vorläufer Fische, zwei Milliarden Jahre zurück waren es Mikroben. Und diese Rückführung betrifft alle bekannten Lebensformen, die, je weiter zurück, sich immer mehr in gemeinsamen Vorläufern vereinigen, bis hin zu den Vorläufern allen irdischen Lebens, Mikroorganismen, Bakterien, die die ersten waren.(vgl. S.69f)

  2. [Anmerkung: Die Formulierung von einem ‚einzelnen hominiden Vorfahren‘ oder gar von der ‚afrikanischen Eva‘ kann den Eindruck erwecken, als ob der erste gemeinsame Vorfahre ein einzelnes Individuum war. Das scheint mir aber irreführend. Bedenkt man, dass wir ‚Übergangsphasen‘ haben von Atomen zu Molekülen, von Molekülen zu Netzwerken von Molekülen, von Molekülnetzwerken zu Zellen, usw. dann waren diese Übergänge nur erfolgreich, weil viele Milliarden und Abermilliarden von Elementen ‚gleichzeitig‘ beteiligt waren; anders wäre ein ‚Überleben‘ unter widrigsten Umständen überhaupt nicht möglich gewesen. Und es spricht alles dafür, dass dieses ‚Prinzip der Homogenität‘ sich auch bei den ‚komplexeren‘ Entwicklungsstufen fortgesetzt hat. Ein einzelnes Exemplar einer Art, das durch irgendwelche besonderen Eigenschaften ‚aus der Reihe‘ gefallen wäre, hätte gar nicht existieren können. Es braucht immer eine Vielzahl von hinreichend ‚ähnlichen‘ Exemplaren, dass ein Zusammenwirken und Fortbestehen realisiert werden kann. Die ‚Vorgänger‘ sind also eher keine spezifischen Individuen (wenngleich in direkter Abstammung schon), sondern immer Individuen als Mitglieder einer bestimmten ‚Art‘.]

  3. Es ist überliefert, dass Darwin im Sommer 1837, nach der Rückkehr von seiner Forschungsreise mit der HMS Beagle in seinem Notizbuch erstmalig einen irregulär verzweigenden Baum gemalt hat, um die vermuteten genealogischen Zusammenhänge der verschiedenen Arten darzustellen. Der Baum kodierte die Annahme, dass letztlich alle bekannten Lebensformen auf einen gemeinsamen Ursprung zurückgehen. Ferner wird deutlich, dass viele Arten (heutige Schätzungen: 99%) irgendwann ‚ausgestorben‘ sind. Im Falle einzelliger Lebewesen gab es aber – wie wir heute zunehmend erkennen können – auch das Phänomene der Symbiose: ein Mikroorganismus ‚frißt‘ andere und ‚integriert‘ deren Leistung ‚in sich‘ (Beispiel die Mitochondrien als Teil der heute bekannten Zellen). Dies bedeutet, dass ‚Aussterben‘ auch als ‚Synthese‘ auftreten kann.(vgl. SS.70-75)

  4. Die Argumente für den Zusammenhang auf Zellebene zwischen allen bekannten und ausgestorbenen Arten mit gemeinsamen Vorläufern beruhen auf den empirischen Fakten, z.B. dass die metabolischen Verläufe der einzelnen Zellen gleich sind, dass die Art und Weise der genetischen Kodierung und Weitergabe gleich ist, dass der genetische Kode im Detail der gleiche ist, oder ein kurioses Detail wie die molekulare Ausrichtung – bekannt als Chiralität –; obgleich jedes Molekül aufgrund der geltenden Gesetze sowohl rechts- oder linkshändig sein kann, ist die DNA bei allen Zellen ‚rechtshändig‘ und ihr Spiegelbild linkshändig. (vgl.SS.71-73)

  5. Da das DNA-Molekül bei allen bekannten Lebensformen in gleicher Weise unter Benutzung von Bausteinen aus Aminosäure kodiert ist, kann man diese Moleküle mit modernen Sequenzierungstechniken Element für Element vergleichen. Unter der generellen Annahme, dass sich bei Weitergabe der Erbinformationen durch zufällige Mutationen von Generation zur Generation Änderungen ergeben können, kann man anhand der Anzahl der verschiedenen Elemente sowohl einen ‚genetischen Unterschied‘ wie auch einen ‚genealogischen Abstand‘ konstruieren. Der genetische Unterschied ist direkt ’sichtbar‘, die genaue Bestimmung des genealogischen Abstands im ‚Stammbaum‘ hängt zusätzlich ab von der ‚Veränderungsgeschwindigkeit‘. Im Jahr 1999 war die Faktenlage so, dass man annimmt, dass es gemeinsame Vorläufer für alles Leben gegeben hat, die sich vor ca. 3 Milliarden Jahren in die Art ‚Bakterien‘ und ‚Nicht-Bakterien‘ verzweigt haben. Die Nicht-Bakterien haben sich dann weiter verzweigt in ‚Eukaryoten‘ und ‚Archäen‘. (vgl. SS.75-79)

  6. Davies berichtet von bio-geologischen Funden nach denen in de Nähe von Isua (Grönland) Felsen von vor mindestens -3.85 Milliarden Jahren gefunden wurden mit Spuren von Bakterien. Ebenso gibt es Funde von Stromatolythen (Nähe Shark Bay, Australien), mit Anzeichen für Cyanobakterien aus der Zeit von ca. -3.5 Milliarden Jahren und aus der gleichen Zeit Mikrofossilien in den Warrawoona Bergen (Australien). Nach den Ergebnissen aus 1999 hatten die Cyanobakterien schon -3.5 Mrd. Jahre Mechanismen für Photosynthese, einem höchst komplexen Prozess.(vgl. SS.79-81)

  7. Die immer weitere Zurückverlagerung von Mikroorganismen in die Vergangenheit löste aber nicht das Problem der Entstehung dieser komplexen Strukturen. Entgegen der früher verbreiteten Anschauung, dass ‚Leben‘ nicht aus ‚toter Materie‘ entstehen kann, hatte schon Darwin 1871 in einem Brief die Überlegung geäußert, dass in einer geeigneten chemischen Lösung über einen hinreichend langen Zeitraum jene Moleküle und Molekülvernetzungen entstehen könnten, die dann zu den bekannten Lebensformen führen. Aber erst in den 20iger Jahren des 20.Jahrhunderts waren es Alexander Oparin (Rußland) und J.B.S.Haldane (England) die diese Überlegungen ernst nahmen. Statt einem kleinen See,  wie bei Darwin, nahm Haldane an, dass es die Ozeane waren, die den Raum für den Übergangsprozess von ‚Materie‘ zu ‚Leben‘ boten. Beiden Forschern fehlten aber in ihrer Zeit die entscheidende Werkzeuge und Erkenntnisse der Biochemie und Molekularbiologie, um ihre Hypothesen testen zu können. Es war Harold Urey (USA) vorbehalten, 1953 mit ersten Laborexperimenten beginnen zu können, um die Hypothesen zu testen. (vgl. SS.81-86)

  8. Mit Hilfe des Studenten Miller arrangierte Urey ein Experiment, bei dem im Glaskolben eine ‚Mini-Erde‘ bestehend aus etwas Wasser mit den Gasen Methan, Hydrogen und Ammonium angesetzt wurde. Laut Annahme sollte dies der Situation um ca. -4 Millarden Jahren entsprechen. Miller erzeugte dann in dem Glaskolben elektrische Funken, um den Effekt von Sonnenlicht zu simulieren. Nach einer Woche fand er dann verschiedene Amino-Säuren, die als Bausteine in allen biologischen Strukturen vorkommen, speziell auch in Proteinen.(vgl. S.86f)

  9. Die Begeisterung war groß. Nachfolgende Überlegungen machten dann aber klar, dass damit noch nicht viel erreicht war. Die Erkenntnisse der Geologen deuteten in den nachfolgenden Jahren eher dahin, dass die Erdatmosphäre, die die sich mehrfach geändert hatte, kaum Ammonium und Methan enthielt, sondern eher reaktions-neutrales Kohlendioxyd und Schwefel, Gase die keine Aminosäuren produzieren. (vgl.S.87)

  10. Darüber hinaus ist mit dem Auftreten von Aminosäuren als Bausteine für mögliche größere Moleküle noch nichts darüber gesagt, ob und wie diese größere Moleküle entstehen können. Genauso wenig wie ein Haufen Ziegelsteine einfach so ein geordnetes Haus bilden wird, genauso wenig formen einzelne Aminosäuren ‚einfach so‘ ein komplexes Molekül (ein Peptid oder Polypeptid). Dazu muss der zweite Hauptsatz überwunden werden, nach dem ’spontane‘ Prozesse nur in Richtung Energieabbau ablaufen. Will man dagegen komplexe Moleküle bauen, muss man gegen den zweiten Hauptsatz die Energie erhöhen; dies muss gezielt geschehen. In einem angenommenen Ozean ist dies extrem unwahrscheinlich, da hier Verbindungen eher aufgelöst statt synthetisiert werden.(vgl.87-90)

  11. Der Chemiker Sidney Fox erweiterte das Urey-Experiment durch Zufuhr von Wärme. In der Tat bildeten sich dann Ketten von Aminosäurebausteinen die er ‚Proteinoide‘ nannte. Diese waren eine Mischung aus links- und rechts-händigen Molekülen, während die biologisch relevanten Moleküle alle links-händig sind. Mehr noch, die biologisch relevanten Aminosäureketten sind hochspezialisiert. Aus der ungeheuren Zahl möglicher Kombinationen die ‚richtigen‘ per Zufall zu treffen grenzt mathematisch ans Unmögliche.(vgl.S.90f) Dazu kommt, dass eine Zelle viele verschiedene komplexe Moleküle benötigt (neben Proteinen auch Lipide, Nukleinsäuren, Ribosomen usw.). Nicht nur ist jedes dieser Moleküle hochkomplex, sondern sie entfalten ihre spezifische Wirkung als ‚lebendiges Ensemble‘ erst im Zusammenspiel. Jedes Molekül ‚für sich‘ weiß aber nichts von einem Zusammenhang. Wo kommen die Informationen für den Zusammenhang her? (vgl.S.91f) Rein mathematisch ist die Wahrscheinlichkeit, dass sich die ‚richtigen‘ Proteine bilden in der Größenordnung von 1:10^40000, oder, um ein eindrucksvolles Bild des Physikers Fred Hoyle zu benutzen: genauso unwahrscheinlich, wie wenn ein Wirbelsturm aus einem Schrottplatz eine voll funktionsfähige Boeing 747 erzeugen würde. (vgl.S.95)

  12. Die Versuchung, das Phänomen des Lebens angesichts dieser extremen Unwahrscheinlichkeiten als etwas ‚Besonderes‘, als einen extrem glücklichen Zufall, zu charakterisieren, ist groß. Davies plädiert für eine Erklärung als eines ’natürlichen physikalischen Prozesses‘. (S.95f)

  13. Im Kapitel 4 ‚The Message in the Machine‘ (SS.97-122) versucht Davies mögliche naturwissenschaftliche Erklärungsansätze, beginnend bei den Molekülen, vorzustellen. Die Zelle selbst ist so ungeheuerlich komplex, dass noch ein Niels Bohr die Meinung vertrat, dass Leben als ein unerklärbares Faktum hinzunehmen sei (vgl.Anmk.1,S.99). Für die Rekonstruktion erinnert Davies nochmals daran, dass diejenigen Eigenschaften, die ‚lebende‘ Systeme von ’nicht-lebenden‘ Systemen auszeichnen, Makroeigenschaften sind, die sich nicht allein durch Verweis auf die einzelnen Bestandteile erklären lassen, sondern nur und ausschließlich durch das Zusammenspiel der einzelnen Komponenten. Zentrale Eigenschaft ist hier die Reproduktion. (vgl.SS.97-99)

  14. Reproduktion ist im Kern gebunden an das Kopieren von drei-dimensional charakterisierten DNA-Molekülen. Vereinfacht besteht solch ein DNA-Molekül aus zwei komplementären Strängen, die über eine vierelementiges Alphabet von Nukleinsäurebasen miteinander so verbunden sind, dass es zu jeder Nukleinsäurebase genau ein passendes Gegenstück gibt. Fehlt ein Gegenstück, ist es bei Kenntnis des Kodes einfach, das andere Stück zu ergänzen. Ketten von den vierelementigen Basen können ‚Wörter‘ bilden, die ‚genetische Informationen‘ kodieren. Ein ‚Gen‘ wäre dann solch ein ‚Basen-Wort‘. Und das ganze Molekül wäre dann die Summe aller Gene als ‚Genom‘. Das ‚Auftrennen‘ von Doppelsträngen zum Zwecke des Kopierens wie auch das wieder ‚Zusammenfügen‘ besorgen spezialisierte andere Moleküle (Enzyme). Insgesamt kann es beim Auftrennen, Kopieren und wieder Zusammenfügen zu ‚Fehlern‘ (Mutationen) kommen. (vgl.SS.100-104)

  15. Da DNA-Moleküle als solche nicht handlungsfähig sind benötigen sie eine Umgebung, die dafür Sorge trägt, dass die genetischen Informationen gesichert und weitergegeben werden. Im einfachen Fall ist dies eine Zelle. Um eine Zelle aufzubauen benötigt man Proteine als Baumaterial und als Enzyme. Proteine werden mithilfe der genetischen Informationen in der DNA erzeugt. Dazu wird eine Kopie der DNA-Informationen in ein Molekül genannt Boten-RNA (messenger RNA, mRNA) kopiert, dieses wandert zu einem komplexen Molekülnetzwerk genannt ‚Ribosom‘. Ribosomen ‚lesen‘ ein mRNA-Molekül als ‚Bauanleitung‘ und generieren anhand dieser Informationen Proteine, die aus einem Alphabet von 20 (bisweilen 21) Aminosäuren zusammengesetzt werden. Die Aminosäuren, die mithilfe des Ribosoms Stück für Stück aneinandergereiht werden, werden von spezialisierten Transportmolekülen (transfer RNA, tRNA) ‚gebracht‘, die so gebaut sind, dass immer nur dasjenige tRNA-Molekül andocken kann, das zur jeweiligen mRNA-Information ‚passt‘. Sobald die mRNA-Information ‚abgearbeitet‘ ist, liegt eines von vielen zehntausend möglichen Proteinen vor. (vgl.SS. 104-107) Bemerkenswert ist die ‚Dualität‘ der DNA-Moleküle (wie auch der mRNA) sowohl als ‚Material/ Hardware‘ wie auch als ‚Information/ Software‘. (vgl.S.108)

  16. Diese ‚digitale‘ Perspektive vertieft Davies durch weitere Betrachtung und führt den Leser zu einem Punkt, bei dem man den Eindruck gewinnt, dass die beobachtbaren und messbaren Materialien letztlich austauschbar sind bezogen auf die ‚impliziten Strukturen‘, die damit realisiert werden. Am Beispiel eines Modellflugzeugs, das mittels Radiowellen ferngesteuert wird, baut er eine Analogie dahingehend auf, dass die Hardware (das Material) des Flugzeugs wie auch der Radiowellen selbst als solche nicht erklären, was das Flugzeug tut. Die Hardware ermöglicht zwar grundsätzlich bestimmte Flugeigenschaften, aber ob und wie diese Eigenschaften genutzt werden, das wird durch ‚Informationen‘ bestimmt, die per Radiowellen von einem Sender/ Empfänger kommuniziert werden. Im Fall einer Zelle bilden komplexe Molekülnetzwerke die Hardware mit bestimmten verfügbaren chemischen Eigenschaften, aber ihr Gesamtverhalten wird gesteuert durch Informationen, die primär im DNA-Molekül kodiert vorliegt und die als ‚dekodierte‘ Information alles steuert.(vgl. SS.113-115)

  17. [Anmerkung: Wie schon zuvor festgestellt, repräsentieren Atome und Moleküle als solche keine ‚Information‘ ‚von sich aus‘. Sie bilden mögliche ‚Ereignisse‘ E ‚für andere‘ Strukturen S, sofern diese andere Strukturen S auf irgendeine Weise von E ‚beeinflusst‘ werden können. Rein physikalisch (und chemisch) gibt es unterschiedliche Einwirkungsmöglichkeiten (z.B. elektrische Ladungen, Gravitation,…). Im Falle der ‚Information‘ sind es aber nicht nur solche primären physikalisch-chemischen Eigenschaften, die benutzt werden, sondern das ‚empfangende‘ System S befindet sich in einem Zustand, S_inf, der es dem System ermöglicht, bestimmte physikalisch-chemische Ereignisse E als ‚Elemente eines Kodes‘ zu ‚interpretieren. Ein Kode ist minimal eine Abbildungsvorschrift, die Elemente einer Menge X (die primäre Ereignismenge) in eine Bildmenge Y (irgendwelche anderen Ereignisse, die Bedeutung) ‚übersetzt‘ (kodiert), also CODE: X —> Y. Das Materiell-Stoffliche wird damit zum ‚Träger von Informationen‘, zu einem ‚Zeichen‘, das von einem Empfänger S ‚verstanden‘ wird. Im Falle der zuvor geschilderten Replikation wurden ausgehend von einem DNA-Molekül (= X, Ereignis, Zeichen) mittels mRNA, tRNA und Ribosom (= Kode, CODE) bestimmte Proteine (=Y, Bedeutung) erzeugt. Dies bedeutet, dass die erzeugten Proteine die ‚Bedeutung des DNA-Moleküls‘ sind unter Voraussetzung eines ‚existierenden Kodes‘ realisiert im Zusammenspiel eines Netzwerkes von mRNA, tRNAs und Ribosom. Das Paradoxe daran ist, das die einzelnen Bestandteile des Kodes, die Moleküle mRNA, tRNA und Ribosom (letzteres selber hochkomplex) ‚für sich genommen‘ keinen Kode darstellen, nur in dem spezifischen Zusammenspiel! Wenn also die einzelnen materiellen Bestandteile, die Atome und Moleküle ‚für sich gesehen‘ keinen komplexen Kode darstellen, woher kommt dann die Information, die alle diese materiell hochkomplexen Bestandteile auf eine Weise ‚zusammenspielen‘ lässt, die weit über das hinausgeht, was die Bestandteile einzeln ‚verkörpern‘? ]

  18. "Zelle und Turingmaschine"
    zelle_tm

    [Anmerkung: Es gibt noch eine andere interssante Perspektive. Das mit Abstand wichtigste Konzept in der (theoretischen) Informatik ist das Konzept der Berechenbarkeit, wie es zunächst von Goedel 1931, dann von Turing in seinem berühmten Artikel von 1936-7 vorgelegt worden ist. In seinem Artikel definiert Turing das mathematische (!) Konzept einer Vorrichtung, die alle denkbaren berechenbaren Prozesse beschreiben soll. Später gaben andere dieser Vorrichtung den Namen ‚Turingmaschine‘ und bis heute haben alle Beweise immer nur dies eine gezeigt, dass es kein anderes formales Konzept der intuitiven ‚Berechenbarkeit‘ gibt, das ’stärker‘ ist als das der Turingmaschine. Die Turingmaschine ist damit einer der wichtigsten – wenn nicht überhaupt der wichtigste — philosophischen Begriff(e). Viele verbinden den Begriff der Turingmaschine oft mit den heute bekannten Computern oder sehen darin die Beschreibung eines konkreten, wenngleich sehr ‚umständlichen‘ Computers. Das ist aber vollständig an der Sache vorbei. Die Turingmaschine ist weder ein konkreter Computer noch überhaupt etwas Konkretes. Genau wie der mathematische Begriff der natürlichen Zahlen ein mathematisches Konzept ist, das aufgrund der ihm innewohnenden endlichen Unendlichkeit niemals eine reale Zahlenmenge beschreibt, sondern nur das mathematische Konzept einer endlich-unendlichen Menge von abstrakten Objekten, für die die Zahlen des Alltags ‚Beispiele‘ sind, genauso ist auch das Konzept der Turingmaschine ein rein abstraktes Gebilde, für das man konkrete Beispiele angeben kann, die aber das mathematische Konzept selbst nie erschöpfen (die Turingmaschine hat z.B. ein unendliches Schreib-Lese-Band, etwas, das niemals real existieren kann).
    ]

  19. [Anmerkung: Das Interessante ist nun, dass man z.B. die Funktion des Ribosoms strukturell mit dem Konzept einer Turingmaschine beschreiben kann (vgl. Bild). Das Ribosom ist jene Funktionseinheit von Molekülen, die einen Input bestehend aus mRNA und tRNAs überführen kann in einen Output bestehend aus einem Protein. Dies ist nur möglich, weil das Ribosom die mRNA als Kette von Informationseinheiten ‚interpretiert‘ (dekodiert), die dazu führen, dass bestimmte tRNA-Einheiten zu einem Protein zusammengebaut werden. Mathematisch kann man diese funktionelle Verhalten eines Ribosoms daher als ein ‚Programm‘ beschreiben, das gleichbedeutend ist mit einer ‚Funktion‘ bzw. Abbildungsvorschrift der Art ‚RIBOSOM: mRNA x tRNA —> PROTEIN. Das Ribosom stellt somit eine chemische Variante einer Turingmaschine dar (statt digitalen Chips oder Neuronen). Bleibt die Frage, wie es zur ‚Ausbildung‘ eines Ribosoms kommen kann, das ’synchron‘ zu entsprechenden mRNA-Molekülen die richtige Abbildungsvorschrift besitzt.
    ]
  20. Eine andere Blickweise auf das Phänomen der Information ist jene des Mathematikers Chaitin, der darauf aufmerksam gemacht hat, dass man das ‚Programm‘ eines Computers (sein Algorithmus, seine Abbildungsfunktion, seine Dekodierungsfunktion…) auch als eine Zeichenkette auffassen kann, die nur aus Einsen und Nullen besteht (also ‚1101001101010..‘). Je mehr Wiederholungen solch eine Zeichenkette enthalten würde, um so mehr Redundanz würde sie enthalten. Je weniger Wiederholung, um so weniger Redundanz, um so höher die ‚Informationsdichte‘. In einer Zeichenkette ohne jegliche Redundanz wäre jedes einzelne Zeichen wichtig. Solche Zeichenketten sind formal nicht mehr von reinen zufallsbedingten Ketten unterscheidbar. Dennoch haben biologisch nicht alle zufälligen Ketten eine ’nützliche‘ Bedeutung. DNA-Moleküle ( bzw. deren Komplement die jeweiligen mRNA-Moleküle) kann man wegen ihrer Funktion als ‚Befehlssequenzen‘ als solche binär kodierten Programme auffassen. DNA-Moleküle können also durch Zufall erzeugt worden sein, aber nicht alle zufälligen Erzeugungen sind ’nützlich‘, nur ein verschwindend geringer Teil.  Dass die ‚Natur‘ es geschafft hat, aus der unendlichen Menge der nicht-nützlichen Moleküle per Zufall die herauszufischen, die ’nützlich‘ sind, geschah einmal durch das Zusammenspiel von Zufall in Gestalt von ‚Mutation‘ sowie Auswahl der ‚Nützlichen‘ durch Selektion. Es stellt sich die Frage, ob diese Randbedingungen ausreichen, um das hohe Mass an Unwahrscheinlichkeit zu überwinden. (vgl. SS. 119-122)
  21. [Anmerkung: Im Falle ‚lernender‘ Systeme S_learn haben wir den Fall, dass diese Systeme einen ‚Kode‘ ‚lernen‘ können, weil sie in der Lage sind, Ereignisse in bestimmter Weise zu ‚bearbeiten‘ und zu ’speichern‘, d.h. sie haben Speichersysteme, Gedächtnisse (Memory), die dies ermöglichen. Jedes Kind kann ‚lernen‘, welche Ereignisse welche Wirkung haben und z.B. welche Worte was bedeuten. Ein Gedächtnis ist eine Art ‚Metasystem‘, in dem sich ‚wahrnehmbare‘ Ereignisse E in einer abgeleiteten Form E^+ so speichern (= spiegeln) lassen, dass mit dieser abgeleiteten Form E^+ ‚gearbeitet‘ werden kann. Dies setzt voraus, dass es mindestens zwei verschiedene ‚Ebenen‘ (layer, level) im Gedächtnis gibt: die ‚primären Ereignisse‘ E^+ sowie die möglichen ‚Beziehungen‘ RE, innerhalb deren diese vorkommen. Ohne dieses ‚Beziehungswissen‘ gibt es nur isolierte Ereignisse. Im Falle multizellulärer Organismen wird diese Speicheraufgabe durch ein Netzwerk von neuronalen Zellen (Gehirn, Brain) realisiert. Der einzelnen Zelle kann man nicht ansehen, welche Funktion sie hat; nur im Zusammenwirken von vielen Zellen ergeben sich bestimmte Funktionen, wie z.B. die ‚Bearbeitung‘ sensorischer Signale oder das ‚Speichern‘ oder die Einordnung in eine ‚Beziehung‘. Sieht man mal von der spannenden Frage ab, wie es zur Ausbildung eines so komplexen Netzwerkes von Neuronen kommen konnte, ohne dass ein einzelnes Neuron als solches ‚irgend etwas weiß‘, dann stellt sich die Frage, auf welche Weise Netzwerke von Molekülen ‚lernen‘ können.  Eine minimale Form von Lernen wäre das ‚Bewahren‘ eines Zustandes E^+, der durch ein anderes Ereignis E ausgelöst wurde; zusätzlich müsste es ein ‚Bewahren‘ von Zuständen geben, die Relationen RE zwischen primären Zuständen E^+ ‚bewahren‘. Solange wir es mit frei beweglichen Molekülen zu tun haben, ist kaum zu sehen, wie es zu solchen ‚Bewahrungs-‚ sprich ‚Speicherereignissen‘ kommen kann. Sollte es in irgend einer Weise Raumgebiete geben, die über eine ‚hinreichend lange Zeit‘ ‚konstant bleiben, dann wäre es zumindest im Prinzip möglich, dass solche ‚Bewahrungsereignisse‘ stattfinden. Andererseits muss man aber auch sehen, dass diese ‚Bewahrungsereignisse‘ aus Sicht eines möglichen Kodes nur möglich sind, wenn die realisierenden Materialien – hier die Moleküle bzw. Vorstufen zu diesen – physikalisch-chemische Eigenschaften aufweisen, die grundsätzlich solche Prozesse nicht nur ermöglichen, sondern tendenziell auch ‚begünstigen‘, und dies unter Berücksichtigung, dass diese Prozesse ‚entgegen der Entropie‘ wirken müssen. Dies bedeutet, dass — will man keine ‚magischen Kräfte‘ annehmen —  diese Reaktionspotentiale schon in den physikalisch-chemischen Materialien ‚angelegt‘ sein müssen, damit sie überhaupt auftreten können. Weder Energie entsteht aus dem Nichts noch – wie wir hier annehmen – Information. Wenn wir also sagen müssen, dass sämtliche bekannte Materie nur eine andere Zustandsform von Energie ist, dann müssen wir vielleicht auch annehmen, dass alle bekannten ‚Kodes‘ im Universum nichts anderes sind als eine andere Form derjenigen Information, die von vornherein in der Energie ‚enthalten‘ ist. Genauso wie Atome und die subatomaren Teilchen nicht ’neutral‘ sind sondern von vornherein nur mit charakteristischen (messbaren) Eigenschaften auftreten, genauso müsste man dann annehmen, dass die komplexen Kodes, die wir in der Welt und dann vor allem am Beispiel biologischer Systeme bestaunen können, ihre Wurzeln in der grundsätzlichen ‚Informiertheit‘ aller Materie hat. Atome formieren zu Molekülen, weil die physikalischen Eigenschaften sie dazu ‚bewegen‘. Molkülnetzwerke entfalten ein spezifisches ‚Zusammenspiel‘, weil ihre physikalischen Eigenschaften das ‚Wahrnehmen‘, ‚Speichern‘ und ‚Dekodieren‘ von Ereignissen E in einem anderen System S grundsätzlich ermöglichen und begünstigen. Mit dieser Annahme verschwindet ‚dunkle Magie‘ und die Phänomene werden ‚transparent‘, ‚messbar‘, ‚manipulierbar‘, ‚reproduzierbar‘. Und noch mehr: das bisherige physikalische Universum erscheint in einem völlig neuen Licht. Die bekannte Materie verkörpert neben den bislang bekannten physikalisch-chemischen Eigenschaften auch ‚Information‘ von ungeheuerlichen Ausmaßen. Und diese Information ‚bricht sich selbst Bahn‘, sie ‚zeigt‘ sich in Gestalt des Biologischen. Das ‚Wesen‘ des Biologischen sind dann nicht die ‚Zellen als Material‘, das Blut, die Muskeln, die Energieversorgung usw., sondern die Fähigkeit, immer komplexer Informationen aus dem Universum ‚heraus zu ziehen, aufzubereiten, verfügbar zu machen, und damit das ‚innere Gesicht‘ des Universums sichtbar zu machen. Somit wird ‚Wissen‘ und ‚Wissenschaft‘ zur zentralen Eigenschaft des Universums samt den dazugehörigen Kommunikationsmechanismen.]

  22. Fortsetzung Teil 3

Einen Überblick über alle bisherigen Themen findet sich HIER

Zitierte  Literatur:

Chaitin, G.J. Information, Randomness & Incompleteness, 2nd ed.,  World Scientific, 1990

Turing, A. M. On Computable Numbers with an Application to the Entscheidungsproblem. In: Proc. London Math. Soc., Ser.2, vol.42(1936), pp.230-265; received May 25, 1936; Appendix added August 28; read November 12, 1936; corr. Ibid. vol.43(1937), pp.544-546. Turing’s paper appeared in Part 2 of vol.42 which was issued in December 1936 (Reprint in M.DAVIS 1965, pp.116-151; corr. ibid. pp.151-154).

 Interessante Links:

Ein Video in Youtube, das eine Rede von Pauls Davies dokumentiert, die thematisch zur Buchbesprechung passt und ihn als Person etwas erkennbar macht.

Teil 1:
http://www.youtube.com/watch?v=9tB1jppI3fo

Teil 2:
http://www.youtube.com/watch?v=DXXFNnmgcVs

Teil 3:
http://www.youtube.com/watch?v=Ok9APrXfIOU

Teil 4:
http://www.youtube.com/watch?v=vXqqa1_0i7E

Part 5:
http://www.youtube.com/watch?v=QVrRL3u0dF4
Es gibt noch einige andere Videos mit Paul Davies bei Youtube.