SEMIOTIK UND KÜNSTLICHE INTELLIGENZ. EIN VIELVERSPRECHENDES TEAM. Nachschrift eines Vortrags an der Universität Passau am 22.Okt.2015

KONTEXT

  1. Im Rahmen der interdisziplinären Ringvorlesung Grenzen (Wintersemester 2015/16) an der Universität Passau (organisiert von der Deutsche Gesellschaft für Semiotik (DGS) e.V. in Kooperation mit der Professur für Neuere deutsche Literaturwissenschaft und Mediensemiotik (Prof. Dr. Jan-Oliver Decker und Dr. Stefan Halft) hatte ich einen Vortrag angenommen mit dem Titel Semiotik und künstliche Intelligenz. Ein vielversprechendes Team. Wie immer halte ich Vorträge immer zu Fragen, die ich bis dahin noch nicht ausgearbeitet hatte und nutze diese Herausforderung, es dann endlich mal zu tun.
  2. Die Atmosphäre beim Vortrag war sehr gut und die anschließenden Gespräche brachte viele interessanten Aspekte zutage, was wir im Rahmen der DGS noch tun sollten/ könnten, um das Thema weiter zu vertiefen.

MOTIV – WARUM DIESES THEMA

  1. Angesichts der vielfältigen Geschichte der Semiotik könnte man natürlich ganze Abende nur mit Geschichten über die Semiotik füllen. Desgleichen im Fall der künstlichen Intelligenz [KI]. Der Auslöser für das Thema war dann auch der spezielle Umstand, dass im Bereich der KI seit etwa den 80iger Jahren des 20.Jahrhunderts in einigen Forschungsprojekten das Thema Semiotik ganz neu auftaucht, und nicht als Randthema sondern verantwortlich für die zentralen Begriffe dieser Forschungen. Gemeint sind die berühmten Roboterexperimente von Luc Steels (ähnlich auch aufgegriffen von anderen, z.B. Paul Vogt) (siehe Quellen unten).
  2. Unter dem Eindruck großer Probleme in der klassischen KI, die aus einem mangelnden direkten Weltbezug resultierten (das sogenannte grounding Problem) versuchte Steels, Probleme des Zeichen- und Sprachlernens mit Hilfe von Robotern zu lösen, die mit ihren Sensoren direkten Kontakt zur empirischen Welt haben und die mit ihren Aktoren auch direkt auf die Welt zurück wirken können. Ihre internen Verarbeitungsprozesse können auf diese Weise abhängig gemacht werden (eine Form von grounding) von der realen Welt (man spricht hier auch von embodied intelligence).
  3. Obwohl Steels (wie auch Vogt) auf ungewöhnliche Weise grundlegende Begriffe der Semiotik einführen, wird dieser semiotische Ansatz aber nicht weiter reflektiert. Auch findet nicht wirklich eine Diskussion des Gesamtansatzes statt, der aus dieser Kombination von Semiotik und Robotik/ KI entsteht bzw. entstehen könnte. Dies ist schade. Der Vortrag Semiotik und künstliche Intelligenz. Ein vielversprechendes Team stellt einen Versuch dar, heraus zu arbeiten, warum die Kombination Semiotik und KI nicht nur Sinn macht, sondern eigentlich das Zeug hätte, zu einem zentralen Forschungsparadigma für die Zukunft zu werden. Tatsächlich liegt dem Emerging Mind Projekt, das hier im Blog schon öfters erwähnt wurde und am 10.November 2015 offiziell eröffnet werden wird, genau dieses Semiotik-KI-Paradigma zugrunde.

WELCHE SEMIOTIK?

  1. Wer Wörterbücher zur Semiotik aufschlägt (z.B. das von Noeth 2000), wird schnell bemerken, dass es eine große Vielfalt von Semiotikern, semiotischen Blickweisen, Methoden und Theorieansätze gibt, aber eben nicht die eine große Theorie. Dies muss nicht unbedingt negativ sein, zumal dann nicht, wenn wir ein reiches Phänomen vor uns haben, das sich eben einer einfachen Theoriebildung widersetzt. Für die Praxis allerdings, wenn man Semiotik in einer realen Theoriebildung einsetzen möchte, benötigt man verbindliche Anknüpfungspunkte, auf die man sich bezieht. Wie kann man solch eine Entscheidung motivieren?
  2. Aus der Sicht der Wissenschaftsphilosophie biete es sich an, die unterschiedlichen Zugangsweisen zur Erfahrung und und Beschreibung von Wirklichkeit als quasi Koordinatensystem zu wählen, diesem einige der bekanntesten semiotischen Ansätze zu zuordnen und dann zu schaue, welche dieser semiotischen Positionen der Aufgabenstellung am nächsten kommen. Von einer Gesamttheorie her betrachtet sind natürlich alle Ansätze wichtig. Eine Auswahl bzw. Gewichtung kann nur pragmatische Gründe haben.

ZUGÄNGE ZUR WIRKLICHKEIT

  1. Grundsätzlich gibt es aus heutiger Sicht zwei Zugangsweisen: über den intersubjektiven (empirischen) Bereich und über das subjektive Erleben.
  2. Innerhalb des empirischen Bereichs gab es lange Zeit nur den Bereich des beobachtbaren Verhaltens [SR] (in der Psychologie) ohne die inneren Zustände des Systems; seit ca. 50-60 Jahren eröffnen die Neurowissenschaften auch einen Zugriff auf die Vorgänge im Gehirn. Will man beide Datenbereiche korrelieren, dann gerät man in das Gebiet der Neuropsychologie [NNSR].
  3. Der Zugang zur Wirklichkeit über den subjektiven Bereich – innerhalb der Philosophie auch als phänomenologischer Zugang bekannt – hat den Vorteil einer Direktheit und Unmittelbarkeit und eines großen Reichtums an Phänomenen.
  4. Was den meisten Menschen nicht bewusst ist, ist die Tatsache, dass die empirischen Phänomene nicht wirklich außerhalb des Bewusstseins liegen. Die Gegenstände in der Zwischenkörperzone (der empirische Bereich) sind als Gegenstände zwar (was wir alle unterstellen) außerhalb des Bewusstseins, aber die Phänomene, die sie im Bewusstsein erzeugen, sind nicht außerhalb, sondern im Bewusstsein. Das, was die empirischen Phänomene [PH_em] von den Phänomenen, unterscheidet, die nicht empirisch [PH_nem] sind, ist die Eigenschaft, dass sie mit etwas in der Zwischenkörperwelt korrespondieren, was auch von anderen Menschen wahrgenommen werden kann. Dadurch lässt sich im Falle von empirischen Phänomenen relativ leicht Einigkeit zwischen verschiedenen Kommunikationsteilnehmern über die jeweils korrespondierenden Gegenstände/ Ereignisse erzielen.
  5. Bei nicht-empirischen Phänomenen ist unklar, ob und wie man eine Einigkeit erzielen kann, da man nicht in den Kopf der anderen Person hineinschauen kann und von daher nie genau weiß, was die andere Person meint, wenn sie etwas Bestimmtes sagt.
  6. Die Beziehung zwischen Phänomenen des Bewusstseins [PH] und Eigenschaften des Gehirns – hier global als NN abgekürzt – ist von anderer Art. Nach heutigem Wissensstand müssen wir davon ausgehen, dass alle Phänomene des Bewusstseins mit Eigenschaften des Gehirns korrelieren. Aus dieser Sicht wirkt das Bewusstsein wie eine Schnittstelle zum Gehirn. Eine Untersuchung der Beziehungen zwischen Tatsachen des Bewusstseins [PH] und Eigenschaften des Gehirns [NN] würde in eine Disziplin fallen, die es so noch nicht wirklich gibt, die Neurophänomenologie [NNPH] (analog zur Neuropsychologie).
  7. Der Stärke des Bewusstseins in Sachen Direktheit korrespondiert eine deutliche Schwäche: im Bewusstsein hat man zwar Phänomene, aber man hat keinen Zugang zu ihrer Entstehung! Wenn man ein Objekt sieht, das wie eine Flasche aussieht, und man die deutsche Sprache gelernt hat, dann wird man sich erinnern, dass es dafür das Wort Flasche gibt. Man konstatiert, dass man sich an dieses Wort in diesem Kontext erinnert, man kann aber in diesem Augenblick weder verstehen, wie es zu dieser Erinnerung kommt, noch weiß man vorher, ob man sich erinnern wird. Man könnte in einem Bild sagen: das Bewusstsein verhält sich hier wie eine Kinoleinwand, es konstatiert, wenn etwas auf der Leinwand ist, aber es weiß vorher nicht, ob etwas auf die Leinwand kommen wird, wie es kommt, und nicht was kommen wird. So gesehen umfasst das Bewusstsein nur einen verschwindend kleinen Teil dessen, was wir potentiell wissen (können).

AUSGEWÄHLTE SEMIOTIKER

  1. Nach diesem kurzen Ausflug in die Wissenschaftsphilosophie und bevor hier einzelne Semiotiker herausgegriffen werden, sei eine minimale Charakterisierung dessen gegeben, was ein Zeichen sein soll. Minimal deshalb, weil alle semiotischen Richtungen, diese minimalen Elemente, diese Grundstruktur eines Zeichens, gemeinsam haben.
  2. Diese Grundstruktur enthält drei Komponenten: (i) etwas, was als Zeichenmaterial [ZM] dienen kann, (ii) etwas, das als Nichtzeichenmaterial [NZM] fungieren kann, und (iii) etwas, das eine Beziehung/ Relation/ Abbildung Z zwischen Zeichen- und Nicht-Zeichen-Material in der Art repräsentiert, dass die Abbildung Z dem Zeichenmaterial ZM nicht-Zeichen-Material NZM zuordnet. Je nachdem, in welchen Kontext man diese Grundstruktur eines Zeichens einbettet, bekommen die einzelnen Elemente eine unterschiedliche Bedeutung.
  3. Dies soll am Beispiel von drei Semiotikern illustriert werden, die mit dem zuvor charakterisierten Zugängen zur Wirklichkeit korrespondieren: Charles William Morris (1901 – 1979), Ferdinand de Saussure (1857-1913) und Charles Santiago Sanders Peirce (1839 – 1914) .
  4. Morris, der jüngste von den Dreien, ist im Bereich eines empirischen Verhaltensansatzes zu positionieren, der dem verhaltensorientierten Ansatz der modernen empirischen Psychologie nahe kommt. In diesem verhaltensbasierten Ansatz kann man die Zeichengrundstruktur so interpretieren, dass dem Zeichenmaterial ZM etwas in der empirischen Zwischenwelt korrespondiert (z.B. ein Laut), dem Nicht-Zeichen-Material NZM etwas anderes in der empirischen Außenwelt (ein Objekt, ein Ereignis, …), und die Zeichenbeziehung Z kommt nicht in der empirischen Welt direkt vor, sondern ist im Zeichenbenutzer zu verorten. Wie diese Zeichenbeziehung Z im Benutzer tatsächlich realisiert ist, war zu seiner Zeit empirische noch nicht zugänglich und spielt für den Zeichenbegriff auch weiter keine Rolle. Auf der Basis von empirischen Verhaltensdaten kann die Psychologie beliebige Modellannahmen über die inneren Zustände des handelnden Systems machen. Sie müssen nur die Anforderung erfüllen, mit den empirischen Verhaltensdaten kompatibel zu sein. Ein halbes Jahrhundert nach Morris kann man anfangen, die psychologischen Modellannahmen über die Systemzustände mit neurowissenschaftlichen Daten abzugleichen, sozusagen in einem integrierten interdisziplinären neuropsychologischen Theorieansatz.
  5. Saussure, der zweit Jüngste von den Dreien hat als Sprachwissenschaftler mit den Sprachen primär ein empirisches Objekt, er spricht aber in seinen allgemeinen Überlegungen über das Zeichen in einer bewusstseinsorientierten Weise. Beim Zeichenmaterial ZM spricht er z.B. von einem Lautbild als einem Phänomen des Bewusstseins, entsprechend von dem Nicht-Zeichenmaterial auch von einer Vorstellung im Bewusstsein. Bezüglich der Zeichenbeziehung M stellt er fest, dass diese außerhalb des Bewusstseins liegt; sie wird vom Gehirn bereit gestellt. Aus Sicht des Bewusstseins tritt diese Beziehung nur indirekt in Erscheinung.
  6. Peirce, der älteste von den Dreien, ist noch ganz in der introspektiven, phänomenologischen Sicht verankert. Er verortet alle drei Komponenten der Zeichen-Grundstruktur im Bewusstsein. So genial und anregend seine Schriften im einzelnen sind, so führt diese Zugangsweise über das Bewusstsein zu großen Problemen in der Interpretation seiner Schriften (was sich in der großen Bandbreite der Interpretationen ausdrückt wie auch in den nicht selten geradezu widersprüchlichen Positionen).
  7. Für das weitere Vorgehen wird in diesem Vortrag der empirische Standpunkt (Verhalten + Gehirn) gewählt und dieser wird mit der Position der künstlichen Intelligenz ins Gespräch gebracht. Damit wird der direkte Zugang über das Bewusstsein nicht vollständig ausgeschlossen, sondern nur zurück gestellt. In einer vollständigen Theorie müsste man auch die nicht-empirischen Bewusstseinsdaten integrieren.

SPRACHSPIEL

  1. Ergänzend zu dem bisher Gesagten müssen jetzt noch drei weitere Begriffe eingeführt werden, um alle Zutaten für das neue Paradigma Semiotik & KI zur Verfügung zu haben. Dies sind die Begriffe Sprachspiel, Intelligenz sowie Lernen.
  2. Der Begriff Sprachspiel wird auch von Luc Steels bei seinen Roboterexperimenten benutzt. Über den Begriff des Zeichens hinaus erlaubt der Begriff des Sprachspiels den dynamischen Kontext des Zeichengebrauchs besser zu erfassen.
  3. Steels verweist als Quelle für den Begriff des Sprachspiels auf Ludwig Josef Johann Wittgenstein (1889-1951), der in seiner Frühphase zunächst die Ideen der modernen formalen Logik und Mathematik aufgriff und mit seinem tractatus logico philosophicus das Ideal einer am logischen Paradigma orientierten Sprache skizzierte. Viele Jahre später begann er neu über die normale Sprache nachzudenken und wurde sich selbst zum schärfsten Kritiker. In jahrelangen Analysen von alltäglichen Sprachsituationen entwickelte er ein facettenreiches Bild der Alltagssprache als ein Spiel, in dem Teilnehmer nach Regeln Zeichenmaterial ZM und Nicht-Zeichen-Material NZM miteinander verknüpfen. Dabei spielt die jeweilige Situation als Kontext eine Rolle. Dies bedeutet, das gleiche Zeichenmaterial kann je nach Kontext unterschiedlich wirken. Auf jeden Fall bietet das Konzept des Sprachspiels die Möglichkeit, den ansonsten statischen Zeichenbegriff in einen Prozess einzubetten.
  4. Aber auch im Fall des Sprachspielkonzepts benutzt Steels zwar den Begriff Sprachspiel, reflektiert ihn aber nicht soweit, dass daraus ein explizites übergreifendes theoretisches Paradigma sichtbar wird.
  5. Für die Vision eines neuen Forschungsparadigmas Semiotik & KI soll also in der ersten Phase die Grundstruktur des Zeichenbegriffs im Kontext der empirischen Wissenschaften mit dem Sprachspielkonzept von Wittgenstein (1953) verknüpft werden.

INTELLIGENZ

  1. Im Vorfeld eines Workshops der Intelligent Systems Division des NIST 2000 gab es eine lange Diskussion zwischen vielen Beteiligten, wie man denn die Intelligenz von Maschinen messen sollte. In meiner Wahrnehmung verhedderte sich die Diskussion darin, dass damals nach immer neuen Klassifikationen und Typologien für die Architektur der technischen Systeme gesucht wurde, anstatt das zu tun, was die Psychologie schon seit fast 100 Jahren getan hatte, nämlich auf das Verhalten und dessen Eigenschaften zu schauen. Ich habe mich in den folgenden Jahren immer wieder mit der Frage des geeigneten Standpunkts auseinandergesetzt. In einem Konferenzbeitrag von 2010 (zusammen mit anderen, insbesondere mit Louwrence Erasmus) habe ich dann dafür argumentiert, das Problem durch Übernahme des Ansatzes der Psychologie zu lösen.
  2. Die Psychologie hatte mit Binet (1905), Stern (1912 sowie Wechsler (1939) eine grundsätzliche Methode gefunden hatte, die Intelligenz, die man nicht sehen konnte, indirekt durch Rückgriff auf Eigenschaften des beobachtbaren Verhaltens zu messen (bekannt duch den Begriff des Intelligenz-Quotienten, IQ). Die Grundidee bestand darin, dass zu einer bestimmten Zeit in einer bestimmten Kultur bestimmte Eigenschaften als charakteristisch für ein Verhalten angesehen werden, das man allgemein als intelligent bezeichnen würde. Dies impliziert zwar grundsätzlich eine gewisse Relativierung des Begriffs Intelligenz (was eine Öffnung dahingehend impliziert, dass zu anderen Zeiten unter anderen Umständen noch ganz neue Eigenschaftskomplexe bedeutsam werden können!), aber macht Intelligenz grundsätzlich katalogisierbar und damit messbar.
  3. Ein Nebeneffekt der Bezugnahme auf Verhaltenseigenschaften findet sich in der damit möglichen Nivellierung der zu messenden potentiellen Strukturen in jenen Systemen, denen wir Intelligenz zusprechen wollen. D.h. aus Sicht der Intelligenzmessung ist es egal ob das zu messende System eine Pflanze, ein Tier, ein Mensch oder eine Maschine ist. Damit wird – zumindest im Rahmen des vorausgesetzten Intelligenzbegriffs – entscheidbar, ob und in welchem Ausmaß eine Maschine möglicherweise intelligent ist.
  4. Damit eignet sich dieses Vorgehen auch, um mögliche Vergleiche zwischen menschlichem und maschinellem Verhalten in diesem Bereich zu ermöglichen. Für das Projekt des Semiotk & KI-Paradigmas ist dies sehr hilfreich.

LERNEN

  1. An dieser Stelle ist es wichtig, deutlich zu machen, dass Intelligenz nicht notwendigerweise ein Lernen impliziert und Lernen nicht notwendigerweise eine Intelligenz! Eine Maschine (z.B. ein schachspielender Computer) kann sehr viele Eigenschaften eines intelligenten Schachspielers zeigen (bis dahin, dass der Computer Großmeister oder gar Weltmeister besiegen kann), aber sie muss deswegen nicht notwendigerweise auch lernfähig sein. Dies ist möglich, wenn erfahrene Experten hinreichend viel Wissen in Form eines geeigneten Programms in den Computer eingeschrieben haben, so dass die Maschine aufgrund dieses Programms auf alle Anforderungen sehr gut reagieren kann. Von sich aus könnte der Computer dann nicht dazu lernen.
  2. Bei Tieren und Menschen (und Pflanzen?) gehen wir von einer grundlegenden Lernfähigkeit aus. Bezogen auf das beobachtbare Verhalten können wir die Fähigkeit zu Lernen dadurch charakterisieren, dass ein System bis zu einem Zeitpunkt t bei einem bestimmten Reiz s nicht mit einem Verhalten r antwortet, nach dem Zeitpunkt t aber dann plötzlich doch, und dieses neue Verhalten über längere Zeit beibehält. Zeigt ein System eine solche Verhaltensdynamik, dann darf man unterstellen, dass das System in der Lage ist, seine inneren Zustände IS auf geeignete Weise zu verändern (geschrieben: phi: I x IS —> IS x O (mit der Bedeutung I := Input (Reize, Stimulus s), O := Output (Verhaltensantworten, Reaktion r), IS := interne Zustände, phi := Name für die beobachtbare Dynamik).
  3. Verfügt ein System über solch eine grundlegende Lernfähigkeit (die eine unterschiedlich reiche Ausprägung haben kann), dann kann es sich im Prinzip alle möglichen Verhaltenseigenschaften aneignen/ erwerben/ erlernen und damit im oben beschriebenen Sinne intelligent werden. Allerdings gibt es keine Garantie, dass eine Lernfähigkeit notwendigerweise zu einer bestimmten Intelligenz führen muss. Viele Menschen, die die grundsätzliche Fähigkeit besitzen, Schachspielen oder Musizieren oder Sprachen zu lernen,  nutzen diese ihre Fähigkeiten niemals aus; sie verzichten damit auf Formen intelligenten Verhaltens, die ihnen aber grundsätzlich offen stehen.
  4. Wir fordern also, dass die Lernfähigkeit Teil des Semiotik & KI-Paradigmas sein soll.

LERNENDE MASCHINEN

  1. Während die meisten Menschen heute Computern ein gewisses intelligentes Verhalten nicht absprechen würden, sind sie sich mit der grundlegenden Lernfähigkeit unsicher. Sind Computer im echten Sinne (so wie junge Tiere oder menschliche Kinder) lernfähig?
  2. Um diese Frage grundsätzlich beantworten zu können, müsste man ein allgemeines Konzept von einem Computer haben, eines, das alle heute und in der Zukunft existierende und möglicherweise in Existenz kommende Computer in den charakteristischen Eigenschaften erschöpfend beschreibt. Dies führt zur Vor-Frage nach dem allgemeinsten Kriterium für Computer.
  3. Historisch führt die Frage eigentlich direkt zu einer Arbeit von Turing (1936/7), in der er den Unentscheidbarkeitsbeweis von Kurt Gödel (1931) mit anderen Mitteln nochmals nachvollzogen hatte. Dazu muss man wissen, dass es für einen formal-logischen Beweis wichtig ist, dass die beim Beweis zur Anwendung kommenden Mittel, vollständig transparent sein müssen, sie müssen konstruktiv sein, was bedeutet, sie müssen endlich sein oder effektiv berechenbar. Zum Ende des 19.Jh und am Anfang des 20.Jh gab es zu dieser Fragestellung eine intensive Diskussion.
  4. Turing wählte im Kontrast zu Gödel keine Elemente der Zahlentheorie für seinen Beweis, sondern nahm sich das Verhalten eines Büroangestellten zum Vorbild: jemand schreibt mit einem Stift einzelne Zeichen auf ein Blatt Papier. Diese kann man einzeln lesen oder überschreiben. Diese Vorgabe übersetze er in die Beschreibung einer möglichst einfachen Maschine, die ihm zu Ehren später Turingmaschine genannt wurde (für eine Beschreibung der Elemente einer Turingmaschine siehe HIER). Eine solche Turingmaschine lässt sich dann zu einer universellen Turingmaschine [UTM] erweitern, indem man das Programm einer anderen (sekundären) Turingmaschine auf das Band einer primären Turingmaschine schreibt. Die primäre Turingmaschine kann dann nicht nur das Programm der sekundären Maschine ausführen, sondern kann es auch beliebig abändern.
  5. In diesem Zusammenhang interessant ist, dass der intuitive Begriff der Berechenbarkeit Anfang der 30ige Jahre des 20.Jh gleich dreimal unabhängig voneinander formal präzisiert worden ist (1933 Gödel und Herbrand definierten die allgemein rekursiven Funktionen; 1936 Church den Lambda-Kalkül; 1936 Turing die a-Maschine für ‚automatische Maschine‘, später Turing-Maschine). Alle drei Formalisierungen konnten formal als äquivalent bewiesen werden. Dies führte zur sogenannten Church-Turing These, dass alles, was effektiv berechnet werden kann, mit einem dieser drei Formalismen (also auch mit der Turingmaschine) berechnet werden kann. Andererseits lässt sich diese Church-Turing These selbst nicht beweisen. Nach nunmehr fast 80 Jahren nimmt aber jeder Experte im Feld an, dass die Church-Turing These stimmt, da bis heute keine Gegenbeispiele gefunden werden konnten.
  6. Mit diesem Wissen um ein allgemeines formales Konzept von Computern kann man die Frage nach der generellen Lernfähigkeit von Computern dahingehend beantworten, dass Computer, die Turing-maschinen-kompatibel sind, ihre inneren Zustände (im Falle einer universellen Turingmaschine) beliebig abändern können und damit die Grundforderung nach Lernfähigkeit erfüllen.

LERNFÄHIGE UND INTELLIGENTE MASCHINEN?

  1. Die Preisfrage stellt sich, wie eine universelle Turingmaschine, die grundsätzlich lernfähig ist, herausfinden kann, welche der möglichen Zustände interessant genug sind, um damit zu einem intelligenten Verhalten zu kommen?
  2. Diese Frage nach der möglichen Intelligenz führt zur Frage der verfügbaren Kriterien für Intelligenz: woher soll eine lernfähige Maschine wissen, was sie lernen soll?
  3. Im Fall biologischer Systeme wissen wir mittlerweile, dass die lernfähigen Strukturen als solche dumm sind, dass aber durch die schiere Menge an Zufallsexperimenten ein Teil dieser Experimente zu Strukturen geführt hat, die bzgl. bestimmter Erfolgskriterien besser waren als andere. Durch die Fähigkeit, die jeweils erfolgreichen Strukturen in Form von Informationseinheiten zu speichern, die dann bei der nächsten Reproduktion erinnert werden konnten, konnten sich die relativen Erfolge behaupten.
  4. Turing-kompatible Computer können speichern und kodieren, sie brauchen allerdings noch Erfolgskriterien, um zu einem zielgerichtete Lernen zu kommen.

LERNENDE SEMIOTISCHE MASCHINEN

  1. Mit all diesen Zutaten kann man jetzt lernende semiotische Maschinen konstruieren, d.h. Maschinen, die in der Lage sind, den Gebrauch von Zeichen im Kontext eines Prozesses, zu erlernen. Das dazu notwendige Verhalten gilt als ein Beispiel für intelligentes Verhaltens.
  2. Es ist hier nicht der Ort, jetzt die Details solcher Sprach-Lern-Spiele auszubreiten. Es sei nur soviel gesagt, dass man – abschwächend zum Paradigma von Steels – hier voraussetzt, dass es schon mindestens eine Sprache L und einen kundigen Sprachteilnehmer gibt (der Lehrer), von dem andere Systeme (die Schüler), die diese Sprache L noch nicht kennen, die Sprache L lernen können. Diese Schüler können dann begrenzt neue Lehrer werden.
  3. Zum Erlernen (Training) einer Sprache L benötigt man einen definierten Kontext (eine Welt), in dem Lehrer und Schüler auftreten und durch Interaktionen ihr Wissen teilen.
  4. In einer Evaluationsphase (Testphase), kann dann jeweils überprüft werden, ob die Schüler etwas gelernt haben, und wieviel.
  5. Den Lernerfolge einer ganzen Serie von Lernexperimenten (ein Experiment besteht aus einem Training – Test Paar) kann man dann in Form einer Lernkurve darstellen. Diese zeigt entlang der Zeitachse, ob die Intelligenzleistung sich verändert hat, und wie.
  6. Gestaltet man die Lernwelt als eine interaktive Softwarewelt, bei der Computerprogramme genauso wie Roboter oder Menschen mitwirken können, dann kann man sowohl Menschen als Lehrer benutzen wie auch Menschen im Wettbewerb mit intelligenten Maschinen antreten lassen oder intelligente Maschinen als Lehrer oder man kann auch hybride Teams formen.
  7. Die Erfahrungen zeigen, dass die Konstruktion von intelligenten Maschinen, die menschenähnliche Verhaltensweisen lernen sollen, die konstruierenden Menschen dazu anregen, ihr eigenes Verhalten sehr gründlich zu reflektieren, nicht nur technisch, sondern sogar philosophisch.

EMERGING MIND PROJEKT

  1. Die zuvor geschilderten Überlegungen haben dazu geführt, dass ab 10.November 2015 im INM Frankfurt ein öffentliches Forschungsprojekt gestartet werden soll, das Emerging Mind Projekt heißt, und das zum Ziel hat, eine solche Umgebung für lernende semiotische Maschinen bereit zu stellen, mit der man solche semiotischen Prozesse zwischen Menschen und lernfähigen intelligenten Maschinen erforschen kann.

QUELLEN

  • Binet, A., Les idees modernes sur les enfants, 1909
  • Doeben-Henisch, G.; Bauer-Wersing, U.; Erasmus, L.; Schrader,U.; Wagner, W. [2008] Interdisciplinary Engineering of Intelligent Systems. Some Methodological Issues. Conference Proceedings of the workshop Modelling Adaptive And Cognitive Systems (ADAPCOG 2008) as part of the Joint Conferences of SBIA’2008 (the 19th Brazilian Symposium on Articial Intelligence); SBRN’2008 (the 10th Brazilian Symposium on Neural Networks); and JRI’2008 (the Intelligent Robotic Journey) at Salvador (Brazil) Oct-26 – Oct-30(PDF HIER)
  • Gödel, K. Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I, In: Monatshefte Math.Phys., vol.38(1931),pp:175-198
  • Charles W. Morris, Foundations of the Theory of Signs (1938)
  • Charles W. Morris (1946). Signs, Language and Behavior. New York: Prentice-Hall, 1946. Reprinted, New York: George Braziller, 1955. Reprinted in Charles Morris, Writings on the General Theory of Signs (The Hague: Mouton, 1971), pp. 73-397. /* Charles William Morris (1901-1979) */
  • Charles W. Morris, Signication and Signicance (1964)
  • NIST: Intelligent Systems Division: http://www.nist.gov/el/isd/
  • Winfried Noth: Handbuch der Semiotik. 2., vollständig neu bearbeitete Auflage. Metzler, Stuttgart/Weimar 2000
  • Charles Santiago Sanders Peirce (1839-1914) war ein US-amerikanischer Mathematiker, Philosoph und Logiker. Peirce gehort neben William James und John Dewey zu den maßgeblichen Denkern des Pragmatismus; außerdem gilt er als Begründer der modernen Semiotik. Zur ersten Einführung siehe: https://de.wikipedia.org/wiki/Charles Sanders Peirce Collected Papers of Charles Sanders Peirce. Bände I-VI hrsg. von Charles Hartshorne und Paul Weiss, 1931{1935; Bände VII-VIII hrsg. von Arthur W. Burks 1958. University Press, Harvard, Cambridge/Mass. 1931{1958
  • Writings of Charles S. Peirce. A Chronological Edition. Hrsg. vom Peirce Edition Project. Indiana University Press,Indianapolis, Bloomington 1982. (Bisher Bände 1{6 und 8, geplant 30 Bände)
  • Saussure, F. de. Grundfragen der Allgemeinen Sprachwissenschaft, 2nd ed., German translation of the original posthumously publication of the Cours de linguistic general from 1916 by H.Lommel, Berlin: Walter de Gruyter & Co., 1967
  • Saussure, F. de. Course in General Linguistics, English translation of the original posthumously publication of the Cours de linguistic general from 1916, London: Fontana, 1974
  • Saussure, F. de. Cours de linguistique general, Edition Critique Par Rudolf Engler, Tome 1,Wiesbaden: Otto Harrassowitz, 1989 /*This is the critical edition of the dierent sources around the original posthumously publication of the Cours de linguistic general from 1916. */
  • Steels, Luc (1995): A Self-Organizing Spatial Vocabulary. Articial Life, 2(3), S. 319-332
  • Steels, Luc (1997): Synthesising the origins of language and meaning using co-evolution, self-organisation and level formation. In: Hurford, J., C.Knight und M.Studdert-Kennedy (Hrsg.). Edinburgh: Edinburgh Univ. Press.

  • Steels, Luc (2001): Language Games for Autonomous Robots. IEEE Intelligent Systems, 16(5), S. 16-22. Steels, Luc (2003):

  • Evolving grounded Communication for Robots. Trends in Cognitive Science, 7(7), S. 308-312.

  • Steels, Luc (2003): Intelligence with Representation. Philosophical Transactions of the Royal Society A, 1811(361), S. 2381-2395.

  • Steels, Luc (2008): The symbol grounding problem has been solved, so what’s next?. In M. de Vega, Symbols and Embodiment: Debates on Meaning and Cognition. Oxford: Oxford University Press, S. 223-244.
  • Steels, Luc (2012): Grounding Language through Evolutionary Language Games. In: Language Grounding in Robots. Springer US, S. 1-22.

  • Steels, Luc (2015), The Talking Heads experiment: Origins of words and meanings, Series: Computational Models of Language Evolution 1. Berlin: Language Science Press.
  • Stern, W., Die psychologischen Methoden der Intelligenzprüfung und deren Anwendung an Schulkindern, Leipzig: Barth, 1912

  • Turing, A. M. On Computable Numbers with an Application to the Entscheidungsproblem. In: Proc. London Math. Soc., Ser.2, vol.42(1936), pp.230-265; received May 25, 1936; Appendix added August 28; read November 12, 1936; corr. Ibid. vol.43(1937), pp.544-546. Turing’s paper appeared in Part 2 of vol.42 which was issued in December 1936 (Reprint in M.DAVIS 1965, pp.116-151; corr. ibid. pp.151-154).(an online version at: http://www.comlab.ox.ac.uk/activities/ieg/elibrary/sources/tp2-ie.pdf, last accesss Sept-30, 2012)

  • Turing, A.M. Computing machinery and intelligence. Mind, 59, 433-460. 1950

  • Turing, A.M.; Intelligence Service. Schriften, ed. by Dotzler, B.; Kittler, F.; Berlin: Brinkmann & Bose, 1987, ISBN 3-922660-2-3

  • Vogt, P. The physical symbol grounding problem, in: Cognitive Systems Research, 3(2002)429-457, Elsevier Science B.V.
  • Vogt, P.; Coumans, H. Investigating social interaction strategies for bootstrapping lexicon development, Journal of Articial Societies and Social Simulation 6(1), 2003

  • Wechsler, D., The Measurement of Adult Intelligence, Baltimore, 1939, (3. Auage 1944)

  • Wittgenstein, L.; Tractatus Logico-Philosophicus, 1921/1922 /* Während des Ersten Weltkriegs geschrieben, wurde das Werk 1918 vollendet. Es erschien mit Unterstützung von Bertrand Russell zunächst 1921 in Wilhelm Ostwalds Annalen der Naturphilosophie. Diese von Wittgenstein nicht gegengelesene Fassung enthielt grobe Fehler. Eine korrigierte, zweisprachige Ausgabe (deutsch/englisch) erschien 1922 bei Kegan Paul, Trench, Trubner und Co. in London und gilt als die offizielle Fassung. Die englische Übersetzung stammte von C. K. Ogden und Frank Ramsey. Siehe einführend Wikipedia-DE: https://de.wikipedia.org/wiki/Tractatus logicophilosophicus*/

  • Wittgenstein, L.; Philosophische Untersuchungen,1936-1946, publiziert 1953 /* Die Philosophischen Untersuchungen sind Ludwig Wittgensteins spätes, zweites Hauptwerk. Es übten einen außerordentlichen Einfluss auf die Philosophie der 2. Hälfte des 20. Jahrhunderts aus; zu erwähnen ist die Sprechakttheorie von Austin und Searle sowie der Erlanger Konstruktivismus (Paul Lorenzen, Kuno Lorenz). Das Buch richtet sich gegen das Ideal einer logik-orientierten Sprache, die neben Russell und Carnap Wittgenstein selbst in seinem ersten Hauptwerk vertreten hatte. Das Buch ist in den Jahren 1936-1946 entstanden, wurde aber erst 1953, nach dem Tod des Autors, veröffentlicht. Siehe einführend Wikipedia-DE: https://de.wikipedia.org/wiki/Philosophische Untersuchungen*/

Eine Übersicht über alle Blogeinträge des Autors cagent nach Titeln findet sich HIER

NACHÜBERLEGUNGEN ZUM VORTRAG „NOTION OF GOD“ von GIUSEPPE TANZELLA-NITTI, Prof. für Dogmatische Theologie der Theologischen Fakultät der Päpstlichen Universität vom Heiligen Kreuz (Rom); Vortrag gehaltem am 17.Aug.2013 an der Universität UNICAMP (Campinas, Brasilien)

Letzte Änderung: Einfügung zweier Musikstücke am 24.August 2013

Als Begleitmusik (Variante 1)

PERSÖNLICHER NACHHALL

1) Die folgenden Überlegungen beabsichtigen nicht, den Vortrag als solchen wieder zu geben (als Hintergrundlektüre für den Vortrag war angegeben worden God, Notion of), sondern Gedanken, die sich für mich aus dem Vortrag ergeben haben, auch in Verbindung mit einem der anschließenden Gesprächskreise (der zum Glück auf Englisch war, da sich mein Portugiesisch bislang nur auf wenige Worte beschränkt).
2) Aufgrund meiner Biographie vermeide ich es eher, mich mit kirchlichen Themen zu beschäftigen, da das offiziell-kirchliche Denken — ich muss es so sagen — in meiner Erfahrung aufklärendes Denken eher verhindert als befördert. Aber da ich nun mal hier war und mein Freund den Vortrag besuchen wollte, bin ich mal mitgegangen.

EINSCHRÄNKUNG AUF GRENZEN DER WISSENSCHAFTEN

3) Eine kleine Überraschung war, dass der Vortrag selbst sich nur auf Aussagen der Wissenschaft beschränkte, und hier besonders auf die großen Diskussionen in der Physik bis ca. Ende des 20.Jahrhunderts. Alle anderen Wissenschaften wie die Geologie und Biologie mit dem evolutionären Veränderungsgeschehen auf der Erde, die Molekularbiologie und Neurowissenschaften mit den neuen Erkenntnissen zu den Grundlagen des Menschseins samt den Auswirkungen auf die moderne Philosophie, dies alles fehlte in dem Vortrag. Erst recht fehlte die Position der Kirche, die Theologie, wie diese sich zu dem Ganzen verhält (die in dem oben genannten Artikel ‚Notion of God‘ sehr wohl vorkommt).

GRENZEN UND IHRE ÜBERWINDUNG

4) Der Vortrag artikulierte im Munde des Vortragenden besonders drei Leitthemen: (i) Die Wissenschaft leistet aus Sicht der Kirche sehr wohl einen Beitrag zur Erkenntnis der Welt, wie sie ist; (ii) aufgrund der verwendeten empirischen Methoden in Kombination mit der Mathematik hat die Wissenschaft aber eingebaute Erkenntnisgrenzen, die verhindern, dass man das ‚große Ganze‘ sehen kann; (iii) die Lücken, die die Wissenschaft lässt, verlangen dennoch nach einer ‚Füllung‘, die mittels philosophischem und theologischen Denken geschlossen werden können.
5) Akzeptiert man die Annahmen, die der Vortragenden in seinem Vortrag stillschweigend macht (Anmerkung: Er hat nirgends seine eigenen Voraussetzungen offengelegt (und dies geschieht auch nicht in dem angegebenen Hintergrundartikel)), dann ist dies ein recht plausibler, schlüssiger Gedankengang.
6) Er brachte dann eine Fülle von Originalzitaten aus Briefen und Büchern berühmter Forscher, die alle mit je eigenen Worten ihre persönliche Position bezüglich der Grenzen der wissenschaftlichen Erkenntnis zum Ausdruck brachten; diese mündeten in den einen Tenor, dass sie ‚hinter allem‘ letztlich eine alles übergreifende Ordnung vermuten oder gar direkt von ‚Gott‘ sprechen. Abgerundet wurde der Zitatenstrauss durch eine Episode während einer wissenschaftlichen Konferenz im Vatikan, bei der Stephen Hawking, bekennender Atheist und aus Sicht der Kirche illegal ein zweites Mal verheiratet eine Begegnung mit Papst Paul II. hatte und der Papst Hawking entgegen Hawkings Erwartungen nicht kritisierte (in der Vergangenheit hatte Hawking von einem Papst sogar eine hohe kirchliche Auszeichnung bekommen, die der Papst (Foto war da) ‚kniend‘ überreicht hatte).

EINE FALSCHE ‚HEILE WELT‘?

7) So nett dies alles klingt, es führt letztlich an der Sache vorbei und gaukelt eine ‚heile Welt‘ vor, die so nicht existiert.

KOMMENTAR: HISTORISCHE EINORDNUNG DER WISSENSCHAFT FRAGWÜRDIG

8) In meinem ersten Kommentar in der Vortragsrunde habe ich versucht deutlich zu machen, dass die Fokussierung auf die ‚Grenzen‘ wissenschaftlichen Erkennens — so lehrreich sie in gewissen Details sind — letztlich aber die Sicht auf den tatsächlichen Gang der historischen Entwicklung verstellt. Das, was aus einer vom Vortragenden bewusst gewählten Sicht als ‚Begrenzung‘ des Wissens durch die moderne Wissenschaften erscheint, erweist sich im realen historischen Kontext als gewaltige Befreiung! Vor dem systematischen Betrieb von empirischer Wissenschaft — wobei man Galileo Galilei (1564– 1642) als einen Bezugspunkt für den historischen Beginn setzen kann (natürlich gab es auch vor Galileo andere, die schon empirische Untersuchungen angestellt haben, die Mathematik zur Beschreibung benutzt haben, aber mit seiner Person, seinen Werken und seinem Schicksal verbindet sich die Geschichte der modernen Wissenschaften in besonderer Weise) — gab es ein Sammelsurium von Wissen, stark dominiert von einem philosophischen Denken, das trotz der Klarheit eines Aristoteles (384-322BC) stark in den Fallstricken der natürlichen Denkens verhaftet war und mittels einer sogenannten Meta-Physik alle die Fragen löste, die das übrige Wissen zu dieser Zeit noch nicht lösen konnte. Dies vermittelte zwar den Eindruck von ‚Klarheit‘ und ‚Sicherheit‘, da man ja alles meinte ‚erklären‘ zu können. Der große Nachteil dieses Wissens war, dass es nicht ‚falsch‘ werden konnte. Unter der Flagge der Meta-Physik konnten also auch größte Unsinnigkeit geäußert werden und man konnte sie nicht widerlegen. So schlimm dies in sich schon ist, so schlimm wird dies dann, wenn eine politische oder kirchliche Macht (oder beide zusammen, was geschehen ist), ihre eigenen Wahrheits- und Machtansprüche mit solch einer Denkform, die nicht falsch werden kann, verknüpft. Eine kirchliche Macht formal verknüpft mit einem ‚abgeleiteten‘ Aristoteles konnte jedes ’neue‘ und ‚andersartige‘ Denken im Ansatz unterbinden. Vor diesem Hintergrund war das Aufkommen der empirischen Wissenschaften eine wirkliche Befreiung, eine Revolution und das harte unerbittliche Vorgehen der Kirche gegen die ersten Wissenschaftler (bis hin zum Tod auf dem Scheiterhaufen) belegt, dass die Inhaber der Macht sehr wohl gespürt haben, dass ein empirisch wissenschaftliches Denken trotz seiner eingebauten Grenzen mächtig genug ist, die metaphysischen Kartengebäude der Vergangenheit zum Einsturz zu bringen. Und die weitere Entwicklung zeigt überdeutlich, dass es genau dieses empirische-wissenschaftliche Denken war, das im Laufe der letzten 400 Jahre schrittweise immer mehr unser gesamtes Denken über das Universum, die Erde, das Leben und den Menschen ‚umgegraben‘ hat; wir haben atemberaubende Einblicke erlangt in ein universelles Geschehen und in einen Mikrokosmos, der alles übersteigt, was frühere Zeiten nicht einmal ahnen konnten. Wenn ein Aristoteles heute leben könnte, er wäre sicher besinnungslos vor Glück angesichts all dieser aufregenden Erkenntnisse (und natürlich würde er seine Meta-Physik komplett neu schreiben; er würde es sicher tun, nicht so die vielen philologischen Philosophen, die immer nur neue Ausgaben editieren (so wertvoll dies für sich auch sein mag)).
9) Von all dem hat der Vortragende nichts gesagt! Er hat es tunlichst vermieden, hätte er doch unweigerlich die hochproblematische Rolle der realen Kirche in diesem historischen Prozess zur Sprache bringen müssen, noch mehr, er hätte sich unangenehmen Fragen danach stellen müssen, wie es denn die Kirche heute mit der wissenschaftlichen Erkenntnis hält. Dies war mein zweiter Punkt, den ich im Plenum angemerkt habe.

KOMMENTAR: AUSLASSUNG DER NEUEREN WISSENSCHAFTSENTWICKLUNG; SCHWEIGEN ÜBER WISSENSCHAFTLICHE ERKENNTNISSE IN ANWENDUNG AUF DIE BIBEL

10) In dem zitierten Dokument God, Notion of) werden einige kirchliche Dokumente aufgelistet, die auf die eine oder andere Weise — zumindest in Worten — eine grundlegende Wertschätzung von allgemeinen wissenschaftlichen und philosophischen Erkenntnissen zum Ausdruck bringen. Allerdings, wie oben schon angemerkt, werden viele neue wissenschaftliche Disziplinen, speziell jene im Umfeld der chemisch-biologischen Evolution, Neurowissenschaften, künstliche Intelligenzforschung, ausgeklammert. Und — dies fällt vielen Nicht-Theologen vermutlich gar nicht auf — die Anwendung wissenschaftlicher Methoden auf die sogenannten ‚Offenbarungsschriften‘ des alten und Neuen Testaments (kurz ‚Bibel‘ von Griechisch ‚biblos‘ = Buch) und die theologische Lehre insgesamt wird nahezu vollständig ausgeblendet. In allen offiziellen kirchlichen Texten spielen die gut 100 Jahre andauernden wissenschaftlichen Untersuchungen zur Überlieferungsgeschichte der biblischen Dokumente, ihre historischen Kontexte, ihre literarische Formen, ihre redaktionellen Be- und Überarbeitungen, ihre Übernahme vorgegebener Themen aus dem Umfeld, usw. keine ernsthafte Rolle (Anmerkung: Diese Feststellung bezieht sich wohlgemerkt auf die offiziellen kirchlichen Verlautbarungen. In den meisten theologischen Hochschulen — zumindest im deutschsprachigen Bereich –werden diese Methoden im Rahmen der Wissenschaften von der Bibel (Exegese) sehr wohl gelehrt und angewendet, allerdings, wie man sieht, im offiziell kirchlichen Denken ohne Konsequenzen). Das gleiche zieht sich fort in den theologischen Disziplinen, die zum dogmatischen Denken gehören. Hier wird Wissenschaft und moderne Philosophie — wenn überhaupt — nur sehr selektiv einbezogen. Diese gelebten Realitäten einer Kirche sprechen eine andere Sprache als die schönen Worte der offiziell kirchlichen Verlautbarungen. Würde man die hier in den letzten 100 Jahren gewonnenen Erkenntnisse ernst nehmen, dazu die übrigen neuen wissenschaftlichen Erkenntnisse, dann würde man viele gewohnte kirchliche Positionen ziemlich sicher korrigieren müssen. Während die einen dies als ‚Verlust‘ empfinden mögen, als ‚Bedrohung‘, werden andere daran einen möglichen Weg sehen, die ursprüngliche Sprengkraft eines christlichen Glaubens auch unter veränderten Erkenntnisbedingungen wieder besser denken und dann vielleicht auch besser leben zu können. Auf diesen ganzen Komplex von Wissenschaftsverachtung durch die reale Kirche heute ist der Vortragende mit keinem Wort eingegangen (in dem von ihm angegebenen Text lässt der abschließende Abschnitt über die Sicht der Theologie den Eindruck entstehen, als ob er selbst als Autor diese 100 Jahre umfangreichster wissenschaftlicher Arbeiten zur Bibel auch völlig ausklammert und stattdessen nur klassische metaphysische Muster wiederholt, deren Gültigkeit heute mehr als fragwürdig ist).

KOMMENTAR: SCHLIESSEN DER LÜCKEN MIT UNGEEIGNETEN MITTELN

11) Damit kommen wir zum dritten Themenkreis, dem Schließen der ‚Lücken‘, die das wissenschaftliche Denken angeblich lässt. Nu muss man an dieser Stelle selbstkritisch einräumen, dass die vielen empirisch-wissenschaftlichen Disziplinen bis heute keinen einheitlichen, überall anerkannten ‚meta-wissenchaftlichen‘ Überbau in Form einer allgemein verbreiteten ‚Wissenschaftstheorie‘ oder ‚Philosophy of Science‘ haben; sofern es solche Professuren gibt, sind diese oft vereinzelt, isoliert, eher der Philosophie zugeschlagen und abgetrennt von den Wissenschaften, die dieses Denken eigentlich brauchen. Die ohne Zweifel in jedes wissenschaftliche Erkennen einfließenden philosophischen Anteile sind oft wenig thematisiert oder gar nicht thematisiert. Andererseits ist es aber so, dass de reale Gang der empirischen Wissenschaften beständig begleitet war von allerlei methodologischen Diskussionen. Die große Mannigfaltigkeit der Disziplinen und der hohe Veränderungsgrad machen es allerdings schwierig, hier mit einer Reflexion Schritt zu halten (zumal diese von den Universitäten zum Leidwesen der Wissenschaften kaum honoriert oder unterstützt wird). Aus dieser, sich aus der Sache heraus ergebenden, Schwierigkeit dann abzuleiten, dass es so etwas wie eine Philosophie der realen Wissenschaften nicht geben kann und dass man stattdessen doch lieber Vorlieb nimmt mit den ‚Philosophen der Vergangenheit‘ (die können sich ja nicht mehr wehren), ist verständlich, wenngleich für den Wissenschaftsbetrieb unglücklich. Statt die Kluft zwischen ‚Denken in der Vergangenheit und Denken heute‘ zu schließen, wird diese Kluft dann eher zementiert. Aus dieser unbefriedigenden Situation heraus entstehen dann solche Lösungsvorschläge, die ‚Erkenntnislücken‘ der heutigen Wissenschaften mit den Konzepten der alten klassischen Metaphysik zu ‚überbrücken‘ (zu ‚transzendieren‘), da man ja letztlich (so die stillschweigende Annahme) aus dem vorausgesetzten allgemeinen ‚Logos‘ (ein Begriff aus der griechischen Philosophie, zusätzlich aufgeladen durch die biblischen Schriften, u.a. vom Johannesevangelium her, das im griechischen Text auch vom ‚logos‘ spricht) existentiell und logisch meint allgemeine Zusammenhänge herleiten zu können, um die Erkenntnislücken empirischer Wissenschaften zu schließen.
12) Wie gesagt, die empirischen Wissenschaften bieten leider kein ideales Bild, aber die Einbeziehung von klassischen philosophischen Positionen ohne weitere Begründung ist nicht sehr rational. Da werden mindestens 400 Jahre kritische methodische Reflexionen komplett unterschlagen. Hier nur ein paar Anmerkungen (eine korrekte Darstellung könnte ganze Bücher füllen):

EINWÄNDE GEGEN NAIVE INANSPRUCHNAHME VON ‚LOGOS‘ UND METAPHYSIK
– ERKENNTNISTHEORIE

13) (i) ein Einspruch kommt von der modernen Erkenntnistheorie (etwa ab Descartes, über Hume, Kant, Locke und vielen anderen bis hin zur evolutionären Erkenntnistheorie). Hier hat man erkannt, dass unsere subjektive Erlebnis- und Denkwelt ganz konkrete Voraussetzungen hat, die in der Struktur und der Funktion des Gehirns begründet sind, das wiederum zusammen mit dem umgebenden Körper eine Entwicklung von vielen Millionen Jahren hinter sich hat. Die Art und Weise unseres Denkens ist ein Produkt, und die heutigen Erlebnis- und Denkformen bilden keinen endgültigen Schlusspunkt, sondern repräsentieren eine Übergangsform, die in einigen Zehntausend Jahren (falls die Gentechnik nicht schon früher Änderungen hervorbringt) anders aussehen werden als heute. Beispielsweise sehen wir (durch die Kodierung des Gehirns) beständig ‚Objekte‘, aber in der physikalischen Welt gibt es keine Objekte, nur Eigenschaftsmengen, Energiefelder. Eine klassische Metaphysik konnte unter Voraussetzung des subjektiven Denkens mit Objekten in Form einer ‚Ontologie‘ operieren, eine moderne Philosophie muss erst einmal erklären, wie sie damit klar kommt, dass unser Gehirn subjektiv überall Objekte konstruiert, obwohl es physikalisch eigentlich keine Objekte gibt (und eine moderne Philosophie muss natürlich noch erheblich mehr erklären als dieses).

– SPRACHPHILOSOPHIE

14) (ii) Ein zweiter Einspruch kommt von der Sprachphilosophie. Der Vortragende erwähnte zwar auch den frühen Wittgenstein (1889-1951) als Kronzeugen für die Einsicht in die Grenzen dessen, was man mit Sprache sagen kann, um damit einmal mehr die Grenzen der empirisch-wissenschaftlichen Methode zu thematisieren, er versäumte es dann aber, auch den späten Wittgenstein zu erwähnen, der nachhaltig aufzeigen konnte, wie die Grenzen des Sagbaren alle Sprachspiele durchziehen, auch die Alltagssprache, auch — und nicht zuletzt! — die Sprache der Philosophen. Konnte man in früheren Zeiten als Philosoph einfach einen Satz hinschreiben mit der trügerischen Annahme, das könne wohl jeder verstehen, der verstehen will, kann nach Wittgenstein jeder, der es wissen will, wissen, dass dies eine wenig haltbare Position ist. Nicht nur jeder Satz, sondern sogar jedes einzelne Wort unterliegen dem Problem, dass ein Sprecher A das, was er mit bestimmten Lauten oder Zeichen verbunden wissen will (die Bedeutung), in keinem einzigen Fall als selbstverständlich gegeben bei einem anderen Sprecher B voraussetzen kann. Dies liegt daran, dass die Zuordnung von sprachlichem Ausdruck und das mit dem Ausdruck Gemeintem nicht zwangsweise mit dem Ausdruck selbst verknüpft ist, sondern in jedem einzelnen Fall mühsam gelernt werden muss (was jeder, der mühsam eine neue Sprache lernen will auf Schritt und Tritt erfährt). Mag dies bei Bezugnahme auf empirische Sachverhalte noch einigermaßen gehen, wird es bei nicht-empirischen Sachverhalten zu einem Rate- und Glücksspiel, das umso abenteuerlicher ist, je weniger Bezugspunkte zu etwas anderem, was schon bekannt ist, vorliegen. Wer schon einmal klassische philosophische Texte gelesen hat, der weiß, dass philosophische Texte in der Regel NICHT von empirischen Sachverhalten sprechen, sondern von Erlebnis- und Denkstrukturen, die als solche nicht wie Objekte aufzeigbar sind. Die Vielzahl unterschiedlicher Interpretationen ein und desselben klassischen philosophischen Textes ist von daher kein Zufall sondern resultiert aus dieser schwierigen Bedeutungslage. Klassische philosophische Texte sind ’schön‘, solange man sie nicht ernsthaft analysiert; tut man dies, verliert man sich unweigerlich in immer mehr Aporien.
15) [Anmerkung: Ich selbst war Teilnehmer des folgenden Experimentes an derjenigen deutschen Universität, die als einzige unter den ersten 50 Plätzen internationalen Universitätsrankings vorkommt. Teilnehmer waren zwei bekannte Philosophieprofessoren, zwei habilitierte Assistenten und mindestens drei Doktoranden der Philosophie. Es ging um die Frage, ob man die Einleitung in Kants Kritik der reinen Vernunft so interpretieren könne, dass alle ausnahmslos zustimmen müssten. Das Experiment lief zwei Semester lang. An Methoden war alles erlaubt, was bekannt war und dienlich erschien. Natürlich wurden u.a. auch alle bisher verfügbaren Kommentare berücksichtigt. Nach zwei Semestern gab es nicht einmal ansatzweise eine gemeinsame Sicht der Dinge. Beweisen tut dies im strengen Sinne nichts. Ich fand es damals sehr ernüchternd.]
16) Fasst man die Erkenntnisse der modernen Erkenntnistheorie und die der modernen Sprachphilosophie zusammen, dann erscheint es nicht nachvollziehbar und geradezu gewagt, anzunehmen, man könne die bislang erkannten Grenzen der modernen empirisch-wissenschaftlichen Erkenntnis durch einen unreflektierten Rekurs auf einen alles übergreifenden ‚Logos‘ einfach so überbrücken. Diese Art von ’naiver‘ (sprich ‚unreflektierter‘) Meta-Physik (und Ontologie) ist vorbei.
17) Bedenkt man die Bedeutungs-Probleme, die die Alltagssprache besitzt, ist die Situation in den empirisch-wissenschaftlichen Disziplinen ja geradezu noch ‚idyllisch‘. Bis zu einem gewissen Grad gibt es hier noch aufzeigbare und kontrollierbare ‚Bedeutung‘, wenn auch nicht vollständig.

VERZICHT AUF ‚LOGOS‘ ODER METAPHYSIK BEDEUTET NICHT GOTTLOSIGKEIT

18) Akzeptiert man die kritischen Argumente, dann folgt daraus NICHT — wie der Vortragende zu unterstellen scheint –, dass sich damit die Frage nach einem letzten ‚Sinn‘ oder gar die Frage nach etwas, das wir ‚Gott‘ nennen, grundsätzlich erledigt hat. Was sich allerdings weitgehend erledigt hat, ist, dass man tiefgreifende Fragen, die sich durch das Fortschreiten der Wissenschaften dem Wahrheitssuchenden öffnen weder durch Rekurs auf eine vor-kritische naive Metaphysik ‚überspielen‘ kann, noch dass man theologische Positionen als Antworten benutzen kann, die sowohl die wissenschaftliche kritische Analyse der religiösen Überlieferungsgeschichte wie auch der sich aus den Wissenschaften ergebenden neuen Erkenntnisse zur Struktur des Menschen, seiner Erkenntnisfähigkeit, seinen Erlebnisstrukturen usw. unberücksichtigt lassen. Das, was der Vortragende in dem zitierten Artikel tut, ist aber genau dies: er benutzt die alte naive Metaphysik, als ob es die letzten 400 Jahre nicht gab, und er benutzt eine theologische Interpretation, die genau jene Wissenschaft, die zuvor als so wichtig gepriesen wird, vollständig ausklammert. Das ist in meinen Augen nicht seriös, das ist nicht rational, das ist unwissenschaftlich, das hilft all den Menschen nicht, die ernsthaft nach Wahrheit suchen und nicht nur eine ‚psychologische Beruhigung‘ mit ‚einlullenden Bildern‘ (obwohl das Erzählen von Märchen sehr wohl der Wahrheitsfindung dienen kann; man muss sie nur richtig erzählen. Viele der Gleichnisse (einfache Form von Märchen?), die der Gestalt Jesus von Nazareth zugeschrieben werden, sind z.B. von dieser Natur: sie machen Punkte im Verhalten von Menschen deutlich, denen man eine gewisse Lebensweisheit nicht absprechen kann (eine Weisheit, die nicht jeder mögen muss)).

DIE GRENZEN DER SPRACHE IMPLIZIEREN NICHT EINE BEGRENZTHEIT DER WELT

19) Der Gesprächskreis im Anschluss an den Vortrag war sehr heterogen. Ich selbst habe aus den vielen Aussagen folgenden Gedanken mitgenommen: Die Grenzen der Sprache (Für die Mathematik aufgezeigt durch Gödel (und auch Turing)), für die allgemeine Sprache durch Wittgenstein) bedeuten nicht das Ende der Erkenntnis, sie machen uns nur deutlich, dass die grundsätzlichen Möglichkeiten des Erkennens für uns Menschen (bisher, unter Voraussetzung des aktuellen Erkenntnisapparates) nicht beliebig sind und dass wir, wenn wir ‚wahre‘ Erkenntnis wollen, jene, die uns aus den Wirrungen des alltäglichen naiven Weltbildes tatsächlich herausführen kann, dass wir dann diese Grenzen beherzigen und berücksichtigen sollten. Dass die scheinbare Begrenzung des wahren Erkennens auf die empirisch-wissenschaftliche Vorgehensweise uns gegenüber dem Vorgehen mit der nur scheinbar alles umfassenden naiven metaphysischen Denkweise in geradezu explosionsartiger Weise in Denkräume hinein katapultiert hat, von denen keiner der alten Philosophen auch nur träumen konnte, dies sollte uns Ermutigung und Anstoß sein, diesen Weg beherzt weiter zu gehen. Darüber hinaus zeigt sich aber ein fundamentaler Tatbestand: explizites, sprachlich vermitteltes Denken kann letztlich nur jener Wirklichkeit folgen, in der wir uns vorfinden und die allem Denken voraus ist. Was wir nicht aufzeigen können, ist letztlich nicht greifbar. Mehr noch, nur im Erfahren des ‚wirklich Anderen‘ — dem Empirisch-widerständigen — erfahren wir uns selbst als das ‚Andere zum anderen‘, als ‚Selbst‘ und das, ‚was‘ wir sind bzw. sein können, wissen wir erst dann, wenn wir selbst in unserem konkreten Dasein uns selbst sichtbar werden. Dies aber bedeutet, nur wenn wir ‚aus uns heraus‘ gehen, nur wenn wir ‚uns aufs Spiel setzen‘, nur wenn wir etwas ‚Probieren‘, nur dann kann sichtbar werden, ‚was‘ bzw. ‚wer‘ wir ‚tatsächlich sind‘. Nur weil das ‚biologische Leben‘ beständig weiter ‚aus sich heraus‘ gewachsen ist, immer mehr ‚Varianten probiert‘ und ‚Komplexitäten geschaffen‘ hat sind Formen des Lebens entstanden, von denen wir ein kleiner Teil sind. Dass das DNA-Molekül und der zugehörige Übersetzungsmechanismus ‚begrenzt‘ ist (verglichen mit den klassischen metaphysischen Konzepten geradezu lächerlich primitiv) war — und ist — kein Hindernis dafür, dass immer komplexere Lebensformen entstanden sind, so komplex, dass unser heutiges Denkvermögen sie nicht vollständig beschreiben kann. Die Grenzen der Sprache sind NICHT die Grenzen des Lebens und der Wahrheit. Die Wahrheit geht jeder Sprache — und erst recht jeder Metaphysik — um Lichtjahre voraus.

JEDER KANN SEIN ‚GOTTESEXPERIMENT‘ MACHEN

20) Sollte es so etwas wie einen ‚Gott‘ geben, so brauchen wir uns mit Sicherheit keine Sorgen darum machen, ob er ‚ist‘, was er ‚tut‘ oder ob wir ihn ‚richtig erkennen‘. Wenn es einen ‚Gott‘ als das letztlich Unbegreiflich alles Umfassende geben sollte, dann kann man davon ausgehen, dass er schon immer handelt (auch ohne uns zu fragen), er ist schon immer bei und in uns, ohne dass wir darum bitten müssen, und er lässt die ‚Wahrheit‘ auch in Lebensformen aufscheinen und sich entwickeln, die wir uns nicht ausgedacht haben und über die wir keine Verfügungsgewalt haben. Mit Sicherheit ist dieser Gott nicht an eine spezielle ethnische Gruppe gebunden, mit Sicherheit interessiert diesen Gott nicht, was wir essen und trinken, mit Sicherheit spielt Jungfrauengeburt und ähnliche Folklore keine Rolle. Für diesen Gott, so es ihn gibt, geht es um wirklich Grundlegendes. Aus meiner beschränkten Wahrnehmung sehe ich nicht, dass irgendeiner der heute lebenden Religionen (Judentum, Christentum, Islam…) wirklich ernsthaft an Gott interessiert ist. Dazu ist viel zu viel Hass unterwegs, zu viel Menschenverachtung, zu viele gruppenspezifische Egoismen, zu viele Herrschaftsstrukturen, die nur denen dienen, die herrschen, zu viel Folklore, zu viel Geldmacherei, zu wenig echtes Wissen.
21) Alles in allem — das habe ich in einem andren Blogeintrag auch schon mal ausgeführt — kann man den Eindruck gewinnen, dass es heute weniger die alten Religionen sind, die uns etwas Interessantes über den Sinn dieser Welt und über Gott zu sagen haben, als vielmehr die modernen Wissenschaften, die trotz ihrer Unvollkommenheiten ein Fenster der Erkenntnis aufgestoßen haben, dass alle Räume sehr weit aufmacht, so weit, dass wir noch gar nicht alles fassen können, was wir da sehen, zugleich werden die Grundrisse einer neuen Spiritualität sichtbar, die zu erkunden und auszuprobieren noch viel zu tun bleibt.
22) Das wäre mein letzter Punkt (zu dem es auch schon frühere Blogeinträge gibt). Wenn das alles stimmt, was uns die empirischen Wissenschaften sagen, dann ist die Annahme einer direkten Kommunikation ‚Gottes‘ — was immer man alles über ihn im Detail noch sagen kann — mit jedem Punkt des Universums — und damit natürlich auch mit jedem Lebewesen, auch mit uns Menschen — grundsätzlich möglich, und zwar jederzeit und überall. Niemand braucht eine vermittelnde Instanz dazu, da wir durch unsere Körper (die ja alle aus Zellen bestehen, diese aus Molekülen, diese aus Atomen, diese aus subatomaren Teilchen) jederzeit mit jedem Punkt im Universum kommunizieren können. Die grundlegenden Regeln der — zumindest christlichen — Mystik sind mit diesem empirischen Befund deckungsgleich. Es macht ja auch keinen Sinn, ‚Gott‘ als alles umfassenden und ermöglichenden Grund allen Seins zu postulieren und ihm dann zu verbieten, sich mit jedem Punkt des Universums verbinden zu können. Von der Quantenphysik her gibt es jedenfalls keine grundlegenden Einwände (was nicht bedeutet, dass wir in der Quantenphysik soweit wären, eine solche Kommunikation vollständig beschreiben zu können). Das gute daran ist, man muss dies nicht ‚glauben‘, sondern man kann es ‚tun‘, d.h. jeder kann sein privates ‚Gottesexperiment‘ machen und mit Gott in Kontakt treten. Man muss dafür kein Geld bezahlen, man braucht dazu keine ‚Genehmigung‘, man muss dazu keinen Universitätsabschluss gemacht haben, man muss dazu keiner bestimmten politischen Partei angehören, man muss dazu kein Millionär sein; das ‚einfache Menschsein‘ genügt. Die einzige Bedingung, man muss es einfach ‚tun‘, womit wir wieder bei dem zentralen Sachverhalt sind: Leben gibt es nur dort, wo es sich ‚ereignet‘, indem man seine Möglichkeiten ausübt…

Eine Übersicht über alle bishergen Blogeinträge nach Titeln gibt es HIER

Variante Nr.2

Entmystifizierung des Ethikrates — Ethik eine Verhandlungssache?

(1) Horst Dreier, Prof. für Rechtsphilosophie, Staats- und Verwaltungsrecht in Würzburg, stellt sich in seinem Beitrag in der FAZ vom 17.August 2011 der Frage nach der Rolle des Deutschen Ethikrates. Klar und prägnant arbeitet er die gesetzlich definierte Rolle des Rates heraus, der eindeutig auf eine Beratungsfunktion beschränkt ist, die dem Parlament seine eigene Entscheidung nicht abnehmen kann. Da er unter Berufung auf Peter Graf Kielmansegg der Wissenschaft eine Sonderstellung für Fragen der Ethik abspricht — präzisiert durch die Bemerkung, dass man aus naturwissenschaftlichen Erkenntnissen keine normativen Schlüsse ziehen könne — verschiebt sich die Frage der normativen Klärung auf den Bereich der ‚Bewertung‘ von (naturwissenschaftlichen) Sachverhalten im Lichte der Kompetenz letztlich jeden einzelnen Bürgers („Bei ethischen Fragen sind die Bürger gleich zu achten“). Dieser einzelne Bürger ist allerdings ‚eingebettet‘ in die geltende Gesetzgebung, deren ‚Einhaltung‘ vom Bundesverfassungsgericht überwacht wird. Letzteres steht aber nicht ‚über‘ dem Gesetz; es ist nicht das sich selbst genügsame ‚perpetuum mobile‘ von ethischen Prinzipien, sondern ist dem geltenden Gesetzestext — und seiner ‚unterstellten Intentionen‘ — verpflichtet.

(2) Mit dieser Ortsbestimmung des Ethikrates könnte man den Eindruck gewinnen, als ob sich ‚das Ethische‘ in eine ‚Beliebigkeit‘ verflüchtigt. Zwar dürfen die Experten des Ethikrates Meinungen äußern — und letztlich auch alle Bürger (wo werden diese gefragt?) — aber durch die Verlagerung der ethischen Erkenntnis in das individuelle Denken, das im Ethischen gleichberechtigt ist, gibt es keinen wirklichen ‚Fixpunkt‘ mehr, an dem sich die individuellen Urteile messen können. Dreier nennt diesen Bereich jenseits der Fakten den Bereich ’normativer Wertungen‘, für den er mit Bezug auf Max Weber günstigstenfalls reklamiert, dass man diese normativen Inhalte einer ‚Diskussion‘ zuführen kann, eventuell in Form einer ‚konsistenten‘ (widerspruchsfreien) Darstellung kondensiert in ‚Wertaxiomen‘.

(3) Dieser Versuch einer formalen Eingrenzung des ‚Ethischen‘ im interdisziplinären Diskurs lässt erahnen, dass es hier nicht um ‚die‘ Wertaxiome geht, sondern um jene Wertaxiome, die unterschiedliche Vertreter artikulieren. Der Raum des Ethischen ist in diesem Konzept also ein ‚offener‘ Raum, der sich entwickeln kann, der anhand neuer Einsichten umakzentuiert werden kann; das Ethische wird damit eingebettet in den allgemeinen Erkenntnisprozess der Menschheit, der bekanntlich in den letzten Tausenden von Jahren starke Wandlungen erfahren hat.

(4) Diese Sicht einer Ethik, die sich im fortdauernden Diskurs ‚finden‘ muss, wird auch noch unterstützt durch die Ergebnisse der mathematischen und linguistischen Grundlagenforschung des 20.Jahrhunderts. Seit Goedel (1931) und Turing (1936/7) ist unabwendbar klar, dass selbst im abgegrenzten Bereich formaler (mathematischer) Theorien ‚konsistente‘ Theorien nur bis zu einer gewissen ‚Ausdrucksstärke‘ möglich sind. Das meiste, was heute in der Mathematik wichtig ist, lässt sich nicht als konsistent beweisen. Für den Bereich natürlicher Sprachen (dazu gehört Philosophie und Ethik allemal) ist die Frage der ‚Konsistenz‘ ganz bodenlos (u.a. Wittgenstein). Die Idee eines widerspruchsfreien ethischen Diskurses ist bestenfalls eine ‚regulative Idee‘, eine Illusion, die helfen kann, den Glauben an Konsistenz aufrecht zu erhalten, aber praktisch einlösbar ist eine Widerspruchsfreiheit in diesem Bereich grundsätzlich nicht. Die einzig mögliche Konsequenz aus diesen Sachverhalten ist, die Partialität jeglicher Erkenntnis, insbesondere auch der ethischen, sehr ernst zu nehmen, und Bruchstücke, fragile Konstruktionen, von vornherein niemals einfach auszugrenzen. In den Naturwissenschaften hat man gelernt, mit partiellen Erkenntnissen so umzugehen, dass man ‚inkrementelle Modelle (Theorien)‘ entwickelt, die im Laufe der Zeit ‚verbessert‘, ‚korrigiert‘ werden, ohne dass zu irgendeinem Zeitpunkt eine Theorie einen ‚Absolutheitsanspruch‘ hat. Dass diese Modell einer ‚dynamisch partiellen‘ Erkenntnis erfolgreich sein kann, belegen die letzten Jahrhunderte. Ob Horst Dreier diesen Konsequenzen zustimmen würde?

(5) Letztlich wird man wohl auch nicht umhin kommen, das Format eines ethischen Diskurses neu zu bestimmen, zumindest erheblich weitergehender als es bislang geschehen ist.  Es ist allerdings schwer zu sehen, aus welcher ‚Ecke‘ geisteswissenschaftlicher Aktivitäten diese ‚Erneuerung‘ kommen kann. Die  Diskursbeiträge der letzten Jahrhunderte haben nur demonstriert, dass sie diese Aufgabe nicht bewältigen können.

Weil es Sinn gibt, kann sich Wissen akkumulieren, das Sinn sichtbar macht… Oder: warum die Frage ‘Warum gerade ich?’ in die Irre führen kann.

(1) Wenn etwas 'Schlimmes' passiert, dann fragen sich viele Menschen 'Warum gerade ich?' (hätte es jemanden anderen getroffen wäre man vielleicht 'berührt' -- falls man der anderen Person nahe stand --, aber es würde einen bei weitem nicht so zentral treffen wie eigenes Leid. Wenn etwas subjektiv 'Schönes' oder gar 'Außergewöhnliches' geschieht, dann geraten die einen außer sich und halten sich womöglich sogar für 'auserwählt', womöglich für etwas 'Besonderes'; andere bekommen sofort Angst, dass sie all dies, kaum dass sie es besitzen, wieder verlieren könnten, dass sie 'dem Schicksal' misstrauen; sie haben bislang -- in ihrer Wahrnehmung -- nicht viel Gutes erlebt, also verbietet es ihr Denken, das 'punktuell Schöne' 'anzunehmen'; oder trotzig gerade doch: es geht ja doch, ich habe es immer gewusst....

(2) Man kann den Eindruck gewinnen, dass wir tendenziell eine 'Deutungstendenz' in uns tragen, die in allem nach einem 'möglichen Sinn' sucht, der die eigene 'Werthaftigkeit' unterstützt, der klar macht, dass das eigene Leben doch irgendwie einen 'Wert' und einen 'Sinn' hat. Andererseits, wenn wir uns lange Zeit schwer tun, einen 'Sinn' zu erkennen, dann kann dies sehr anstrengend, kann es schmerzhaft sein, keinen Sinn zu erkennen; dann ist es einfacher einen Sinn grundsätzlich auszuschließen (z.B. das alte Gegensatzpaar 'Gläubige' gegen 'Ungläubige', 'Theisten' versus 'Atheisten', 'Optimist' vs. 'Pessimist', ...), überraschen lassen kann man sich ja immer noch.

 

(3) Es ist nicht leicht zu sehen, ob man diese Frage(n) nach dem Sinn überhaupt beantworten kann. Bei der Untersuchung der Frage, wie Wissen generell entstehen kann, wie Systeme generell lernen können, stellt man irgendwann nicht nur fest, wie ungeheuer schwierig die Entwicklung von Wissen ist, sondern dass es so etwas wie ein 'Optimum' nicht isoliert für 'ein einziges' System geben kann, sondern nur im Wechselspiel zwischen einem System und der 'zugehörigen' Umgebung. 'In' dieser bzw. 'bezogen auf diese' kann das Verhalten eines Systems und sein aktueller Zustand einen bestimmten 'Wert' haben; ohne diesen Zusammenhang ist nicht klar, wie man die 'Werthaftigkeit' eines Systems definieren soll. Ein 'individuelles System an sich' gibt es nicht. Alle bekannten Systeme -- biologische wie technische -- kommen immer nur vor als 'Teil eines Ganzen'.

 

(4) Traditionelle Deutungssysteme (mythische, religiöse, philosophische,...?) fallen dadurch auf, dass sie versuchen, dem einzelnen Menschen einen Deutungszusammenhang anzubieten, der es ihnen erlaubt, trotz der Vielfalt der wechselnden Alltagsbilder 'in Allem' einen 'Sinn für sich selbst' erkennen zu können, der 'stabil' ist gegen die Schwankungen des Alltags.

 

(5) Stellt man solche traditionellen Deutungsstrategien in Frage, kann man aus Sicht der 'Anhänger' dieser Deutungsstrategien sehr schnell als 'Bedrohung' angesehen werden, nicht nur als Bedroher des gedeuteten Sinns sondern dann auch als Bedroher des eigenen Lebens, das durch diesen 'gedeuteten Sinn' einen 'abgeleiteten Sinn' hat/hatte, der durch die Infragestellung der Deutung womöglich abhanden kommt. Letztlich ist es egal welche Deutungsstrategie man in Frage stellt (religiöse, philosophische, esoterische, ad-hoc Alltagsmythologien, Verschwörungstheorien,....), entscheidend ist, dass man durch die Infragestellung bei den jeweiligen 'Anhängern' ('Gläubigen') den Eindruck erweckt, man greife mit der Deutung auch den gedeuteten Sinn selbst an, und damit zentrale 'Gegenstände' des subjektiven Denkens, das sich 'in' diesen 'geglaubten' Gegenständen eine Weltsicht 'gebaut' hat, die 'Heimat', 'Sinn' und persönlichen 'Wert' (für viele Geschäftemacher aber auch konkrete Einkünfte) verspricht.

 

(6) Die 'Stabilisierung des Alltags' durch Ausdeutung eines Sinns kann man negativ als 'Immunisierung' verstehen, als Versuch der 'Abschottung' vor den 'Tiefen' und 'Unwägbarkeiten' des realen Lebens. Doch letztlich partizipiert diese Tendenz der 'Stabilisierung durch Deutung' von der allgemeinen Natur des Wissens, in einem anfänglichen 'Meer von isolierten Zufälligkeiten' schrittweise 'Muster' und 'Zusammenhänge' erkennen zu können, die sich mehr und mehr zu komplexen Strukturen, Modellen, Theorien formen können. D.h. es ist die Eigenart unserer biologisch bedingten Wissensmaschinerie, die uns dazu anleitet/ führt/ zwingt, im Strom der Zufälligkeiten Nicht-Zufälliges aufzuspüren und dieses dann -- wie Steine im fließenden Bach -- als 'Sprungstellen' zu benutzen, um 'in allem Nicht-Sinn' dann doch Umrisse eines möglichen 'Sinns' erkennen zu können.

 

(7) Streng genommen sind selbst die radikalsten wissenschaftlichen Modell bzw. Theoriebildungen Formen von 'Sinngebung'. Im Unterschied zu den vielfältigen Formen 'alltäglicher Deutungen' mit Tendenz zur Abschottung, zur Immunisierung (die Andersgläubigen, die Ausländer, die Nachbarn, die Polizei, die Politiker, die Banker, die Proleten, die Versager, die Karrieristen, ...) bieten wissenschaftliche Deutungsmodelle zumindest prinzipiell eine Transparenz für alle Daten und Methoden, die benutzt werden, um eine bestimmte Deutung aufrecht zu erhalten. Je komplexer wissenschaftliche Deutungen werden, je mehr persönliche Eitelkeiten von Forschern sich mit der Geltung einer bestimmten Deutung verknüpfen, je mehr finanzielle Einkünfte und politische Macht sich mit einer bestimmten Deutung gewinnen lassen, um so eher steht natürlich auch eine sogenannte wissenschaftliche Deutung in Gefahr, sich 'unwissenschaftlich zu stabilisieren', sich zu 'immunisieren', da der Verlust der Deutungshoheit einhergehen würde mit dem Verlust von vielen sekundären Vorteilen, die direkt nichts mit Wahrheit zu tun haben.

 

(8) Es gibt also eine eingebaute Tendenz der biologischen 'Wissensmaschinerie' nicht nur überhaupt Deutungen zu generieren, sondern den Inhalt dieser Deutungen als das zu nehmen, was die erfahrbare flüchtige Welt 'eigentlich' ist. Während wir alle von Geburt an automatisch Teil dieses 'Deutungsgeschehens' sind, ist es nicht auch automatisch der Fall, dass wir uns dieses 'vorprogrammierten Deutungsspiels' 'bewusst' werden. In der 'Simulation von Welt' 'in unserem Kopf' ist das biologische Gehirn so meisterhaft, dass viele Menschen bis zu ihrem Tode niemals gemerkt haben, dass die Welt, die sie 'zu sehen meinten', garnicht die Welt ist, die real ausserhalb des Gehirns existiert, sondern 'nur' die Welt, wie sie das Gehirn kontinuierlich aufgrund der ihm verfügbaren 'Signale' 'zusammenbaute'. Aufgrund von vielen hundert Millionen Jahren 'Entwicklungszeit' hat das Gehirn darin eine 'Meisterschaft' erlangt, die uns die Möglichkeit bietet, auch ohne spezielles bewusstes Wollen Strukturen in der uns umgebenden Welt erkennen zu können, die wir in unserer Bewusstheit noch nie gedacht hatten. M.a.W. unser Gehirn 'erzählt' uns kontinuierlich eine Geschichte von Welt, die ein hohes Mass an Plausibilität besitzt, aber dennoch nur eine bestimmte (begrenzte) Deutung aufgrund spezieller Annahmen ist.

 

(9) Der seit Jahrtausenden anhaltende Versuch von Menschen, der automatischen Erkennungsleistung des Gehirns explizit konstruierte zusätzliche Deutungsmodelle an die Seite zu stellen, stellt eine außerordentliche Leistung dar, ist aber aufgrund der unausweichlichen Komplexität des Geschehens auf Schritt und Tritt anfällig für Fehler und Fehldeutungen. Es ist die Aufgabe der vielfältigen wissenschaftlichen (und auch philosophischen) Disziplinen, das gesamtgesellschaftliche Deutungsgeschehen kontinuierlich zu verbessern.

 

(10) Sofern ein Deutungsgeschehen -- in welche Form auch immer -- bestimmte Deutungsinhalte 'sichtbar' macht, die als 'sinngebend' verstanden/ erlebt werden, geschieht dies niemals ohne einen Bezug zu 'vorgegebener Welt', es sei denn, die Deutungsinhalte sind 'reine gedankliche Konstruktionen', 'Fantasiegebilde', 'gedankliche Spielereien', 'gedankliche Erfindungen' und damit 'beliebig', 'wertlos'. 'Wertvolle' Deutungsinhalte entstammen letztlich immer einer 'Begegnung' des erkennenden Systems mit einem 'Anderen', das im erkennenden System eine Art 'Echo'/ 'Widerhall'/ 'Erschütterung' ... erzeugt. In diesem fundamentalen Sinn sind 'wertvolle Deutungsinhalte' 'wahr', weil es das, 'wovon'/ 'worüber' sie handeln, unabhängig vom Deutungsmedium in irgendeiner Form 'tatsächlich gibt'. Wenn jemand also 'unwahre' Deutungen kritisiert, dann gefährdet er den Deutungsinhalt wesentlich. Im Falle von 'wahren' Deutungen ist dies nicht so; durch die Kritik am deutenden Modell, am Deutungsmedium, am Deutungsgeschehen wird die wahr Ursache der Deutung nicht beseitigt. Im Gegenteil, ein -- vernünftig geführter -- 'Deutungsstreit' trägt meistens dazu bei, 'die zu deutende Sache' als Anlass einer Deutung weiter zu klären. Angesichts der Unzulänglichkeiten der biologischen Wissensprozesse sind Jahrzehnte oder gar Jahrhunderte keine lange Zeit, letztlich 'evolutionäre Augenblicke'. Wahre (!) Wahrheit verschwindet also nicht durch die Kritik an ihrer Deutung; sie kann allerdings für eine gewisse Zeit 'verdeckt' bleiben. Falsche (!) Wahrheiten können ebenfalls Jahrhunderte -- oder gar Jahrtausende -- überdauern, wenn die Menschen nicht bemerken, dass diese Deutungen letztlich nicht der Welt entsprechen, wie sie außerhalb ihres Denkens ist, sondern nur als Konstruktion in ihrem Kopf.

 

(11) Entsprechend der Volksweisheit 'Aus Nichts kommt nichts' haben wir in der modernen Logik gelernt, dass man nur etwas beweisen kann, was man zuvor angenommen hat; die Physiker belehren uns über den Energieerhaltungssatz, der anders formuliert besagt, dass ich aus einem System nicht mehr Energie herausbekommen kann, als sowieso schon drin steckt. Im Bereich Wissen gilt letztlich etwas Analoges: ich kann nur wissen, was es schon gibt. In dem heute bekannten Kosmos haben wir -- bezogen auf die Verteilung von Energie -- noch 'lokale Ungleichheiten'. Diese ermöglichen die Entstehung von biologischen Systemen, die lokal Energie ansammeln und in dieser zeitlich begrenzten Energieakkumulationen Strukturen möglich machen, die partiell 'unwahrscheinlich' sind und damit 'Informationen' darstellen, die wir als 'Wissen' erleben: Strukturen, die uns im Fluss von 'Zufälligkeiten' als 'Häufigkeiten' auffallen, die wir 'speichern' können, und die wir im Kontext des 'Fortgangs' weiter 'bewerten' können. Durch solche bewertbaren speicherbaren Häufigkeiten akkumulieren Energieungleichheiten als Wissen, das in der Tat leztlich 'nur' ein Echo dessen darstellt, was uns Erkennenden 'widerfährt'!!! In der Form des erfahrungsbasierten Wissens akkumulieren sich Aspekte des kontinuierlichen Weltgeschehens in verstehtigten Augenblicken, durch die etwas 'sichtbar' werden kann, was als Weltgeschehen kontinuierlich 'abläuft', ohne dass der Ablauf als solcher 'um sich weiß'. Aber biologische Systeme als Teil dieses kosmischen Ablaufs können im Ablauf Aspekte des Ablaufs 'akkumulieren', diese dadurch 'füreinander sichtbar' machen, und in diesem 'Füreinander-Sichtbarmachen' die Umrisse eines 'wachsenden Sinnes' sichtbar machen, der etwas über das 'Innere' des Kosmos erzählt, über seine 'mögliche Seele', über den möglichen 'Weltgeist' (der selbst möglicherweise keine biologische Strukturen benötigt, um zu 'wissen'; biologische Systeme sind spezielle Konstellationen innerhalb der materiellen Makrostrukturen).

 

(12) Wenn es also 'für uns Menschen' einen Sinn gibt, dann nur, weil es diesen Sinn schon immer unabhängig von uns gibt und nur in dem Modus, dass wir diesen potentiellen wahren Sinn in einem gemeinsamen Deutungsgeschehen über Jahrhunderte, Jahrtausende... schrittweise aufdecken. Dass die zeitliche und körperliche Begrenztheit unseres biologischen Lebens diesen globalen Sinnzusammenhang nicht in Frage stellen können, ergibt ich daraus von selbst. Sinnlosigkeit besteht dann nur solange, als der einzelne sich nicht als Teil des größeren Sinnzusammenhanges verstehen und erleben kann. ... was einfacher klingt als es real getan ist.....

MENSCHENBILD IM WANDEL

Vortrag am 24.Nov.2010 im Rahmen des gesellschaftspolitischen Forums ‚Bad Nauheimer Gespräche e.V‘ in Fankfurt am Main

Kurzfassung

Einleitungsmusik

  1. Das Thema führt weit über die üblichen Fachgrenzen hinaus. Dies setzt den Vortragenden allerlei Risiken aus, die ihn zum ‚Narren‘ machen können (Zitat E.Schrödinger, 1944). Aber die Sache verlangt dies. Ohne Risiko gibt es keine neuen Erkenntnisse.

  2. Vor seiner Zeit als Informatiker hatte der Vortragende eine intensive Zeit von mehr al 20 Jahren als engagierter Theologe, Jugendsozialarbeiter und Philosoph. In dieser Zeit lernte er die jüdisch-christliche Position von den schriftlichen und praktischen Grundlagen her sehr intensiv kennen. Dies umschloss eine grundsätzliche Gegenüberstellung zwischen dem impliziten Weltbild der Naturwissenschaften und der Technologie gegenüber den theologisch geisteswissenschaftlich orientierten Weltbildern.

  3. Im Versuch , die Grenzen des naturwissenschaftlich-technologischen Weltbildes aufzudecken – und bei gleichzeitig anhaltender intensiver Auseinandersetzung mit der jüdisch-christlichen Tradition – lernte er aber langsam, dass die Grenzen sehr wohl auch auf Seiten des jüdisch-christlichen Weltbildes liegen und die naturwissenschaftlichen Erkenntnisse demgegenüber eine neue Perspektive öffnen, die alte Grenzen sprengen und neue zukunftsweisende Dimensionen öffnen können, wenn man sie entsprechend nutzt.

  4. In einer kurzen Skizze des Alltagsdenkens machte der Vortragende darauf aufmerksam, dass all unser Wissen von der Welt um uns herum nicht ‚direkt‘ diese Welt widerspiegelt, sondern eine Leistung unseres Gehirns ist, das beständig die vielen Millionen sensorischen Signale von der Umgebung des Körpers wie auch aus dem Innern des Körpers in ein räumliches Gesamtbild transformiert, das für das Verhalten in der Umgebung in den meisten Fällen ‚ganz gut funktioniert‘. In vielen Alltagssituationen, durch zahllose psychologische Experimente wie auch –siehe später – durch die neuen Erkenntnisse der Physik kann man zeigen, dass dieses vom Gehirn erzeugte ‚Bild‘ von der Welt vielfach ungenau oder gar falsch ist. Nichtsdestotrotz ist diese Leistung des Gehirns unglaublich und nur verständlich vor der sehr, sehr langen Genese des heutigen Gehirns in den heutigen Körpern.

  5. Es folgte dann ein kursorischer Überblick über die Entwicklung des Lebens seit dem Beginn des messbaren Universums vor ca. -13.6 Milliarden Jahren. Anhand von vier Schaubildern konnte man wie im Zeitraffer sehen, welche ungeheuren ‚Vorleistungen‘ erbracht werden mussten, bis dann bei ca. -3.6 Milliarden Jahren die ersten Zellen auftraten, die dann in den letzten ca. 600 Millionen Jahren zur Besiedelung des Landes mit Pflanzen, Tieren und dann vor ca. 3 – 0,2 Mio Jahren auch mit menschenähnlichen Lebewesen und dann mit dem heute bekannten homo sapiens sapiens führten. Diese Geschichte ist randvoll mit Dramatik und zeigt, welcher Preis gezahlt werden mußte, damit es uns Menschen so, wie wir uns heute kennen, überhaupt geben konnte. Nach den Prognosen der Physik wird in ca. 1 Milliarde Jahre die Sonne die Erde verglühen lassen. Gemessen an der zurückliegenden Zeit bleibt also nur noch eine verhältnismäßig kurze Zeit, bis das Leben auf der Erde für diese neue totale Herausforderung eine Lösung gefunden hat (falls es sie gibt; grundsätzlich natürlich ja).

  6. Eine tiefreichende Einsicht der modernen Physik ist die Einsicht, dass all das, was wir als ‚Materie‘, ‚Substanz‘, ‚Stoffe‘ kennen nichts anderes ist als eine Zustandsform von Energie. Mit Hilfe der modernen Teilchenbeschleuniger kann man zeigen, wie sich jede Substanz (Materie, Stoff) in jede andere Substanz verwandeln läßt, wenn man genügend viel Energie zuführt. Einsteins Formel ‚E=mc²‘ stellt den Zusammenhang zwischen Energie ‚E‘ und Masse ‚m‘ über die Lichtgeschwindigkeit ‚c‘ direkt dar. Von daher ist auch verständlich, dass das heute bekannte messbare Universum, das mit einem ‚Energieausbruch‘ unvorstellbaren Ausmaßes begann, dann durch Abkühlung quasi zu ‚Strukturen erstarrte‘ indem aus der Energie ‚heraus‘ atomare Strukturen sichtbar wurden, die sich zu Galaxien, Sterne und Planeten formten.

  7. Eine weitere tiefreichende Einsicht ist die Erkenntnis der Thermodynamik, dass alle energetisch bedingten Bindungen dazu tendieren, sich abzubauen und damit die Freiheitsgrade der beteiligten Elemente (Atome) zu vergrößern. Die Physikern haben zur Bezeichnung des Grades an Freiheit den Parameter ‚Entropie‘ eingeführt und gehen davon aus, dass der Parameter Entropie tendenziell zunimmt, da der Prozess der Auflösung von energetisch bedingten Bindungen irreversibel erscheint.

  8. Vor diesem Hintergrund nimmt sich das Phänomen des ‚Lebens‘ ‚fremdartig aus: alle heute bekannten Lebensformen basieren auf molekularen Strukturen, die als DNA (und weitere) bekannt sind (die genaue Entstehung solcher Moleküle ist bis heute noch nicht vollständig aufgeklärt!). Das Erstaunliche an diesen Molekülen ist, dass sie als Informationsträger funktionieren, die komplexe Kopier- und Produktionsprozesse steuern können, die dann zur Ausbildung von noch komplexeren Molekülstrukturen führen können, die als Zellen, Zellverbände, Organe, Pflanzen, Tieren und dann auch als Menschen prozeßhaft über einige Zeit existieren können. Abgesehen von der mittlerweile irrwitzigen Komplexität dieser Strukturen (allein das menschliche Gehirn hat schätzungsweise mehr als 100 Milliarden Zellen!) ist wichtig, dass diese Strukturen nur existieren können, weil sie kontinuierlich lokal Energie aus der Umgebung aufnehmen und zum Aufbauen lokaler energetischer Bindungen nutzen. Dieses Verhalten der Lebensformen steht dem entropischen Charakter des gesamten physikalisch bekannten restlichen Universums diametral entgegen. Sowohl Erwin Schrödinger in seinem Buch ‚What is Life‘ von 1944 sowie Werner Heisenberg in seinem Buch ‚Physics and Philosophy‘ von 1958 stellen dieses Paradox explizit heraus und geben zu, dass die moderne Physik zu diesem Paradox nicht einmal ansatzweise eine Antwort besitzt.

  9. Nachdem sich also die scheinbare Vielfalt der Materie auf Energie zurückführen lässt, wird der Begriff der Energie zu neuen ‚Supermaterie‘, die – wie Heisenberg anmerkt – dem Potenzbegriff bei Aristoteles nahe kommt. Die Energie, so, wie sie heute von der Physik ‚enttarnt‘ wurde, enthält alle Eigenschaften und Strukturen, die bislang über unsere Welt bekannt geworden sind. Natürlich stellt sich damit die Frage, ob die jahrtausende lange Gegenübersetzung von ‚Geist‘ und ‚Materie‘ nicht auch obsolet geworden ist. Einerseits war diese Gegenübersetzung gespeist von der schieren Unkenntnis über die ‚wahre Natur‘ der Materie und auch durch eine weitreichende Unkenntnis über die Eigenschaften des menschlichen (bzw. auch des tierischen) ‚Geistes‘. Ob der erlebbare ‚Geist‘ dann letztlich auch nur eine der vielen Eigenschaften der Energie ist, folgt aus all den bekannten Tatsachen natürlich noch nicht unmittelbar.

  10. Hier kann eventuell die Entwicklung der modernen Gehirnforschung in Verbindung mit der Computerwissenschaft (Informatik) weitere interessante Hinweise liefern.

  11. Von der Gehirnforschung wissen wir, dass ein Neuron – bei aller Komplexität des molekularen und chemischen Aufbaus – letztlich an seinem Ausgang, dem Axonhügel, genau nur zwei Zustände kennt: Potential oder nicht Potential, Signal oder nicht Signal, An oder aus, 1 oder 0. Das Gleiche gilt für die Vielzahl der möglichen postsynaptischen Membranen als Gegenüber zu den Endstücken der anderen Neuronen, die ihre Axone zu den Neuronen senden: auch diese repräsentieren trotz all ihrer molekularen und chemischen Komplexität letztlich nur nur einen An- und Aus-Schalter, Signal an, Signal aus, 1 oder 0. Zudem ist ein Neuron auf molekularer Ebene eindeutig diskret.

  12. Bedenkt man, dass der Grundbegriff der modernen Berechenbarkeit, der letztlich auf Goedel (1931) und Turing (1936/7) zurückgeht, mit dem mathematischen Konzept der Turingmaschine einen Referenzmaßstab für Berechenbarkeit schlechthin gefunden hat, und deine Turingmaschine jedes beliebige Gehirn, sofern es binär schaltet und sich bis zu einem gewissen Grade strukturell während seiner Lebenszeit ‚umorganisieren‘ kann (Wachstum, Plastizität), prinzipiell vollständig auf einer Turingmaschine simulieren lässt – vorausgesetzt, es gibt Menschen, die verstehen das Gehirn gut genug, um eine Beschreibung des Gehirns anfertigen zu können, die dann in eine Turingmaschine ‚gefüttert‘ wird –, dann kann man dies als einen weiteren ‚Hinweis‘ dahingehend deuten, dass sich die ‚geistigen‘ Eigenschaften eines Gehirns mit beliebigen materiellen Strukturen simulieren lassen (das mathematische Konzept einer Turingmaschine lässt sich sowohl mechanisch wie elektronisch wie auch chemisch realisieren – oder noch ganz anders).

  13. Am Beispiel eines Experimentes mit einem selbst lernenden System, das aufgrund eigener Bedürfnisse ohne ‚Lehrer‘ lernen kann, illustrierte der Vortragende dann, wie man mit einfachen mathematischen Mitteln sehr komplexe Prozesse beschreiben und dann auch realisieren kann.

  14. Es gab dann noch eine angeregte Diskussion, in der u.a. gefragt wurde, (i) was dies für die verbleiben de ‚Restzeit‘ der Erde bedeuten würde; (ii) welche Konsequenzen dieses Bild für die Ethik hat, (iii) worin denn nun die Hilfe der Informatik für die Menschen besteht, (iv) ob damit denn der ‚Geist‘ vollständig ‚wegreduziert‘ sei. Die verfügbare Zeit reichte nicht aus, diese komplexen Fragen angemessen zu Ende zu diskutieren.

Überleitungsmusik Vortrag zu Diskussion

EXPERIMENTELLE HÖRBUCHFASSUNG

Der Beginner einer experimentellen Hörbuchfassung zu dem Vortrag findet sich hier: Teil 1-3 (4ff kommt noch)

MENSCHENBILD IM WANDEL – Vortrag 24.Nov.2011

In Ergänzung zu diesem Block findet ein öffentlicher Vortrag statt:

Vortragsankündigung

GOTT MISSBRAUCHEN

(1) Insofern es ‚Gott‘ als ‚Erstes‘, ‚Höchstes‘, ‚Lebenswertestes‘ usw. gibt, ist die Art und Weise, wie Menschen über dieses ‚Erste‘, ‚Höchste‘ usw. reden, nicht ganz egal. Es ist eine reale Möglichkeit, dass Menschen über ‚Gott‘ in einer Art und Weise reden, die die Sache ‚Gottes‘  ‚falsch‘ darstellt. Es ist eine reale Möglichkeit, dass Menschen ihre individuellen Bilder  und Interessen haben, die NICHT die Sache Gottes sind, und dass diese Menschen etwas ganz und gar Falsches und Schlechtes als die Sache Gottes vorgeben.

(2) Insofern ‚Gott‘ der ‚Schöpfer‘ von allem ist, kann man das ‚Ganze‘, zu dem zwangsläufig auch das Universum gehört, nicht gegen Gott ausspielen! Wer sich für den REALEN Gott interessiert, der muss sich auch für das REALE Universum interessieren. Das Wissen um das Universum, das Wissen um die REALE Welt, kann in keiner Weise gegen Gott gerichtet sein, sondern ist ein solches Wissen, das das ‚wahre Wesen‘ Gottes in diesem Bereich (der möglicherweise nur ein Teil ist) ‚enthüllt‘.

(3) Wer ‚Gott‘ suchen will, muss sich davor hüten, den ‚falschen‘ Bildern hinterher zu laufen, muss sich vor den ‚falschen‘ (natürlicherweise ’selbsternannten‘) Propheten hüten. Nur weil einer behauptet, ‚über Gott‘ zu sprechen, muss er nicht wirklich ‚im Namen Gottes‘ sprechen; nur weil jemand besonders ‚laut‘ und ‚radikal‘ auftritt, ist er nicht automatisch ein ‚wahrer‘ Verkünder. Salbungsvolle Worte, das Drücken auf die Tränendrüsen, stimmungsvolle Inszenierungen, das Einfordern von Hab und Gut, die Einschränkungen von persönlichen Freiheiten, das Verbieten anderer Denkweisen, der Appell an eine formale Autorität, das Schlecht-Reden anderer Menschen, all dies sind Gegebenheiten, die mehr als nur besondere Aufmerksamkeit fordern.

(4) Natürlich kann es passieren, dass Menschen ‚über Gott‘ sprechen und diese sind subjektiv sogar der Meinung, dass das, was sie sagen, auch ‚wirklich wahr‘ sei (obwohl es tatsächlich falsch ist). Dies ist ein schwieriger Fall. Woran können diese Menschen ‚erkennen‘, dass ihr ‚Bild von Gott‘ falsch ist? Sind Sie sich selbst bewusst, dass Sie sich selbst ‚irren‘ können?

(5) Wir als Menschen sind zwar einerseits ein unauflöslicher Teil des umspannenden Phänomen des Lebens auf dem Planeten Erde, wir weisen aber auch die Besonderheit auf, dass unsere Körper ein Gehirn besitzen, das uns in die Lage versetzt, kontinuierlich (und ‚vollautomatisch‘) ‚Bilder‘ von uns selbst und der umgebenden Welt zu haben. Diese Bilder –soviel wissen wir heute– sind nicht die Welt selbst, sondern –wie das Wort schon sagt– sind ‚Bilder‘, ‚Konstruktionen‘ unseres Gehirns auf der Basis der Ereignisse, die unsere Sinnesorgane von den Ereignissen ‚außerhalb‘   und ‚innerhalb‘ unseres eigenen Körpers liefern. Für einfache Verhaltensweisen (wie z.B. sich richtig bewegen) sind diese Bilder ausreichend geeignet. Für kompliziertere Sachverhalte sind diese Bilder schnell ‚unscharf‘, ‚missverständlich‘, ‚falsch‘.  Wer ernsthaft daran interessiert ist, dass diese seine eigenen Bilder von der Welt (und sich selbst) möglichst wenig ‚falsch‘ sind, ist herausgefordert, sich darum zu kümmern, wie er sich selbst vor der ‚Falschheit seiner eigenen Bilder‘ ’schützt‘.

(6) Die grundlegende Herausforderung besteht darin, dass jeder die ‚automatisch erstellten Bilder‘ ‚in seinem eigenen Kopf‘ auf auch für andere nachvollziebare, transparente Weise mit den Gegebenheiten seines eigenen Körpers und den Gegebenheiten außerhalb seines Körpers  ‚vergleicht‘. In manchen Fällen ist dies einfach (z.B. bei der Frage, ob das Geld für alle eingekauften Lebensmittel ausreichend ist), in anderen Fällen kann dies beliebig schwierig werden (dreht sich die Erde um die Sonne oder die Sonne um die Erde; ist das Elektron eine Welle oder ein Teilchen….). Von daher ist es vielleicht kein Zufall, dass sich das, was wir neuzeitliche Wissenschaft nennen, erst mit dem Jahrhundert Galileis so langsam zu entwickeln begann und es mehrere hundert Jahre gebraucht hat, bis die sogenannten Methoden der empirischen Wissenschaften ansatzweise ‚global‘ bekannt sind und auch angewendet werden. Dass aber selbst mehr als 400 Jahre nach Galilei  mindestens die Hälfte aller Menschen diese Methoden immer noch nicht wirklich kennt und verstanden hat und diese sogar als ‚Bedrohung‘ der eigenen Bilder von der ‚Welt‘ und von ‚Gott‘ empfindet, zeigt, wie schwer wir Menschen uns tun, die Besonderheiten unseres menschlichen Wissens soweit zu verstehen, dass wir verstehen, warum und wie unser aktuelles Wissen immerwährend gefährdet und vom Ansatz her eher falsch als richtig ist (und zwar gerade da und dort, wo es ‚interessant‘ wird).

(7) Dass jemand ‚falsche‘ Bilder in seinem Kopf mit sich herum trägt ist von daher wahrscheinlicher als dass er ‚richtige‘ Bilder hat. Den ‚wahrheitsliebenden‘ Menschen (Philosoph = philos, sophia = Freund der Weisheit) kann man vor diesem Hintergrund daran erkennen, dass er um seine grundsätzliche und andauernde ‚Bedrohung‘ durch ‚falsche‘ Bilder weiß und er grundsätzlich offen dafür ist, sich von anderen ‚Rat‘ zu holen, sich mit anderen abzustimmen, seinen Wissen immer und immer wieder neu bei jeder sich bietenden Gelegenheit zu überprüfen. Ein wahrer Philosoph würde NIEMALS behaupten, er sei im Besitz der Wahrheit!!!, weil er weiß, dass ‚wahre Wahrheit ein kontinuierlicher Prozess der Annäherung der subjektiven Bilder an die Gegebenheiten jenseits des Gehirns ist, und dieser Prozess ist solange unvollendet, als wir Erkenntnissuchende in diesem konkreten Körper mit diesem konkreten Gehirn sind.

(8) Solange Menschen um diese ihre ‚ihnen innewohnende‘ Unvollkommenheit wissen, sich aber gegenseitig wert schätzen und sich wechselseitig helfen, die individuellen Unvollkommenheiten durch gemeinsame Verständigung ‚auszugleichen‘, sind Menschen zu erstaunlichen Erkenntnissen und darauf aufbauenden (komplexen) Handlungen fähig. Das Gebäude der neuzeitlichen Wissenschaft mit der damit verwobenen Technologie und vielfältigsten ökonomischen, sozialen, politischen, kulturellen und sonstigen Leistungen ist atemberaubend (insbesondere, wenn man dies auf einer Zeitachse betrachtet und sieht, wie viele tausende, zehntausende und gar hundert tausende Jahre nichts Vergleichbares stattgefunden hat). Verkennen wir Menschen  aber unsere individuellen Grenzen und Unvollkommenheiten, dann verfestigen sich Fehler, Unvollkommenheiten, Falschheiten, verstärken sich sogar und führend zwangsläufig zu falschen Bildern, nicht selten dann sogar zu Unheil.

(9) Die ‚Liebe zur Wahrheit‘ (wahre Philosophie) verlangt also aufgrund der Art und Weise, wie wir Menschen ‚gebaut‘ sind, dass wir nicht nur um unsere eingebauten Grenzen und Unvollkommenheiten wissen, sondern dass wir auch  mit diesen Grenzen und Unvollkommenheiten in der rechten Weise umgehen. Es gibt KEIN EINZIGES BILD (kein einziger Gedanke) in unserem Kopf, der einfach AUS SICH HERAUS ‚wahr‘ ist. ALLE unsere Bilder (Gedanken) sind Konstruktionen unseres Gehirns, die letztlich (am besten mehrfach, und immer wieder) überprüft werden sollten. In diesem Zusammenhang führt ‚Selbstverliebtheit‘, ‚Eitelkeit‘, ‚Hochmut‘ und dergleichen mehr direkt und unweigerlich in die ‚Nacht der falschen Bilder‘.

(10) Es gab –und gibt– immer wieder Menschen, die an das ‚Wunder der direkten umfassenden Wahrheit‘ glauben. Sie glauben (‚Intuition‘, ‚Genie‘, ‚Offenbarung‘,…), sie könnten den langen beschwerlichen Weg der Erkenntnis, bei dem jeder allen anderen ‚dient‘ (und damit umgekehrt von allen anderen sehr viel bekommt) durch etwas ‚Wundersames‘ umgehen; durch den ‚großen Trick‘, durch das ‚Wunder schlechthin‘, durch ‚Magie‘, durch ‚Zauber‘, usw. Dies alles scheint –nach heutigem Wissen–  falsch zu sein.

(11) ALLE Menschen sind ‚Blüten‘ am ‚Baum‘ des Lebens auf dem Planeten Erde, wo schon die materielle Struktur dieses Lebens das bisherige menschliche Begreifen überfordert und bislang nur Raum für grenzenloses Staunen und Wundern läßt. Das Durchdringen der erkennbaren materiellen Strukturen und ihrer atemberaubenden Dynamik von ’scheinbarer Planlosigkeit‘ hin zu immer komplexeren Strukturen, die jeder mathematischen  ‚Zufälligkeit‘  ‚zuwiderlaufen‘, dieses ‚geistige Durchdringen‘ in Richtung eines ‚tieferen‘ und ‚umfassenderen‘ Verstehens hat bislang kaum begonnen. Viele (die meisten?) Menschen sind noch so sehr mit den ‚alten‘ und ‚falschen‘ Bildern in ihrem Kopf beschäftigt, dass sie die atemberaubende Perspektive eines umfassenden Lebensprozesses noch nicht einmal ansatzweise wahrgenommen haben. Manche reden von ‚Gott‘ als dem ‚Schöpfer‘ von allem, haben sich aber noch nie mit der Schöpfung so beschäftigt, dass Sie zu ahnen beginnen könnten, wie ‚in‘ und ‚hinter‘ dem Allem die ewige Präsenz des wahren Schöpfers spürbar wird, der soweit all unseren kleinlichen und unvollkommenen Bilder des Lebens übersteigt, dass das Reden eines einzelnen Menschen über ‚den‘ Schöpfer zwangsläufig zu einer Karikatur zu werden droht, die mehr ‚falsch‘ als ‚wahr‘ ist.

(12) Es gehört zum Geheimnis des Lebens, dass der einzelne angesichts des großen Ganzen wie ‚Nichts‘ erscheint, dass aber das große Ganze ohne jeden einzelnen tatsächlich Nichts ist…..

(13) Ein weiteres Geheimnis ist, dass niemand gezwungen ist, die Wahrheit zu suchen (eine Form von ‚Freiheit zur Unwahrheit’…); ohne die Wahrheit kann das Leben auf dem Planeten Erde allerdings untergehen….

DENKMASCHINERIE (4)

Diesem Beitrag ging ein Teil 3 voraus.

(1) Es gibt unterschiedliche Perspektiven, wie man das, was wir als ‘Denken’ bezeichnen, betrachten kann. Je nachdem, welche dieser Perspektiven wir wählen, ergibt sich ein ganz unterschiedliches Bild von diesem ‘Denken’.

(2) Neben dem ALLTAGSDENKEN gibt es seit ein paar hundert Jahren auch das sogenannten WISSENSCHAFTLICHE DENKEN. Das wissenschaftliche Denken setzt das alltägliche Denken gewissermaßen als primären Bezugspunkt voraus, hebt sich aber dennoch von ihm ab und widerspricht ihm letztlich in vielen Punkten. Dies liegt daran, dass das ALLTAGSDENKEN eine Reihe von ANNAHMEN macht, die FALSCH sind, aber im Alltag meistens sehr NÜTZLICH. So atemberaubend die Leistungen des wissenschaftlichen Denkens auch sind, es ist eine limitierte, eingeschränkte Form des Denkens, die nicht nur das ALLTAGSDENKEN voraussetzt sondern –aus philosophischer, erkenntnistheoretischer Sicht– auch das  PHÄNOMENOLOGISCHE DENKEN. Letzteres kann man nur angenähert beschreiben als eine Struktur, die die INNENSICHT des subjektiven Erlebens mit Hilfe von alltagssprachlich und wissenschaflich eingeführten sprachlichen Konstrukten näherungsweise beschreibt.

(3) Allen drei Formen ALLTAGSDENKEN, WISSENSCHAFTSDENKEN sowie PHÄNOMENOLOGISCHEM DENKEN ist gemeinsam, dass sie das Denken zeigen, wie es sich  AUSWIRKT. Wie erscheinen Menschen, wenn sie denken im Alltag? Wie sieht es aus, wenn DENKENDE Menschen Experimnte machen, Modelle konstruieren und überprüfen? Welche Erlebnisse hat jemand, der DENKT? In all diesen Perspektiven ist DAS, WAS DAS DENKEN ERMÖGLICHT, NICHT im Blick. Wir können zwar ERLEBEN, dass wir uns ERINNERN können, die einzelnen Vorgänge beim Erinnern selbst können wir aber nicht ’sehen‘. Wir erleben, dass wir VERALLGEMEINERN können, wir können ABSTRAHIEREN, es passiert ‚AUTOMATISCH‘, aber wir können nicht ’sehen‘, wie dies im einzelnen funktioniert. usw. Diejenige MASCHINERIE, die unser Erleben, Wahrnehmen, Denken ERMÖGLICHT, ist uns innerhalb des BEWUSSTEN DENKENS VERBORGEN.

(4) Die PHILOSOPHEN haben sich darüber immer wieder Gedanken gemacht; sie nannten das dann manchmal ERKENNTNISTHEORIE. Einer der beeindruckendste und bis heute noch immer aktuelle Beitrag ist sicher die ‚Kritik der reinen Vernunft‘ von Immanuel Kant (2.Aufl. 1787) (ohne damit andere schmälern zu wollen). Wie kaum ein anderer hat er die Frage nach den BEDINGUNGEN des eigenen Erkennens gestellt und mit seiner TRANSZENDENTALEN ANALYTIK u.a. herausgearbeitet, dass in der ART UND WEISE, wie wir WAHRNEHMEN die Struktur von RAUM UND ZEIT von vornherein (a priori) ‚eingebaut‘ ist. Bücher wie die von  Konrad Lorenz 1977 ‚Die Rückseite des Spiegels‘ oder 1982 das Buch ‚Erkennen: Die Organisation und Verkörperung von Wirklichkeit‘ (zuvor schon  1972 (mit Varela) das Buch  ‚De máquinas y seres vivos‘)  von Maturana sind zwar nicht die ersten, die die biologischen Grundlagen unseres Denkens thematisieren, aber diese Publikationen markieren eine Wende im Denken über das Denken. Die rasante Entwicklung der Neurowissenschaften hat dann ihr Übriges dazu beigetragen, die Frage nach der MASCHINERIE ‚in unserem Kopf‘, die unser Denken ermöglicht, weiter zu beleuchten.

(5) Heute erscheint es jedenfalls gesichert, dass alles, was wir WAHRNEHMEN, ERINNERN, FÜHLEN, DENKEN usw. darauf basiert, dass wir ein NERVENSYSTEM (GEHIRN) besitzen, das innerhalb unseres Körpers in der Lage ist, SPEZIFISCHE SPANNUNGSZUSTÄNDE (ERREGUNGSZUSTÄNDE)  zu repräsentieren, zu modulieren, und weiter zu leiten, und dies in einer Massivität, Parallelität und letztlich Komplexität, die alles übersteigt, was wir sonst so in der Natur kennen.

(6) Die Kenntnisse über Details dieser Maschinerie und über den einen oder anderen ‚funktionalen‘ Zusammenhang sind recht weit fortgeschritten. Allerdings liegen mehr als die Hälfte der biologischen Substanz des Gehirns (z.B. die genaue Funktion der Astrozyten) noch bis heute im tiefsten Dunkel. Ferner ist es bislang fast unmöglich, die PARALLELITÄT zwischen BEWUSSTEM ERKENNEN und UNTERSTELLTER MASCHINERIE klar und ausführlich zu erforschen (Neuropsychologie), da gerade das BEWUSSTE DENKEN sich einer direkten eindeutigen Beschreibung bislang entzieht. Es gibt eine Fülle von Einzelhypothesen, aber keinerlei Struktur, die den Namen MODELL oder gar THEORIE wirklich verdient. Neurobiologen wissen meist sehr viel über biochemische Details von Nervenzellen oder deren Komponenten, aber kaum etwas über größere Zusammenhänge, geschweige denn etwas darüber, was eine THEORIE DES GEHIRNS sein könnte.

(7) Es ist schwer abschätzbar, wie lange die Wissenschaft (und die Philosophie?) brauchen wird, eine (empirische) THEORIE DES GEHIRNS als Teil des Körpers auszuarbeiten. Zum VERSTEHEN unserer spezifisch MENSCHLICHEN BEWUSSTHEIT, unserer MENSCHLICHEN GEISTIGKEIT, unseres MENSCHLICHEN DENKENS wird diese Theorie allerdings nur dann etwas beitragen können, wenn es neben der  Theorie des biologischen Gehirns TH_NN eine entsprechend ausgearbeitete Theorie des bewussten menschlichen Denkens Th_Consc gibt, so dass sich die ERLEBBAREN Eigenschaften des Denkens mit den MESSBAREN Eigenschaften des neuronalen Systems KORRELIEREN bzw. AUFEINANDER ABBILDEN lassen. D.h. wir brauchen letztlich eine METATHEORIE des Denkens Th_NNCons in der ÜBER die beiden anderen Theorien Th_NN und Th-Consc GESPROCHEN werden kann und in der die WECHSELWIRKUNG zwischen dem BEWUSSTEN und dem NEURONALEN explizit herausgearbeitet wird. Dabei vermute ich, dass die Theorie des BEWUSSTEN DENKENS Th_Consc eine PHÄNOMENOLOGISCHE Theorie sein muss.

(8) Aktuell besitzen wir nach meiner Einschätzung nur FRAGMENTE einer möglichen biologischen Theorie der neuronalen Strukturen Th_NN und ebenfalls bestenfalls nur FRAGMENTE einer phänomenologischen Theorie. Ich sehe nicht, dass zur Zeit  irgendjemand die  NOTWENDIGKEIT einer wirklichen THEORIE weder für Th_NN noch für Th_Consc sieht, geschweige denn für eine INTEGRIERENDE METATHEORIE der beiden.

(9) Für die Beschreibung der neuronalen Maschinerie sehe ich grundsätzlich zwei Strategien: (i) Eine möglichst ‚getreue‘ Abbildung der biologischen Strukturen oder (ii) eine Modellierung, die versucht, die ‚Prinzipien‘ herauszuarbeiten. Strategie (i) entspricht einer EMPIRISCH BIOLOGISCHEN Theoriebildung im ‚vollen Sinne‘. Strategie (ii) verkörpert eher den INGENIEURMÄSSIGEN Zugang. Zwischen einer ‚radikalen‘ Form von Strategie (i) und (ii) gibt es ein Kontinuum von Varianten, die letztlich ineinander übergehen. Wo genau der Bezug zum ‚Biologischen‘ aufhört und das ‚rein technische‘ Konstrukt  anfängt ist kaum klar definierbar. Wie auch immer man den ‚Einstieg‘ in eine der beiden Strategien wählt, jede Strategie, die funktioniert, wird uns wertvolle Erkenntnisse liefern und auf unterschiedliche Weise helfen, praktische Probleme zu lösen. Für konkrete ‚Therapien‘ wird eine stärker nach (i) gerichtete Strategie Unterstützung bieten können; für ingenieurmässige Lösungen, in denen ‚künstliche Gehirne‘ dem Menschen helfen sollen, wird eine Strategie (ii) erfolgversprechender sein. Eine klare Antwort wird momentan wohl niemand geben können.

Fortsetzung: In gewisser Weise sind die Teile 2-4 in einem späteren Vortrag bei der Philosophischen Gesellschaft Bremerhaven wieder aufgegriffen und weiter entwickelt worden.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.