Archiv der Kategorie: Wissenschaft – empirische

SEMIOTIK UND KÜNSTLICHE INTELLIGENZ. EIN VIELVERSPRECHENDES TEAM. Nachschrift eines Vortrags an der Universität Passau am 22.Okt.2015

KONTEXT

  1. Im Rahmen der interdisziplinären Ringvorlesung Grenzen (Wintersemester 2015/16) an der Universität Passau (organisiert von der Deutsche Gesellschaft für Semiotik (DGS) e.V. in Kooperation mit der Professur für Neuere deutsche Literaturwissenschaft und Mediensemiotik (Prof. Dr. Jan-Oliver Decker und Dr. Stefan Halft) hatte ich einen Vortrag angenommen mit dem Titel Semiotik und künstliche Intelligenz. Ein vielversprechendes Team. Wie immer halte ich Vorträge immer zu Fragen, die ich bis dahin noch nicht ausgearbeitet hatte und nutze diese Herausforderung, es dann endlich mal zu tun.
  2. Die Atmosphäre beim Vortrag war sehr gut und die anschließenden Gespräche brachte viele interessanten Aspekte zutage, was wir im Rahmen der DGS noch tun sollten/ könnten, um das Thema weiter zu vertiefen.

MOTIV – WARUM DIESES THEMA

  1. Angesichts der vielfältigen Geschichte der Semiotik könnte man natürlich ganze Abende nur mit Geschichten über die Semiotik füllen. Desgleichen im Fall der künstlichen Intelligenz [KI]. Der Auslöser für das Thema war dann auch der spezielle Umstand, dass im Bereich der KI seit etwa den 80iger Jahren des 20.Jahrhunderts in einigen Forschungsprojekten das Thema Semiotik ganz neu auftaucht, und nicht als Randthema sondern verantwortlich für die zentralen Begriffe dieser Forschungen. Gemeint sind die berühmten Roboterexperimente von Luc Steels (ähnlich auch aufgegriffen von anderen, z.B. Paul Vogt) (siehe Quellen unten).
  2. Unter dem Eindruck großer Probleme in der klassischen KI, die aus einem mangelnden direkten Weltbezug resultierten (das sogenannte grounding Problem) versuchte Steels, Probleme des Zeichen- und Sprachlernens mit Hilfe von Robotern zu lösen, die mit ihren Sensoren direkten Kontakt zur empirischen Welt haben und die mit ihren Aktoren auch direkt auf die Welt zurück wirken können. Ihre internen Verarbeitungsprozesse können auf diese Weise abhängig gemacht werden (eine Form von grounding) von der realen Welt (man spricht hier auch von embodied intelligence).
  3. Obwohl Steels (wie auch Vogt) auf ungewöhnliche Weise grundlegende Begriffe der Semiotik einführen, wird dieser semiotische Ansatz aber nicht weiter reflektiert. Auch findet nicht wirklich eine Diskussion des Gesamtansatzes statt, der aus dieser Kombination von Semiotik und Robotik/ KI entsteht bzw. entstehen könnte. Dies ist schade. Der Vortrag Semiotik und künstliche Intelligenz. Ein vielversprechendes Team stellt einen Versuch dar, heraus zu arbeiten, warum die Kombination Semiotik und KI nicht nur Sinn macht, sondern eigentlich das Zeug hätte, zu einem zentralen Forschungsparadigma für die Zukunft zu werden. Tatsächlich liegt dem Emerging Mind Projekt, das hier im Blog schon öfters erwähnt wurde und am 10.November 2015 offiziell eröffnet werden wird, genau dieses Semiotik-KI-Paradigma zugrunde.

WELCHE SEMIOTIK?

  1. Wer Wörterbücher zur Semiotik aufschlägt (z.B. das von Noeth 2000), wird schnell bemerken, dass es eine große Vielfalt von Semiotikern, semiotischen Blickweisen, Methoden und Theorieansätze gibt, aber eben nicht die eine große Theorie. Dies muss nicht unbedingt negativ sein, zumal dann nicht, wenn wir ein reiches Phänomen vor uns haben, das sich eben einer einfachen Theoriebildung widersetzt. Für die Praxis allerdings, wenn man Semiotik in einer realen Theoriebildung einsetzen möchte, benötigt man verbindliche Anknüpfungspunkte, auf die man sich bezieht. Wie kann man solch eine Entscheidung motivieren?
  2. Aus der Sicht der Wissenschaftsphilosophie biete es sich an, die unterschiedlichen Zugangsweisen zur Erfahrung und und Beschreibung von Wirklichkeit als quasi Koordinatensystem zu wählen, diesem einige der bekanntesten semiotischen Ansätze zu zuordnen und dann zu schaue, welche dieser semiotischen Positionen der Aufgabenstellung am nächsten kommen. Von einer Gesamttheorie her betrachtet sind natürlich alle Ansätze wichtig. Eine Auswahl bzw. Gewichtung kann nur pragmatische Gründe haben.

ZUGÄNGE ZUR WIRKLICHKEIT

  1. Grundsätzlich gibt es aus heutiger Sicht zwei Zugangsweisen: über den intersubjektiven (empirischen) Bereich und über das subjektive Erleben.
  2. Innerhalb des empirischen Bereichs gab es lange Zeit nur den Bereich des beobachtbaren Verhaltens [SR] (in der Psychologie) ohne die inneren Zustände des Systems; seit ca. 50-60 Jahren eröffnen die Neurowissenschaften auch einen Zugriff auf die Vorgänge im Gehirn. Will man beide Datenbereiche korrelieren, dann gerät man in das Gebiet der Neuropsychologie [NNSR].
  3. Der Zugang zur Wirklichkeit über den subjektiven Bereich – innerhalb der Philosophie auch als phänomenologischer Zugang bekannt – hat den Vorteil einer Direktheit und Unmittelbarkeit und eines großen Reichtums an Phänomenen.
  4. Was den meisten Menschen nicht bewusst ist, ist die Tatsache, dass die empirischen Phänomene nicht wirklich außerhalb des Bewusstseins liegen. Die Gegenstände in der Zwischenkörperzone (der empirische Bereich) sind als Gegenstände zwar (was wir alle unterstellen) außerhalb des Bewusstseins, aber die Phänomene, die sie im Bewusstsein erzeugen, sind nicht außerhalb, sondern im Bewusstsein. Das, was die empirischen Phänomene [PH_em] von den Phänomenen, unterscheidet, die nicht empirisch [PH_nem] sind, ist die Eigenschaft, dass sie mit etwas in der Zwischenkörperwelt korrespondieren, was auch von anderen Menschen wahrgenommen werden kann. Dadurch lässt sich im Falle von empirischen Phänomenen relativ leicht Einigkeit zwischen verschiedenen Kommunikationsteilnehmern über die jeweils korrespondierenden Gegenstände/ Ereignisse erzielen.
  5. Bei nicht-empirischen Phänomenen ist unklar, ob und wie man eine Einigkeit erzielen kann, da man nicht in den Kopf der anderen Person hineinschauen kann und von daher nie genau weiß, was die andere Person meint, wenn sie etwas Bestimmtes sagt.
  6. Die Beziehung zwischen Phänomenen des Bewusstseins [PH] und Eigenschaften des Gehirns – hier global als NN abgekürzt – ist von anderer Art. Nach heutigem Wissensstand müssen wir davon ausgehen, dass alle Phänomene des Bewusstseins mit Eigenschaften des Gehirns korrelieren. Aus dieser Sicht wirkt das Bewusstsein wie eine Schnittstelle zum Gehirn. Eine Untersuchung der Beziehungen zwischen Tatsachen des Bewusstseins [PH] und Eigenschaften des Gehirns [NN] würde in eine Disziplin fallen, die es so noch nicht wirklich gibt, die Neurophänomenologie [NNPH] (analog zur Neuropsychologie).
  7. Der Stärke des Bewusstseins in Sachen Direktheit korrespondiert eine deutliche Schwäche: im Bewusstsein hat man zwar Phänomene, aber man hat keinen Zugang zu ihrer Entstehung! Wenn man ein Objekt sieht, das wie eine Flasche aussieht, und man die deutsche Sprache gelernt hat, dann wird man sich erinnern, dass es dafür das Wort Flasche gibt. Man konstatiert, dass man sich an dieses Wort in diesem Kontext erinnert, man kann aber in diesem Augenblick weder verstehen, wie es zu dieser Erinnerung kommt, noch weiß man vorher, ob man sich erinnern wird. Man könnte in einem Bild sagen: das Bewusstsein verhält sich hier wie eine Kinoleinwand, es konstatiert, wenn etwas auf der Leinwand ist, aber es weiß vorher nicht, ob etwas auf die Leinwand kommen wird, wie es kommt, und nicht was kommen wird. So gesehen umfasst das Bewusstsein nur einen verschwindend kleinen Teil dessen, was wir potentiell wissen (können).

AUSGEWÄHLTE SEMIOTIKER

  1. Nach diesem kurzen Ausflug in die Wissenschaftsphilosophie und bevor hier einzelne Semiotiker herausgegriffen werden, sei eine minimale Charakterisierung dessen gegeben, was ein Zeichen sein soll. Minimal deshalb, weil alle semiotischen Richtungen, diese minimalen Elemente, diese Grundstruktur eines Zeichens, gemeinsam haben.
  2. Diese Grundstruktur enthält drei Komponenten: (i) etwas, was als Zeichenmaterial [ZM] dienen kann, (ii) etwas, das als Nichtzeichenmaterial [NZM] fungieren kann, und (iii) etwas, das eine Beziehung/ Relation/ Abbildung Z zwischen Zeichen- und Nicht-Zeichen-Material in der Art repräsentiert, dass die Abbildung Z dem Zeichenmaterial ZM nicht-Zeichen-Material NZM zuordnet. Je nachdem, in welchen Kontext man diese Grundstruktur eines Zeichens einbettet, bekommen die einzelnen Elemente eine unterschiedliche Bedeutung.
  3. Dies soll am Beispiel von drei Semiotikern illustriert werden, die mit dem zuvor charakterisierten Zugängen zur Wirklichkeit korrespondieren: Charles William Morris (1901 – 1979), Ferdinand de Saussure (1857-1913) und Charles Santiago Sanders Peirce (1839 – 1914) .
  4. Morris, der jüngste von den Dreien, ist im Bereich eines empirischen Verhaltensansatzes zu positionieren, der dem verhaltensorientierten Ansatz der modernen empirischen Psychologie nahe kommt. In diesem verhaltensbasierten Ansatz kann man die Zeichengrundstruktur so interpretieren, dass dem Zeichenmaterial ZM etwas in der empirischen Zwischenwelt korrespondiert (z.B. ein Laut), dem Nicht-Zeichen-Material NZM etwas anderes in der empirischen Außenwelt (ein Objekt, ein Ereignis, …), und die Zeichenbeziehung Z kommt nicht in der empirischen Welt direkt vor, sondern ist im Zeichenbenutzer zu verorten. Wie diese Zeichenbeziehung Z im Benutzer tatsächlich realisiert ist, war zu seiner Zeit empirische noch nicht zugänglich und spielt für den Zeichenbegriff auch weiter keine Rolle. Auf der Basis von empirischen Verhaltensdaten kann die Psychologie beliebige Modellannahmen über die inneren Zustände des handelnden Systems machen. Sie müssen nur die Anforderung erfüllen, mit den empirischen Verhaltensdaten kompatibel zu sein. Ein halbes Jahrhundert nach Morris kann man anfangen, die psychologischen Modellannahmen über die Systemzustände mit neurowissenschaftlichen Daten abzugleichen, sozusagen in einem integrierten interdisziplinären neuropsychologischen Theorieansatz.
  5. Saussure, der zweit Jüngste von den Dreien hat als Sprachwissenschaftler mit den Sprachen primär ein empirisches Objekt, er spricht aber in seinen allgemeinen Überlegungen über das Zeichen in einer bewusstseinsorientierten Weise. Beim Zeichenmaterial ZM spricht er z.B. von einem Lautbild als einem Phänomen des Bewusstseins, entsprechend von dem Nicht-Zeichenmaterial auch von einer Vorstellung im Bewusstsein. Bezüglich der Zeichenbeziehung M stellt er fest, dass diese außerhalb des Bewusstseins liegt; sie wird vom Gehirn bereit gestellt. Aus Sicht des Bewusstseins tritt diese Beziehung nur indirekt in Erscheinung.
  6. Peirce, der älteste von den Dreien, ist noch ganz in der introspektiven, phänomenologischen Sicht verankert. Er verortet alle drei Komponenten der Zeichen-Grundstruktur im Bewusstsein. So genial und anregend seine Schriften im einzelnen sind, so führt diese Zugangsweise über das Bewusstsein zu großen Problemen in der Interpretation seiner Schriften (was sich in der großen Bandbreite der Interpretationen ausdrückt wie auch in den nicht selten geradezu widersprüchlichen Positionen).
  7. Für das weitere Vorgehen wird in diesem Vortrag der empirische Standpunkt (Verhalten + Gehirn) gewählt und dieser wird mit der Position der künstlichen Intelligenz ins Gespräch gebracht. Damit wird der direkte Zugang über das Bewusstsein nicht vollständig ausgeschlossen, sondern nur zurück gestellt. In einer vollständigen Theorie müsste man auch die nicht-empirischen Bewusstseinsdaten integrieren.

SPRACHSPIEL

  1. Ergänzend zu dem bisher Gesagten müssen jetzt noch drei weitere Begriffe eingeführt werden, um alle Zutaten für das neue Paradigma Semiotik & KI zur Verfügung zu haben. Dies sind die Begriffe Sprachspiel, Intelligenz sowie Lernen.
  2. Der Begriff Sprachspiel wird auch von Luc Steels bei seinen Roboterexperimenten benutzt. Über den Begriff des Zeichens hinaus erlaubt der Begriff des Sprachspiels den dynamischen Kontext des Zeichengebrauchs besser zu erfassen.
  3. Steels verweist als Quelle für den Begriff des Sprachspiels auf Ludwig Josef Johann Wittgenstein (1889-1951), der in seiner Frühphase zunächst die Ideen der modernen formalen Logik und Mathematik aufgriff und mit seinem tractatus logico philosophicus das Ideal einer am logischen Paradigma orientierten Sprache skizzierte. Viele Jahre später begann er neu über die normale Sprache nachzudenken und wurde sich selbst zum schärfsten Kritiker. In jahrelangen Analysen von alltäglichen Sprachsituationen entwickelte er ein facettenreiches Bild der Alltagssprache als ein Spiel, in dem Teilnehmer nach Regeln Zeichenmaterial ZM und Nicht-Zeichen-Material NZM miteinander verknüpfen. Dabei spielt die jeweilige Situation als Kontext eine Rolle. Dies bedeutet, das gleiche Zeichenmaterial kann je nach Kontext unterschiedlich wirken. Auf jeden Fall bietet das Konzept des Sprachspiels die Möglichkeit, den ansonsten statischen Zeichenbegriff in einen Prozess einzubetten.
  4. Aber auch im Fall des Sprachspielkonzepts benutzt Steels zwar den Begriff Sprachspiel, reflektiert ihn aber nicht soweit, dass daraus ein explizites übergreifendes theoretisches Paradigma sichtbar wird.
  5. Für die Vision eines neuen Forschungsparadigmas Semiotik & KI soll also in der ersten Phase die Grundstruktur des Zeichenbegriffs im Kontext der empirischen Wissenschaften mit dem Sprachspielkonzept von Wittgenstein (1953) verknüpft werden.

INTELLIGENZ

  1. Im Vorfeld eines Workshops der Intelligent Systems Division des NIST 2000 gab es eine lange Diskussion zwischen vielen Beteiligten, wie man denn die Intelligenz von Maschinen messen sollte. In meiner Wahrnehmung verhedderte sich die Diskussion darin, dass damals nach immer neuen Klassifikationen und Typologien für die Architektur der technischen Systeme gesucht wurde, anstatt das zu tun, was die Psychologie schon seit fast 100 Jahren getan hatte, nämlich auf das Verhalten und dessen Eigenschaften zu schauen. Ich habe mich in den folgenden Jahren immer wieder mit der Frage des geeigneten Standpunkts auseinandergesetzt. In einem Konferenzbeitrag von 2010 (zusammen mit anderen, insbesondere mit Louwrence Erasmus) habe ich dann dafür argumentiert, das Problem durch Übernahme des Ansatzes der Psychologie zu lösen.
  2. Die Psychologie hatte mit Binet (1905), Stern (1912 sowie Wechsler (1939) eine grundsätzliche Methode gefunden hatte, die Intelligenz, die man nicht sehen konnte, indirekt durch Rückgriff auf Eigenschaften des beobachtbaren Verhaltens zu messen (bekannt duch den Begriff des Intelligenz-Quotienten, IQ). Die Grundidee bestand darin, dass zu einer bestimmten Zeit in einer bestimmten Kultur bestimmte Eigenschaften als charakteristisch für ein Verhalten angesehen werden, das man allgemein als intelligent bezeichnen würde. Dies impliziert zwar grundsätzlich eine gewisse Relativierung des Begriffs Intelligenz (was eine Öffnung dahingehend impliziert, dass zu anderen Zeiten unter anderen Umständen noch ganz neue Eigenschaftskomplexe bedeutsam werden können!), aber macht Intelligenz grundsätzlich katalogisierbar und damit messbar.
  3. Ein Nebeneffekt der Bezugnahme auf Verhaltenseigenschaften findet sich in der damit möglichen Nivellierung der zu messenden potentiellen Strukturen in jenen Systemen, denen wir Intelligenz zusprechen wollen. D.h. aus Sicht der Intelligenzmessung ist es egal ob das zu messende System eine Pflanze, ein Tier, ein Mensch oder eine Maschine ist. Damit wird – zumindest im Rahmen des vorausgesetzten Intelligenzbegriffs – entscheidbar, ob und in welchem Ausmaß eine Maschine möglicherweise intelligent ist.
  4. Damit eignet sich dieses Vorgehen auch, um mögliche Vergleiche zwischen menschlichem und maschinellem Verhalten in diesem Bereich zu ermöglichen. Für das Projekt des Semiotk & KI-Paradigmas ist dies sehr hilfreich.

LERNEN

  1. An dieser Stelle ist es wichtig, deutlich zu machen, dass Intelligenz nicht notwendigerweise ein Lernen impliziert und Lernen nicht notwendigerweise eine Intelligenz! Eine Maschine (z.B. ein schachspielender Computer) kann sehr viele Eigenschaften eines intelligenten Schachspielers zeigen (bis dahin, dass der Computer Großmeister oder gar Weltmeister besiegen kann), aber sie muss deswegen nicht notwendigerweise auch lernfähig sein. Dies ist möglich, wenn erfahrene Experten hinreichend viel Wissen in Form eines geeigneten Programms in den Computer eingeschrieben haben, so dass die Maschine aufgrund dieses Programms auf alle Anforderungen sehr gut reagieren kann. Von sich aus könnte der Computer dann nicht dazu lernen.
  2. Bei Tieren und Menschen (und Pflanzen?) gehen wir von einer grundlegenden Lernfähigkeit aus. Bezogen auf das beobachtbare Verhalten können wir die Fähigkeit zu Lernen dadurch charakterisieren, dass ein System bis zu einem Zeitpunkt t bei einem bestimmten Reiz s nicht mit einem Verhalten r antwortet, nach dem Zeitpunkt t aber dann plötzlich doch, und dieses neue Verhalten über längere Zeit beibehält. Zeigt ein System eine solche Verhaltensdynamik, dann darf man unterstellen, dass das System in der Lage ist, seine inneren Zustände IS auf geeignete Weise zu verändern (geschrieben: phi: I x IS —> IS x O (mit der Bedeutung I := Input (Reize, Stimulus s), O := Output (Verhaltensantworten, Reaktion r), IS := interne Zustände, phi := Name für die beobachtbare Dynamik).
  3. Verfügt ein System über solch eine grundlegende Lernfähigkeit (die eine unterschiedlich reiche Ausprägung haben kann), dann kann es sich im Prinzip alle möglichen Verhaltenseigenschaften aneignen/ erwerben/ erlernen und damit im oben beschriebenen Sinne intelligent werden. Allerdings gibt es keine Garantie, dass eine Lernfähigkeit notwendigerweise zu einer bestimmten Intelligenz führen muss. Viele Menschen, die die grundsätzliche Fähigkeit besitzen, Schachspielen oder Musizieren oder Sprachen zu lernen,  nutzen diese ihre Fähigkeiten niemals aus; sie verzichten damit auf Formen intelligenten Verhaltens, die ihnen aber grundsätzlich offen stehen.
  4. Wir fordern also, dass die Lernfähigkeit Teil des Semiotik & KI-Paradigmas sein soll.

LERNENDE MASCHINEN

  1. Während die meisten Menschen heute Computern ein gewisses intelligentes Verhalten nicht absprechen würden, sind sie sich mit der grundlegenden Lernfähigkeit unsicher. Sind Computer im echten Sinne (so wie junge Tiere oder menschliche Kinder) lernfähig?
  2. Um diese Frage grundsätzlich beantworten zu können, müsste man ein allgemeines Konzept von einem Computer haben, eines, das alle heute und in der Zukunft existierende und möglicherweise in Existenz kommende Computer in den charakteristischen Eigenschaften erschöpfend beschreibt. Dies führt zur Vor-Frage nach dem allgemeinsten Kriterium für Computer.
  3. Historisch führt die Frage eigentlich direkt zu einer Arbeit von Turing (1936/7), in der er den Unentscheidbarkeitsbeweis von Kurt Gödel (1931) mit anderen Mitteln nochmals nachvollzogen hatte. Dazu muss man wissen, dass es für einen formal-logischen Beweis wichtig ist, dass die beim Beweis zur Anwendung kommenden Mittel, vollständig transparent sein müssen, sie müssen konstruktiv sein, was bedeutet, sie müssen endlich sein oder effektiv berechenbar. Zum Ende des 19.Jh und am Anfang des 20.Jh gab es zu dieser Fragestellung eine intensive Diskussion.
  4. Turing wählte im Kontrast zu Gödel keine Elemente der Zahlentheorie für seinen Beweis, sondern nahm sich das Verhalten eines Büroangestellten zum Vorbild: jemand schreibt mit einem Stift einzelne Zeichen auf ein Blatt Papier. Diese kann man einzeln lesen oder überschreiben. Diese Vorgabe übersetze er in die Beschreibung einer möglichst einfachen Maschine, die ihm zu Ehren später Turingmaschine genannt wurde (für eine Beschreibung der Elemente einer Turingmaschine siehe HIER). Eine solche Turingmaschine lässt sich dann zu einer universellen Turingmaschine [UTM] erweitern, indem man das Programm einer anderen (sekundären) Turingmaschine auf das Band einer primären Turingmaschine schreibt. Die primäre Turingmaschine kann dann nicht nur das Programm der sekundären Maschine ausführen, sondern kann es auch beliebig abändern.
  5. In diesem Zusammenhang interessant ist, dass der intuitive Begriff der Berechenbarkeit Anfang der 30ige Jahre des 20.Jh gleich dreimal unabhängig voneinander formal präzisiert worden ist (1933 Gödel und Herbrand definierten die allgemein rekursiven Funktionen; 1936 Church den Lambda-Kalkül; 1936 Turing die a-Maschine für ‚automatische Maschine‘, später Turing-Maschine). Alle drei Formalisierungen konnten formal als äquivalent bewiesen werden. Dies führte zur sogenannten Church-Turing These, dass alles, was effektiv berechnet werden kann, mit einem dieser drei Formalismen (also auch mit der Turingmaschine) berechnet werden kann. Andererseits lässt sich diese Church-Turing These selbst nicht beweisen. Nach nunmehr fast 80 Jahren nimmt aber jeder Experte im Feld an, dass die Church-Turing These stimmt, da bis heute keine Gegenbeispiele gefunden werden konnten.
  6. Mit diesem Wissen um ein allgemeines formales Konzept von Computern kann man die Frage nach der generellen Lernfähigkeit von Computern dahingehend beantworten, dass Computer, die Turing-maschinen-kompatibel sind, ihre inneren Zustände (im Falle einer universellen Turingmaschine) beliebig abändern können und damit die Grundforderung nach Lernfähigkeit erfüllen.

LERNFÄHIGE UND INTELLIGENTE MASCHINEN?

  1. Die Preisfrage stellt sich, wie eine universelle Turingmaschine, die grundsätzlich lernfähig ist, herausfinden kann, welche der möglichen Zustände interessant genug sind, um damit zu einem intelligenten Verhalten zu kommen?
  2. Diese Frage nach der möglichen Intelligenz führt zur Frage der verfügbaren Kriterien für Intelligenz: woher soll eine lernfähige Maschine wissen, was sie lernen soll?
  3. Im Fall biologischer Systeme wissen wir mittlerweile, dass die lernfähigen Strukturen als solche dumm sind, dass aber durch die schiere Menge an Zufallsexperimenten ein Teil dieser Experimente zu Strukturen geführt hat, die bzgl. bestimmter Erfolgskriterien besser waren als andere. Durch die Fähigkeit, die jeweils erfolgreichen Strukturen in Form von Informationseinheiten zu speichern, die dann bei der nächsten Reproduktion erinnert werden konnten, konnten sich die relativen Erfolge behaupten.
  4. Turing-kompatible Computer können speichern und kodieren, sie brauchen allerdings noch Erfolgskriterien, um zu einem zielgerichtete Lernen zu kommen.

LERNENDE SEMIOTISCHE MASCHINEN

  1. Mit all diesen Zutaten kann man jetzt lernende semiotische Maschinen konstruieren, d.h. Maschinen, die in der Lage sind, den Gebrauch von Zeichen im Kontext eines Prozesses, zu erlernen. Das dazu notwendige Verhalten gilt als ein Beispiel für intelligentes Verhaltens.
  2. Es ist hier nicht der Ort, jetzt die Details solcher Sprach-Lern-Spiele auszubreiten. Es sei nur soviel gesagt, dass man – abschwächend zum Paradigma von Steels – hier voraussetzt, dass es schon mindestens eine Sprache L und einen kundigen Sprachteilnehmer gibt (der Lehrer), von dem andere Systeme (die Schüler), die diese Sprache L noch nicht kennen, die Sprache L lernen können. Diese Schüler können dann begrenzt neue Lehrer werden.
  3. Zum Erlernen (Training) einer Sprache L benötigt man einen definierten Kontext (eine Welt), in dem Lehrer und Schüler auftreten und durch Interaktionen ihr Wissen teilen.
  4. In einer Evaluationsphase (Testphase), kann dann jeweils überprüft werden, ob die Schüler etwas gelernt haben, und wieviel.
  5. Den Lernerfolge einer ganzen Serie von Lernexperimenten (ein Experiment besteht aus einem Training – Test Paar) kann man dann in Form einer Lernkurve darstellen. Diese zeigt entlang der Zeitachse, ob die Intelligenzleistung sich verändert hat, und wie.
  6. Gestaltet man die Lernwelt als eine interaktive Softwarewelt, bei der Computerprogramme genauso wie Roboter oder Menschen mitwirken können, dann kann man sowohl Menschen als Lehrer benutzen wie auch Menschen im Wettbewerb mit intelligenten Maschinen antreten lassen oder intelligente Maschinen als Lehrer oder man kann auch hybride Teams formen.
  7. Die Erfahrungen zeigen, dass die Konstruktion von intelligenten Maschinen, die menschenähnliche Verhaltensweisen lernen sollen, die konstruierenden Menschen dazu anregen, ihr eigenes Verhalten sehr gründlich zu reflektieren, nicht nur technisch, sondern sogar philosophisch.

EMERGING MIND PROJEKT

  1. Die zuvor geschilderten Überlegungen haben dazu geführt, dass ab 10.November 2015 im INM Frankfurt ein öffentliches Forschungsprojekt gestartet werden soll, das Emerging Mind Projekt heißt, und das zum Ziel hat, eine solche Umgebung für lernende semiotische Maschinen bereit zu stellen, mit der man solche semiotischen Prozesse zwischen Menschen und lernfähigen intelligenten Maschinen erforschen kann.

QUELLEN

  • Binet, A., Les idees modernes sur les enfants, 1909
  • Doeben-Henisch, G.; Bauer-Wersing, U.; Erasmus, L.; Schrader,U.; Wagner, W. [2008] Interdisciplinary Engineering of Intelligent Systems. Some Methodological Issues. Conference Proceedings of the workshop Modelling Adaptive And Cognitive Systems (ADAPCOG 2008) as part of the Joint Conferences of SBIA’2008 (the 19th Brazilian Symposium on Articial Intelligence); SBRN’2008 (the 10th Brazilian Symposium on Neural Networks); and JRI’2008 (the Intelligent Robotic Journey) at Salvador (Brazil) Oct-26 – Oct-30(PDF HIER)
  • Gödel, K. Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I, In: Monatshefte Math.Phys., vol.38(1931),pp:175-198
  • Charles W. Morris, Foundations of the Theory of Signs (1938)
  • Charles W. Morris (1946). Signs, Language and Behavior. New York: Prentice-Hall, 1946. Reprinted, New York: George Braziller, 1955. Reprinted in Charles Morris, Writings on the General Theory of Signs (The Hague: Mouton, 1971), pp. 73-397. /* Charles William Morris (1901-1979) */
  • Charles W. Morris, Signication and Signicance (1964)
  • NIST: Intelligent Systems Division: http://www.nist.gov/el/isd/
  • Winfried Noth: Handbuch der Semiotik. 2., vollständig neu bearbeitete Auflage. Metzler, Stuttgart/Weimar 2000
  • Charles Santiago Sanders Peirce (1839-1914) war ein US-amerikanischer Mathematiker, Philosoph und Logiker. Peirce gehort neben William James und John Dewey zu den maßgeblichen Denkern des Pragmatismus; außerdem gilt er als Begründer der modernen Semiotik. Zur ersten Einführung siehe: https://de.wikipedia.org/wiki/Charles Sanders Peirce Collected Papers of Charles Sanders Peirce. Bände I-VI hrsg. von Charles Hartshorne und Paul Weiss, 1931{1935; Bände VII-VIII hrsg. von Arthur W. Burks 1958. University Press, Harvard, Cambridge/Mass. 1931{1958
  • Writings of Charles S. Peirce. A Chronological Edition. Hrsg. vom Peirce Edition Project. Indiana University Press,Indianapolis, Bloomington 1982. (Bisher Bände 1{6 und 8, geplant 30 Bände)
  • Saussure, F. de. Grundfragen der Allgemeinen Sprachwissenschaft, 2nd ed., German translation of the original posthumously publication of the Cours de linguistic general from 1916 by H.Lommel, Berlin: Walter de Gruyter & Co., 1967
  • Saussure, F. de. Course in General Linguistics, English translation of the original posthumously publication of the Cours de linguistic general from 1916, London: Fontana, 1974
  • Saussure, F. de. Cours de linguistique general, Edition Critique Par Rudolf Engler, Tome 1,Wiesbaden: Otto Harrassowitz, 1989 /*This is the critical edition of the dierent sources around the original posthumously publication of the Cours de linguistic general from 1916. */
  • Steels, Luc (1995): A Self-Organizing Spatial Vocabulary. Articial Life, 2(3), S. 319-332
  • Steels, Luc (1997): Synthesising the origins of language and meaning using co-evolution, self-organisation and level formation. In: Hurford, J., C.Knight und M.Studdert-Kennedy (Hrsg.). Edinburgh: Edinburgh Univ. Press.

  • Steels, Luc (2001): Language Games for Autonomous Robots. IEEE Intelligent Systems, 16(5), S. 16-22. Steels, Luc (2003):

  • Evolving grounded Communication for Robots. Trends in Cognitive Science, 7(7), S. 308-312.

  • Steels, Luc (2003): Intelligence with Representation. Philosophical Transactions of the Royal Society A, 1811(361), S. 2381-2395.

  • Steels, Luc (2008): The symbol grounding problem has been solved, so what’s next?. In M. de Vega, Symbols and Embodiment: Debates on Meaning and Cognition. Oxford: Oxford University Press, S. 223-244.
  • Steels, Luc (2012): Grounding Language through Evolutionary Language Games. In: Language Grounding in Robots. Springer US, S. 1-22.

  • Steels, Luc (2015), The Talking Heads experiment: Origins of words and meanings, Series: Computational Models of Language Evolution 1. Berlin: Language Science Press.
  • Stern, W., Die psychologischen Methoden der Intelligenzprüfung und deren Anwendung an Schulkindern, Leipzig: Barth, 1912

  • Turing, A. M. On Computable Numbers with an Application to the Entscheidungsproblem. In: Proc. London Math. Soc., Ser.2, vol.42(1936), pp.230-265; received May 25, 1936; Appendix added August 28; read November 12, 1936; corr. Ibid. vol.43(1937), pp.544-546. Turing’s paper appeared in Part 2 of vol.42 which was issued in December 1936 (Reprint in M.DAVIS 1965, pp.116-151; corr. ibid. pp.151-154).(an online version at: http://www.comlab.ox.ac.uk/activities/ieg/elibrary/sources/tp2-ie.pdf, last accesss Sept-30, 2012)

  • Turing, A.M. Computing machinery and intelligence. Mind, 59, 433-460. 1950

  • Turing, A.M.; Intelligence Service. Schriften, ed. by Dotzler, B.; Kittler, F.; Berlin: Brinkmann & Bose, 1987, ISBN 3-922660-2-3

  • Vogt, P. The physical symbol grounding problem, in: Cognitive Systems Research, 3(2002)429-457, Elsevier Science B.V.
  • Vogt, P.; Coumans, H. Investigating social interaction strategies for bootstrapping lexicon development, Journal of Articial Societies and Social Simulation 6(1), 2003

  • Wechsler, D., The Measurement of Adult Intelligence, Baltimore, 1939, (3. Auage 1944)

  • Wittgenstein, L.; Tractatus Logico-Philosophicus, 1921/1922 /* Während des Ersten Weltkriegs geschrieben, wurde das Werk 1918 vollendet. Es erschien mit Unterstützung von Bertrand Russell zunächst 1921 in Wilhelm Ostwalds Annalen der Naturphilosophie. Diese von Wittgenstein nicht gegengelesene Fassung enthielt grobe Fehler. Eine korrigierte, zweisprachige Ausgabe (deutsch/englisch) erschien 1922 bei Kegan Paul, Trench, Trubner und Co. in London und gilt als die offizielle Fassung. Die englische Übersetzung stammte von C. K. Ogden und Frank Ramsey. Siehe einführend Wikipedia-DE: https://de.wikipedia.org/wiki/Tractatus logicophilosophicus*/

  • Wittgenstein, L.; Philosophische Untersuchungen,1936-1946, publiziert 1953 /* Die Philosophischen Untersuchungen sind Ludwig Wittgensteins spätes, zweites Hauptwerk. Es übten einen außerordentlichen Einfluss auf die Philosophie der 2. Hälfte des 20. Jahrhunderts aus; zu erwähnen ist die Sprechakttheorie von Austin und Searle sowie der Erlanger Konstruktivismus (Paul Lorenzen, Kuno Lorenz). Das Buch richtet sich gegen das Ideal einer logik-orientierten Sprache, die neben Russell und Carnap Wittgenstein selbst in seinem ersten Hauptwerk vertreten hatte. Das Buch ist in den Jahren 1936-1946 entstanden, wurde aber erst 1953, nach dem Tod des Autors, veröffentlicht. Siehe einführend Wikipedia-DE: https://de.wikipedia.org/wiki/Philosophische Untersuchungen*/

Eine Übersicht über alle Blogeinträge des Autors cagent nach Titeln findet sich HIER

Buch: Die andere Superintelligenz. Oder: schaffen wir uns selbst ab? – Kapitel 4

VORBEMERKUNG: Der folgende Text ist ein Vorabdruck zu dem Buch Die andere Superintelligenz. Oder: schaffen wir uns selbst ab?, das im November 2015 erscheinen soll

Rahmenbedingungen des Wissens

Wenn wir aufwachen in unserer schönen neuen Welt, können wir nachlesen, welch Böses Menschen anderen Menschen bisher zugefügt haben. Wir können Verhalten beobachten, das solch Böses hervorbringt: konkreten Handlungen, Aktionen, Objekte und Werkzeuge, die dazu benutzt werden. Was wir nicht können, nicht so ohne weiteres, das ist, in das Innere des Menschen zu schauen, warum Menschen anderen Menschen Böses zufügen.

Was geht in Menschen vor, wenn sie sich so verhalten? Wissen sie selbst so genau, was sie da tun, wenn sie etwas tun?

Was geht in Menschen vor, die andere Menschen foltern, um mit Gewalt heraus zu finden, was andere Menschen Denken oder Wissen (Siehe hier einen kurzen Überblick zur Folter)? Da auch Unschuldige unter Folter Handlungen gestehen können, die sie nie begangen haben, geht der Anwendung von Folter eine Vorverurteilung voraus: man ist schon überzeugt, dass man einen Täter vor sich hat. Zugleich verachtet man diesen Menschen, da man bereit ist, ihn zu zerstören, obgleich er möglicherweise unschuldig ist.

Und es gibt auch dies: Menschen helfen Menschen, Menschen ermöglichen Leben. Warum tun sie das?

Dort hinter den Augen

Die Antwort auf die Frage, warum Menschen dies und jenes tun, liegt offensichtlich im ‚Inneren‘ des Menschen. Dort, hinter seinen Augen, hinter seinem Gesicht, das mal lächelt, mal weint, mal zürnt, dort gibt es ‚geheimnisvolle Kräfte‘, die ihn, uns, Dich und mich, dazu bringen das eine zu tun, und das andere zu lassen.

Und, wie die moderne Biologie uns in Gestalt der Gehirnforschung lehrt, ist es vor allem das Gehirn, in dem ca. 100 Milliarden Gehirnzellen miteinander ein Dauergespräch führen, dessen Nebenwirkungen die eine oder andere Handlung ist, die wir vornehmen.

Wenn wir uns auf die moderne Biologie einlassen, auf die Gehirnwissenschaft, dann erkennen wir sehr schnell, dass das Gehirn, das unser Verhalten bestimmt, selbst keinen Kontakt mit der Welt hat. Es ist im Körper eingeschlossen, quasi abgeschottet, oder auch isoliert von der Welt jenseits des Körpers.

Das Gehirn bezieht sein Wissen über die Welt jenseits der Gehirnzellen quasi von ‚Mittelsmännern‘, von speziellen Kontaktpersonen, von Übersetzern; dies sind unsere Sinnesorgane (Augen, Ohren, Haut, Geschmackszellen, Gleichgewichtsorgan, …)(Anmerkung: Siehe: Sinnesorgan, Sensory receptor, Sensory system), die bestimmte Ereignisse aus der Welt jenseits der Gehirnzellen in die ‚Sprache des Gehirns‘ übersetzen.

Wenn wir sagen, dass wir Musik hören, wunderschöne Klänge, harmonisch oder dissonant, laut oder leise, hoch oder tief, mit unterschiedlichen Klangfarben, dann sind dies für das Gehirn ’neuronale Signale‘, elektrische Potentialänderungen, die man als ‚Signal‘ oder ‚Nicht-Signal‘ interpretieren kann, als ‚An‘ oder ‚Aus‘, oder einfach als ‚1‘ oder ‚0‘, allerdings zusätzlich eingebettet in eine ‚Zeitstruktur‘; innerhalb eines Zeitintervalls können ‚viele‘ Signale auftreten oder ‚wenige‘. Ferner gibt es eine ‚topologische‘ Struktur: das gleiche Signal kann an einem Ort im Gehirn ein ‚Klang‘ bedeuten, an einem anderen Ort eine ‚Bild‘, wieder an einem anderen Ort ein ‚Geschmack‘ oder ….

Was hier am Beispiel des Hörens gesagt wurde, gilt für alle anderen Sinnesorgane gleichermaßen: bestimmte physikalische Umwelteigenschaften werden von einem Sinnesorgan so weit ‚verarbeitet‘, dass am Ende immer alles in die Sprache des Gehirns, in die neuronalen ‚1en‘ und ‚0en‘ so übersetzt wird, dass diese Signale zeitlich und topologisch geordnet zwischen den 100 Milliarden Gehirnzellen hin und her wandern können, um im Gehirn Pflanzen, Tiere, Räume, Objekte und Handlungen jenseits der Gehirnzellen neuronal-binär repräsentieren zu können.

Alles, was in der Welt jenseits des Gehirns existiert (auch die anderen Körperorgane mit ihren Aktivitäten), es wird einheitlich in die neuronal-binäre Sprache des Gehirns übersetzt. Dies ist eine geniale Leistung der Natur(Anmerkung: Dass wir in unserem subjektiven Erleben keine ‚1en‘ und ‚0en‘ wahrnehmen, sondern Töne, Farben, Formen, Geschmäcker usw., das ist das andere ‚Wunder der Natur‘; siehe weiter unten.}.

Die Welt wird zerschnitten

Diese Transformation der Welt in ‚1en‘ und ‚0en‘ ist aber nicht die einzige Übersetzungsbesonderheit. Wir wissen heute, dass die Sinnesinformationen für eine kurze Zeitspanne (in der Regel deutlich weniger als eine Sekunde) nach Sinnesarten getrennt in einer Art ‚Puffer‘ zwischen gespeichert werden (Anmerkung: Siehe Sensory memory). Von dort können sie für weitere Verarbeitungen übernommen werden. Ist die eingestellte Zeitdauer(Anmerkung: Zeitfenster zwischen den aufeinanderfolgenden Zeitpunkten t1 und t2 (t1,t2)} verstrichen, wird der aktuelle Inhalt von neuen Daten überschrieben. Das voreingestellte Zeitfenster (t1,t2) definiert damit, was ‚gleichzeitig‘ ist.

Faktisch wird die sinnlich wahrnehmbare Welt damit in Zeitscheiben ‚zerlegt‘ bzw. ‚zerschnitten‘. Was immer passiert, für das Gehirn existiert die Welt jenseits seiner Neuronen nur in Form von säuberlich getrennten Zeitscheiben(Anmerkung: In Diskussionen, ob und wieweit ein Computer das menschliche Gehirn ’nachahmen‘ könnte, wird oft betont, der Computer sei ja ‚diskret‘, ‚binär‘, zerlege alles in 1en und 0en im Gegensatz zum ‚analogen‘ Gehirn. Die empirischen Fakten legen hingegen nahe, auch das Gehirn als eine ‚diskrete Maschine‘ zu betrachten.).

Unterscheiden sich die ‚Inhalte‘ von Zeitscheiben, kann dies als Hinweis auf mögliche ‚Veränderungen‘ gedeutet werden.

Beachte: jede Sinnesart hat ihre eigene Zeitscheibe, die dann vom Gehirn zu ’sinnvollen Kombinationen‘ ‚verrechnet‘ werden müssen.

Die Welt wird vereinfacht

Für die Beurteilung, wie das Gehirn die vielen unterschiedlichen Informationen so zusammenfügt, auswertet und neu formt, dass daraus ein ’sinnvolles Verhalten‘ entsteht, reicht es nicht aus, nur die Gehirnzellen selbst zu betrachten, was zum Gegenstandsbereich der Gehirnwissenschaft (Neurowissenschaft) gehört. Vielmehr muss das Wechselverhältnis von Gehirnaktivitäten und Verhaltenseigenschaften simultan betrachtet werden. Dies verlangt nach einer systematischen Kooperation von wissenschaftlicher Verhaltenswissenschaft (Psychologie) und Gehirnwissenschaft unter der Bezeichnung Neuropsychologie (Anmerkung: Siehe Neuropsychology).

Ein wichtiges theoretisches Konzept, das wir der Neuropsychologie verdanken, ist das Konzept des Gedächtnisses(Anmerkung: Memory). Mit Gedächtnis wird die generelle Fähigkeit des Gehirns umschrieben, Ereignisse zu verallgemeinern, zu speichern, zu erinnern, und miteinander zu assoziieren.

Ausgehend von den oben erwähnten zeitlich begrenzten sensorischen Speichern unterteilt man das Gedächtnis z.B. nach der Zeitdauer (kurz, mittel, unbegrenzt), in der Ereignisse im Gedächtnis verfügbar sind, und nach der Art ihrer Nutzung. Im Kurzzeit- und Arbeitsgedächtnis kann eine kleine Zahl von Ereignissen im begrenzten Umfang verarbeitet und mit dem Langzeitgedächtnis in begrenztem Umfang ausgetauscht werden (speichern, erinnern). Die Kapazität von sinnespezifischen Kurzzeit- und multimodalem Arbeitsgedächtnisses liegt zwischen ca. 4 (im Kurzzeitgedächtnis) bis 9 (im Arbeitsgedächtnis) Gedächtniseinheiten. Dabei ist zu beachten, dass schon im Übergang vom oben erwähnten sensorischen Speichern zum Kurzzeit- und Arbeitsgedächtnis eine starke Informationsreduktion stattfindet; grob von 100% auf etwa 25%.

Nicht alles, was im Kurz- und Arbeitsgedächtnis vorkommt, gelangt automatisch ins Langzeitgedächtnis. Ein wichtiger Faktor, der zum Speichern führt, ist die ‚Verweildauer‘ im Kurzzeit- und Arbeitsgedächtnis, und die ‚Häufigkeit‘ des Auftretens. Ob wir nach einer Speicherung etwas ‚wiederfinden‘ können, hängt ferner davon ab, wie ein Ereignis abgespeichert wurde. Je mehr ein Ereignis sich zu anderen Ereignissen in Beziehung setzen lässt, umso eher wird es erinnert. Völlig neuartige Ereignisse (z.B. die chinesischen Schriftzeichen in der Ordnung eines chinesischen Wörterbuches, wenn man Chinesisch neu lernt) können Wochen oder gar Monate dauern, bis sie so ‚verankert‘ sind, dass sie bei Bedarf ‚mühelos‘ erinnern lassen.

Ein anderer Punkt ist die Abstraktion. Wenn wir über alltägliche Situationen sprechen, dann benutzen wir beständig Allgemeinbegriffe wie ‚Tasse‘, ‚Stuhl‘, ‚Tisch‘, ‚Mensch‘ usw. um über ‚konkrete individuelle Objekte‘ zu sprechen. So nennen wir ein konkretes rotes Etwas auf dem Tisch eine Tasse, ein anderen blaues konkretes Etwas aber auch, obgleich sie Unterschiede aufweisen. Desgleichen nennen wir ein ‚vertikales durchsichtiges Etwas‘ eine Flasche, ein vertikales grünliches Etwas auch; usw.

Unser Gedächtnis besitzt die wunderbare Eigenschaft, alles, was sinnlich wahrgenommen wird, durch einen unbewussten automatischen Abstraktionsprozess in eine abstrakte Struktur, in einen Allgemeinbegriff, in eine ‚Kategorie‘ zu übersetzen. Dies ist extrem effizient. Auf diese Weise kann das Gedächtnis mit einem einzigen Konzept hunderte, tausende, ja letztlich unendlich viele konkrete Objekte klassifizieren, identifizieren und damit weiter arbeiten.

Welt im Tresor

Ohne die Inhalte unseres Gedächtnisses würden wir nur in Augenblicken existieren, ohne vorher und nachher. Alles wäre genau das, wie es gerade erscheint. Nichts hätte eine Bedeutung.

Durch die Möglichkeit des ‚Speicherns‘ von Ereignisse (auch in den abstrakten Formen von Kategorien), und des ‚Erinnerns‘ können wir ‚vergleichen‘, können somit Veränderungen feststellen, können Abfolgen und mögliche Verursachungen erfassen, Regelmäßigkeiten bis hin zu Gesetzmäßigkeiten; ferner können wir Strukturen erfassen.

Eine Besonderheit sticht aber ins Auge: nur ein winziger Teil unseres potentiellen Wissens ist ‚aktuell verfügbar/ bewusst‘; meist weniger als 9 Einheiten! Alles andere ist nicht aktuell verfügbar, ist ’nicht bewusst‘!

Man kann dies so sehen, dass die schier unendliche Menge der bisher von uns wahrgenommenen Ereignisse im Langzeitgedächtnis weggesperrt ist wie in einem großen Tresor. Und tatsächlich, wie bei einem richtigen Tresor brauchen auch wir selbst ein Codewort, um an den Inhalt zu gelangen, und nicht nur ein Codewort, nein, wir benötigen für jeden Inhalt ein eigenes Codewort. Das Codewort für das abstrakte Konzept ‚Flasche‘ ist ein konkretes ‚Flaschenereignis‘ das — hoffentlich — genügend Merkmale aufweist, die als Code für das abstrakte Konzept ‚Flasche‘ dienen können.

Wenn über solch einen auslösenden Merkmalscode ein abstraktes Konzept ‚Flasche‘ aktiviert wird, werden in der Regel aber auch alle jene Konzepte ‚aktiviert‘, die zusammen mit dem Konzept ‚Flasche‘ bislang aufgetreten sind. Wir erinnern dann nicht nur das Konzept ‚Flasche‘, sondern eben auch all diese anderen Ereignisse.

Finden wir keinen passenden Code, oder wir haben zwar einen Code, aber aus irgendwelchen Emotionen heraus haben wir Angst, uns zu erinnern, passiert nichts. Eine Erinnerung findet nicht statt; Blockade, Ladehemmung, ‚blackout‘.

Bewusstsein im Nichtbewusstsein

Im Alltag denken wir über unser Gehirn nicht so. Im Alltag haben wir subjektiv Eindrücke, Erlebnisse, Empfindungen, Gedanken, Vorstellungen, Fantasien. Wir sind ‚in‘ unserem Erleben, wir selbst ‚haben‘ diese Eindrücke. Wir empfinden alles so, als ob ‚wir‘ selbst (bei jedem einzelnen das ‚Ich‘: ‚ich habe das Erlebnis‘) diese Erlebnisse haben; es sind ‚unsere‘ Erlebnisse‘.

Die Philosophen haben diese Erlebnis- und Erkenntnisweise den Raum unseres ‚Bewusstseins‘ genannt. Sie sprechen davon, dass wir ‚Bewusstsein haben‘, dass uns die Ding ‚bewusst sind‘; sie nennen die Inhalte unseres Bewusstseins ‚Qualia‘ oder ‚Phänomene‘, und sie bezeichnen diese Erkenntnisperspektive den Standpunkt der ‚ersten Person‘ (‚first person view‘) im Vergleich zur Betrachtung von Gegenständen in der Außenwelt, die mehrere Personen gleichzeitig haben können; das nennen sie den Standpunkt der ‚dritten Person‘ (‚third person view‘)(Anmerkung: Ein Philosoph, der dies beschrieben hat, ist Thomas Nagel. Siehe zur Person: Thomas Nagel. Ein Buch von ihm, das hier einschlägig ist, ist ‚The view from nowhere‘ von 1986, New York, Oxford University Press).

Nach den heutigen Erkenntnissen der Neuropsychologie gibt es zwischen dem, was die Philosophen ‚Bewusstsein‘ nennen und dem, was die Neuropsychologen ‚Arbeitsgedächtnis‘ nennen, eine funktionale Korrespondenz. Wenn man daraus schließen kann, dass unser Bewusstsein sozusagen die erlebte ‚Innenperspektive‘ des ‚Arbeitsgedächtnisses‘ ist, dann können wir erahnen, dass das, was uns gerade ‚bewusst‘ ist, nur ein winziger Bruchteil dessen ist, was uns ’nicht bewusst‘ ist. Nicht nur ist der potentiell erinnerbare Inhalt unseres Langzeitgedächtnisses viel größer als das aktuell gewusste, auch die Milliarden von Prozessen in unserem Körper sind nicht bewusst. Ganz zu schweigen von der Welt jenseits unseres Körpers. Unser Bewusstsein gleicht damit einem winzig kleinen Lichtpunkt in einem unfassbar großen Raum von Nicht-Bewusstsein. Die Welt, in der wir bewusst leben, ist fast ein Nichts gegenüber der Welt, die jenseits unseres Bewusstseins existiert; so scheint es.

Außenwelt in der Innenwelt

Der Begriff ‚Außenwelt‘, den wir eben benutzt haben, ist trügerisch. Er gaukelt vor, als ob es da die Außenwelt als ein reales Etwas gibt, über das wir einfach so reden können neben dem Bewusstsein, in dem wir uns befinden können.

Wenn wir die Erkenntnisse der Neuropsychologie ernst nehmen, dann findet die Erkenntnis der ‚Außenwelt‘ ‚in‘ unserem Gehirn statt, von dem wir wissen, dass es ‚in‘ unserem Körper ist und direkt nichts von der Außenwelt weiß.

Für die Philosophen aller Zeiten war dies ein permanentes Problem. Wie kann ich etwas über die ‚Außenwelt‘ wissen, wenn ich mich im Alltag zunächst im Modus des Bewusstseins vorfinde?

Seit dem Erstarken des empirischen Denkens — spätestens seit der Zeit Galileis(Anmerkung: Galilei) — tut sich die Philosophie noch schwerer. Wie vereinbare ich die ‚empirische Welt‘ der experimentellen Wissenschaften mit der ’subjektiven Welt‘ der Philosophen, die auch die Welt jedes Menschen in seinem Alltag ist? Umgekehrt ist es auch ein Problem der empirischen Wissenschaften; für den ’normalen‘ empirischen Wissenschaftler ist seit dem Erstarken der empirischen Wissenschaften die Philosophie obsolet geworden, eine ’no go area‘, etwas, von dem sich der empirische Wissenschaftler fernhält. Dieser Konflikt — Philosophen kritisieren die empirischen Wissenschaften und die empirischen Wissenschaften lehnen die Philosophie ab — ist in dieser Form ein Artefakt der Neuzeit und eine Denkblokade mit verheerenden Folgen.

Die empirischen Wissenschaften gründen auf der Annahme, dass es eine Außenwelt gibt, die man untersuchen kann. Alle Aussagen über die empirische Welt müssen auf solchen Ereignissen beruhen, sich im Rahmen eines beschriebenen ‚Messvorgangs‘ reproduzieren lassen. Ein Messvorgang ist immer ein ‚Vergleich‘ zwischen einem zuvor vereinbarten ‚Standard‘ und einem ‚zu messenden Phänomen‘. Klassische Standards sind ‚das Meter‘, ‚das Kilogramm‘, ‚die Sekunde'(Anmerkung: Siehe dazu: Internationales Einheitensystem (SI)), usw. Wenn ein zu messendes Phänomen ein Objekt ist, das z.B. im Vergleich mit dem Standard ‚Meter [m]‘ die Länge 3m aufweist, und jeder, der diese Messung wiederholt, kommt zum gleichen Ergebnis, dann wäre dies eine empirische Aussage über dieses Objekt.

Die Einschränkung auf solche Phänomene, die sich mit einem empirischen Messstandard vergleichen lassen und die von allen Menschen, die einen solchen Messvorgang wiederholen, zum gleichen Messergebnis führen, ist eine frei gewählte Entscheidung, die methodisch motiviert ist. Sie stellt sicher, dass man zu einer Phänomenmenge kommt, die allen Menschen(Anmerkung: die über gleiche Fähigkeiten der Wahrnehmung und des Denkens verfügen. Blinde Menschen, taube Menschen usw. könnten hier Probleme bekommen!) in gleicher Weise zugänglich und für diese nachvollziehbar ist. Erkenntnisse, die allen Menschen in gleicher Weise zugänglich und nachprüfbar sind haben einen unbestreitbaren Vorteil. Sie können eine gemeinsame Basis in einer ansonsten komplexen verwirrenden Wirklichkeit bieten.

Die ‚Unabhängigkeit‘ dieser empirischen Messvorgänge hat im Laufe der Geschichte bei vielen den Eindruck vertieft, als ob es die ‚vermessene Welt‘ außerhalb und unabhängig von unserem Bewusstsein als eigenständiges Objekt gibt, und dass die vielen ‚rein subjektiven‘ Empfindungen, Stimmungen, Vorstellungen im Bewusstsein, die sich nicht direkt in der vermessbaren Welt finden, von geringerer Bedeutung sind, unbedeutender ’subjektiver Kram‘, der eine ‚Verunreinigung der Wissenschaft‘ darstellt.

Dies ist ein Trugschluss mit verheerenden Folgen bis in die letzten Winkel unseres Alltags hinein.

Der Trugschluss beginnt dort, wo man übersieht, dass die zu messenden Phänomene auch für den empirischen Wissenschaftler nicht ein Sonderdasein führen, sondern weiterhin nur Phänomene seines Bewusstseins sind, die ihm sein Gehirn aus der Sinneswahrnehmung ‚herausgerechnet‘ hat. Vereinfachend könne man sagen, die Menge aller Phänomene unseres Bewusstseins — nennen wir sie PH — lässt sich aufteilen in die Teilmenge jener Phänomene, auf die sich Messoperationen anwenden lassen, das sind dann die empirischen Phänomene PH_EMP, und jene Phänomene, bei denen dies nicht möglich ist; dies sind dann die nicht-empirischen Phänomene oder ‚rein subjektiven‘ Phänomene PH_NEMP. Die ‚Existenz einer Außenwelt‘ ist dann eine Arbeitshypothese, die zwar schon kleine Kindern lernen, die aber letztlich darauf basiert, dass es Phänomene im Bewusstsein gibt, die andere Eigenschaften haben als die anderen Phänomene.

In diesen Zusammenhang gehört auch das Konzept unseres ‚Körpers‘, der sich mit den empirischen Phänomenen verknüpft.

Der Andere als Reflektor des Selbst

Bislang haben wir im Bereich der Phänomene (zur Erinnerung: dies sind die Inhalte unseres Bewusstseins) unterschieden zwischen den empirischen und den nicht-empirischen Phänomenen. Bei genauerem Hinsehen kann man hier viele weitere Unterscheidungen vornehmen. Uns interessiert hier nur der Unterschied zwischen jenen empirischen Phänomenen, die zu unserem Körper gehören und jenen empirischen Phänomenen, die unserem Körper ähneln, jedoch nicht zu uns, sondern zu jemand ‚anderem‘ gehören.

Die Ähnlichkeit der Körperlichkeit des ‚anderen‘ zu unserer Körperlichkeit bietet einen Ansatzpunkt, eine ‚Vermutung‘ ausbilden zu können, dass ‚in dem Körper des anderen‘ ähnliche innere Ereignisse vorkommen, wie im eigenen Bewusstsein. Wenn wir gegen einen harten Gegenstand stoßen, dabei Schmerz empfinden und eventuell leise aufschreien, dann unterstellen wir, dass ein anderer, wenn er mit seinem Körper gegen einen Gegenstand stößt, ebenfalls Schmerz empfindet. Und so in vielen anderen Ereignissen, in denen der Körper eine Rolle spielt (Anmerkung: Wie wir mittlerweile gelernt haben, gibt es Menschen, die genetisch bedingt keine Schmerzen empfinden, oder die angeboren blind oder taub sind, oder die zu keiner Empathie fähig sind, usw.).

Generalisiert heißt dies, dass wir dazu neigen, beim Auftreten eines Anderen Körpers unser eigenes ‚Innenleben‘ in den Anderen hinein zu deuten, zu projizieren, und auf diese Weise im anderen Körper ‚mehr‘ sehen als nur einen Körper. Würden wir diese Projektionsleistung nicht erbringen, wäre ein menschliches Miteinander nicht möglich. Nur im ‚Übersteigen‘ (‚meta‘) des endlichen Körpers durch eine ‚übergreifende‘ (‚transzendierende‘) Interpretation sind wir in der Lage, den anderen Körper als eine ‚Person‘ zu begreifen, die aus Körper und Seele, aus Physis und Psyche besteht.

Eine solche Interpretation ist nicht logisch zwingend. Würden wir uns solch einer Interpretation verweigern, würden wir im Anderen nur einen leblosen Körper sehen, eine Ansammlung von unstrukturierten Zellen, und was immer der Andere tun wird, nichts von alledem könnte uns zwingen, unsere Interpretation zu verändern. Die ‚personale Wirklichkeit des Anderen‘ lebt wesentlich von unserer Unterstellung, dass er tatsächlich mehr ist als der Körper, den wir sinnlich wahrnehmen können.

Dieses Dilemma zeigt sich sehr schön in dem berühmten ‚Turing Test‘ (Anmerkung: Turingtest), den Alan Matthew Turing 1950 vorgeschlagen hatte, um zu testen, wie gut ein Computer einen Menschen imitieren kann (Anmerkung: Es war in dem Artikel: Alan Turing: Computing Machinery and Intelligence, Mind 59, Nr. 236, Oktober 1950, S. 433–460). Da man ja ‚den Geist‘ selbst nicht sehen kann, sondern nur die Auswirkungen des Geistes im Verhalten, kann man in dem Test auch nur das Verhalten eines Menschen neben einem Computer beobachten, eingeschränkt auf schriftliche Fragen und Antworten(Anmerkung: heute könnte man dies sicher ausdehnen auf gesprochene Fragen und Antworten, eventuell kombiniert mit einem Gesicht oder gar mehr}. Die vielen Versuche mit diesem Test haben deutlich gemacht — was man im Alltag auch ohne diesen Test sehen kann –, dass das beobachtbare Verhalten eines Akteurs niemals ausreicht, um logisch zwingend auf einen ‚echten Geist‘, sprich auf eine ‚echte Person‘ schließen zu können. Daraus folgt nebenbei, dass man — sollte es jemals hinreichend intelligente Maschinen geben — niemals zwingend einen Menschen, nur aufgrund seines Verhaltens, von einer intelligenten Maschine unterscheiden könnte.

Rein praktisch folgt aus alledem, dass wir im Alltag nur dann und solange als Menschen miteinander umgehen können, solange wir uns wechselseitig ‚Menschlichkeit‘ unterstellen, an den ‚Menschen‘ im anderen glauben, und mein Denken und meine Gefühle hinreichend vom Anderen ‚erwidert‘ werden. Passiert dies nicht, dann muss dies noch nicht eine völlige Katastrophe bedeuten, aber auf Dauer benötigen Menschen eine minimale Basis von Gemeinsamkeiten, auf denen sie ihr Verhalten aufbauen können.

Im positiven Fall können Unterschiede zwischen Menschen dazu führen, dass man sich wechselseitig anregt, man durch die Andersartigkeit ‚Neues‘ lernen kann, man sich weiter entwickelt. Im negativen Fall kann es zu Missverständnissen kommen, zu Verletzungen, zu Aggressionen, gar zur wechselseitigen Zerstörung. Zwingend ist keines von beidem.

Zur Fortsetzung mit Kapitel 5.

Einen Überblick über alle Blogbeiträge des Autors cagent nach Titeln findet sich HIER.

ENTSCHEIDEN IN EINER MULTIKAUSALEN WELT? MEMO ZUR PHILOSOPHIEWERKSTATT VOM Sonntag, 10.Mai 2015 IN DER DENKBAR (Frankfurt)

Begriffsnetzwerk von der Philosophiewerkstatt am 10.Mai 2015
Begriffsnetzwerk von der Philosophiewerkstatt am 10.Mai 2015

Generelles Anliegen der Philosophiewerkstatt ist es, ein philosophisches Gespräch zu ermöglichen, in dem die Fragen der TeilnehmerInnen versuchsweise zu Begriffsnetzen verknüpft werden, die in Beziehung gesetzt werden zum allgemeinen Denkraum der Philosophie, der Wissenschaften, der Kunst und Religion. Im Hintergrund stehen die Reflexionen aus dem Blog cognitiveagent.org, das Ringen um das neue Menschen- und Weltbild.

Aus der letzten Philosophiewerkstatt vom 12.April 2015 resultierte das – nicht ganz schar formulierte – Thema: Kann sich ein einzelner innerhalb einer multikausalen Welt überhaupt noch sinnvoll entscheiden? Kann man überhaupt noch eine Wirkung erzielen? Ist nicht irgendwie alles egal?

1. Trotz strahlendem Sommerwetter fand sich wieder ein bunter Kreis interessierter und engagierter Gesprächsteilnehmer, um sich in der DENKBAR Frankfurt zum Thema auszutauschen. Wie beim jedem Treffen bisher gab es auch dieses Mal neben schon bekannten Teilnehmern wieder auch neue Teilnehmer, die das Gespräch bereicherten.

2. Wie die Gedankenskizze des Gesprächs andeutet, förderte das gemeinsame Gespräch eine Fülle interessanter Aspekte zutage, die auf vielfältige Weise miteinander verknüpft sind. Auch wenn jeder Punkt für sich ein eigenes Thema abgeben könnte, so zeigt gerade der Überblick über und die Vernetzung von den Begriffen etwas von unserer Entscheidungswirklichkeit auf, die im Alltag oft im Dunkeln verbleibt.

INDIVIDUUM – KONTEXT

3. Das Gespräch fokussierte zunächst eher auf den individuellen Träger von Entscheidungen und lies die diverse Einflüsse des Kontextes eher am Rande.

4. Am Entscheidungsprozess traten verschieden ‚Phasen‘ hervor: (i) irgendein ein Anlass. Warum man sich überhaupt mit etwas beschäftigt. Warum öffnet man sich überhaupt für ein Thema? Wendet man sich einem Thema zu, dann gibt es in der Regel mindestens eine Alternative, was man tun könnte. Dies hängt sowohl von den konkreten Umständen wie auch von der verfügbaren Erfahrung und dem verfügbaren Wissen ab. Nach welchen Kriterien/ Präferenzen/ Werten entscheidet man dann, welche der vielen Möglichkeiten man wählen soll? Ist die Entscheidung ‚frei‘ oder durch irgendwelche Faktoren ‚vorbestimmt‘? Gibt es explizite Wissensanteile, aufgrund deren man meint, ‚rational‘ zu handeln, oder ist es eine ‚Bauchentscheidung‘? Wieweit spielen ’nicht-bewusste‘ Anteile mit hinein? Insofern nicht-bewusste Anteile von sich aus nicht bewusst sind, können wir selbst dies gar nicht wissen. Wir bräuchten zusätzliche Hilfen, um dies möglicherweise sichtbar zu machen. Schließlich wurde bemerkt, dass selbst dann, wenn wir sogar zu einer Entscheidung gekommen sind, was wir tun sollten, es sein kann, dass wir die Ausführung lassen. Wir tun dann doch nichts. Sollten wir etwas tun, dann würde unser Tun ‚eine Wirkung‘ entfalten.

ARCHITEKTUR DES INDIVIDUUMS

5. Alle diese Entscheidungsprozesse verlaufen in einer Person; im anderen, in mir. Wir wissen, dass jeder Mensch eine komplexe Architektur besitzt, sehr viele unterschiedliche Komponenten besitzt, die in Wechselwirkung stehen. Folgende drei Bereich wurden genannt, ohne Anspruch auf Vollständigkeit: (i) der Körper selbst, die Physis, das Physiologische. Das Gehirn ist eines der vielen komplexen Organe im Bereich der Physis. Das Physische kann altern, kann zwischen Menschen Varianzen aufweisen. Resultiert aus einem individuellen Wachstumsprozess (Ontogenese), und im Rahmen einer Population resultiert der Bauplan eines individuellen Körpers aus einem evolutionären Prozess (Phylogenese). Sowohl in der Phylogenese wie in der Ontogenese können sich Strukturen umweltabhängig, verhaltensabhängig und rein zufällig verändern. Weiter gibt es (ii) den Komplex, der grob mit Emotionen, Gefühle umschrieben wurde. Es sind Körper- und Gemütszustände, die auf das Bewerten der Wahrnehmung und das Entscheiden Einfluss ausüben können (und es in der Regel immer tun). Schließlich (iii) gibt es den Komplex Wissen/ Erfahrung, der Menschen in die Lage versetzt, die Wahrnehmung der Welt zu strukturieren, Beziehungen zu erkennen, Beziehungen herzustellen, komplexe Muster aufzubauen, usw. Ohne Wissen ist ein Überschreiten des Augenblicks nicht möglich.

WISSEN

6. Aufgrund der zentralen Rolle des Wissens ist es dann sicher nicht verwunderlich, dass es zum Wissen verschiedene weitere Überlegungen gab.

7. Neben der Betonung der zentralen Rolle von Wissen wurde mehrfach auf potentielle Grenzen und Schwachstellen hingewiesen: (i) gemessen an dem objektiv verfügbare Wissen erscheint unser individuelles Wissen sehr partiell, sehr begrenzt zu sein. Es ist zudem (ii) veränderlich durch ‚Vergessen‘ und ‚Neues‘. Auch stellte sich die Frage (iii) nach der Qualität: wie sicher ist unser Wissen? Wie ‚wahr-falsch‘? Woher können wir wissen, ob das, was wir ‚für wahr halten‘, an was wir ‚glauben‘, tatsächlich so ist? Dies führte (iv) zu einer Diskussion des Verhältnisses zwischen ‚wissenschaftlichem‘ Wissen und ‚Alltags-‚ bzw. ‚Bauchwissen‘. Anwesende Ärzte betonten, dass sie als Arzt natürlich nicht einfach nach ‚Bauchwissen‘ vorgehen könnten, sondern nach explizit verfügbarem wissenschaftlichen Wissen. Im Gespräch deutete sich dann an, dass natürlich auch dann, wenn jemand bewusst nach explizit vorhandenem Wissen vorgehen will, er unweigerlich an die ‚Ränder seines individuellen‘ Wissens stoßen wird und dass er dann gar keine andere Wahl hat, als nach zusätzlichen (welche!?) Kriterien zu handeln oder – was vielen nicht bewusst ist – sie ‚verdrängen‘ die reale Grenze ihres Wissens, indem sie mögliche Fragen und Alternativen ‚wegrationalisieren‘ (das ‚ist nicht ernst‘ zu nehmen, das ist ‚unwichtig‘, das ‚machen wir hier nicht so‘, usw.). Ferner wurde (v) der Status des ‚wissenschaftlichen‘ Wissens selbst kurz diskutiert. Zunächst einmal beruht die Stärke des wissenschaftlichen Wissens auf einer Beschränkung: man beschäftigt sich nur mit solchen Phänomenen, die man ‚messen‘ kann (in der Regel ausschließlich intersubjektive Phänomene, nicht rein subjektive). Damit werden die Phänomene zu ‚Fakten‘, zu ‚Daten‘. Ferner formuliert man mögliche Zusammenhänge zwischen den Fakten in expliziten Annahmen, die formal gefasst in einem expliziten Modell repräsentiert werden können. Alle diese Modelle sind letztlich ‚Annahmen‘, ‚Hypothesen‘, ‚Vermutungen‘, deren Gültigkeit von der Reproduzierbarkeit der Messungen abhängig ist. Die Geschichte der Wissenschaft zeigt überdeutlich, dass diese Modelle beständig kritisiert, widerlegt und verbessert wurden. Wissenschaftliches Wissen ist insofern letztlich eine Methode, wie man der realen Welt (Natur) schrittweise immer mehr Zusammenhänge entlockt. Die ‚Sicherheit‘ dieses Wissens ist ‚relativ‘ zu den möglichen Messungen und Modellen. Ihre Verstehbarkeit hängt zudem ab von den benutzten Sprachen (Fachsprachen, Mathematische Sprachen) und deren Interpretierbarkeit. Die moderne Wissenschaftstheorie konnte zeigen, dass letztlich auch empirische Theorien trotz aller Rückbindung auf das Experiment ein Bedeutungsproblem haben, das sich mit der Fortentwicklung der Wissenschaften eher verschärft als vereinfacht. Im Gespräch klang zumindest kurz an (vi), dass jedes explizites Wissen (auch das wissenschaftliche), letztlich eingebunden bleibt in das Gesamt eines Individuums. Im Individuum ist jedes Wissen partiell und muss vom Individuum im Gesamtkontext von Wissen, Nichtwissen, Emotionen, körperlicher Existenz, Interaktion mit der Umwelt integriert werden. Menschen, die ihr Wissen wie ein Schild vor sich hertragen, um damit alles andere abzuwehren, zu nivellieren, leben möglicherweise in einer subjektiven Täuschungsblase, in der Rationalität mutiert zu Irrationalität.

UND DEN KONTEXT GIBT ES DOCH

8. Schließlich gewann der Kontext des Individuums doch noch mehr an Gewicht.

9. Schon am Beispiel des wissenschaftlichen Wissens wurde klar, dass Wissenschaft ja keine individuelle Veranstaltung ist, sondern ein überindividuelles Geschehen, an dem potentiell alle Menschen beteiligt sind.

10. Dies gilt auch für die schier unendlich erscheinende Menge des externen Wissens in Publikationen, Bibliotheken, Datenbanken, Internetservern, die heute produziert, angehäuft wird und in großen Teilen abrufbar ist. Dazu die verschiedenen Medien (Presse, Radio, Fernsehen, Musikindustrie,….), deren Aktivitäten um unsere Wahrnehmung konkurrieren und deren Inhalt, wenn wir es denn zulassen, in uns eindringen. Die Gesamtheit dieser externen Informationen kann uns beeinflussen wie auch ein einzelner dazu beitragen kann, diese Informationen zu verändern.

11. Es kam auch zur Sprache, dass natürlich auch die unterschiedliche Lebensstile und Kulturen spezifisch auf einzelne (Kinder, Jugendliche, Erwachsene…) einwirken bis dahin, dass sie deutliche Spuren sogar im Gehirn (und in den Genen!) hinterlassen, was sich dann auch im Verhalten manifestiert.

12. Besonders hervorgehoben wurden ferner die politischen Prozesse und Teil des Wirtschaftssystems. Die Meinung war stark vertreten, dass wir auch in den Demokratien eine ‚Abkopplung‘ der politischen Prozesse von der wählenden Bevölkerung feststellen können. Der intensive und gesetzmäßig unkontrollierte Lobbyismus im Bereich deutscher Parteien scheint ein Ausmaß erreicht zu haben, das eine ernste Gefahr für die Demokratie sein kann. Die Vertretung partikulärer Interessen (genannt wurde beispielhaft die Pharmaindustrie, aber auch Finanzindustrie und weitere), die gegenläufig zum Allgemeinwohl sind, wurde – anhand von Beispielen – als übermächtiges Wirkprinzip der aktuellen Politik unterstellt. Sofern dies tatsächlich zutrifft, ist damit natürlich die sowieso schon sehr beschränkte Einflussmöglichkeit des Wählers weitgehend annulliert. Die zu beobachtende sich verstärkende Wahlmüdigkeit des Wählers wird damit nur weiter verstärkt. Das Drama ist, dass diejenigen, die das Wählervertrauen durch ihr Verhalten kontinuierlich zerstören, nämlich die gewählten Volksvertreter, den Eindruck erwecken, dass sie selbst alles verhindern, damit der extreme Lobbyismus durch Transparenz und wirksamen Sanktionen zumindest ein wenig eingedämmt wird.

ABSCHLUSS

13. In der abschließenden Reflexion bildete sich die Meinung, dass die Punkte (i) Präferenzen/ Werte/ Kriterien einerseits und (ii) Beeinflussbarkeit politischer Prozesse andererseits in der nächsten (und letzten Sitzung vor der Sommerpause) etwas näher reflektiert werden sollten. Reinhard Graeff erklärte sich bereit, für die nächste Sitzung am So 14.Juni einen Einstieg vorzubereiten und das genaue Thema zu formulieren.

AUSBLICK

14. Am So 14.Juni 2015 16:00 findet nicht nur die letzte Sitzung der Philosophiewerkstatt vor der Sommerpause statt, sondern es soll im Anschluss auch (ca. ab 19:00h) bei Essen und Trinken ein wenig darüber nachgedacht werden, wie man in die nächste Runde (ab November 2015) einsteigen möchte. Soll es überhaupt weitergehen? Wenn ja, was ändern? Usw.

Einen Überblick über alle Beiträge zur Philosophiewerkstatt nach Themen findet sich HIER

WEISHEIT ALS REVOLUTIONÄRER BEGRIFF FÜR EINE ZUKUNFTSFÄHIGE WELT? MEMO philosophieWerkstatt v2.0 VOM Sonntag, 8.März 2015, 16:00 – 19:00h IN DER DENKBAR

MEMO zur philosophieWerkstatt v2.0 VOM Sonntag, 8.März 2015, 16:00 – 19:00h IN DER DENKBAR

PROGRAMM

Soundexperiment
Einführung ‚Weisheit‘
Gesprächsrunde

SOUNDEXPERIMENT

Bei diesem philosophisch motivierten Klangexperiment wurde dieses Mal eine Folge von Bildern mit einem Soundtrack korreliert. Aufgrund der knapp bemessenen Zeit wurde das Experiment verkürzt auf die Momente ‚Bilder ohne Klang‘ und dann ‚Bilder zusammen mit einem Soundtrack‘ (Wer es nachhören/-sehen möchte kann dies hier tun: BigBen, Wales, Translation-Wilderness. Der ursprüngliche Titel, der auch in der Philosophiewerkstatt benutzt wurde, hiess ‚Wale und die Ringe des Saturn‘.) Erst im Anschluss an eine Gesprächsrunde stellte dann der Künstler cagentArtist Hintergrundinformationen zu den benutzten Materialien zur Verfügung, den angewendeten Methoden und die ‚Idee der Aussage‘, wie sie sich nach drei Jahren darstellt: Die Wale im Ozean, in einer fremden Klangwelt, die hart, unerbittlich, zerstörerisch ist, eingebettet in die blaue Mystik des Meeres und der Walgesänge. Unsere menschenerzeugten Geräusche bilden für die Wale ein unerträgliches, fremdes, tödliches Chaos. Ein wenig kann man dies rleben, wenn man sich dem Stück tatsächlich aussetzt.

WEISHEIT, EINFÜHRENDE WORTE

Christian Hellwig gab dann eine kurze Einführung zum Thema „Weisheit”, aus seiner Sicht. Neben zahlreichen Gedanken zum Thema, angereichert mit einigen bildreichen Beispielen aus der Literatur, wurde u.a. ein Interview mit Ute Kunzmann in der Zeit (April, 2014), mit verteilten Rollen vorgelesen. Schließlich wurden aus einem Buch von Professor Baltes, dem Direktor des Berliner Max-Planck-Institutes (MPI) für Bildungsforschung, (Quelle muss präzisiert werden) sieben Eigenschaften vorgestellt, die charakteristisch für das Vorliegen von ‚Weisheit‘ sein sollen (hier stark vereinfacht):

1. Es geht um die Lebensführung als ganze
2. Man ist sich der Grenzen des Wissens bewusst
3. Ein beeindruckendes Wissen, allerdings nur in Annäherung an eine regulativ Idee
4. Das Wissen ist eingebunden in eine entsprechende Umsetzung/ Praxis
5. Synergie von Geist und Charakter
6. Sowohl das eigene wie auch das Wohl der anderen ist im Blick
7. Weisheit wird unmittelbar erkannt, wenn sie sich im Vollzug manifestiert

GESPRÄCHSRUNDE

1. Es folgte dann eine sehr angeregte Gesprächsrunde, an deren Anfang sehr viele Fragen standen, bei einigen ausgesprochene Skepsis und Unverständnis: völlig vager Begriff? Wozu nütze? Das ist doch überhaupt nicht wissenschaftlich, usw.

Diagramm Philosophiewerkstatt 8.März 2015 - Strukturelemente von 'Weisheit'
Diagramm Philosophiewerkstatt 8.März 2015 – Strukturelemente von ‚Weisheit‘

2. Im Laufe des Gespräches kristallisierten sich dann aber schrittweise Deutungen heraus, Erklärungen, die mehr und mehr das Interesse weckten. Obwohl keine ausführliche historische Analyse vorgelegt worden war, führten die Bemerkungen der TeilnehmerInnen mehr und mehr zu einem komplexen Bild, das einerseits sowohl wichtige Hauptrichtungen der Philosophiegeschichte widerspiegelte, in manchen Punkten aber sogar darüber hinaus zu gehen scheint.

3. Die Kernidee schien die zu sein, dass das ‚Wesentliche‘ der ‚Weisheit‘ nicht in einzelnen Aspekten für sich zu suchen sei (besonderes Wissen, besondere Erfahrung, besondere Klugheit, besondere Verantwortung, …) sondern in einem besonderen charakteristischen ‚Zusammenspiel‘ aller Momente, ganz im Sinne des geflügelten Wortes, dass die’Summe mehr ist als ihre Teile‘.

4. Als ‚Summe der Teile‘ muss Weisheit etwas sein, was man (im Sinne von Baltes) unmittelbar als solche erkennen kann, da nur Weisheit diese komplexe emergente Qualität besitzt.

5. Für manchen mag dieser emergente komplexe Charakter von Weisheit gegen seine Wissenschaftlichkeit sprechen, das muss aber nicht so sein. Viele wichtige physikalische Größen sind mittlerweile so, dass sie nicht im einzelnen Messwert erkannt werden können, sondern nur unter Voraussetzung einer abstrakten mathematischen Struktur kann jener Zusammenhang sichtbar gemacht werden, der sich zwar in vielen einzelnen Messwerten zeigt, aber nicht aus den einzelnen Messwerten als solchem ‚herausgelesen‘ werden kann. Letztlich sind alle funktionalen Zusammenhänge per Definition Metakonstrukte zu jenen Elementen, die durch sie ‚geordnet‘ werden.

6. Bedenkt man dies, dann hat ein solcher emergenter Weisheitsbegriff nicht nur nichts ‚Anrüchiges‘, sondern eröffnet überhaupt die Möglichkeit, die vielen Teilaspekte eines Menschen in einem größeren Zusammenhang zu betrachten, und dies ganz ‚wissenschaftlich‘, wenn man will.

7. Unter anderem kann man hier auch z.B. den Ansatz der Existenzphilosophie zwanglos einordnen. Dieses ’sich Vorfinden im Sein‘, das in der existentiell erfahrbaren ‚ontologischen Differenz‘ einen weiterverweisenden – transzendenten – Seinshorizont auszumachen meint, wäre interpretierbar als die subjektive Seite der systemischen Situation, dass der einzelne sich innerhalb der biologischen Evolution in einer körperlichen Struktur vorfindet, die ihm Anteil gibt an einer spezifischen endlichen Welterfahrung, die trotz ihrer Endlichkeit eine ‚eingebaute‘ ontologische Differenz enthält, die jedes individuelle System unausweichlich auf einen größeren Zusammenhang verweist, der sich in vielen konkreten Details manifestiert, der aber als solcher niemals ganz einlösbar ist (regulativ Idee).

8. Damit verweist das Ideal einer individuellen Weisheit aber auch unausweichlich auf den je größeren Zusammenhang einer Population, da es nur als Element einer solchen vorkommt und lebensfähig ist.

9. Eine Population ist dann auch wieder – wenn auch auf einer neuen Ebene – mehr als die Summe ihrer Teile = Mitglieder.

10. Im Unterschied zur tierischen Schwarmintelligenz – besonders beeindruckend bei den Insekten – ist aber die ‚Intelligenz der menschlichen Population‘ (hier gedeutet als ‚Weisheit der Population‘) nicht deterministisch wie bei den Insekten, sondern enthält einige Freiheitsgrade zusammen mit adaptiven Lernmechanismen, die keinen reinen Automatismus erlauben. Die Weisheit der Population des homo sapiens funktioniert nur, wenn eine Reihe von Rahmenanforderungen (quasi als ‚transzendentale Bedingungen‘) erfüllt werden. Diese sind sehr herausfordernd.

11. ‚Populationsweisheit‘ verlangt u.a.
– eine angemessene Kommunikation aller Teile der Population miteinander
– eine angemessene Politik, die gemeinsam erkannte Richtungen entsprechend umsetzt
– ohne eine angemessenes Wissen wird ein realistisches Überlebensverhalten nicht möglich sein
– ohne eine angemessene Technologie auch nicht
– ohne angemessene ‚Präferenzsysteme‘ (Normen, Vorschriften, Werte, …) wird Kommunikation und Handeln im Chaos versinken (diese Präferenzsysteme müssen aber radikal transparent sein und müssen sich aus den erkennbaren Prozessen der realen Welt und der Lebensnotwendigkeiten ableiten lassen)
– usw.

12. In der Populationsweisheit fließt all dies im optimalen Fall zusammen.

13. Treffen diese Überlegungen aus dem Gespräch zu, dann deutet sich zur Frage nach der Entstehung von Weisheit ein Doppeltes an: einerseits ist der emergente Charakter von Weisheit in der Struktur des biologischen Lebens als Teil des kosmischen Prozesses angelegt; andererseits ist es kein völlig determiniertes Phänomen. Es kann sich in eine bestimmte Richtung weiter entwickeln, es muss aber nicht. In dem Masse, wie es zur ‚Selbststeuerung‘ (individuell, als Population, …) fähig wird, muss es sich selbst und seine Umgebung immer besser verstehen. Dies geht nur über mehr konstruktive Kooperation, über mehr fundiertes Wissen, über bessere Moral, usw. Kann letztlich nur gelingen, wenn man voraussetzt, dass das vorfindliche je größere Ganze (das bekannte Universum, das unbekannte Universum) ‚in sich‘ ‚gut‘ ist. Wäre dem nicht so, hätte Weisheit keine Chance. Dies bedeutet, dass Weisheit nur zur ‚Vollendung‘ kommen kann, wenn sie ‚an sich‘ glaubt‘ und die vorfindliche Welt ‚in sich‘ schon immer auch ‚gut‘ ist.

14. Was hier wie ein Paradox erscheint ist aber nicht so ungewöhnlich, wie es im ersten Moment erscheinen mag: die gesamten Naturwissenschaften leben davon, dass sie zunächst daran glaubt, dass die zu untersuchende Natur ‚in sich‘ ‚gesetzmäßig‘ ist und auf der Basis dieses ‚Glaubens‘ werden Experimente durchgeführt, die mögliche Regelhaftigkeiten enthüllen, die in Form von vorwegnehmenden mathematischen Strukturen auf eine Allgemeinheit hin gedeutet werden, die so niemals beobachtbar ist und auch niemals beobachtbar sein wird. Auch in der Naturwissenschaft ist der Moment des Glaubens konstitutiv. Insofern unterscheidet sich die Erforschung einer übergreifenden ‚Weisheit‘ in nichts von irgend einer anderen naturwissenschaftlichen Erforschung.

15. Der ‚Keim‘ zur ‚Weisheit‘ ist so gesehen quasi bei jedem ‚angeboren‘? Dennoch muss man sie mühsam lernen, so wie wir Menschen alle wichtigen Dinge mühsam lernen müssen. So wie auch sonst die einen eher begabt sind für eines, andere für anderes, so gibt es dann auch sicher unterschiedliche Begabungen für Weisheit. Im Gegensatz zu Spezialbegabungen kann man aber ‚Weisheit‘ nicht so einfach lernen wie eine bestimmte Sprache, Mathematik, Auto fahren, usw., sondern Weisheit als ‚Zusammenspiel‘ aller Komponenten auf einer ‚höheren Ebene‘ folgt einem eher komplexen Bildungsprozesse, der von außen zwar ‚angeregt‘ werden kann, der aber letztlich von jedem ‚eigenständig‘ ‚gefunden‘ und ‚gemeistert‘ werden muss. Es gibt keine Garantien. Ein ‚weiser‘ Mensch dürfte also genauso ein Geschenk an alle sein wie die verschiedenen Sonderbegabungen, die immer wieder herausragen und begeistern.

16. Da ‚Weisheit‘ etwas Einzigartiges ist, kann man es auch nicht durch Verweis auf etwas anderes erklären. Weisheit steht ‚für sich‘; da nach Annahme alle Menschen in Richtung möglicher Weisheit ‚geboren‘ werden, muss man annehmen, dass jeder Mensch eine Art ‚Instinkt für Weisheit‘, eine grundlegende Wahrnehmungsfähigkeit dafür besitzt. Nur dann wäre er in der Lage,Weisheit zu erkennen, sich sich im Verhalten von Menschen, Menschengruppen, biologischen Systemen usw. ‚manifestiert‘. ‚Nichtwissen‘ und ‚Passivität‘ wären klare Verhinderungsfaktoren sowohl für Weisheit wie deren Wahrnehmung.

17. Da wir wissen, dass die Verteilung von geistigen Fähigkeit unter Menschen dem Gesetz der natürlichen Verteilung folgt, scheint es wahrscheinlich, dass dies auch auf die Fähigkeit der Weisheit zutrifft; wirklich weise Menschen oder menschliche Organisationen werden eher rar sein. Und sie sind nicht absolut stabil. Im Laufe der Geschichte sind viele Kulturen zugrunde gegangen, auf die einige der Eigenschaften von ‚Weisheit‘ zutrafen. Nicht selten wurden auch ‚weise‘ Menschen von der Gesellschaft geächtet oder getötet, weil ‚die anderen‘ sie nicht verstanden und abgelehnt haben. Von daher ist die Eigenschaft, als ‚weise‘ zu gelten, nicht unbedingt ‚attraktiv‘.

18. Aus der Natur der Weisheit folgt auch, dass man sie kaum explizit definieren kann. Als emergente Größe, die sich im Laufe des kosmischen Prozesses nur langsam, schrittweise zeigt, und zwar nicht als endgültig erkannte Struktur, sondern als sich schrittweise ‚andeutende‘ Struktur, ist sie eine Größe, die erst im Laufe der Jahrmilliarden langsam bekannt werden wird, sofern man sie überhaupt ’sucht‘.

EINIGE WEITERE FRAGEN

19. Was würde man sich von einem weisen Menschen erwarten?

20. Möchte man selber ‚weise‘ sein? Falls ja: was würde man sich persönlich davon versprechen? Falls nein: wovor hätte man Angst?

23. Was würde man von einer ‚weisen‘ Gesellschaft erwarten? Hätte asozialer globaler Kapitalismus darin einen Platz?

24. Was ist mit einer Politik, die im Namen der Sicherheit die ‚Privatheit‘ immer mehr aushöhlt und damit der notwendigen Spielweise für Weisheit den Raum nimmt: wie würde eine ‚weise Sicherheitspolitik‘ aussehen?

25. Was ist mit gesellschaftlichen Tendenzen, in denen sich Klassen bilden, die sich gegeneinander abschotten: wird damit nicht die Forderung nach gemeinsamer Kommunikation und Kooperation im Kern unmöglich gemacht?

26. Was ist mit der Instrumentalisierung der Medien durch einseitige Machtinteressen: wird damit das notwendige Medium der Öffentlichkeit für eine gemeinsame Kommunikation nicht zerstört?

27. Was ist mit den partikulären, rückwärtsgewandten und wissensfeindlichen Religionen: verhindern sie nicht die notwendige Weiterentwicklung der Weisheit als universalem Gut für Alle?

28. Usw.

THEMENVORSCHLAG NÄCHSTES TREFFEN

Neben der Einladung an jeden, etwas aus eigener küntlerischer Aktivität vorzustellen und es aus philosophischer Sicht zu betrachten, einigte sich die Gruppe auf den Themenvorschlag:

Was hat ein ‚künstlicher‘ Geist mit einem ‚biologischen‘ Geist gemeinsam, und was nicht? Zusatzfragen: Würde auf einen künstlichen Geist der Begriff der ‚Menschenwürde‘ zutreffen‘. Kann ein künstlicher Geist ‚weise‘ sein? Sind künstlicher und biologischer Geist nicht schon längst ’symbiotisch vereint‘?

Einen Überblick über alle bisherigen Blogeinträge zur Philosophiewerkstatt nach Titeln findet sich HIER.

DIE UNIVERSELLE KONFERENZ DER GOTTSUCHER – Oder die, die …. — Kurznotiz

1. Manchmal fragt mich jemand: ‚Glaubst Du an Gott?‘, und ich sage dann: ‚Wenn du mir erklären kannst, was Du unter ‚Gott‘ verstehst, kann ich Dir vielleicht sagen, ob ich an das glaube, was Du unter Gott verstehst oder nicht‘.

2. Nimmt man ernst, was man um sich herum sieht, dann gibt es ganz viele verschiedene Religionsgemeinschaften: viele Spielarten von Christen, viele Spielarten von Muslimen, viele Spielarten von Juden, viele Spielarten von Buddhisten, viele Spielarten von Hinduisten, viele Spielarten von ….

3. Ernsthafte Mitglieder dieser religiösen Gemeinschaften behaupten alle, an ‚Gott‘ zu glauben und sie versuchen ihr tägliches Lebens mehr oder weniger so zu gestalten, wie ihr Glaube an das, was sie selbst sich unter ‚Gott‘ vorstellen, es nahelegt.

4. Diese Religionen gibt es z.T. schon 2.500 bis 3.000 — oder mehr – Jahre. Das ist nicht ganz kurz …. Was auffällt ist, dass die offiziellen Vertreter dieser religiösen Gemeinschaften in der Vergangenheit noch niemals ernsthaft versucht haben, sich alle an einem Ort zu versammeln, um herauszufinden, worin denn möglicherweise die Gemeinsamkeit ihres Gottesglaubens besteht. Alle verhalten sich so, dass nur gerade sie selbst das ‚wahr Wissen‘ von Gott hätten und alle anderen unterschiedlich stark ‚verirrt‘ sind. In der menschenfreundlichen Variante ‚verzeiht‘ man den anderen ihren Irrtum und hofft darauf, dass die anderen ihren Irrtum eines Tages ‚einsehen‘ und sich dem ‚wahren Glauben‘ zuwenden. In der menschenunfreundlichen Variante erklärt man die ‚Anderen‘ zu ‚Verrätern‘, zu ‚Gefallenen‘, zu ‚Feinden‘, zu ‚Ungläubigen‘, die man bestrafen muss bis hin zur körperlichen Ausrottung.

5. Wenn das mit ‚Gott‘ Gemeinte wirklich so wichtig ist, wie die verschiedenen Vertretern der Religionen offiziell behaupten, dann verwundert es, warum keiner ernsthaft und aufrichtig die Frage stellt, wie Menschen denn überhaupt feststellen können, ob ein bestimmter Glaube an einen Gott ‚zutreffend’/ ‚wahr‘ ist oder nicht. Wenn man sieht, mit wie viel wissenschaftlichem Aufwand die Menschheit seit ca. 500 Jahren das innere der Natur und die Tiefen des Weltalls erforscht (mit atemberaubenden neuen Einsichten), dann überrascht es doch sehr, wie wenig die offiziellen Vertreter der vielen Religionen tun, um die Einsichtigkeit, die Verstehbarkeit, das Zutreffen ihren jeweiligen Gottesglaubens aufzuhellen.

6. Was tun die verschiedenen Vertreter der verschiedenen Religionen, wenn sie für ‚ihren Glauben‘ ‚werben’/ ‚missionieren‘? Wieweit hat der einzelne Umworbene eine reelle Chance, sich selbständig ein Urteil, eine Meinung zu bilden, frei, ohne psychologische Manipulationen?

7. Warum ist es so unmöglich, dass alle Religionen gemeinsam der Frage nachgehen, was an ihrem jeweiligen Glauben an Gott ‚gemeinsam‘ ist, ‚allen Menschen zugänglich‘, von ‚allen Menschen erfahrbar‘, von ‚allen Menschen verstehbar‘?

8. Die vielen sogenannten religiösen Konflikte in der Vergangenheit hatten sehr oft (meistens? immer) auch mit ‚Macht‘ zu tun, mit ‚Vorherrschaften‘, ‚Gebietsansprüchen‘, ‚wirtschaftlichen Vorteilen‘ und dafür war es wichtig, dass Religion nicht zu ‚empirisch‘, nicht zu ‚individuell‘, nicht zu ‚wahr‘ war, sondern zu Ritualen erstarrt waren, leicht indoktrinierbar und manipulierbar, so dass die Menschen nicht aus eigenem Urteil handelten, sondern als gelenkte Masse, die den steuernden Eliten Macht, Reichtum und (zweifelhafte) Ehre verschafften.

9. Im Kontrast dazu waren religiöse Menschen wie Buddha oder Jesus von Nazareth friedlich, menschenliebend, ohne einen Machtapparat, ohne Aufbau einer Organisation, ohne Unterwerfungsrituale, ohne Bevorzugung bestimmter Menschen, ohne Verurteilung anderer usw.

10. Nochmals, es fällt auf, wie extrem unkritisch offizielle Vertreter von Religionen sich selbst gegenüber sind. Obwohl wir seit Jahrhunderten immer besser verstehen, wie unser Wissen funktioniert, wie leicht und vielfältig jeder Mensch irren kann, wie oft große Irrtümer in die Welt kamen, weil bestimmte Meinungen lange nicht richtig überprüft wurden, ist nicht zu erkennen, dass die offiziellen Repräsentanten der großen Religionen ernsthaft vorstellen können, dass sie ‚irren‘ könnten. Diese Möglichkeit wird von vornherein kategorisch ausgeschlossen, obwohl nichts sicherer ist als dieses, dass jeder Mensch irren kann und sich auch im Laufe seines Lebens sehr oft irrt. In gewisser Weise ist ’sich Irren‘ auch eine Voraussetzung, um zu einem tieferen Verständnis zu kommen, vorausgesetzt, man erkennt seinen Irrtum.

11. Würden die offiziellen Vertreter von Religionen grundsätzlich einräumen, dass auch sie irren können, dann müssten sie ein großes Interesse daran haben, sich mit den anderen Religionen darüber auszutauschen, was denn die gemeinsamen Glaubensinhalte sind, wie sie erkennbar sind, wie sie verstehbar sind, wie sie gegen Missdeutungen geschützt werden können, und wie man sie heute in einer veränderten und sich beständig weiter veränderten Welt leben sollte. Und die religiösen Vertreter würden nicht nur ‚unter sich‘ darüber reden, sondern ‚mit allen‘, da jeder Mensch dazu wertvolle Beiträge liefern könnte.

12. Aktuell erwecken alle größeren Religionen eher den Eindruck, dass Hass, blinde Ideologien, Sprachlosigkeit (und große Unwissenheiten) die Gemüter beherrschen und dass die Sache mit Gott – sollte es ihn geben – irgendwo im Hintergrund vor sich hinwest; niemand scheint ein ernsthaftes Interesse an der ‚Sache Gottes‘ in dieser Welt zu haben. Der Umfang und die Bedenkenlosigkeit, mit der gegenwärtig in so vielen Ländern dieser unserer Welt Menschen gequält, verfolgt, unterdrückt, gegängelt, gefoltert und getötet werden, ist beispiellos. Wenn dies alles aus dem ‚Gottesglauben‘ der aktiven Menschenschänder folgt, dann brauchen wir diesen Gottesglauben eher nicht. Er hat auch nicht im entferntesten irgendetwas mit dem ‚Gott‘ zu tun, an den ich glaube, und von dem ich weiß, dass er alles erfüllt – sofern sich Menschen nicht explizit gegen sich selbst und gegen die Welt stellen, die sie hervorgebracht hat. Darin liegt eine tiefe Paradoxie: an der Stelle, wo das Leben in diesem Kosmos eine Form angenommen hat (homo sapiens), die sich sogar explizit gegen sich selbst wenden kann und sich dadurch – im positiven Fall – in einer bislang nie dagewesenen Eigenständigkeit ‚für etwas‘ entscheiden kann, an dieser Stelle finden wir nicht nur ’neues Licht‘ sondern auch viel ’neuen Schatten‘.

13. Mit der neuen Qualität des ‚eigenen Entscheidens‘ gewinnt das ‚mögliche Böse‘ in dieser unserer Welt eine ganz neue Wirklichkeit: diese neue Form der Freiheit — realisiert im hom sapiens — erlaubt es dem homo sapiens, sich auf der ganzen Breite gegen sich selbst, gegen das Leben im Universum, gegen das ganze Universum, und damit sogar gegen einen möglichen Gott zu wenden. Das ist potentiell das ‚totale Böse‘; die ‚Erfindung des Teufels‘ ist hier nur eine geschickte Ablenkung, eine billige Entschuldigung dafür, dass wir selbst genau das Böse verkörpern können, wenn wir unsere Grenzen, Schwächen und Fehler systematisch verleugnen.

14. Vor diesem Hintergrund ist die scheinbare Zunahme von religiösen Bewegung sehr zwiespältig: solange diese religiösen Bewegungen nicht wirklich wahrheitsfähig sind, ist mit Ihnen Intoleranz und eine ewige Menschen- und Lebens-verachtende Blutspur vorprogrammiert. Wer ernsthaft ‚wahrheitsunfähig‘ ist, der kann nur mit Verdrehungen und Lügen leben.

15. Die Deklaration der Menschenrechte 1948 und Gesellschaftsformen, die auf solchen Menschenrechten gründen, sind ein Lichtblick in der Geschichte des Lebens auf dieser unserer Erde (ohne dass damit schon die ‚perfekte‘ Form menschlicher Gesellschaften gefunden sein muss); die heute existierenden Religionen geben dagegen wenig Anlass, zu glauben, dass sie die tieferen Wahrheiten, die in und hinter den Menschenrechten stehen, auch nur ansatzweise verstanden hätten. Zumindest gibt es genügend offizielle Vertreter sowohl bei den Juden wie auch bei den Muslimen wie auch bei den Christen wie auch bei den …, die die Menschenrechte mit Füßen treten. Wie soll man dies deuten?

Einen Überblick über alle bisherigen Blogeinträge nach Titeln findet sich HIER.

DIE NEUROWISSENSCHAFTEN – EIN PHILOSOPHISCHES SCHWARZES LOCH? – Zu einem Artikel von W.Singer in der FAZ vom 17.September 2014

(Letzte Änderungen am Text: 21.Sept.2014, 22:06h)

Sound einer Galaxie oder doch eher von Neuronen oder von Galaxien eingefangen in den Vibrationen der Neuronen?

BEGRIFF (PHILOSOPHISCHES) SCHWARZES LOCH

1. Ein Schwarzes Loch (oder auch Black hole) ist in der Astrophysik – leicht vereinfachend – ein Raum-Zeit-Gebiet, das im Kern eine Massekonzentration besitzt, die so groß ist, dass in einem bestimmten Umfeld alle Materie (einschließlich der Lichtquanten) so stark angezogen wird, dass jenseits dieses Umfeldes (jenseits des ‚Ereignishorizontes‘) nichts mehr nach außen dringt (außer der sogenannten Hawking-Strahlung (benannt nach dem Physiker Stephen Hawking)). Im Prinzip kann ein schwarzes Loch immer weiter wachsen. Ab einer bestimmten Größe entstehen im Umfeld des Ereignishorizontes allerdings ‚Sperreffekte‘, die den Zufluss von Materie erschweren und über die Hawking-Strahlung verlieren schwarze Löcher kontinuierlich Energie.

2. Der Begriff ‚philosophisches‘ schwarzes Loch wird in diesem Beitrag benutzt als eine Metapher, um eine Denkweise zu charakterisieren, die die Vielfalt der Phänomene durch Beschränkung auf ein einziges Prinzip so stark nivelliert, dass von der Vielfalt anschließend nur noch bestimmte Fragmente übrig bleiben, die als solche zwar eine gewisse ‚Wahrheit‘ verkörpern, durch den eliminierenden Kontext aber letztlich ihre ursprüngliche Wahrheit verloren haben; vielleicht muss man sogar sagen, sie werden durch den falschen Kontext geradezu ‚falsch‘.

3. Ich stelle hier die frage, ob diese Metapher vom ‚philosophischen schwarzen Loch‘ anwendbar ist auf den Artikel von Wolf Singer in der FAZ vom 17.September 2014 S.N2. Würde meine Hypothese zutreffen, dann wäre dies fast tragisch, da hier eine Sache, die in sich gut und wichtig ist, die Hirnforschung, durch ihre methodische Übergrifflichkeit viele andere Sachen dermaßen entstellt und ihrer ontologischen Besonderheit beraubt, dass damit genau das Großartige, was die Gehirne in diese Welt eingebracht haben, von den Hirnforschern selbst totgemacht, zerstört würden.

4. Dies hier ist meine individuelle Hypothese. Vielleicht würde eine empirische soziologische Untersuchung im Rahmen einer Wissenssoziologie zu noch weitreichenderen kritischen Aussagen zu den Neurowissenschaften kommen. Aber für solche Wissenschaften ist es heute sehr schwer, Forschungsgelder zu bekommen.

DIE ARGUMENTATIONSFIGUR IM TEXT

5. Warum kann ich die Frage stellen, ob die Metapher von einem ‚philosophisch schwarzem Loch‘ auf den Artikel von Wolf Singer zutrifft?

6. In dem zitierten Artikel mit der Überschrift „Erst kommt das Denken, dann die Kunst“ soll es offiziell um das Verhältnis zwischen der Kunst und den Neurowissenschaften gehen; inoffiziell ergreift der Autor aber die Gelegenheit, aus Anlass eines Themas, das außerhalb der Neurowissenschaften liegt, primär die Bedeutung und Leistung der Neurowissenschaften heraus zu stellen; das auslösende Thema, der ‚Aufhänger‘ Kunst, gerät zu einer Art ‚Randnotiz‘: ja, es gibt irgendwo Kunst, ja, sie hat ein paar Eigenschaften, aber letztlich sind alle diese Eigenschaften unwichtig, da es eigentlich nur auf die Leistungen der neuronalen Verbände ankommt, die dem künstlerischen Verhalten letztlich zugrunde liegen. Die Neuronen und deren Verhalten repräsentieren die eigentliche, die wahre Wirklichkeit; sie erzählen uns, worum es geht …

7. Nun ist es ja unbestreitbar, dass die Neurowissenschaften seit ihrem Entstehen – letztlich viele Jahrhunderte; mit der klaren Einsicht in die Isoliertheit des Neurons aber dann erst seit ca. 120 Jahre – atemberaubende neue Einblicke in unser Gehirn und in die Interaktion zwischen dem Gehirn und dem Körper ermöglicht haben. Vielen Phänomenen des beobachtbaren Verhaltens wie auch unserer subjektiven Empfindungen konnten durch die Korrelation mit neuronalen Aktivitäten neue, interessante Aspekte zugeordnet werden, die zu neuen Verstehensmodellen geführt haben.

INPUT-OUTPUT SYSTEME: DIE SUMME IST MEHR ALS IHRE TEILE

8. Bei der Erklärung des Verhaltens eines Input-Output-Systems — was biologische Systeme u.a. sind – sind die Verhältnisse nicht ganz so trivial, wie sie die Erklärungsmuster der Neurowissenschaftler oft nahe legen.

9. Aus der Tatsache, dass ein Input-Output-System aus einer Vielzahl von elementaren Einheiten – im Falle des Gehirns u.a. aus ‚Neuronen‘ – besteht, folgt sehr selten, dass man das beobachtbare (äußere) Verhalten des Systems durch einfachen Rückgriff auf die Eigenschaften seiner Bestandteile ‚erklären‘ kann.

10. Wenn jemand heute — in einem analogen Fall — einen Computer (PC, Smartphone, Auto, Kamera,…) kauft, um damit einen Text zu schreiben oder Musik zu hören oder ein Computerspiel zu spielen oder … dann interessiert sich normalerweise niemand für die elektronischen Bauteilen in diesen Geräten (würden die meisten auch nicht verstehen), sondern nur um die ‚Funktionen‘, die das Gerät ihm zur Verfügung stellt.

11. Jener, der an der Funktion ‚Text Schreiben‘ interessiert ist, interessiert sich nicht unbedingt auch für die Funktion ‚Fotos machen‘, oder nicht für die spannenden Abenteuer eines Computerspiels, usw.

EINE ABBILDUNGSVORSCHRIFT IST MEHR ALS IHRE ‚TEILE‘

12. Alle diese verschiedenen ‚Funktionen‘ die heute ein Computer ausführen kann, sind zwar – in der Tat – alle durch die gleichen elektronischen Bauteile ermöglicht worden, wie man — im Falle der Computer — aber weiß, ist es nicht möglich, aus der Gegebenheit der elektronischen Bauteile als solcher auch nur eine einzige dieser vielen möglichen Milliarden von Funktionen ‚abzuleiten‘!

13. Zwar kann man rein theoretisch aus der Beschaffenheit dieser Bauteile ableiten (und damit voraussagen), welche Arten von Funktionen generell mit diesen Bauteilen ausführbar wären, aber man könnte niemals zwingend – also niemals mit Notwendigkeit – sagen, auf diesem Computer muss genau diese ‚Funktion f‘ ausgeführt werden.

14. Der tiefere – wenngleich sehr einfache – Grund für diesen Sachverhalt liegt darin, dass das beobachtbare Verhalten eines Computers – verstanden als eine Funktion f – eine Folge von Zustandsänderungen zusammenfasst, die unterschiedlichen ‚Input I‘ in das System (Eingaben durch den Benutzer, Messwerte, …) unter Berücksichtigung aktuell verfügbarer ‚interner Zustände IS‘ auf die beobachtbaren ‚Outputs O‘ (Ereignisse auf dem Bildschirm, Töne, Bewegungen eines mechanischen Teils, …) — und möglicherweise auch auf interne Zustände IS — ‚abbildet‘, wie der Mathematiker sagen würde. Eine solche reale Verhaltensfunktion ist damit nichts anderes als eine Folge von Paaren der Art …, ((I,IS),(IS,O)), …, verallgemeinernd geschrieben als eine Abbildungsvorschrift $latex f: I \times IS \longrightarrow IS \times O$.

15. Schon an dieser Stelle kann man direkt sehen, dass die Existenz irgendwelcher interner Zustände (z.B. elektronische Bauteile oder – wie im Falle des Gehirns – von Neuronen) in keiner Weise irgendetwas darüber sagen kann, wie die übergreifende Verhaltensfunktion f aussehen wird. Die Verhaltensfunktion f wird zwar nur unter Voraussetzung der internen Zustände stattfinden können, die internen Zustände (elektronische Bauteile, Neuronen, …) erlauben aber keinerlei Schlüsse auf die übergreifenden Funktion f, die damit tatsächlich zur Ausführung kommt.

16. Jeder kennt die Formulierung ‚Die Summe ist mehr als ihre Teile‘ oder der etwas neuere Begriff der ‚Emergenz‘, d.h. des Auftretens von Eigenschaften P eines Systems (z.B. Wasser), die unter bestimmten Bedingungen (Kälte, Hitze, …) mit einem Mal ‚beobachtbar‘ werden (‚zu Eis gefrieren‘, ’sich in Dampf transformieren‘, …). Die einzelnen Bestandteile als solche ‚für sich‘ können die Eigenschaft P nicht haben; wenn aber viele solche einzelnen Elemente (z.B. Moleküle) ‚zusammen‘ in einem Raum-Zeitgebiet vorkommen, dann kann eine – die einzelnen Elemente ‚übersteigende‘ (‚emergierende‘) — Eigenschaft P sichtbar werden, die wie aus dem ‚Nichts‘ entsteht.

17. Eine seit den Anfängen der Physik beliebte Strategie, die ‚emergenten‘ Eigenschaften zusammengesetzter Systeme durch ‚Rückführung auf die zugrunde liegenden Elemente‘ zu ‚erklären‘ (bekannt unter dem Namen ‚Reduktionismus‘) ist bis heute virulent, und findet sich z.B. ungebrochen im Text von Wolf Singer wieder. Was immer wir an Verhaltensweisen bei einem Menschen beobachten können – er hat sich einige ausgewählt, die einige als ‚künstlerisch‘, als ‚Malerei‘ bezeichnen –, das Verhalten in seiner speziellen Funktionalität wird auf das Verhalten zugrunde liegender Elemente (Neuronen) zurückgeführt und soll damit ‚erklärt‘ sein.

METHODISCHE GRENZEN DER NEUROWISSENSCHAFTEN

18. Abgesehen mal davon, dass die Neurowissenschaften auch heute – was Singer sogar an einzelnen Stellen einräumt – in der Regel noch nicht über wirklich harte Erklärungsansätze verfügen (bedingt durch die Komplexität des Gehirns und Messproblemen), werden die Neurowissenschaften als solche – sofern sie ihren eigenen Methoden treu bleiben – grundsätzlich niemals und zu keinem Zeitpunkt auch nur einzige der beobachtbaren Funktionen im echten Sinne ‚erklären‘ können.

19. Wenn Neurowissenschaftler sich zu Verhaltenserklärungen hinreißen lassen, dann überschreiten Sie in diesem Moment die methodischen Grenzen, die den Neurowissenschaften grundsätzlich gesetzt sind. Erklärung von ‚Verhalten‘ geht prinzipiell über die Beschreibung von Neuronen, Neuronenverbänden, und dem Verhalten von Neuronen hinaus, da es sich um prinzipiell verschiedene Datenarten handelt. Verhalten ist die Domäne der (biologischen) Ethologie oder der modernen experimentellen verhaltensbasierten Psychologie. Diese beiden Disziplinen wissen (als Verhaltenswissenschaften) nichts von Körperzuständen und Neuronen. Begibt ein Neurowissenschaftler sich in das Gebiet des Verhaltens, dann begeht er eine methodische Grenzüberschreitung. Wenn er Verhalten beschreibe will, dann muss er seine Neuronen grundsätzlich und vollständig vergessen! Hält man sich nicht an diese methodischen Grenzziehungen, dann resultiert ein methodisches Chaos, das man leider in ganz vielen neurowissenschaftlichen Publikationen — bis hin zu den High-End Journalen — beobachten kann.

20. Natürlich kann man sich eine methodisch kontrollierte ‚Kooperation‘ zwischen ‚Neurowissenschaften‘ und ‚Psychologie‘ vorstellen – dafür gibt es auch schon lange den Namen ‚Neuropsychologie‘ –, aber eine solche Kooperation stellt sehr hohe methodische und theoretische Anforderungen. Es ist nicht zu sehen, dass sich die Mehrheit der Neurowissenschaftlern dieses Problems bewusst ist. Es gibt offizielle Lehrbücher mit dem Titel ‚Neuropsychologie‘ die in keiner Weise den wissenschaftstheoretischen Ansprüchen genügen, die man hier stellen muss.

21. Im Falle des Artikels von Wolf Singer meine ich sowohl die Erklärungsstrategie des ‚Reduktionismus‘ wie auch eine Grenzüberschreitung von der Neurowissenschaft zu den Verhaltenswissenschaften feststellen zu müssen.

KEIN BEZUG ZUR WISSENSCHAFTSTHEORIE

22. Das Grundproblem, wie man das beobachtbare Verhalten f eines biologischen Input-Output-Systems ‚erklärt‘, ist eine Fragestellung aus dem Bereich der ‚Meta-Wissenschaft‘ genannt ‚Wissenschaftstheorie‘, die letztlich zur ‚Philosophie‘ gehört, der allgemeinen Reflexion ‚über‘ die Dinge, nicht methodisch eingegrenzt auf eine bestimmte wissenschaftliche Fachdisziplin.

23. Insofern berührt der Text von Wolf Singer Aspekte und Fragestellungen, die über die Neurowissenschaften deutlich hinausgehen. Singer lässt aber nirgends in seinem Text erkennen, dass er sich dieser Sachlage bewusst ist. Er spricht über das Gehirn wie ein Techniker über seinen Schaltplan, aus dem er abliest, dass der Motor in Halle 3 nicht läuft, weil eine bestimmte Leitung mit einer bestimmten Bauteilgruppe nicht funktioniert.

24. Mit einem solchen platten ‚Erklärungsansatz‘ wird aber genau die Besonderheit des Phänomens schlicht und einfach verdeckt, zugedeckt, unsichtbar gemacht. Das verstehe ich unter einem ‚philosophisch-schwarzen Loch‘

DIE RÜCKKEHR DES GEISTES?

25. Ist schon die mangelnde Selbstreflexion der Neurowissenschaften traurig genug, so gerät diese zu einer gewissen Tragik, da sie – aufgrund ihrer aktuell starken gesellschaftlichen Akzeptanz – alternative Reflektionsansätze auf die Vielfalt der Phänomene zu übertönen droht und damit die Wahrnehmung von genau dem ‚Wunder des Geistes‘, das durch die Evolution der Körper mit Gehirnen möglich wurde, im Ansatz zerstören. Kann man das ‚Allmachtsgebaren‘ der Neurowissenschaften noch als ‚typisch menschlich‘ abtun, greifen die kognitiven Wirkungen des begrifflichen Allmachtgehabes die ontologische Brisanz der durch die Gehirne möglichen Phänomene in ihrer Substanz an.

26. Erinnern wir uns an die mathematische Formel von zuvor $latex f: I \times IS \longrightarrow IS \times O$. Es ist absolut unmöglich, aus der Beschaffenheit der Teile die Gesamtfunktion abzuleiten; insofern repräsentiert eine solche Funktion ein ‚Mehr‘ an Informationen.

REFERENZSYSTEM PHYSIK

27. Die Physik kennt keine Gesetze, die die Entstehung von Etwas aus einem ‚Nichts‘ beschreiben (‚ex nihilo nihil fit‘). Insofern ist eine Theorie wie die ‚BigBang-Theorie‘ das Maximum, was die Physik leisten kann: vorausgesetzt, es gab genügend viel Energie am Beginn des Zeitpfeils, dann kann man den ganzen ‚Rest‘ (nämlich die Entwicklung des bekannten Universums) daraus schrittweise ‚rekonstruieren‘.

28. Will man mehr, dann muss man – hypothetisch – annehmen, dass es ‚außerhalb‘ von unserem bekannten Universum noch viele andere Universen gibt, die alle miteinander auf bestimmte Weise wechselwirken können. In diesem Fall wird das Prinzip ‚ex nihilo nihil fit‘ aber nicht aufgehoben. Die endlichen Raum-Zeitgrenzen werden damit nur ‚beliebig weit‘ (rein gedanklich) ausgedehnt.

29. Bezogen auf das Verhalten konkreter Systeme würde die Physik fordern, dass man ein ‚Mehr an Information‘ erklären muss.

30. Die Physik versagt bislang aber nicht nur bei der Grundsatzfrage, wo denn die ungeheure Menge an Information in Form von Anfangsenergie ‚herkommt‘, sie versagt auch schon bei der – scheinbar – kleineren Frage, wie es zur Ausbildung von biologischen Systemen auf dem Planeten Erde kommen konnte.

31. Damit ist nicht die Detailfrage gemeint, ob bestimmte für das Leben wichtige Moleküle schon ‚fertig‘ aus dem Weltall auf die Erde kamen oder sich – auf bislang noch unklare Weise – auf der Erde ‚gebildet‘ haben, sondern die Grundsatzfrage, wie es möglich war, dass sich überhaupt biologischen Systeme auf dem Planeten Erde bilden und immer weiter ausbreiten konnten (Molekülbildung, chemische Evolution, biologische Evolution).

32. Nach den Gesetzen der Thermodynamik strebt das bekannte Universum zwar langfristig auf einen Ausgleich aller Energieunterschiede, solange aber noch lokale Unterschiede bestehen, solange können sich an den Rändern des Energiegefälles noch Phänomene ausbilden, die die an diesen ‚Rändern‘ verfügbare ‚freie‘ Energie für ‚ihre Zwecke‘ ’nutzen‘. Alle biologische Zellen und Zellverbände, sind solche Strukturen: sie entziehen ihrer Umgebung (freie) Energie und generieren immer komplexere Strukturen, die der Idee des ‚(entropischen) Ausgleichs‘ diametral entgegen wirken. Und die biologischen Strukturen tun dies in einer sowohl individuellen wie auch systemisch-vernetzten Komplexität, die jeden rein auf ‚Zufall‘ basierenden Erklärungsversuch schon im Ansatz (rein mathematisch) ad absurdum führt.

33. Will man an dieser Stelle nicht in pseudo-theologische Ansätze flüchten, die die Erklärungslücken nach eigenen Vorstellungen – beliebig ? — ‚auffüllen‘, dann benötigt man Erklärungshypothesen, die sich mit den Methoden der Wissenschaft(en) vertragen.

VERDECKTE (IMPLIZITE) EIGENSCHAFTEN

34. Wenn wir im großen Stil Phänomene beobachten und messen können, die sich als Funktionen f darstellen lassen, die sich nicht direkt aus den unmittelbaren ‚Teilen‘ des Phänomens herleiten lassen, dann gibt es – neben der notwendigen Klärung der Arbeitsweise unseres Denkens (sehr wohl auch unter Einbeziehung einer evolutionären Erkenntnistheorie) – natürlich die (ganz normale) Arbeitshypothese, dass es in ‚Verbindung‘ mit den beteiligten ‚Elementen E‘ des beobachtbaren Phänomens p nicht nur die ‚direkten Eigenschaften‘ P(E) der beteiligten Elemente gibt, sondern möglicherweise auch weitere (indirekte)Eigenschaften E* (‚hidden properties‘), die direkt nicht beobachtbar sind, sondern nur unter bestimmten Randbedingungen des Zusammenwirkens ’sichtbar‘ werden.

35. Dieser Denkansatz würde dann in die Richtung führen, dass genau jene Eigenschaften, die an komplexen Strukturen ’sichtbar‘ werden, nicht ‚aus dem Nichts‘ entstehen, sondern grundsätzlich in der Struktur der Materie-Energie angelegt sind und sich bei steigendem Komplexitätsgrad in immer komplexeren Formen ‚zeigen‘.

36. Insofern alles, was wir in der Geistes- und Kulturgeschichte über ‚Geist’/ ‚Geistigkeit‘ usw. kennengelernt haben, von genau jenem komplexen Körper mit Gehirn stammt, der sich in der biologischen Evolution schrittweise herausgeschält hat, kann man mit dieser Hypothese dann die Frage aufwerfen, ob das, was die Phänomene des ‚Geistes‘ ausmacht, nicht zurückgeht auf diese indirekten Eigenschaften der Materie-Energie. Falls ja wäre der ‚Geist‘ letztlich eine ‚interne Eigenschaft‘ der Materie-Energie von Anfang an (ein Gedanke, der philosophisch viele Vorläufer hat, wenngleich eingebettet in andere Wortspiele).

37. Für eine empirische Theoriebildung wären solchen Fragen grundsätzlich kein Problem. In jeder anspruchsvollen empirischen Theorie mit mathematischem Modell gibt es genügend viele theoretische Begriffe (auch ‚theoretische Terme‘ genannt), die nicht ‚explizit‘ (‚direkt‘) definiert sind, sondern nur im Kontext vieler anderer Begriffe und Funktionen, die als Gesamtmodell einen Erklärungsanspruch darstellen und als Gesamtmodell ‚wahr‘ oder ‚falsch‘ sind.

[Anmerkung: Die Annahme von ‚verborgenen‘, ‚indirekten‘ Eigenschaften sind in der modernen Physik seit langem üblich. Der berühmte ‚Teilchenzoo‘ der Quantenphysik bietet hier genügend Anschauungsmaterial.]

38. Eine neue empirisch begründete (!) wissenschaftliche universale Theorie des Geistes wäre vor diesem Hintergrund prinzipiell kein Problem. Sie würde aber voraussetzen, dass die einzelnen Disziplinen (wie z.B. die Gehirnforschung) sich ihrer methodischen Grenzen bewusst werden und es zulassen würden, dass andere wissenschaftliche Disziplinen im Bereich komplexer Verhaltensphänomene geeignete theoretische Modelle entwickeln, die sich zwar bedingt mit z.B. der Gehirnwissenschaft für begrenzte Fragestellungen korrelieren lassen, die aber in keinster Weise auf diese begrenzten Fachdisziplinen ‚reduzierbar‘ wären. Andersherum gesprochen: diese komplexen Theorien beschreiben Eigenschaften und Beziehungen ‚oberhalb‘ möglichen vorausgesetzten ‚primitiveren# Elementen, die nur in diesen komplexeren Begriffen ’sichtbar‘ werden und nur hier ihre ‚Bedeutung‘ haben. Eine ‚Reduktion‘ auf die einfacheren Elemente ist nicht nur rein logisch nicht möglich, sondern würde die eigentliche Aussage direkt zerstören.

[Anmerkung: Das Thema mit dem ‚impliziten‘ Geist wurde in diesem Blog schon mehrfach diskutiert; besonders vielleicht in diesem Beitrag.]

DER KUNSTBEGRIFF

39. Im übrigen wäre der Kunstbegriff, den Singer benutzt, kritisch zu hinterfragen. Er selbst stellt gleich zu Beginn einerseits fest, dass es überhaupt keinen Konsens zum Begriff ‚Kunst‘ gibt, andererseits nimmt er Bezug auf bestimmte Tätigkeiten, die er dann als ‚künstlerisch‘ bezeichnet. Was soll man jetzt denken? Warum und wie sollen bestimmte Aktivitäten von Neuronen etwas mit Kunst zu tun haben, wenn nicht klar ist, was genau Kunst ist? Warum schreibt er dann nicht gleich, dass er zum Verhältnis von Gehirn und Kunst nichts sagen kann, weil nicht klar genug ist, was Kunst ist?

Einen Überblick über alle Blogeinträge nach Titeln findet sich HIER.

VERLUST DES SUBJEKTS? – Nachbetrachtungen zu einem Diskurs mit Soziologen, Anthropologen, Kulturanthropologen

SOUNDART

Hier ein spontanes Soundgebilde zum Thema der neuen negativen Komplexität, die uns von allen Seiten zu umringen und verschlingen droht; sie kommt und geht, und kommt … (Radically unplugged; anarchistic).

1. Es heißt ja, eine Schwalbe mache noch keinen Frühling; von daher sollte ich die Begegnung mit Soziologen/ Anthropologen/ Kulturanthropologen gestern Abend nicht überbewerten. Dennoch, Eindrücke gab es, und diese Eindrücke kamen von Vertretern dieser Fächer aus ganz Deutschland, von Vertretern, die viele viele Jahre Expertise auf sich vereinen und die nicht gerade unbedeutend sind.

2. Dass im abendlichen Plenum die promovierte Nachwuchswissenschaftlerin X letztlich immer um die Frage kreiste, was denn nun die Frage sei, entlang der man forschen sollte, lies aufmerken: ist es wirklich so, dass einer jungen Kulturanthropologin nach einem langen Studium samt langer Promotion immer noch nicht klar ist, welche Frage sie mit ihrem Forscherinnenleben beantworten möchte? Reiht Sie Untersuchung an Untersuchung ohne eigentlich zu wissen, was Sie untersucht? Ist dies ein individuelles Problem oder ist es symptomatisch für die ganze Disziplin?

3. Der andere junge promovierte Nachwuchswissenschaftler Y neben X formulierte zwar Argumente und Fragen, ihnen entnahm ich aber hauptsächlich ein Unbehagen an den Thesen des großen Lehrers A, der unter anderem in einem Buch das ‚Verschwinden der Gesellschaft‘ proklamiert hatte. Sein Unbehagen wurde klar, aber nicht so recht, warum er diese These für nicht vertretbar hielt. Was war ‚falsch‘ an der These vom Verschwinden der Gesellschaft und was waren seine Argumente? Seine Beispiele zum Verlust von ‚Autonomie‘, Verlust von ‚Privatheit‘ bzw. zur Auflösung von ‚Demokratie‘ wirkten eher wie Wasser auf die Mühlen der These vom Verwinden von Gesellschaft.

4. Ein anderer Professor Z, aus der Richtung Techniksoziologie, benutzte u.a. die Formulierung, dass ‚Gesellschaft‘ als solche nie verschwinden würde; wohl aber können sich ihre Interaktionsmuster ändern, überhaupt die Rahmenbedingungen ihrer Daseins und Handelns.

5. Dies scheint mir eine tiefliegende These zu sein, die vieles verständlich machen kann. Für einen beobachtenden und theoriebildenden Soziologen (das Wort ‚Theorie‘ fiel an diesem Abend nie!) erscheint ‚Gesellschaft‘ ja nur in ihren Manifestationen, in ihren Aktivitäten. Dabei haben alle Soziologen und Anthropologen gelernt, dass ein ‚Ereignis‘ in der Regel viele Deutungen zulässt, insbesondere dann, wenn es Teil eines ‚Geflechts von Ereignissen‘ die untereinander ‚mental‘ und ’situativ‘ zusammen hängen‘ (etwas, was Psychologen auch seit über 100 Jahren untersuchen; von Psychologie sprach an diesem Abend aber niemand). Was vor diesem Hintergrund dann ‚Gesellschaft‘ im Auge des Soziologen/ Anthropologen ist, ist notgedrungen sehr standpunktabhängig, abhängig von der Leitfrage, abhängig von verfügbaren Theorien. Von eigentlichen Leitfragen war an diesem Abend wenig die Rede, auch nicht von geltenden Theorien.

6. Nimmt man den Standpunkt von Z ernst, dann ist ‚von sich aus‘ nichts ‚gut‘ oder ‚falsch‘. Und er stellte auch konsequent fest, dass für ihn Ethik in der Wissenschaft nichts verloren habe. Die Wissenschaft der Soziologie hat zu untersuchen, wie die Menschen sich tatsächlich, faktisch verhalten und was dies impliziert und nicht, wie sie sich nach einer vorausgesetzten Ethik verhalten sollen.

7. In einem Pausengespräch erfuhr ich von zwei anderen Professoren B und C, dass diese ‚ethikfreie Soziologie‘ auf Widerspruch stoßen kann. Beide schienen darin überein zu kommen, dass ‚Ethik‘ eher den wissenschaftlichen Diskurs meint, innerhalb dessen man mögliche ‚Werte‘ klärt, wohingegen ‚Moral‘ gruppenspezifische und (soziologisch‘ gruppenendogene) Wertauffassungen spiegeln. Trotz dieser anfangshaften Unterscheidung konnten die angeführten historischen Beispiele keine letzte Klarheit bringen, ob es nun eine ethikfreie Wissenschaft gebe könne oder nicht. Möglicherweise meinte B auch eher, dass es wegen der möglichen Folgen für die Menschen keine ‚ethikfreie Technik‘ geben könne; seine Beispiele legten diesen Schluss nahe. Denn zu verlangen, dass eine Wissenschaft einer bestimmten Ethik folge, hat sofort viele Probleme im Gefolge: (i) die Geschichte zeigt, dass die experimentelle Wissenschaft vielfach nur Fortschritte erzielte, weil sie herrschende Wertemuster durchbrach, um tieferliegende wichtige Zusammenhänge sichtbar zu machen. Darüber hinaus (ii) dürfte es schwer bis unmöglich sein, so etwas wie ‚absolute‘ Werte zu identifizieren. Ferner (iii) – auch eine Korollar zu (ii) – haben wir als aktuell Lebende unsere aktuelle punktuelle Situation nicht zum Maßstab für die ganze kosmologische Entwicklung zu machen; das wäre vermessen und möglicherweise ein echter Fall von Größenwahn.

8. Hier kommt nochmal Professor A ins Spiel. Sein Konstatieren des Verschwindens von Gesellschaft bezieht seine Logik ja nicht nur aus dem allgemeinen methodischen Artefakt, dass eine Soziologie nicht ‚die Gesellschaft an sich‘ untersucht, sondern – das ist jetzt ein wenig Vermutung – auch aus dem Fakt, dass es für die beteiligten Menschen (den Untersuchungsobjekten) möglicherweise immer schwieriger wird, aus ihrer individuellen Perspektive noch irgendwie den ‚übergreifenden Zusammenhang‘ zu erkennen.

9. Ich hatte dies dann offiziell als Frage formuliert: ob es sein könne, dass es für die Menschen als Handelnde immer schwerer wird, mit ihren individuell begrenzten kognitiven Kapazitäten und ihren beschränkten Informations- und Kommunikationsmöglichkeiten irgendwelche nennenswerte Zusammenhänge in dem immer komplexeren Gesamtprozess zu erfassen (in einem Beitrag für die Konferenz ‚Urban Fiction‘ (vor vielen Jahren) hatte ich dieses Überlastungsphänomen ‚Negative Komplexität‘ genannt)? Und wenn es für jeden Menschen als Menschen zutrifft, inwieweit tangiert dies dann nicht auch die untersuchenden Soziologen/ Anthropologen? Haben sie denn überhaupt noch eine Chance, irgendetwas ‚Wichtiges‘ in diesem unübersichtlichen Geschehen zu erfassen? Sind sie als selbst Betroffene überhaupt noch Meister des Geschehens? (Von diesem Standpunkt aus erscheinen u.U. die Worte der promovierten Wissenschaftlerin X in einem anderen Licht: wenn die Unterstellung von der Negativen Komplexität stimmt, dann hat heute niemand mehr eine wirklich ‚begründete‘ Forschungsfrage, und dann ist das Ringen dieser jungen Forscherin nicht nur ein individuelles Problem, sondern ein Problem von uns allen; ihre Frage ist dann als Frage die eigentliche These, und die vielen Antwortversuche der ‚Älteren‘ wären dann ‚beschönigend‘, um nicht zu sagen ‚verdrängend‘.

10. Angesichts dieser Einschätzung – wohlgemerkt bislang nur eine Hypothese – wären die umfangreichen Überlegungen von Professor Z (er hatte einen Vortrag mit über 60 Minuten), die den Versuch bildeten, in dieser ‚begrifflich ungreifbaren Gesamtheit‘ eine ‚Struktur‘ einzuziehen, der falsche Ansatz. Zwar war sein Leitbegriff ‚Konstellation‘, um sich nicht vorschnell auf zu enge ‚Systeme‘ einlassen zu müssen, aber seine ‚Dreistufentheorie‘ der Komplexität würde in einer offenen Diskussion möglicherweise nicht lange überleben. In meiner Wahrnehmung trägt er dem ‚fluiden Moment‘ der ganzen Theoriebildung, nämlich der individuellen Kognition als Medium möglicher Theorien, zu wenig Rechnung (vielleicht tue ich ihm hier Unrecht; mein offizieller Einwand nach seinem Vortrag ging in diese Richtung und seine Antwort(en) konnten mich nicht überzeugen.

11. Dies führt zurück zu Professor A, für den die Gesellschaft abhanden gekommen ist (mit vielen anderen Büchern, die dies aus unterschiedlichster Perspektive erweitern erläutern,…). Wenn mich auch seine Reflexionen im Detail bislang nicht so ganz überzeugen können, so sieht er allerdings (mehr als andere?) das Individuum als einen Knotenpunkt in einem komplexen kommunikativen Netzwerk, das nicht nur von dem Individuum mitgespeist wird, sondern umgekehrt das Individuum wird durch diese Kommunikationsnetzwerke mehr und mehr beeinflusst, geprägt, geleitet, gewinnt daraus nicht wenig Bilder, die es als ‚Selbstbilder‘ missdeuten kann. Der Wandel der kommunikativen Medien vom direkten Face-to-Face, von der Vermittlung über konkrete Aktionen in konkreten Situationen verschiebt sich mehr und mehr zu immer ‚technischeren‘ Medien, die keinesfalls neutral sind, sondern als Medium immer größere ‚Fremdanteile‘ mit sich bringen (bis hin zur eingebauten Totalüberwachung). Dazu immer größere Datensammlungen, sowohl in Entstehung, Struktur und Anwesenheit immer weniger transparent, immer weniger überschaubar, im Zugang intransparent kontrolliert, in der Lagerung intransparent verändert, in ihren Wechselwirkungen immer weniger erfassbar. Das Zauberwort von ‚Big Data‘ (‚Großen Daten‘) ist primär ein Marketingvehikel für jene Firmen, die damit Geld verdienen wollen. Für die Wissenschaft ist es eine weitere Barriere, unser tatsächliches Wissen und unsere tatsächliche Kommunikation überhaupt noch zu verstehen (im übrigen ist Big Data, wie immer mehr Experten mittlerweile zugeben, je größer, umso weniger hilfreich, eher irreführend und für Managemententscheidungen von Firmen sogar gefährlich).

12. Also, einerseits scheint uns das ‚Subjekt‘ allen Geschehens irgendwie mehr und mehr abhanden zu kommen, das Subjekt sowohl als ‚Objekt‘ der Untersuchung wie auch als ‚Akteur‘ hinter allem. Das Subjekt – so scheint es – wird immer mehr eingelullt in ‚Bilder von der Welt‘, die weder seine eigenen Bilder sind noch Bilder, denen eine wissenschaftliche Relevanz zukommt. Damit wäre ‚Gesellschaft‘ im aufklärerischen Sinne ‚verschwunden‘. Fragt sich, was haben wir nun? Entgleitet sich das Subjekt in diesem umfassenden Geschehen immer mehr, nicht, weil es dies so will, sondern weil es mit ihm ‚einfach geschieht‘?

13. Die Leitwissenschaften, die sich diesen zentralen Fragen stellen, sind die Soziologie, die Anthropologie, die Kulturanthropologie um diese als ‚pars pro toto‘ zu nennen. In der deutschen Wissenschaftslandschaft werden aber genau diese Disziplinen zunehmend weggekürzt, weil sie sich nicht mehr ‚rechnen‘. Wer also noch Zweifel an der wissenschaftszerstörenden Kraft der aktuellen Prozesse hat, braucht nur diese Fakten zur Kenntnis nehmen.

LAUNIGES UNPLUGGED GESPRÄCH AM ABEND DANACH

Radically unplugged Gespräch aus einer Laune heraus …

Einen Überblick über alle bisherigen Blogeinträge nach Titeln findet sich HIER.

DAS NEUE MENSCHENBILD – ERSTE SKIZZE

MUSIK ZUR EINSTIMMUNG

Das Stück „Wenn die Worte aus der Dunkelheit aufsteigen wie Sterne“ entstand zunächst als ein reines Instrumentalstück (die erste Hälfte des aktuellen Stücks; diesen Teil hatte ich auch schon mal am 4.April im Blog benutzt). Doch inspirierte die Musik zum ‚Weitermachen‘, zunächst entstand eine Fortsetzung rein instrumental; dann habe ich ab der Mitte spontan einen Text dazu gesprochen. Im Nachhinein betrachtet passt dieser Text sehr gut zum heutigen Blogeintrag (ist kein Dogma … :-))

UNSCHULDIGER ANFANG

1. Als ich am 20.Januar 2007 – also vor 7 Jahren und 3 Monaten – meinen ersten Blogeintrag geschrieben habe, da wusste ich weder genau, was ich mit dem Blog wollte noch konnte ich ahnen, was durch das Niederschreiben von Gedanken alles an ‚kognitiven Bildern‘ von der Welt und dem Menschen entstehen konnte. Langsam schälte sich als Thema – wenngleich nicht messerscharf – ‚Neues Weltbild‘ heraus. Das konnte alles und nichts sein. Aber im gedanklichen Scheinwerferkegel von Theologie, Philosophie, Wissenschaftstheorie, Psychologie, Biologie, Linguistik, Informatik, Neurowissenschaften, Physik gab es Anhaltspunkte, Eckwerte, die den aktuellen Gedanken wie eine Billardkugel von einer Bande zur anderen schickten. Dazu die heutige, aktuelle Lebenserfahrung und die vielen Begegnungen und Gespräche mit anderen Menschen.

2. Die letzten beiden Blogeinträge zum Thema Bewusstsein – Nichtbewusstsein markieren einen Punkt in dieser Entwicklung, ab dem ‚wie von Zauberhand‘ viele einzelnen Gedanken von vorher sich zu einem Gesamtbild ‚zusammen schieben‘, ergänzen.

AUSGANGSPUNKT INDIVIDUELLES BEWUSSTSEIN

3. Akzeptieren wir den Ausgangspunkt des individuellen Bewusstseins B_i als primären Erkenntnisstandpunkt für jeden Menschen, dann besteht die Welt für jeden einzelnen zunächst mal aus dem, was er/ sie im Raume seines eigenen individuellen Bewusstseins erleben/ wahrnehmen kann.

4. Da es aber zur Natur des individuellen Bewusstseins gehört, dass es als solches für ‚andere‘ ‚unsichtbar‘ ist, kann man auch nicht so ohne weiteres über die Inhalte des eigenen Bewusstseins mit anderen reden. Was immer man mit Hilfe eines Ausdrucks A einer Sprache L einem anderen mitteilen möchte, wenn der Ausdruck A als Schallwelle den anderen erreicht, hat er zwar einen Schalleindruck (falls erhören kann), aber er/ sie weiß in dem Moment normalerweise nicht, welcher Inhalt des Bewusstseins des Sprechers damit ‚gemeint‘ sein könnte.

5. Dass wir uns trotzdem ‚unterhalten‘ können liegt daran, dass es offensichtlich einen ‚Trick‘ geben muss, mit dem wir diese unüberwindliche Kluft zwischen unseren verschiedenen Bewusstseinsräumen überwinden können.

KLUFT ZWISCHEN INDIVIDUELLEN BEWUSSTSEINSRÄUMEN ÜBERWINDEN

6. Der ‚Trick‘ beruht darauf, dass der individuelle Bewusstseinsraum einem ‚individuellen Körper‘ zugeordnet ist, dass es in diesen Körper Gehirne gibt, und dass das individuelle Bewusstsein eines Körpers k_i als Ereignis im Gehirn g_i des Körpers k_i zu verorten ist. Das Bewusstsein B_i partizipiert an den Gehirnzuständen des Gehirns, und dieses partizipiert an den Körperzuständen. Wie die Wissenschaft mühsam erarbeitet hat, können bestimmte Außenweltereignisse w über ‚Sinnesorgane‘ in ‚Körperereignisse‘ ‚übersetzt‘ werden‘, die über das Gehirn partiell auch das Bewusstsein erreichen können. Sofern es jetzt Außenweltereignisse w‘ gibt, die verschiedene Körper in ähnlicher Weise ‚erreichen‘ und in diesen Körpern via Gehirn bis zu dem jeweiligen individuellen Bewusstsein gelangen, haben diese verschiedenen individuellen Bewusstseinsräume zwar ‚rein private‘ Bewusstseinszustände, aber ‚gekoppelt‘ über Außenweltzustände w‘ haben die verschiedenen Bewusstseinszustände B_1, …, B_n alle Bewusstseinsereignisse b_i, die als solche ‚privat‘ sind, aber ‚zeitlich gekoppelt‘ sind und sich mit Änderung der Außenweltzustände w‘ auch ’synchron‘ ändern. Die gemeinsam geteilte Außenwelt wird damit zur ‚Brücke‘ zwischen den körperlich getrennten individuellen Bewusstseinsräumen. Diese ‚ gemeinsam geteilte Außenwelt‘ nennt man oft den ‚intersubjektiven‘ Bereich der Welt bzw. dies stellt den Raum der ‚empirischen Welt‘ [Wemp] dar. Aus Sicht des individuellen Bewusstseins ist die empirische Welt eine Arbeitshypothese, die dem individuellen Bewusstsein zugänglich ist über eine spezifische Teilmenge [PHemp] der Bewusstseinszustände [PH].

EMPIRISCHE WELT ALS SONDE INS NICHTBEWUSSTSEIN

7. In der Geschichte des menschlichen Wissens spielt die Entdeckung der empirischen Welt und ihre systematische Untersuchung im Rahmen der modernen empirischen Wissenschaften bislang – nach meiner Meinung – die größte geistige Entdeckung und Revolution dar, die der menschliche Geist vollbracht hat. Auf den ersten Blick wirkt die Beschränkung der empirischen Wissenschaften auf die empirischen Phänomene PHemp wie eine unnötige ‚Einschränkung‘ und ‚Verarmung‘ des Denkens, da ja die Menge der bewussten Ereignisse PH erheblich größer ist als die Menge der empirischen Ereignisse PHemp. Wie der Gang der Geschichte aber gezeigt hat, war es gerade diese bewusste methodische Beschränkung, die uns den Bereich ‚außerhalb des Bewusstseins‘, den Bereich des ‚Nichtbewusstseins‘, Schritt für Schritt ‚erforscht‘ und ‚erklärt‘ hat. Trotz individuell stark eingeschränktem Bewusstsein konnte wir auf diese Weise so viel über die ‚Rahmenbedingungen‘ unseres individuellen Bewusstseins lernen, dass wir nicht mehr wie die früheren Philosophen ‚wie die Fliegen am Licht‘ an den Phänomenen des Bewusstseins kleben müssen, sondern wir können zunehmend Hypothesen darüber entwickeln, wie die verschiedenen Bewusstseinsphänomene (inklusive ihrer Dynamik) durch die Strukturen des Gehirns und des Körpers bestimmt sind. M.a.W. wir stehen vor dem Paradox, dass das individuelle Bewusstsein den Bereich des Nichtbewusstseins dadurch ‚verkleinern‘ kann, dass es durch Ausnutzung der empirischen Phänomene mittels gezielter Experimente und Modellbildung immer mehr Eigenschaften des Nichtbewusstseins innerhalb des individuellen Bewusstseins ’nachkonstruiert‘ und damit ‚bewusst‘ macht. Bedenkt man wie eng und schwierig die Rahmenbedingungen des menschlichen Bewusstseins bis heute sind, gleicht es einem kleinen Wunder, was dieses primitive menschliche Bewusstsein bislang nachkonstruierend erkennen konnte.

8. Von diesem Punkt aus ergeben sich viele Perspektiven.

BIOLOGISCHE EVOLUTION

9. Eine Perspektive ist jene der ‚evolutionären Entwicklungsgeschichte‘: seit gut hundert Jahren sind wir mehr und mehr in der Lage, unsere aktuellen Körper und Gehirne – zusammen mit allen anderen Lebensformen – als einen Gesamtprozess zu begreifen, der mit den ersten Zellen vor ca. 3.8 Milliarden Jahren als biologische Evolution begonnen hat, ein Prozess, der bis heute noch viele Fragen bereit hält, die noch nicht befriedigend beantwortet sind. Und der vor allem auch klar macht, dass wir heute keinen ‚Endpunkt‘ darstellen, sondern ein ‚Durchgangsstadium‘, dessen potentieller Endzustand ebenfalls nicht ganz klar ist.

10. Ein wichtiger Teilaspekt der biologischen Evolution ist, dass der Vererbungsmechanismus im Wechselspiel von Genotyp (ein Molekül als ‚Informationsträger‘ (Chromosom mit Genen)) und Phänotyp (Körper) im Rahmen einer Population eine ‚Strukturentwicklung‘ beinhaltet: die Informationen eines Informationsmoleküls (Chromosom) werden innerhalb des Wachstumsprozesses (Ontogenese) als ‚Bauplan‘ interpretiert, wie man welche Körper konstruiert. Sowohl bei der Erstellung des Informationsmoleküls wie auch bei seiner Übersetzung in einen Wachstumsprozess und dem Wachstumsprozess selbst kann und kommt es zu partiellen ‚Änderungen‘, die dazu führen, dass die resultierenden Phänotypen Änderungen aufweisen können (verschiedene Arten von Sehsystemen, Verdauungssystemen, Knochengerüsten, usw.).

11. Im Gesamtkontext der biologischen Evolution sind diese kontinuierlich stattfindenden partiellen Änderungen lebensentscheidend! Da sich die Erde seit ihrer Entstehung permanent geologisch, klimatisch und im Verbund mit dem Sonnensystem verändert, würden Lebensformen, die sich von sich aus nicht auch ändern würden, schon nach kürzester Zeit aussterben. Dies bedeutet, dass diese Fähigkeit zur permanenten strukturellen Änderung ein wesentliches Merkmal des Lebens auf dieser Erde darstellt. In einer groben Einteilung könnte man sagen, von den jeweils ’neuen‘ Phänotypen einer ‚Generation‘ wird die ‚große Masse‘ mehr oder weniger ‚unverändert‘ erscheinen; ein kleiner Teil wir Veränderungen aufweisen, die es diesen individuellen Systemen ’schwerer‘ macht als anderen, ihre Lebensprozesse zu unterstützen; ein anderer kleiner Teil wird Veränderungen aufweisen, die es ‚leichter‘ machen, die Lebensprozesse zu unterstützen. Letztere werden sich vermutlich proportional ‚mehr vermehren‘ als die beiden anderen Gruppen.

12. Wichtig an dieser Stelle ist, dass zum Zeitpunkt der Änderungen ’niemand‘ weiß bzw. wissen kann, wie sich die ‚Änderung‘ – bzw. auch die Nicht-Änderung! – im weiteren Verlauf auswirken wird. Erst der weitergehende Gesamtprozess wird enthüllen, wie sich die verschiedenen Strukturen von Leben bewähren werden.

LEBENSNOTWENDIGE KREATIVITÄT: WOLLEN WIR SIE EINSPERREN?

13. Übertragen auf unsere heutige Zeit und unser Weltbild bedeutet dies, dass wir dieser Veränderlichkeit der Lebensformen immer Rechnung tragen sollten, um unsere Überlebensfähigkeit zu sichern. Zum Zeitpunkt einer Änderung – also jetzt und hier und heute – weiß niemand, welche dieser Änderungen morgen vielleicht wichtig sein werden, zumal Änderungen sich erst nach vielen Generationen auszuwirken beginnen.

14. Es wäre eine eigene große Untersuchung wert, zu schauen, wie wir heute in der Breite des Lebens mit den stattfindenden Änderungen umgehen. In der Agrarindustrie gibt es starke Tendenzen, die Vielzahl einzugrenzen und wenige Arten so zu monopolisieren, dass einzelne (ein einziger!) Konzern die Kontrolle weltweit über die genetischen Informationen bekommt (was in den USA z.T. schon zur Verödung ganzer Landstriche geführt hat, da das Unkraut sich schneller und effektiver geändert hat als die Laborprodukte dieser Firma).

STRUKTURELLES UND FUNKTIONALES LERNEN

15. Die ‚Struktur‘ des Phänotyps ist aber nur die eine Seite; genauso wenig wie die Hardware alleine einen funktionierenden Computer definiert, so reicht die Anordnung der Zellen als solche nicht aus, um eine funktionierende biologische Lebensform zu definieren. Im Computer ist es die Fähigkeit, die elektrischen Zustände der Hardware kontinuierlich zu verändern, dazu verknüpft mit einer impliziten ‚Schaltlogik‘. Die Menge dieser Veränderungen zeigt sich als ‚funktionaler Zusammenhang‘ phi_c:I —> O, der ‚Inputereignisse‘ [I] mit Outputereignissen [O] verknüpft. Ganz analog verhält es sich mit den Zellen in einem biologischen System. Auch hier gibt es eine implizite ‚Logik‘ nach der sich die Zellen verändern und Zustände ‚kommunizieren‘ können, so dass Zellgruppen, Zellverbände eine Vielzahl von funktionellen Zusammenhängen realisieren. Einige dieser funktionellen Zusammenhänge bezeichnen wir als ‚Lernen‘. Dies bedeutet, es gibt nicht nur die über Generationen laufenden Strukturveränderung, die eine Form von ’strukturellem Lernen‘ im Bereich der ganzen Population darstellen, sondern es gibt dann dieses ‚funktionelle Lernen‘, das sich im Bereich des individuellen Verhaltens innerhalb einer individuellen Lebenszeit ereignet.

WISSEN GARANTIERT KEINE WAHRHEIT

16. Dieses individuelle Lernen führt zum Aufbau ‚individueller Wissensstrukturen‘ mit unterschiedlichen Ausprägungsformen: Erlernen von motorischen Abläufen, von Objektkonzepten, Beziehungen, Sprachen, Verhaltensregeln usw. Wichtig ist dabei, dass diese individuellen Wissensstrukturen im individuellen Bewusstsein und individuellem Unterbewusstsein (ein Teil des Nichtbewusstseins, der im individuellen Körper verortet ist) verankert sind. Hier wirken sie als kontinuierliche ‚Kommentare‘ aus dem Unterbewusstsein in das Bewusstsein bei der ‚Interpretation der Bewusstseinsinhalte‘. Solange diese Kommentare ‚richtig‘ / ‚passend‘ / ‚wahr‘ … sind, solange helfen sie, sich in der unterstellten Außenwelt zurecht zu finden. Sind diese Wissensstrukturen ‚falsch‘ / ‚verzerrt‘ / ‚unangemessen‘ … bewirken sie in ihrer Dauerkommentierung, dass es zu Fehleinschätzungen und zu unangemessenen Entscheidungen kommt. Sofern man als einziger eine ‚unpassende Einschätzung‘ vertritt, fällt dies schnell auf und man hat eine Chance, diese zu ‚korrigieren‘; wird aber eine ‚Fehleinschätzung‘ von einer Mehrheit geteilt, ist es schwer bis unmöglich, diese Fehleinschätzung als einzelner zu bemerken. In einer solchen Situation, wo die Mehrheit eine Fehleinschätzung vertritt, kann ein einzelner, der die ‚richtige‘ Meinung hat (z.B. Galilei und Co. mit der neuen Ansicht zur Bewegung der Sonne; die moderne Wissenschaft und die alten Religionen; das damalige südafrikanische Apartheidsregime und der damalige ANC, der Sowjetkommunismus und die östlichen Friedensbewegungen vor dem Auseinanderfallen der Sowjetunion; die US-Geheimdienste und Snowden; …) als der ‚Fremdartige‘ erscheinen, der die bisherige ‚Ordnung‘ stört und den man deshalb ‚gesellschaftlich neutralisieren‘ muss).

17. Viele Menschen kennen das Phänomen von ‚Phobien‘ (vor Schlangen, vor Spinnen, vor …). Obwohl klar ist, dass eine einzelne Spinne keinerlei Gefahr darstellt, kann diese einen Menschen mit einer Phobie (= Kommentar des individuellen Unterbewusstseins an das Bewusstsein) zu einem Verhalten bewegen, was die meisten anderen als ‚unangemessen‘ bezeichnen würden.

18. Im Falle von psychischen Störungen (die heute statistisch stark zunehmen) kann dies eine Vielzahl von Phänomenen sein, die aus dem Raum des individuellen Unterbewusstseins in das individuelle Bewusstsein ‚hinein reden‘. Für den betroffenen Menschen ist dieses ‚Hineinreden‘ meistens nicht direkt ‚verstehbar‘; es findet einfach statt und kann vielfach kognitiv verwirren und emotional belasten. Diese Art von ‚Fehlkommentierung‘ aus dem individuellen Unterbewusstsein ist – so scheint es – für die meisten Menschen vielfach nur ‚behebbar‘ (therapierbar) mit Hilfe eines Experten und einer geeigneten Umgebung. Während Menschen mit körperlichen Einschränkungen in der Regel trotzdem ein einigermaßen ’normales‘ Leben führen können, können Menschen mit ‚psychischen Störungen‘ dies oft nicht mehr. Das geringe Verständnis einer Gesellschaft für Menschen mit psychischen Störungen ist auffällig.

SPRACHE ALS MEDIUM VON GEDANKEN

19. Seit der Entwicklung der ‚Sprache‘ kann ein individuelles Bewusstsein unter Voraussetzung einer einigermaßen ähnlichen Wahrnehmungs- und Gedächtnisstruktur in den einzelnen Mitgliedern einer Population Bewusstseinsinhalte aufgrund von Gedächtnisstrukturen mit Ausdrücken einer Sprache korrelieren. Sofern diese Korrelierung in hinreichender Abstimmung mit den anderen Sprachteilnehmern geschieht, lassen sich mittels sprachlicher Ausdrücke diese ‚Inhalte‘ (‚Bedeutungen‘) ‚indirekt‘ kommunizieren; nicht der Inhalt selbst wird kommuniziert, sondern der sprachliche Ausdruck als eine Art ‚Kode‘, der im Empfänger über die ‚gelernte Bedeutungszuordnung‘ entsprechende ‚Inhalte des Gedächtnisses‘ ‚aktiviert‘. Dass diese Kodierung überhaupt funktioniert liegt daran, dass die Bedeutungsstrukturen nicht ‚1-zu-1‘ kodiert werden, sondern immer nur über ‚verallgemeinerte Strukturen‘ (Kategorien), die eine gewisse ‚Invarianz‘ gegenüber den Variationen der konstituierenden Bedeutungselemente aufweisen. Dennoch sind die Grenzen sprachlicher Kommunikation immer dann erreicht, wenn Sprecher-Hörer über Bewusstseinstatsachen kommunizieren, die nur einen geringen oder gar keinen Bezug zur empirischen Welt aufweisen. Die Benutzung von Analogien,Metaphern, Bildern, Beispielen usw. lässt noch ‚irgendwie erahnen‘, was jemand ‚meinen könnte‘, aber eine letzte Klärung muss oft ausbleiben. Nichtsdestotrotz kann eine solche ‚andeutende‘ Kommunikation sehr hilfreich, schön, anregend usw. sein; sie ersetzt aber keine Wissenschaft.

20. Während das individuelle Wissen mit dem Tod des Individuums bislang ‚verschwindet‘, können ‚Texte‘ (und vergleichbare Darstellungen) ein individuelles Wissen bis zu einem gewissen Grade überdauern. Moderne Kommunikations- und Speichermittel haben die Sammlung und Verwertung von Wissen in bislang ungeahnte Dimensionen voran getrieben. Während allerdings die Menge dieses sprachbasierten Wissens exponentiell wächst, bleiben die individuellen Wissensverarbeitungskapazitäten annähernd konstant. Damit wächst die Kluft zwischen dem individuell verfügbaren Wissen und dem in Datennetzen verfügbaren Wissen ebenfalls exponentiell an. Es stellt sich die Frage, welchen Beitrag ein Wissen leisten kann, das sich faktisch nicht mehr verarbeiten lässt. Wenn man sieht, dass heute selbst Menschen mit einem abgeschlossenen Studium Ansichten vertreten, die im Lichte des verfügbaren Wissens gravierend falsch sein können, ja, dass das Wesen von Wissenschaft, wissenschaftlichem Wissen selbst bei Studierten (und nicht zuletzt auch bei sogenannten ‚Kulturschaffenden‘) starke Defizite aufweist, dann kann man ins Grübeln kommen, ob unsere heutige Kultur im Umgang mit wissenschaftlichem Wissen die richtigen Formen gefunden hat.

21. Hier wäre jetzt auch noch der ganze Komplex der Bedürfnisse/ Emotionen/ Gefühle/ Stimmungen anzusprechen. Doch das soll weiteren Einträgen vorbehalten bleiben.

Einen Überblick über alle bisherigen Blogeinträge nach Titeln findet sich HIER.

NACHÜBERLEGUNGEN ZUM VORTRAG „NOTION OF GOD“ von GIUSEPPE TANZELLA-NITTI, Prof. für Dogmatische Theologie der Theologischen Fakultät der Päpstlichen Universität vom Heiligen Kreuz (Rom); Vortrag gehaltem am 17.Aug.2013 an der Universität UNICAMP (Campinas, Brasilien)

Letzte Änderung: Einfügung zweier Musikstücke am 24.August 2013

Als Begleitmusik (Variante 1)

PERSÖNLICHER NACHHALL

1) Die folgenden Überlegungen beabsichtigen nicht, den Vortrag als solchen wieder zu geben (als Hintergrundlektüre für den Vortrag war angegeben worden God, Notion of), sondern Gedanken, die sich für mich aus dem Vortrag ergeben haben, auch in Verbindung mit einem der anschließenden Gesprächskreise (der zum Glück auf Englisch war, da sich mein Portugiesisch bislang nur auf wenige Worte beschränkt).
2) Aufgrund meiner Biographie vermeide ich es eher, mich mit kirchlichen Themen zu beschäftigen, da das offiziell-kirchliche Denken — ich muss es so sagen — in meiner Erfahrung aufklärendes Denken eher verhindert als befördert. Aber da ich nun mal hier war und mein Freund den Vortrag besuchen wollte, bin ich mal mitgegangen.

EINSCHRÄNKUNG AUF GRENZEN DER WISSENSCHAFTEN

3) Eine kleine Überraschung war, dass der Vortrag selbst sich nur auf Aussagen der Wissenschaft beschränkte, und hier besonders auf die großen Diskussionen in der Physik bis ca. Ende des 20.Jahrhunderts. Alle anderen Wissenschaften wie die Geologie und Biologie mit dem evolutionären Veränderungsgeschehen auf der Erde, die Molekularbiologie und Neurowissenschaften mit den neuen Erkenntnissen zu den Grundlagen des Menschseins samt den Auswirkungen auf die moderne Philosophie, dies alles fehlte in dem Vortrag. Erst recht fehlte die Position der Kirche, die Theologie, wie diese sich zu dem Ganzen verhält (die in dem oben genannten Artikel ‚Notion of God‘ sehr wohl vorkommt).

GRENZEN UND IHRE ÜBERWINDUNG

4) Der Vortrag artikulierte im Munde des Vortragenden besonders drei Leitthemen: (i) Die Wissenschaft leistet aus Sicht der Kirche sehr wohl einen Beitrag zur Erkenntnis der Welt, wie sie ist; (ii) aufgrund der verwendeten empirischen Methoden in Kombination mit der Mathematik hat die Wissenschaft aber eingebaute Erkenntnisgrenzen, die verhindern, dass man das ‚große Ganze‘ sehen kann; (iii) die Lücken, die die Wissenschaft lässt, verlangen dennoch nach einer ‚Füllung‘, die mittels philosophischem und theologischen Denken geschlossen werden können.
5) Akzeptiert man die Annahmen, die der Vortragenden in seinem Vortrag stillschweigend macht (Anmerkung: Er hat nirgends seine eigenen Voraussetzungen offengelegt (und dies geschieht auch nicht in dem angegebenen Hintergrundartikel)), dann ist dies ein recht plausibler, schlüssiger Gedankengang.
6) Er brachte dann eine Fülle von Originalzitaten aus Briefen und Büchern berühmter Forscher, die alle mit je eigenen Worten ihre persönliche Position bezüglich der Grenzen der wissenschaftlichen Erkenntnis zum Ausdruck brachten; diese mündeten in den einen Tenor, dass sie ‚hinter allem‘ letztlich eine alles übergreifende Ordnung vermuten oder gar direkt von ‚Gott‘ sprechen. Abgerundet wurde der Zitatenstrauss durch eine Episode während einer wissenschaftlichen Konferenz im Vatikan, bei der Stephen Hawking, bekennender Atheist und aus Sicht der Kirche illegal ein zweites Mal verheiratet eine Begegnung mit Papst Paul II. hatte und der Papst Hawking entgegen Hawkings Erwartungen nicht kritisierte (in der Vergangenheit hatte Hawking von einem Papst sogar eine hohe kirchliche Auszeichnung bekommen, die der Papst (Foto war da) ‚kniend‘ überreicht hatte).

EINE FALSCHE ‚HEILE WELT‘?

7) So nett dies alles klingt, es führt letztlich an der Sache vorbei und gaukelt eine ‚heile Welt‘ vor, die so nicht existiert.

KOMMENTAR: HISTORISCHE EINORDNUNG DER WISSENSCHAFT FRAGWÜRDIG

8) In meinem ersten Kommentar in der Vortragsrunde habe ich versucht deutlich zu machen, dass die Fokussierung auf die ‚Grenzen‘ wissenschaftlichen Erkennens — so lehrreich sie in gewissen Details sind — letztlich aber die Sicht auf den tatsächlichen Gang der historischen Entwicklung verstellt. Das, was aus einer vom Vortragenden bewusst gewählten Sicht als ‚Begrenzung‘ des Wissens durch die moderne Wissenschaften erscheint, erweist sich im realen historischen Kontext als gewaltige Befreiung! Vor dem systematischen Betrieb von empirischer Wissenschaft — wobei man Galileo Galilei (1564– 1642) als einen Bezugspunkt für den historischen Beginn setzen kann (natürlich gab es auch vor Galileo andere, die schon empirische Untersuchungen angestellt haben, die Mathematik zur Beschreibung benutzt haben, aber mit seiner Person, seinen Werken und seinem Schicksal verbindet sich die Geschichte der modernen Wissenschaften in besonderer Weise) — gab es ein Sammelsurium von Wissen, stark dominiert von einem philosophischen Denken, das trotz der Klarheit eines Aristoteles (384-322BC) stark in den Fallstricken der natürlichen Denkens verhaftet war und mittels einer sogenannten Meta-Physik alle die Fragen löste, die das übrige Wissen zu dieser Zeit noch nicht lösen konnte. Dies vermittelte zwar den Eindruck von ‚Klarheit‘ und ‚Sicherheit‘, da man ja alles meinte ‚erklären‘ zu können. Der große Nachteil dieses Wissens war, dass es nicht ‚falsch‘ werden konnte. Unter der Flagge der Meta-Physik konnten also auch größte Unsinnigkeit geäußert werden und man konnte sie nicht widerlegen. So schlimm dies in sich schon ist, so schlimm wird dies dann, wenn eine politische oder kirchliche Macht (oder beide zusammen, was geschehen ist), ihre eigenen Wahrheits- und Machtansprüche mit solch einer Denkform, die nicht falsch werden kann, verknüpft. Eine kirchliche Macht formal verknüpft mit einem ‚abgeleiteten‘ Aristoteles konnte jedes ’neue‘ und ‚andersartige‘ Denken im Ansatz unterbinden. Vor diesem Hintergrund war das Aufkommen der empirischen Wissenschaften eine wirkliche Befreiung, eine Revolution und das harte unerbittliche Vorgehen der Kirche gegen die ersten Wissenschaftler (bis hin zum Tod auf dem Scheiterhaufen) belegt, dass die Inhaber der Macht sehr wohl gespürt haben, dass ein empirisch wissenschaftliches Denken trotz seiner eingebauten Grenzen mächtig genug ist, die metaphysischen Kartengebäude der Vergangenheit zum Einsturz zu bringen. Und die weitere Entwicklung zeigt überdeutlich, dass es genau dieses empirische-wissenschaftliche Denken war, das im Laufe der letzten 400 Jahre schrittweise immer mehr unser gesamtes Denken über das Universum, die Erde, das Leben und den Menschen ‚umgegraben‘ hat; wir haben atemberaubende Einblicke erlangt in ein universelles Geschehen und in einen Mikrokosmos, der alles übersteigt, was frühere Zeiten nicht einmal ahnen konnten. Wenn ein Aristoteles heute leben könnte, er wäre sicher besinnungslos vor Glück angesichts all dieser aufregenden Erkenntnisse (und natürlich würde er seine Meta-Physik komplett neu schreiben; er würde es sicher tun, nicht so die vielen philologischen Philosophen, die immer nur neue Ausgaben editieren (so wertvoll dies für sich auch sein mag)).
9) Von all dem hat der Vortragende nichts gesagt! Er hat es tunlichst vermieden, hätte er doch unweigerlich die hochproblematische Rolle der realen Kirche in diesem historischen Prozess zur Sprache bringen müssen, noch mehr, er hätte sich unangenehmen Fragen danach stellen müssen, wie es denn die Kirche heute mit der wissenschaftlichen Erkenntnis hält. Dies war mein zweiter Punkt, den ich im Plenum angemerkt habe.

KOMMENTAR: AUSLASSUNG DER NEUEREN WISSENSCHAFTSENTWICKLUNG; SCHWEIGEN ÜBER WISSENSCHAFTLICHE ERKENNTNISSE IN ANWENDUNG AUF DIE BIBEL

10) In dem zitierten Dokument God, Notion of) werden einige kirchliche Dokumente aufgelistet, die auf die eine oder andere Weise — zumindest in Worten — eine grundlegende Wertschätzung von allgemeinen wissenschaftlichen und philosophischen Erkenntnissen zum Ausdruck bringen. Allerdings, wie oben schon angemerkt, werden viele neue wissenschaftliche Disziplinen, speziell jene im Umfeld der chemisch-biologischen Evolution, Neurowissenschaften, künstliche Intelligenzforschung, ausgeklammert. Und — dies fällt vielen Nicht-Theologen vermutlich gar nicht auf — die Anwendung wissenschaftlicher Methoden auf die sogenannten ‚Offenbarungsschriften‘ des alten und Neuen Testaments (kurz ‚Bibel‘ von Griechisch ‚biblos‘ = Buch) und die theologische Lehre insgesamt wird nahezu vollständig ausgeblendet. In allen offiziellen kirchlichen Texten spielen die gut 100 Jahre andauernden wissenschaftlichen Untersuchungen zur Überlieferungsgeschichte der biblischen Dokumente, ihre historischen Kontexte, ihre literarische Formen, ihre redaktionellen Be- und Überarbeitungen, ihre Übernahme vorgegebener Themen aus dem Umfeld, usw. keine ernsthafte Rolle (Anmerkung: Diese Feststellung bezieht sich wohlgemerkt auf die offiziellen kirchlichen Verlautbarungen. In den meisten theologischen Hochschulen — zumindest im deutschsprachigen Bereich –werden diese Methoden im Rahmen der Wissenschaften von der Bibel (Exegese) sehr wohl gelehrt und angewendet, allerdings, wie man sieht, im offiziell kirchlichen Denken ohne Konsequenzen). Das gleiche zieht sich fort in den theologischen Disziplinen, die zum dogmatischen Denken gehören. Hier wird Wissenschaft und moderne Philosophie — wenn überhaupt — nur sehr selektiv einbezogen. Diese gelebten Realitäten einer Kirche sprechen eine andere Sprache als die schönen Worte der offiziell kirchlichen Verlautbarungen. Würde man die hier in den letzten 100 Jahren gewonnenen Erkenntnisse ernst nehmen, dazu die übrigen neuen wissenschaftlichen Erkenntnisse, dann würde man viele gewohnte kirchliche Positionen ziemlich sicher korrigieren müssen. Während die einen dies als ‚Verlust‘ empfinden mögen, als ‚Bedrohung‘, werden andere daran einen möglichen Weg sehen, die ursprüngliche Sprengkraft eines christlichen Glaubens auch unter veränderten Erkenntnisbedingungen wieder besser denken und dann vielleicht auch besser leben zu können. Auf diesen ganzen Komplex von Wissenschaftsverachtung durch die reale Kirche heute ist der Vortragende mit keinem Wort eingegangen (in dem von ihm angegebenen Text lässt der abschließende Abschnitt über die Sicht der Theologie den Eindruck entstehen, als ob er selbst als Autor diese 100 Jahre umfangreichster wissenschaftlicher Arbeiten zur Bibel auch völlig ausklammert und stattdessen nur klassische metaphysische Muster wiederholt, deren Gültigkeit heute mehr als fragwürdig ist).

KOMMENTAR: SCHLIESSEN DER LÜCKEN MIT UNGEEIGNETEN MITTELN

11) Damit kommen wir zum dritten Themenkreis, dem Schließen der ‚Lücken‘, die das wissenschaftliche Denken angeblich lässt. Nu muss man an dieser Stelle selbstkritisch einräumen, dass die vielen empirisch-wissenschaftlichen Disziplinen bis heute keinen einheitlichen, überall anerkannten ‚meta-wissenchaftlichen‘ Überbau in Form einer allgemein verbreiteten ‚Wissenschaftstheorie‘ oder ‚Philosophy of Science‘ haben; sofern es solche Professuren gibt, sind diese oft vereinzelt, isoliert, eher der Philosophie zugeschlagen und abgetrennt von den Wissenschaften, die dieses Denken eigentlich brauchen. Die ohne Zweifel in jedes wissenschaftliche Erkennen einfließenden philosophischen Anteile sind oft wenig thematisiert oder gar nicht thematisiert. Andererseits ist es aber so, dass de reale Gang der empirischen Wissenschaften beständig begleitet war von allerlei methodologischen Diskussionen. Die große Mannigfaltigkeit der Disziplinen und der hohe Veränderungsgrad machen es allerdings schwierig, hier mit einer Reflexion Schritt zu halten (zumal diese von den Universitäten zum Leidwesen der Wissenschaften kaum honoriert oder unterstützt wird). Aus dieser, sich aus der Sache heraus ergebenden, Schwierigkeit dann abzuleiten, dass es so etwas wie eine Philosophie der realen Wissenschaften nicht geben kann und dass man stattdessen doch lieber Vorlieb nimmt mit den ‚Philosophen der Vergangenheit‘ (die können sich ja nicht mehr wehren), ist verständlich, wenngleich für den Wissenschaftsbetrieb unglücklich. Statt die Kluft zwischen ‚Denken in der Vergangenheit und Denken heute‘ zu schließen, wird diese Kluft dann eher zementiert. Aus dieser unbefriedigenden Situation heraus entstehen dann solche Lösungsvorschläge, die ‚Erkenntnislücken‘ der heutigen Wissenschaften mit den Konzepten der alten klassischen Metaphysik zu ‚überbrücken‘ (zu ‚transzendieren‘), da man ja letztlich (so die stillschweigende Annahme) aus dem vorausgesetzten allgemeinen ‚Logos‘ (ein Begriff aus der griechischen Philosophie, zusätzlich aufgeladen durch die biblischen Schriften, u.a. vom Johannesevangelium her, das im griechischen Text auch vom ‚logos‘ spricht) existentiell und logisch meint allgemeine Zusammenhänge herleiten zu können, um die Erkenntnislücken empirischer Wissenschaften zu schließen.
12) Wie gesagt, die empirischen Wissenschaften bieten leider kein ideales Bild, aber die Einbeziehung von klassischen philosophischen Positionen ohne weitere Begründung ist nicht sehr rational. Da werden mindestens 400 Jahre kritische methodische Reflexionen komplett unterschlagen. Hier nur ein paar Anmerkungen (eine korrekte Darstellung könnte ganze Bücher füllen):

EINWÄNDE GEGEN NAIVE INANSPRUCHNAHME VON ‚LOGOS‘ UND METAPHYSIK
– ERKENNTNISTHEORIE

13) (i) ein Einspruch kommt von der modernen Erkenntnistheorie (etwa ab Descartes, über Hume, Kant, Locke und vielen anderen bis hin zur evolutionären Erkenntnistheorie). Hier hat man erkannt, dass unsere subjektive Erlebnis- und Denkwelt ganz konkrete Voraussetzungen hat, die in der Struktur und der Funktion des Gehirns begründet sind, das wiederum zusammen mit dem umgebenden Körper eine Entwicklung von vielen Millionen Jahren hinter sich hat. Die Art und Weise unseres Denkens ist ein Produkt, und die heutigen Erlebnis- und Denkformen bilden keinen endgültigen Schlusspunkt, sondern repräsentieren eine Übergangsform, die in einigen Zehntausend Jahren (falls die Gentechnik nicht schon früher Änderungen hervorbringt) anders aussehen werden als heute. Beispielsweise sehen wir (durch die Kodierung des Gehirns) beständig ‚Objekte‘, aber in der physikalischen Welt gibt es keine Objekte, nur Eigenschaftsmengen, Energiefelder. Eine klassische Metaphysik konnte unter Voraussetzung des subjektiven Denkens mit Objekten in Form einer ‚Ontologie‘ operieren, eine moderne Philosophie muss erst einmal erklären, wie sie damit klar kommt, dass unser Gehirn subjektiv überall Objekte konstruiert, obwohl es physikalisch eigentlich keine Objekte gibt (und eine moderne Philosophie muss natürlich noch erheblich mehr erklären als dieses).

– SPRACHPHILOSOPHIE

14) (ii) Ein zweiter Einspruch kommt von der Sprachphilosophie. Der Vortragende erwähnte zwar auch den frühen Wittgenstein (1889-1951) als Kronzeugen für die Einsicht in die Grenzen dessen, was man mit Sprache sagen kann, um damit einmal mehr die Grenzen der empirisch-wissenschaftlichen Methode zu thematisieren, er versäumte es dann aber, auch den späten Wittgenstein zu erwähnen, der nachhaltig aufzeigen konnte, wie die Grenzen des Sagbaren alle Sprachspiele durchziehen, auch die Alltagssprache, auch — und nicht zuletzt! — die Sprache der Philosophen. Konnte man in früheren Zeiten als Philosoph einfach einen Satz hinschreiben mit der trügerischen Annahme, das könne wohl jeder verstehen, der verstehen will, kann nach Wittgenstein jeder, der es wissen will, wissen, dass dies eine wenig haltbare Position ist. Nicht nur jeder Satz, sondern sogar jedes einzelne Wort unterliegen dem Problem, dass ein Sprecher A das, was er mit bestimmten Lauten oder Zeichen verbunden wissen will (die Bedeutung), in keinem einzigen Fall als selbstverständlich gegeben bei einem anderen Sprecher B voraussetzen kann. Dies liegt daran, dass die Zuordnung von sprachlichem Ausdruck und das mit dem Ausdruck Gemeintem nicht zwangsweise mit dem Ausdruck selbst verknüpft ist, sondern in jedem einzelnen Fall mühsam gelernt werden muss (was jeder, der mühsam eine neue Sprache lernen will auf Schritt und Tritt erfährt). Mag dies bei Bezugnahme auf empirische Sachverhalte noch einigermaßen gehen, wird es bei nicht-empirischen Sachverhalten zu einem Rate- und Glücksspiel, das umso abenteuerlicher ist, je weniger Bezugspunkte zu etwas anderem, was schon bekannt ist, vorliegen. Wer schon einmal klassische philosophische Texte gelesen hat, der weiß, dass philosophische Texte in der Regel NICHT von empirischen Sachverhalten sprechen, sondern von Erlebnis- und Denkstrukturen, die als solche nicht wie Objekte aufzeigbar sind. Die Vielzahl unterschiedlicher Interpretationen ein und desselben klassischen philosophischen Textes ist von daher kein Zufall sondern resultiert aus dieser schwierigen Bedeutungslage. Klassische philosophische Texte sind ’schön‘, solange man sie nicht ernsthaft analysiert; tut man dies, verliert man sich unweigerlich in immer mehr Aporien.
15) [Anmerkung: Ich selbst war Teilnehmer des folgenden Experimentes an derjenigen deutschen Universität, die als einzige unter den ersten 50 Plätzen internationalen Universitätsrankings vorkommt. Teilnehmer waren zwei bekannte Philosophieprofessoren, zwei habilitierte Assistenten und mindestens drei Doktoranden der Philosophie. Es ging um die Frage, ob man die Einleitung in Kants Kritik der reinen Vernunft so interpretieren könne, dass alle ausnahmslos zustimmen müssten. Das Experiment lief zwei Semester lang. An Methoden war alles erlaubt, was bekannt war und dienlich erschien. Natürlich wurden u.a. auch alle bisher verfügbaren Kommentare berücksichtigt. Nach zwei Semestern gab es nicht einmal ansatzweise eine gemeinsame Sicht der Dinge. Beweisen tut dies im strengen Sinne nichts. Ich fand es damals sehr ernüchternd.]
16) Fasst man die Erkenntnisse der modernen Erkenntnistheorie und die der modernen Sprachphilosophie zusammen, dann erscheint es nicht nachvollziehbar und geradezu gewagt, anzunehmen, man könne die bislang erkannten Grenzen der modernen empirisch-wissenschaftlichen Erkenntnis durch einen unreflektierten Rekurs auf einen alles übergreifenden ‚Logos‘ einfach so überbrücken. Diese Art von ’naiver‘ (sprich ‚unreflektierter‘) Meta-Physik (und Ontologie) ist vorbei.
17) Bedenkt man die Bedeutungs-Probleme, die die Alltagssprache besitzt, ist die Situation in den empirisch-wissenschaftlichen Disziplinen ja geradezu noch ‚idyllisch‘. Bis zu einem gewissen Grad gibt es hier noch aufzeigbare und kontrollierbare ‚Bedeutung‘, wenn auch nicht vollständig.

VERZICHT AUF ‚LOGOS‘ ODER METAPHYSIK BEDEUTET NICHT GOTTLOSIGKEIT

18) Akzeptiert man die kritischen Argumente, dann folgt daraus NICHT — wie der Vortragende zu unterstellen scheint –, dass sich damit die Frage nach einem letzten ‚Sinn‘ oder gar die Frage nach etwas, das wir ‚Gott‘ nennen, grundsätzlich erledigt hat. Was sich allerdings weitgehend erledigt hat, ist, dass man tiefgreifende Fragen, die sich durch das Fortschreiten der Wissenschaften dem Wahrheitssuchenden öffnen weder durch Rekurs auf eine vor-kritische naive Metaphysik ‚überspielen‘ kann, noch dass man theologische Positionen als Antworten benutzen kann, die sowohl die wissenschaftliche kritische Analyse der religiösen Überlieferungsgeschichte wie auch der sich aus den Wissenschaften ergebenden neuen Erkenntnisse zur Struktur des Menschen, seiner Erkenntnisfähigkeit, seinen Erlebnisstrukturen usw. unberücksichtigt lassen. Das, was der Vortragende in dem zitierten Artikel tut, ist aber genau dies: er benutzt die alte naive Metaphysik, als ob es die letzten 400 Jahre nicht gab, und er benutzt eine theologische Interpretation, die genau jene Wissenschaft, die zuvor als so wichtig gepriesen wird, vollständig ausklammert. Das ist in meinen Augen nicht seriös, das ist nicht rational, das ist unwissenschaftlich, das hilft all den Menschen nicht, die ernsthaft nach Wahrheit suchen und nicht nur eine ‚psychologische Beruhigung‘ mit ‚einlullenden Bildern‘ (obwohl das Erzählen von Märchen sehr wohl der Wahrheitsfindung dienen kann; man muss sie nur richtig erzählen. Viele der Gleichnisse (einfache Form von Märchen?), die der Gestalt Jesus von Nazareth zugeschrieben werden, sind z.B. von dieser Natur: sie machen Punkte im Verhalten von Menschen deutlich, denen man eine gewisse Lebensweisheit nicht absprechen kann (eine Weisheit, die nicht jeder mögen muss)).

DIE GRENZEN DER SPRACHE IMPLIZIEREN NICHT EINE BEGRENZTHEIT DER WELT

19) Der Gesprächskreis im Anschluss an den Vortrag war sehr heterogen. Ich selbst habe aus den vielen Aussagen folgenden Gedanken mitgenommen: Die Grenzen der Sprache (Für die Mathematik aufgezeigt durch Gödel (und auch Turing)), für die allgemeine Sprache durch Wittgenstein) bedeuten nicht das Ende der Erkenntnis, sie machen uns nur deutlich, dass die grundsätzlichen Möglichkeiten des Erkennens für uns Menschen (bisher, unter Voraussetzung des aktuellen Erkenntnisapparates) nicht beliebig sind und dass wir, wenn wir ‚wahre‘ Erkenntnis wollen, jene, die uns aus den Wirrungen des alltäglichen naiven Weltbildes tatsächlich herausführen kann, dass wir dann diese Grenzen beherzigen und berücksichtigen sollten. Dass die scheinbare Begrenzung des wahren Erkennens auf die empirisch-wissenschaftliche Vorgehensweise uns gegenüber dem Vorgehen mit der nur scheinbar alles umfassenden naiven metaphysischen Denkweise in geradezu explosionsartiger Weise in Denkräume hinein katapultiert hat, von denen keiner der alten Philosophen auch nur träumen konnte, dies sollte uns Ermutigung und Anstoß sein, diesen Weg beherzt weiter zu gehen. Darüber hinaus zeigt sich aber ein fundamentaler Tatbestand: explizites, sprachlich vermitteltes Denken kann letztlich nur jener Wirklichkeit folgen, in der wir uns vorfinden und die allem Denken voraus ist. Was wir nicht aufzeigen können, ist letztlich nicht greifbar. Mehr noch, nur im Erfahren des ‚wirklich Anderen‘ — dem Empirisch-widerständigen — erfahren wir uns selbst als das ‚Andere zum anderen‘, als ‚Selbst‘ und das, ‚was‘ wir sind bzw. sein können, wissen wir erst dann, wenn wir selbst in unserem konkreten Dasein uns selbst sichtbar werden. Dies aber bedeutet, nur wenn wir ‚aus uns heraus‘ gehen, nur wenn wir ‚uns aufs Spiel setzen‘, nur wenn wir etwas ‚Probieren‘, nur dann kann sichtbar werden, ‚was‘ bzw. ‚wer‘ wir ‚tatsächlich sind‘. Nur weil das ‚biologische Leben‘ beständig weiter ‚aus sich heraus‘ gewachsen ist, immer mehr ‚Varianten probiert‘ und ‚Komplexitäten geschaffen‘ hat sind Formen des Lebens entstanden, von denen wir ein kleiner Teil sind. Dass das DNA-Molekül und der zugehörige Übersetzungsmechanismus ‚begrenzt‘ ist (verglichen mit den klassischen metaphysischen Konzepten geradezu lächerlich primitiv) war — und ist — kein Hindernis dafür, dass immer komplexere Lebensformen entstanden sind, so komplex, dass unser heutiges Denkvermögen sie nicht vollständig beschreiben kann. Die Grenzen der Sprache sind NICHT die Grenzen des Lebens und der Wahrheit. Die Wahrheit geht jeder Sprache — und erst recht jeder Metaphysik — um Lichtjahre voraus.

JEDER KANN SEIN ‚GOTTESEXPERIMENT‘ MACHEN

20) Sollte es so etwas wie einen ‚Gott‘ geben, so brauchen wir uns mit Sicherheit keine Sorgen darum machen, ob er ‚ist‘, was er ‚tut‘ oder ob wir ihn ‚richtig erkennen‘. Wenn es einen ‚Gott‘ als das letztlich Unbegreiflich alles Umfassende geben sollte, dann kann man davon ausgehen, dass er schon immer handelt (auch ohne uns zu fragen), er ist schon immer bei und in uns, ohne dass wir darum bitten müssen, und er lässt die ‚Wahrheit‘ auch in Lebensformen aufscheinen und sich entwickeln, die wir uns nicht ausgedacht haben und über die wir keine Verfügungsgewalt haben. Mit Sicherheit ist dieser Gott nicht an eine spezielle ethnische Gruppe gebunden, mit Sicherheit interessiert diesen Gott nicht, was wir essen und trinken, mit Sicherheit spielt Jungfrauengeburt und ähnliche Folklore keine Rolle. Für diesen Gott, so es ihn gibt, geht es um wirklich Grundlegendes. Aus meiner beschränkten Wahrnehmung sehe ich nicht, dass irgendeiner der heute lebenden Religionen (Judentum, Christentum, Islam…) wirklich ernsthaft an Gott interessiert ist. Dazu ist viel zu viel Hass unterwegs, zu viel Menschenverachtung, zu viele gruppenspezifische Egoismen, zu viele Herrschaftsstrukturen, die nur denen dienen, die herrschen, zu viel Folklore, zu viel Geldmacherei, zu wenig echtes Wissen.
21) Alles in allem — das habe ich in einem andren Blogeintrag auch schon mal ausgeführt — kann man den Eindruck gewinnen, dass es heute weniger die alten Religionen sind, die uns etwas Interessantes über den Sinn dieser Welt und über Gott zu sagen haben, als vielmehr die modernen Wissenschaften, die trotz ihrer Unvollkommenheiten ein Fenster der Erkenntnis aufgestoßen haben, dass alle Räume sehr weit aufmacht, so weit, dass wir noch gar nicht alles fassen können, was wir da sehen, zugleich werden die Grundrisse einer neuen Spiritualität sichtbar, die zu erkunden und auszuprobieren noch viel zu tun bleibt.
22) Das wäre mein letzter Punkt (zu dem es auch schon frühere Blogeinträge gibt). Wenn das alles stimmt, was uns die empirischen Wissenschaften sagen, dann ist die Annahme einer direkten Kommunikation ‚Gottes‘ — was immer man alles über ihn im Detail noch sagen kann — mit jedem Punkt des Universums — und damit natürlich auch mit jedem Lebewesen, auch mit uns Menschen — grundsätzlich möglich, und zwar jederzeit und überall. Niemand braucht eine vermittelnde Instanz dazu, da wir durch unsere Körper (die ja alle aus Zellen bestehen, diese aus Molekülen, diese aus Atomen, diese aus subatomaren Teilchen) jederzeit mit jedem Punkt im Universum kommunizieren können. Die grundlegenden Regeln der — zumindest christlichen — Mystik sind mit diesem empirischen Befund deckungsgleich. Es macht ja auch keinen Sinn, ‚Gott‘ als alles umfassenden und ermöglichenden Grund allen Seins zu postulieren und ihm dann zu verbieten, sich mit jedem Punkt des Universums verbinden zu können. Von der Quantenphysik her gibt es jedenfalls keine grundlegenden Einwände (was nicht bedeutet, dass wir in der Quantenphysik soweit wären, eine solche Kommunikation vollständig beschreiben zu können). Das gute daran ist, man muss dies nicht ‚glauben‘, sondern man kann es ‚tun‘, d.h. jeder kann sein privates ‚Gottesexperiment‘ machen und mit Gott in Kontakt treten. Man muss dafür kein Geld bezahlen, man braucht dazu keine ‚Genehmigung‘, man muss dazu keinen Universitätsabschluss gemacht haben, man muss dazu keiner bestimmten politischen Partei angehören, man muss dazu kein Millionär sein; das ‚einfache Menschsein‘ genügt. Die einzige Bedingung, man muss es einfach ‚tun‘, womit wir wieder bei dem zentralen Sachverhalt sind: Leben gibt es nur dort, wo es sich ‚ereignet‘, indem man seine Möglichkeiten ausübt…

Eine Übersicht über alle bishergen Blogeinträge nach Titeln gibt es HIER

Variante Nr.2