DIE NATUR DER ERKLÄRUNG – Kenneth Craig – Diskussion

PDF

ÜBERBLICK

Craik führt in diesem Buch eine breit angelegte Diskussion im Spannungsfeld von Philosophie, Psychologie, Physiologie, Physik und Technik, die einige Hauptthemen erkennen lässt: ein Plädoyer für ein kausales Verständnis der realen Welt, für die Rekonstruktion von Bewusstsein durch Rückgriff auf das Nervensystem, für die zentrale Rolle mentaler Modelle, sowie für die wichtige Rolle von Sprache in allem Erklären.

I. KONTEXT

Alle Themen, die Craik in seinem Buch ”The Nature of Explanation” [Cra43] anspricht, sind Themen, die in verschiedenen Blogeinträgen schon zur Sprache gekommen sind. Das Buch wird daher etwas intensiver diskutiert, um damit die Position des Blogs weiter zu klären. Dabei ist zu beachten, dass Craik nicht nur eine große Linie verfolgt, sondern im Verlauf des Textes viele andere Themen anspricht, die irgendwie auch mit der großen Linie zusammenhängen. Dies macht die Lektüre manchmal etwas mühsam, wenngleich immer interessant. Dem Interesse des Blogs folgend werden daher nur einige Hauptthemen hier weiter diskutiert. Eine Lektüre dieser Themen ersetzt nicht die eigene Lektüre seines Buches.

II. ERKLÄRUNG DURCH KAUSALITÄT

K.Craik - Stichworte aus Kap.1-4

K.Craik – Stichworte aus Kap.1-4

Das Schaubild 1 enthält nur einige der einschlägigen Stichworte von Craig aus den ersten vier Kapiteln, und auch nur kursorisch.

Aus den vielen Argumenten, die gegen die Möglichkeit einer Erklärung durch Kausalität sprechen, stammt das prominenteste von David Hume (1711 – 1776), für den die Beschaffenheit der sinnlichen Wahrnehmung keinen direkten Schluss auf eine kausaler Beziehung der Art ’B ist da durch A’ zulässt. Zu einem bestimmten Augenblick
haben wir einen Momenteindruck, beim nächsten Augenblick auch. Zwischen verschiedenen Augenblicken kann es zwar Unterschiede geben, aber diese lassen nicht zwingend eine Interpretation in Richtung einer kausalen Beziehung zu.

Neben sehr vielen anderen Positionen bespricht Craik auch die Position der modernen Physik sofern sie quantenmechanische Modelle benutzt. Angesichts einer prinzipiellen Messungenauigkeit (Heisenberg, Unschärferelation) und unbeobachtbaren Objekten soll eine direkte kausale Zuschreibung nicht mehr möglich sein. Es gibt nur noch
Regelmäßigkeiten in Form von statistischen Tendenzen. Craik kritisiert in diesem Zusammenhang, dass man aus den Grenzen der Beobachtbarkeit nicht notwendigerweise darauf schließen kann, dass es deswegen grundsätzlich
keine Kausalität mehr gäbe. Ferner weist er anhand vieler Beispiele darauf hin, dass die Theorien der Wahrscheinlichkeit als Theorien starke implizite Annahmen über die vorausgesetzten Ereignismengen machen, die grundlegende Wechselwirkungen, auch in Form kausaler Beziehungen, voraussetzen.

 

Aus der Sicht Craiks ist die Position Humes nicht ganz korrekt, da das sinnliche Material immer schon in eine Raumstruktur eingebettet ist, die implizite Wechselbeziehungen realisiert (zwei gleichartige Objekte können nicht zugleich auf ein und derselben Raumstelle sein); ferner gehört die Zeitstruktur zur Wahrnehmung (darin über die
rein sinnlichen Anteile hinausgehend), die zumindest potentielle Abfolgen erkennen lassen (B folgt auf A in der Zeit). Dies impliziert zwar nicht unmittelbar eine kausale Beziehung, bietet aber einen Anknüpfungspunkt für eine Hypothese und Experimente. Im Rahmen der Zeitstruktur kann man z.B. allerlei Veränderungen beobachten, z.B.
auch eine Veränderung von Energieleveln. Diese bieten Ansatzpunkte für Hypothesen und Experimente.

Für Craik realisiert sich empirische Wissenschaft durch das Ernst nehmen von vorfindlichen Gegebenheiten, von Fakten, bezogen auf die man Hypothesen bzgl. möglicher Zusammenhänge formulieren kann. Diese Hypothesen kann man dann in Experimenten überprüfen. Sofern sich die Hypothesen bestätigen lassen, soll dies eine gewisse Zufriedenheit auslösen. Geprüfte Zusammenhänge ermöglichen Verstehen, Einsicht, erlauben Voraussagen, mit Voraussagen kann man zukünftige Situationen vorweg nehmen, um sich dadurch auf kommende Situation einzustellen.
Ferner erlaubten geprüfte Zusammenhänge auch unterschiedliche praktische Nutzungen.
Fehlen geprüfte Zusammenhänge, dann kann dies zu Enttäuschungen, ja zu Frustrationen führen. Man kann dann nichts ableiten, nichts voraus sagen, nicht wirklich planen; auch eine praktische Nutzung ist nicht möglich. Man versteht das auslösende Phänomen dann nicht wirklich.

III. DENKEN UND NERVENSYSTEM

K.Craik - Die Erkennungsleistung des Systems Mensch

K.Craik – Die Erkennungsleistung des Systems Mensch

Nach zahlreichen vorausgehenden kritischen Anmerkungen zu unterschiedlichen Positionen in der Philosophie und in den Wissenschaften, geht Craik davon aus, dass der Mensch in einer realen Welt vorkommt. Einige der Ereignisse in dieser Welt können von Sinnesorganen beobachtet werden. Beobachten heißt hier, dass diese Ereignisse sowohl
in interne neuronale Ereignisse übersetzt werden, zusätzlich aber auch in eine symbolischer Sprache  mittels der Bezug genommen werden kann auf viele interne Gegebenheiten, Ereignisse und Prozesse. Das Andere der Symbole ist dann ihre Bedeutung (’meaning’). Was immer auch intern im einzelnen geschieht, es gibt unterschiedliche Prozesse, die abstrakt als Denken, Schlüsse ziehen, Voraussagen machen beschrieben werden. Ein wesentliches Element dieser Prozesse ist das Generieren von internen, mentalen Modellen, deren Analogien mit der realen
Außenwelt so groß sind, dass wichtige Eigenschaften und Prozesse der Außenwelt in ihren kausalen Beziehungen so nachgebildet werden können, dass auf ihrer Basis einigermaßen zuverlässige Voraussagen über die Zukunft gemacht werden können, die sich überprüfen lassen.

Craik wirft auch die Frage auf, welche Eigenschaften am Nervensystem es wohl sind, die alle diese Leistungen ermöglichen? Anhand verschiedener Verhaltensphänomene (visueller Reiz, Retina, Adaption, Differenzierung, Ähnlichkeit, bewusst – unbewusst, Reflexe, Zahlen und deren Nutzung, Gedächtnis, Lernen, Gefühle, …) diskutiert er
dann die Anforderungen, die an das System gestellt werden und überlegt, ob und wie diese Anforderungen rein technisch bzw. mittels des Nervensystems eingelöst werden könnten. Diese Überlegungen sind in ihrem grundsätzlichen Charakter interessant, aber der Stand des Wissens in seiner Zeit zum Nervensystem und zu neuronalen Modellen
war nicht ausreichend, um alle diese Phänomene verbindlich diskutieren zu können.
Immer wieder stellt er die zentrale Rolle der symbolischen Sprache heraus, mittels der sich komplexe Strukturen und Modelle generieren lassen, mit denen Erklärungen möglich werden, Voraussagen und auch die Koordinierung zwischen den Gehirnen.

Bei seiner Beschreibung der realen Welt fällt auf, dass er stark fixiert ist auf einfache physikalische Strukturen; die Besonderheit und Komplexität biologischer Systeme tritt wenig hervor. Dies obgleich er ja die komplexen Strukturen von Menschen sehr wohl diskutiert.

Er sieht allerdings schon ein Eigengewicht der mentalen logischen Strukturen gegenüber der ’reinen Maschinerie’ des Nervensystems, insofern das Nervensystem als solches funktioniert unabhängig von Logik und Bedeutung. In wissenschaftlichen Kontexten aber muss auch Logik und Bedeutung stimmen, andernfalls gelingt die Argumentation
nicht. Allerdings, auch hier gilt, dass auch eine Logik und mögliche Bedeutungen im mentalen Bereich ebenfalls Leistungen des Nervensystems sind. Das gerade ist das Besondere. Reine Introspektion kann zwar die phänomenale Seite des Geistes enthüllen, nicht aber seine neuronale Seite. Dazu bedarf es mehr als Introspektion.

Craik postuliert auch den Faktor der Gefühle (’feelings’) und der Emotionen (’emotions’) als grundlegend für das Verhalten. Zufriedenheit und Unglücklich sein sind starke Motive für das gesamte Verhalten. Wissenschaft lebt davon, Kunst, aber auch viele psychische Krankheiten scheinen mit einem Missmanagement der Gefühle zu tun zu haben.
Das Wechselspiel zwischen Gefühlen und dem gesamten Lebensprozess umschließt nach Craik viele Faktoren, viele dabei oft unbewusst, so dass das Erkennen der Zusammenhänge in der Regel nicht einfach ist. Klassische Ethik und Moral dagegen tendieren zu Vereinfachungen, die dann sachlich unangemessen sind.

IV. DISKURS

Die vorgestellten Gedanken von Craik sind, wohlgemerkt, nur eine Art Extrakt, viele interessante Details bleiben ungesagt. Für das Anliegen des Blogs kann dies aber u.U. genügen.

Das Thema empirische Wissenschaft, Messen, Erklären usw. steht in Übereinstimmung mit dem, was bislang angenommen wurde. Craik ist sehr bemüht, die Perspektive der Introspektion zu übersteigen, da er zu Recht erkennt, dass diese allein nicht ausreicht. Zugleich sieht er sehr wohl eine gewisse Eigenständigkeit der introspektiven Dimension. Was er aber nicht leistet, das ist ein Aufweis, wie man methodisch sauber beide Dimensionen kombiniert [Anmerkung: Dass eine empirischer Herangehensweise allein die Gesamtheit des Phänomens aber auch nicht erreichen kann, dies spricht Craik nicht
an. Letztlich haben wir es hier mit einem methodischen Deadlock zu tun: Introspektion benötigt zusätzlich empirische Methoden, empirische Methoden benötigen zusätzlich sehr dringend Introspektion. Dieses methodische Problem ist bis heute nicht befriedigend gelöst.] Im Blog gab es dazu zumindest einige Versuche.

Die gezielte Nachfrage danach, wie man welche der introspektiv und im Verhalten zugänglichen Eigenschaften des Menschen mittels neuronaler Mechanismen modellieren könnte, wurde hier im Blog noch nicht diskutiert. Es gibt dazu einige Skript aus Vorlesungen, die aber bislang keinen Eingang in den Blog gefunden haben [Anmerkung: Dazu findet sich mehr in dem korrespondierenden Blog uffmm.org.4].  Die Frage
ist aber tatsächlich philosophisch relevant. Die Frage wurde vom Autor cagent bislang deswegen in diesem Blog kaum diskutiert, weil er der Frage nachging, ob und wieweit man neuronale Netze durch andere mathematisch äquivalente Mechanismen ersetzen kann um dann die Fragen nach der Substitution dann mit diesen anderen Strukturen zu untersuchen. In den letzten Jahren sind neuronale Netze so populär geworden, dass sich kaum jemand noch dafür interessiert, ob und welche alternativen Formalismen es auch tun würden und möglicherweise einfacher. Grundsätzlich ist seit langem bekannt, dass neuronalen Netze nicht mehr können als im Konzept der Turingmaschine definiert ist. Man muss also aus theoretischen Gründen keine Neuronalen Netze benutzen, wenn
sie denn nicht speziell besondere Vorteile bieten.

Die Lektüre von Craik hat allerdings dazu ermutigt, die Idee der parallelen Analyse von Verhalten, Introspektiv zugänglichem Bewusstseinsraum, sowie Physiologie des Gehirns im Körper weiter Raum zu geben, immer natürlich auch mit Blick auf evolutionäre Entwicklungen unter Einschluss der Kultur. Ferner sollte dabei die parallele Entwicklung intelligenter Maschinen mit reflektiert werden, sehr wohl in Bezugssetzung zu den biologischen Systemen.

 

Vor lauter Faszination durch die moderne Technik geht vielfach unter, dass die Naturwissenschaften in den letzten 10 Jahren ungeheuerlich interessante Aspekte des biologischen Lebens (und der umgebenden Welt) zutage gefördert haben, die das Bild vom Menschen im Universum eigentlich radikal verändern könnten. Obwohl die Roboter und die KI-Programme vergleichsweise simple Strukturen darstellen, die jeder intelligente Schüler verstehen könnte, wenn man es ihm denn erzählen würde, stoßen wir im biologischen Leben auf immer unfassbare Komplexitäten und Verschiebungen von Perspektiven, die eigentlich alle Aufmerksamkeit erfordern würden.

QUELLEN
[Cra43] Kenneth Craik. The Nature of Explanation. Cambridge University Press, Cambridge (UK), 1 edition, 1943.

 KONTEXTE

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

SEMIOTIK UND KÜNSTLICHE INTELLIGENZ. EIN VIELVERSPRECHENDES TEAM. Nachschrift eines Vortrags an der Universität Passau am 22.Okt.2015

KONTEXT

  1. Im Rahmen der interdisziplinären Ringvorlesung Grenzen (Wintersemester 2015/16) an der Universität Passau (organisiert von der Deutsche Gesellschaft für Semiotik (DGS) e.V. in Kooperation mit der Professur für Neuere deutsche Literaturwissenschaft und Mediensemiotik (Prof. Dr. Jan-Oliver Decker und Dr. Stefan Halft) hatte ich einen Vortrag angenommen mit dem Titel Semiotik und künstliche Intelligenz. Ein vielversprechendes Team. Wie immer halte ich Vorträge immer zu Fragen, die ich bis dahin noch nicht ausgearbeitet hatte und nutze diese Herausforderung, es dann endlich mal zu tun.
  2. Die Atmosphäre beim Vortrag war sehr gut und die anschließenden Gespräche brachte viele interessanten Aspekte zutage, was wir im Rahmen der DGS noch tun sollten/ könnten, um das Thema weiter zu vertiefen.

MOTIV – WARUM DIESES THEMA

  1. Angesichts der vielfältigen Geschichte der Semiotik könnte man natürlich ganze Abende nur mit Geschichten über die Semiotik füllen. Desgleichen im Fall der künstlichen Intelligenz [KI]. Der Auslöser für das Thema war dann auch der spezielle Umstand, dass im Bereich der KI seit etwa den 80iger Jahren des 20.Jahrhunderts in einigen Forschungsprojekten das Thema Semiotik ganz neu auftaucht, und nicht als Randthema sondern verantwortlich für die zentralen Begriffe dieser Forschungen. Gemeint sind die berühmten Roboterexperimente von Luc Steels (ähnlich auch aufgegriffen von anderen, z.B. Paul Vogt) (siehe Quellen unten).
  2. Unter dem Eindruck großer Probleme in der klassischen KI, die aus einem mangelnden direkten Weltbezug resultierten (das sogenannte grounding Problem) versuchte Steels, Probleme des Zeichen- und Sprachlernens mit Hilfe von Robotern zu lösen, die mit ihren Sensoren direkten Kontakt zur empirischen Welt haben und die mit ihren Aktoren auch direkt auf die Welt zurück wirken können. Ihre internen Verarbeitungsprozesse können auf diese Weise abhängig gemacht werden (eine Form von grounding) von der realen Welt (man spricht hier auch von embodied intelligence).
  3. Obwohl Steels (wie auch Vogt) auf ungewöhnliche Weise grundlegende Begriffe der Semiotik einführen, wird dieser semiotische Ansatz aber nicht weiter reflektiert. Auch findet nicht wirklich eine Diskussion des Gesamtansatzes statt, der aus dieser Kombination von Semiotik und Robotik/ KI entsteht bzw. entstehen könnte. Dies ist schade. Der Vortrag Semiotik und künstliche Intelligenz. Ein vielversprechendes Team stellt einen Versuch dar, heraus zu arbeiten, warum die Kombination Semiotik und KI nicht nur Sinn macht, sondern eigentlich das Zeug hätte, zu einem zentralen Forschungsparadigma für die Zukunft zu werden. Tatsächlich liegt dem Emerging Mind Projekt, das hier im Blog schon öfters erwähnt wurde und am 10.November 2015 offiziell eröffnet werden wird, genau dieses Semiotik-KI-Paradigma zugrunde.

WELCHE SEMIOTIK?

  1. Wer Wörterbücher zur Semiotik aufschlägt (z.B. das von Noeth 2000), wird schnell bemerken, dass es eine große Vielfalt von Semiotikern, semiotischen Blickweisen, Methoden und Theorieansätze gibt, aber eben nicht die eine große Theorie. Dies muss nicht unbedingt negativ sein, zumal dann nicht, wenn wir ein reiches Phänomen vor uns haben, das sich eben einer einfachen Theoriebildung widersetzt. Für die Praxis allerdings, wenn man Semiotik in einer realen Theoriebildung einsetzen möchte, benötigt man verbindliche Anknüpfungspunkte, auf die man sich bezieht. Wie kann man solch eine Entscheidung motivieren?
  2. Aus der Sicht der Wissenschaftsphilosophie biete es sich an, die unterschiedlichen Zugangsweisen zur Erfahrung und und Beschreibung von Wirklichkeit als quasi Koordinatensystem zu wählen, diesem einige der bekanntesten semiotischen Ansätze zu zuordnen und dann zu schaue, welche dieser semiotischen Positionen der Aufgabenstellung am nächsten kommen. Von einer Gesamttheorie her betrachtet sind natürlich alle Ansätze wichtig. Eine Auswahl bzw. Gewichtung kann nur pragmatische Gründe haben.

ZUGÄNGE ZUR WIRKLICHKEIT

  1. Grundsätzlich gibt es aus heutiger Sicht zwei Zugangsweisen: über den intersubjektiven (empirischen) Bereich und über das subjektive Erleben.
  2. Innerhalb des empirischen Bereichs gab es lange Zeit nur den Bereich des beobachtbaren Verhaltens [SR] (in der Psychologie) ohne die inneren Zustände des Systems; seit ca. 50-60 Jahren eröffnen die Neurowissenschaften auch einen Zugriff auf die Vorgänge im Gehirn. Will man beide Datenbereiche korrelieren, dann gerät man in das Gebiet der Neuropsychologie [NNSR].
  3. Der Zugang zur Wirklichkeit über den subjektiven Bereich – innerhalb der Philosophie auch als phänomenologischer Zugang bekannt – hat den Vorteil einer Direktheit und Unmittelbarkeit und eines großen Reichtums an Phänomenen.
  4. Was den meisten Menschen nicht bewusst ist, ist die Tatsache, dass die empirischen Phänomene nicht wirklich außerhalb des Bewusstseins liegen. Die Gegenstände in der Zwischenkörperzone (der empirische Bereich) sind als Gegenstände zwar (was wir alle unterstellen) außerhalb des Bewusstseins, aber die Phänomene, die sie im Bewusstsein erzeugen, sind nicht außerhalb, sondern im Bewusstsein. Das, was die empirischen Phänomene [PH_em] von den Phänomenen, unterscheidet, die nicht empirisch [PH_nem] sind, ist die Eigenschaft, dass sie mit etwas in der Zwischenkörperwelt korrespondieren, was auch von anderen Menschen wahrgenommen werden kann. Dadurch lässt sich im Falle von empirischen Phänomenen relativ leicht Einigkeit zwischen verschiedenen Kommunikationsteilnehmern über die jeweils korrespondierenden Gegenstände/ Ereignisse erzielen.
  5. Bei nicht-empirischen Phänomenen ist unklar, ob und wie man eine Einigkeit erzielen kann, da man nicht in den Kopf der anderen Person hineinschauen kann und von daher nie genau weiß, was die andere Person meint, wenn sie etwas Bestimmtes sagt.
  6. Die Beziehung zwischen Phänomenen des Bewusstseins [PH] und Eigenschaften des Gehirns – hier global als NN abgekürzt – ist von anderer Art. Nach heutigem Wissensstand müssen wir davon ausgehen, dass alle Phänomene des Bewusstseins mit Eigenschaften des Gehirns korrelieren. Aus dieser Sicht wirkt das Bewusstsein wie eine Schnittstelle zum Gehirn. Eine Untersuchung der Beziehungen zwischen Tatsachen des Bewusstseins [PH] und Eigenschaften des Gehirns [NN] würde in eine Disziplin fallen, die es so noch nicht wirklich gibt, die Neurophänomenologie [NNPH] (analog zur Neuropsychologie).
  7. Der Stärke des Bewusstseins in Sachen Direktheit korrespondiert eine deutliche Schwäche: im Bewusstsein hat man zwar Phänomene, aber man hat keinen Zugang zu ihrer Entstehung! Wenn man ein Objekt sieht, das wie eine Flasche aussieht, und man die deutsche Sprache gelernt hat, dann wird man sich erinnern, dass es dafür das Wort Flasche gibt. Man konstatiert, dass man sich an dieses Wort in diesem Kontext erinnert, man kann aber in diesem Augenblick weder verstehen, wie es zu dieser Erinnerung kommt, noch weiß man vorher, ob man sich erinnern wird. Man könnte in einem Bild sagen: das Bewusstsein verhält sich hier wie eine Kinoleinwand, es konstatiert, wenn etwas auf der Leinwand ist, aber es weiß vorher nicht, ob etwas auf die Leinwand kommen wird, wie es kommt, und nicht was kommen wird. So gesehen umfasst das Bewusstsein nur einen verschwindend kleinen Teil dessen, was wir potentiell wissen (können).

AUSGEWÄHLTE SEMIOTIKER

  1. Nach diesem kurzen Ausflug in die Wissenschaftsphilosophie und bevor hier einzelne Semiotiker herausgegriffen werden, sei eine minimale Charakterisierung dessen gegeben, was ein Zeichen sein soll. Minimal deshalb, weil alle semiotischen Richtungen, diese minimalen Elemente, diese Grundstruktur eines Zeichens, gemeinsam haben.
  2. Diese Grundstruktur enthält drei Komponenten: (i) etwas, was als Zeichenmaterial [ZM] dienen kann, (ii) etwas, das als Nichtzeichenmaterial [NZM] fungieren kann, und (iii) etwas, das eine Beziehung/ Relation/ Abbildung Z zwischen Zeichen- und Nicht-Zeichen-Material in der Art repräsentiert, dass die Abbildung Z dem Zeichenmaterial ZM nicht-Zeichen-Material NZM zuordnet. Je nachdem, in welchen Kontext man diese Grundstruktur eines Zeichens einbettet, bekommen die einzelnen Elemente eine unterschiedliche Bedeutung.
  3. Dies soll am Beispiel von drei Semiotikern illustriert werden, die mit dem zuvor charakterisierten Zugängen zur Wirklichkeit korrespondieren: Charles William Morris (1901 – 1979), Ferdinand de Saussure (1857-1913) und Charles Santiago Sanders Peirce (1839 – 1914) .
  4. Morris, der jüngste von den Dreien, ist im Bereich eines empirischen Verhaltensansatzes zu positionieren, der dem verhaltensorientierten Ansatz der modernen empirischen Psychologie nahe kommt. In diesem verhaltensbasierten Ansatz kann man die Zeichengrundstruktur so interpretieren, dass dem Zeichenmaterial ZM etwas in der empirischen Zwischenwelt korrespondiert (z.B. ein Laut), dem Nicht-Zeichen-Material NZM etwas anderes in der empirischen Außenwelt (ein Objekt, ein Ereignis, …), und die Zeichenbeziehung Z kommt nicht in der empirischen Welt direkt vor, sondern ist im Zeichenbenutzer zu verorten. Wie diese Zeichenbeziehung Z im Benutzer tatsächlich realisiert ist, war zu seiner Zeit empirische noch nicht zugänglich und spielt für den Zeichenbegriff auch weiter keine Rolle. Auf der Basis von empirischen Verhaltensdaten kann die Psychologie beliebige Modellannahmen über die inneren Zustände des handelnden Systems machen. Sie müssen nur die Anforderung erfüllen, mit den empirischen Verhaltensdaten kompatibel zu sein. Ein halbes Jahrhundert nach Morris kann man anfangen, die psychologischen Modellannahmen über die Systemzustände mit neurowissenschaftlichen Daten abzugleichen, sozusagen in einem integrierten interdisziplinären neuropsychologischen Theorieansatz.
  5. Saussure, der zweit Jüngste von den Dreien hat als Sprachwissenschaftler mit den Sprachen primär ein empirisches Objekt, er spricht aber in seinen allgemeinen Überlegungen über das Zeichen in einer bewusstseinsorientierten Weise. Beim Zeichenmaterial ZM spricht er z.B. von einem Lautbild als einem Phänomen des Bewusstseins, entsprechend von dem Nicht-Zeichenmaterial auch von einer Vorstellung im Bewusstsein. Bezüglich der Zeichenbeziehung M stellt er fest, dass diese außerhalb des Bewusstseins liegt; sie wird vom Gehirn bereit gestellt. Aus Sicht des Bewusstseins tritt diese Beziehung nur indirekt in Erscheinung.
  6. Peirce, der älteste von den Dreien, ist noch ganz in der introspektiven, phänomenologischen Sicht verankert. Er verortet alle drei Komponenten der Zeichen-Grundstruktur im Bewusstsein. So genial und anregend seine Schriften im einzelnen sind, so führt diese Zugangsweise über das Bewusstsein zu großen Problemen in der Interpretation seiner Schriften (was sich in der großen Bandbreite der Interpretationen ausdrückt wie auch in den nicht selten geradezu widersprüchlichen Positionen).
  7. Für das weitere Vorgehen wird in diesem Vortrag der empirische Standpunkt (Verhalten + Gehirn) gewählt und dieser wird mit der Position der künstlichen Intelligenz ins Gespräch gebracht. Damit wird der direkte Zugang über das Bewusstsein nicht vollständig ausgeschlossen, sondern nur zurück gestellt. In einer vollständigen Theorie müsste man auch die nicht-empirischen Bewusstseinsdaten integrieren.

SPRACHSPIEL

  1. Ergänzend zu dem bisher Gesagten müssen jetzt noch drei weitere Begriffe eingeführt werden, um alle Zutaten für das neue Paradigma Semiotik & KI zur Verfügung zu haben. Dies sind die Begriffe Sprachspiel, Intelligenz sowie Lernen.
  2. Der Begriff Sprachspiel wird auch von Luc Steels bei seinen Roboterexperimenten benutzt. Über den Begriff des Zeichens hinaus erlaubt der Begriff des Sprachspiels den dynamischen Kontext des Zeichengebrauchs besser zu erfassen.
  3. Steels verweist als Quelle für den Begriff des Sprachspiels auf Ludwig Josef Johann Wittgenstein (1889-1951), der in seiner Frühphase zunächst die Ideen der modernen formalen Logik und Mathematik aufgriff und mit seinem tractatus logico philosophicus das Ideal einer am logischen Paradigma orientierten Sprache skizzierte. Viele Jahre später begann er neu über die normale Sprache nachzudenken und wurde sich selbst zum schärfsten Kritiker. In jahrelangen Analysen von alltäglichen Sprachsituationen entwickelte er ein facettenreiches Bild der Alltagssprache als ein Spiel, in dem Teilnehmer nach Regeln Zeichenmaterial ZM und Nicht-Zeichen-Material NZM miteinander verknüpfen. Dabei spielt die jeweilige Situation als Kontext eine Rolle. Dies bedeutet, das gleiche Zeichenmaterial kann je nach Kontext unterschiedlich wirken. Auf jeden Fall bietet das Konzept des Sprachspiels die Möglichkeit, den ansonsten statischen Zeichenbegriff in einen Prozess einzubetten.
  4. Aber auch im Fall des Sprachspielkonzepts benutzt Steels zwar den Begriff Sprachspiel, reflektiert ihn aber nicht soweit, dass daraus ein explizites übergreifendes theoretisches Paradigma sichtbar wird.
  5. Für die Vision eines neuen Forschungsparadigmas Semiotik & KI soll also in der ersten Phase die Grundstruktur des Zeichenbegriffs im Kontext der empirischen Wissenschaften mit dem Sprachspielkonzept von Wittgenstein (1953) verknüpft werden.

INTELLIGENZ

  1. Im Vorfeld eines Workshops der Intelligent Systems Division des NIST 2000 gab es eine lange Diskussion zwischen vielen Beteiligten, wie man denn die Intelligenz von Maschinen messen sollte. In meiner Wahrnehmung verhedderte sich die Diskussion darin, dass damals nach immer neuen Klassifikationen und Typologien für die Architektur der technischen Systeme gesucht wurde, anstatt das zu tun, was die Psychologie schon seit fast 100 Jahren getan hatte, nämlich auf das Verhalten und dessen Eigenschaften zu schauen. Ich habe mich in den folgenden Jahren immer wieder mit der Frage des geeigneten Standpunkts auseinandergesetzt. In einem Konferenzbeitrag von 2010 (zusammen mit anderen, insbesondere mit Louwrence Erasmus) habe ich dann dafür argumentiert, das Problem durch Übernahme des Ansatzes der Psychologie zu lösen.
  2. Die Psychologie hatte mit Binet (1905), Stern (1912 sowie Wechsler (1939) eine grundsätzliche Methode gefunden hatte, die Intelligenz, die man nicht sehen konnte, indirekt durch Rückgriff auf Eigenschaften des beobachtbaren Verhaltens zu messen (bekannt duch den Begriff des Intelligenz-Quotienten, IQ). Die Grundidee bestand darin, dass zu einer bestimmten Zeit in einer bestimmten Kultur bestimmte Eigenschaften als charakteristisch für ein Verhalten angesehen werden, das man allgemein als intelligent bezeichnen würde. Dies impliziert zwar grundsätzlich eine gewisse Relativierung des Begriffs Intelligenz (was eine Öffnung dahingehend impliziert, dass zu anderen Zeiten unter anderen Umständen noch ganz neue Eigenschaftskomplexe bedeutsam werden können!), aber macht Intelligenz grundsätzlich katalogisierbar und damit messbar.
  3. Ein Nebeneffekt der Bezugnahme auf Verhaltenseigenschaften findet sich in der damit möglichen Nivellierung der zu messenden potentiellen Strukturen in jenen Systemen, denen wir Intelligenz zusprechen wollen. D.h. aus Sicht der Intelligenzmessung ist es egal ob das zu messende System eine Pflanze, ein Tier, ein Mensch oder eine Maschine ist. Damit wird – zumindest im Rahmen des vorausgesetzten Intelligenzbegriffs – entscheidbar, ob und in welchem Ausmaß eine Maschine möglicherweise intelligent ist.
  4. Damit eignet sich dieses Vorgehen auch, um mögliche Vergleiche zwischen menschlichem und maschinellem Verhalten in diesem Bereich zu ermöglichen. Für das Projekt des Semiotk & KI-Paradigmas ist dies sehr hilfreich.

LERNEN

  1. An dieser Stelle ist es wichtig, deutlich zu machen, dass Intelligenz nicht notwendigerweise ein Lernen impliziert und Lernen nicht notwendigerweise eine Intelligenz! Eine Maschine (z.B. ein schachspielender Computer) kann sehr viele Eigenschaften eines intelligenten Schachspielers zeigen (bis dahin, dass der Computer Großmeister oder gar Weltmeister besiegen kann), aber sie muss deswegen nicht notwendigerweise auch lernfähig sein. Dies ist möglich, wenn erfahrene Experten hinreichend viel Wissen in Form eines geeigneten Programms in den Computer eingeschrieben haben, so dass die Maschine aufgrund dieses Programms auf alle Anforderungen sehr gut reagieren kann. Von sich aus könnte der Computer dann nicht dazu lernen.
  2. Bei Tieren und Menschen (und Pflanzen?) gehen wir von einer grundlegenden Lernfähigkeit aus. Bezogen auf das beobachtbare Verhalten können wir die Fähigkeit zu Lernen dadurch charakterisieren, dass ein System bis zu einem Zeitpunkt t bei einem bestimmten Reiz s nicht mit einem Verhalten r antwortet, nach dem Zeitpunkt t aber dann plötzlich doch, und dieses neue Verhalten über längere Zeit beibehält. Zeigt ein System eine solche Verhaltensdynamik, dann darf man unterstellen, dass das System in der Lage ist, seine inneren Zustände IS auf geeignete Weise zu verändern (geschrieben: phi: I x IS —> IS x O (mit der Bedeutung I := Input (Reize, Stimulus s), O := Output (Verhaltensantworten, Reaktion r), IS := interne Zustände, phi := Name für die beobachtbare Dynamik).
  3. Verfügt ein System über solch eine grundlegende Lernfähigkeit (die eine unterschiedlich reiche Ausprägung haben kann), dann kann es sich im Prinzip alle möglichen Verhaltenseigenschaften aneignen/ erwerben/ erlernen und damit im oben beschriebenen Sinne intelligent werden. Allerdings gibt es keine Garantie, dass eine Lernfähigkeit notwendigerweise zu einer bestimmten Intelligenz führen muss. Viele Menschen, die die grundsätzliche Fähigkeit besitzen, Schachspielen oder Musizieren oder Sprachen zu lernen,  nutzen diese ihre Fähigkeiten niemals aus; sie verzichten damit auf Formen intelligenten Verhaltens, die ihnen aber grundsätzlich offen stehen.
  4. Wir fordern also, dass die Lernfähigkeit Teil des Semiotik & KI-Paradigmas sein soll.

LERNENDE MASCHINEN

  1. Während die meisten Menschen heute Computern ein gewisses intelligentes Verhalten nicht absprechen würden, sind sie sich mit der grundlegenden Lernfähigkeit unsicher. Sind Computer im echten Sinne (so wie junge Tiere oder menschliche Kinder) lernfähig?
  2. Um diese Frage grundsätzlich beantworten zu können, müsste man ein allgemeines Konzept von einem Computer haben, eines, das alle heute und in der Zukunft existierende und möglicherweise in Existenz kommende Computer in den charakteristischen Eigenschaften erschöpfend beschreibt. Dies führt zur Vor-Frage nach dem allgemeinsten Kriterium für Computer.
  3. Historisch führt die Frage eigentlich direkt zu einer Arbeit von Turing (1936/7), in der er den Unentscheidbarkeitsbeweis von Kurt Gödel (1931) mit anderen Mitteln nochmals nachvollzogen hatte. Dazu muss man wissen, dass es für einen formal-logischen Beweis wichtig ist, dass die beim Beweis zur Anwendung kommenden Mittel, vollständig transparent sein müssen, sie müssen konstruktiv sein, was bedeutet, sie müssen endlich sein oder effektiv berechenbar. Zum Ende des 19.Jh und am Anfang des 20.Jh gab es zu dieser Fragestellung eine intensive Diskussion.
  4. Turing wählte im Kontrast zu Gödel keine Elemente der Zahlentheorie für seinen Beweis, sondern nahm sich das Verhalten eines Büroangestellten zum Vorbild: jemand schreibt mit einem Stift einzelne Zeichen auf ein Blatt Papier. Diese kann man einzeln lesen oder überschreiben. Diese Vorgabe übersetze er in die Beschreibung einer möglichst einfachen Maschine, die ihm zu Ehren später Turingmaschine genannt wurde (für eine Beschreibung der Elemente einer Turingmaschine siehe HIER). Eine solche Turingmaschine lässt sich dann zu einer universellen Turingmaschine [UTM] erweitern, indem man das Programm einer anderen (sekundären) Turingmaschine auf das Band einer primären Turingmaschine schreibt. Die primäre Turingmaschine kann dann nicht nur das Programm der sekundären Maschine ausführen, sondern kann es auch beliebig abändern.
  5. In diesem Zusammenhang interessant ist, dass der intuitive Begriff der Berechenbarkeit Anfang der 30ige Jahre des 20.Jh gleich dreimal unabhängig voneinander formal präzisiert worden ist (1933 Gödel und Herbrand definierten die allgemein rekursiven Funktionen; 1936 Church den Lambda-Kalkül; 1936 Turing die a-Maschine für ‚automatische Maschine‘, später Turing-Maschine). Alle drei Formalisierungen konnten formal als äquivalent bewiesen werden. Dies führte zur sogenannten Church-Turing These, dass alles, was effektiv berechnet werden kann, mit einem dieser drei Formalismen (also auch mit der Turingmaschine) berechnet werden kann. Andererseits lässt sich diese Church-Turing These selbst nicht beweisen. Nach nunmehr fast 80 Jahren nimmt aber jeder Experte im Feld an, dass die Church-Turing These stimmt, da bis heute keine Gegenbeispiele gefunden werden konnten.
  6. Mit diesem Wissen um ein allgemeines formales Konzept von Computern kann man die Frage nach der generellen Lernfähigkeit von Computern dahingehend beantworten, dass Computer, die Turing-maschinen-kompatibel sind, ihre inneren Zustände (im Falle einer universellen Turingmaschine) beliebig abändern können und damit die Grundforderung nach Lernfähigkeit erfüllen.

LERNFÄHIGE UND INTELLIGENTE MASCHINEN?

  1. Die Preisfrage stellt sich, wie eine universelle Turingmaschine, die grundsätzlich lernfähig ist, herausfinden kann, welche der möglichen Zustände interessant genug sind, um damit zu einem intelligenten Verhalten zu kommen?
  2. Diese Frage nach der möglichen Intelligenz führt zur Frage der verfügbaren Kriterien für Intelligenz: woher soll eine lernfähige Maschine wissen, was sie lernen soll?
  3. Im Fall biologischer Systeme wissen wir mittlerweile, dass die lernfähigen Strukturen als solche dumm sind, dass aber durch die schiere Menge an Zufallsexperimenten ein Teil dieser Experimente zu Strukturen geführt hat, die bzgl. bestimmter Erfolgskriterien besser waren als andere. Durch die Fähigkeit, die jeweils erfolgreichen Strukturen in Form von Informationseinheiten zu speichern, die dann bei der nächsten Reproduktion erinnert werden konnten, konnten sich die relativen Erfolge behaupten.
  4. Turing-kompatible Computer können speichern und kodieren, sie brauchen allerdings noch Erfolgskriterien, um zu einem zielgerichtete Lernen zu kommen.

LERNENDE SEMIOTISCHE MASCHINEN

  1. Mit all diesen Zutaten kann man jetzt lernende semiotische Maschinen konstruieren, d.h. Maschinen, die in der Lage sind, den Gebrauch von Zeichen im Kontext eines Prozesses, zu erlernen. Das dazu notwendige Verhalten gilt als ein Beispiel für intelligentes Verhaltens.
  2. Es ist hier nicht der Ort, jetzt die Details solcher Sprach-Lern-Spiele auszubreiten. Es sei nur soviel gesagt, dass man – abschwächend zum Paradigma von Steels – hier voraussetzt, dass es schon mindestens eine Sprache L und einen kundigen Sprachteilnehmer gibt (der Lehrer), von dem andere Systeme (die Schüler), die diese Sprache L noch nicht kennen, die Sprache L lernen können. Diese Schüler können dann begrenzt neue Lehrer werden.
  3. Zum Erlernen (Training) einer Sprache L benötigt man einen definierten Kontext (eine Welt), in dem Lehrer und Schüler auftreten und durch Interaktionen ihr Wissen teilen.
  4. In einer Evaluationsphase (Testphase), kann dann jeweils überprüft werden, ob die Schüler etwas gelernt haben, und wieviel.
  5. Den Lernerfolge einer ganzen Serie von Lernexperimenten (ein Experiment besteht aus einem Training – Test Paar) kann man dann in Form einer Lernkurve darstellen. Diese zeigt entlang der Zeitachse, ob die Intelligenzleistung sich verändert hat, und wie.
  6. Gestaltet man die Lernwelt als eine interaktive Softwarewelt, bei der Computerprogramme genauso wie Roboter oder Menschen mitwirken können, dann kann man sowohl Menschen als Lehrer benutzen wie auch Menschen im Wettbewerb mit intelligenten Maschinen antreten lassen oder intelligente Maschinen als Lehrer oder man kann auch hybride Teams formen.
  7. Die Erfahrungen zeigen, dass die Konstruktion von intelligenten Maschinen, die menschenähnliche Verhaltensweisen lernen sollen, die konstruierenden Menschen dazu anregen, ihr eigenes Verhalten sehr gründlich zu reflektieren, nicht nur technisch, sondern sogar philosophisch.

EMERGING MIND PROJEKT

  1. Die zuvor geschilderten Überlegungen haben dazu geführt, dass ab 10.November 2015 im INM Frankfurt ein öffentliches Forschungsprojekt gestartet werden soll, das Emerging Mind Projekt heißt, und das zum Ziel hat, eine solche Umgebung für lernende semiotische Maschinen bereit zu stellen, mit der man solche semiotischen Prozesse zwischen Menschen und lernfähigen intelligenten Maschinen erforschen kann.

QUELLEN

  • Binet, A., Les idees modernes sur les enfants, 1909
  • Doeben-Henisch, G.; Bauer-Wersing, U.; Erasmus, L.; Schrader,U.; Wagner, W. [2008] Interdisciplinary Engineering of Intelligent Systems. Some Methodological Issues. Conference Proceedings of the workshop Modelling Adaptive And Cognitive Systems (ADAPCOG 2008) as part of the Joint Conferences of SBIA’2008 (the 19th Brazilian Symposium on Articial Intelligence); SBRN’2008 (the 10th Brazilian Symposium on Neural Networks); and JRI’2008 (the Intelligent Robotic Journey) at Salvador (Brazil) Oct-26 – Oct-30(PDF HIER)
  • Gödel, K. Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I, In: Monatshefte Math.Phys., vol.38(1931),pp:175-198
  • Charles W. Morris, Foundations of the Theory of Signs (1938)
  • Charles W. Morris (1946). Signs, Language and Behavior. New York: Prentice-Hall, 1946. Reprinted, New York: George Braziller, 1955. Reprinted in Charles Morris, Writings on the General Theory of Signs (The Hague: Mouton, 1971), pp. 73-397. /* Charles William Morris (1901-1979) */
  • Charles W. Morris, Signication and Signicance (1964)
  • NIST: Intelligent Systems Division: http://www.nist.gov/el/isd/
  • Winfried Noth: Handbuch der Semiotik. 2., vollständig neu bearbeitete Auflage. Metzler, Stuttgart/Weimar 2000
  • Charles Santiago Sanders Peirce (1839-1914) war ein US-amerikanischer Mathematiker, Philosoph und Logiker. Peirce gehort neben William James und John Dewey zu den maßgeblichen Denkern des Pragmatismus; außerdem gilt er als Begründer der modernen Semiotik. Zur ersten Einführung siehe: https://de.wikipedia.org/wiki/Charles Sanders Peirce Collected Papers of Charles Sanders Peirce. Bände I-VI hrsg. von Charles Hartshorne und Paul Weiss, 1931{1935; Bände VII-VIII hrsg. von Arthur W. Burks 1958. University Press, Harvard, Cambridge/Mass. 1931{1958
  • Writings of Charles S. Peirce. A Chronological Edition. Hrsg. vom Peirce Edition Project. Indiana University Press,Indianapolis, Bloomington 1982. (Bisher Bände 1{6 und 8, geplant 30 Bände)
  • Saussure, F. de. Grundfragen der Allgemeinen Sprachwissenschaft, 2nd ed., German translation of the original posthumously publication of the Cours de linguistic general from 1916 by H.Lommel, Berlin: Walter de Gruyter & Co., 1967
  • Saussure, F. de. Course in General Linguistics, English translation of the original posthumously publication of the Cours de linguistic general from 1916, London: Fontana, 1974
  • Saussure, F. de. Cours de linguistique general, Edition Critique Par Rudolf Engler, Tome 1,Wiesbaden: Otto Harrassowitz, 1989 /*This is the critical edition of the dierent sources around the original posthumously publication of the Cours de linguistic general from 1916. */
  • Steels, Luc (1995): A Self-Organizing Spatial Vocabulary. Articial Life, 2(3), S. 319-332
  • Steels, Luc (1997): Synthesising the origins of language and meaning using co-evolution, self-organisation and level formation. In: Hurford, J., C.Knight und M.Studdert-Kennedy (Hrsg.). Edinburgh: Edinburgh Univ. Press.

  • Steels, Luc (2001): Language Games for Autonomous Robots. IEEE Intelligent Systems, 16(5), S. 16-22. Steels, Luc (2003):

  • Evolving grounded Communication for Robots. Trends in Cognitive Science, 7(7), S. 308-312.

  • Steels, Luc (2003): Intelligence with Representation. Philosophical Transactions of the Royal Society A, 1811(361), S. 2381-2395.

  • Steels, Luc (2008): The symbol grounding problem has been solved, so what’s next?. In M. de Vega, Symbols and Embodiment: Debates on Meaning and Cognition. Oxford: Oxford University Press, S. 223-244.
  • Steels, Luc (2012): Grounding Language through Evolutionary Language Games. In: Language Grounding in Robots. Springer US, S. 1-22.

  • Steels, Luc (2015), The Talking Heads experiment: Origins of words and meanings, Series: Computational Models of Language Evolution 1. Berlin: Language Science Press.
  • Stern, W., Die psychologischen Methoden der Intelligenzprüfung und deren Anwendung an Schulkindern, Leipzig: Barth, 1912

  • Turing, A. M. On Computable Numbers with an Application to the Entscheidungsproblem. In: Proc. London Math. Soc., Ser.2, vol.42(1936), pp.230-265; received May 25, 1936; Appendix added August 28; read November 12, 1936; corr. Ibid. vol.43(1937), pp.544-546. Turing’s paper appeared in Part 2 of vol.42 which was issued in December 1936 (Reprint in M.DAVIS 1965, pp.116-151; corr. ibid. pp.151-154).(an online version at: http://www.comlab.ox.ac.uk/activities/ieg/elibrary/sources/tp2-ie.pdf, last accesss Sept-30, 2012)

  • Turing, A.M. Computing machinery and intelligence. Mind, 59, 433-460. 1950

  • Turing, A.M.; Intelligence Service. Schriften, ed. by Dotzler, B.; Kittler, F.; Berlin: Brinkmann & Bose, 1987, ISBN 3-922660-2-3

  • Vogt, P. The physical symbol grounding problem, in: Cognitive Systems Research, 3(2002)429-457, Elsevier Science B.V.
  • Vogt, P.; Coumans, H. Investigating social interaction strategies for bootstrapping lexicon development, Journal of Articial Societies and Social Simulation 6(1), 2003

  • Wechsler, D., The Measurement of Adult Intelligence, Baltimore, 1939, (3. Auage 1944)

  • Wittgenstein, L.; Tractatus Logico-Philosophicus, 1921/1922 /* Während des Ersten Weltkriegs geschrieben, wurde das Werk 1918 vollendet. Es erschien mit Unterstützung von Bertrand Russell zunächst 1921 in Wilhelm Ostwalds Annalen der Naturphilosophie. Diese von Wittgenstein nicht gegengelesene Fassung enthielt grobe Fehler. Eine korrigierte, zweisprachige Ausgabe (deutsch/englisch) erschien 1922 bei Kegan Paul, Trench, Trubner und Co. in London und gilt als die offizielle Fassung. Die englische Übersetzung stammte von C. K. Ogden und Frank Ramsey. Siehe einführend Wikipedia-DE: https://de.wikipedia.org/wiki/Tractatus logicophilosophicus*/

  • Wittgenstein, L.; Philosophische Untersuchungen,1936-1946, publiziert 1953 /* Die Philosophischen Untersuchungen sind Ludwig Wittgensteins spätes, zweites Hauptwerk. Es übten einen außerordentlichen Einfluss auf die Philosophie der 2. Hälfte des 20. Jahrhunderts aus; zu erwähnen ist die Sprechakttheorie von Austin und Searle sowie der Erlanger Konstruktivismus (Paul Lorenzen, Kuno Lorenz). Das Buch richtet sich gegen das Ideal einer logik-orientierten Sprache, die neben Russell und Carnap Wittgenstein selbst in seinem ersten Hauptwerk vertreten hatte. Das Buch ist in den Jahren 1936-1946 entstanden, wurde aber erst 1953, nach dem Tod des Autors, veröffentlicht. Siehe einführend Wikipedia-DE: https://de.wikipedia.org/wiki/Philosophische Untersuchungen*/

Eine Übersicht über alle Blogeinträge des Autors cagent nach Titeln findet sich HIER

ENTSCHEIDEN IN EINER MULTIKAUSALEN WELT? MEMO ZUR PHILOSOPHIEWERKSTATT VOM Sonntag, 10.Mai 2015 IN DER DENKBAR (Frankfurt)

Begriffsnetzwerk von der Philosophiewerkstatt am 10.Mai 2015

Begriffsnetzwerk von der Philosophiewerkstatt am 10.Mai 2015

Generelles Anliegen der Philosophiewerkstatt ist es, ein philosophisches Gespräch zu ermöglichen, in dem die Fragen der TeilnehmerInnen versuchsweise zu Begriffsnetzen verknüpft werden, die in Beziehung gesetzt werden zum allgemeinen Denkraum der Philosophie, der Wissenschaften, der Kunst und Religion. Im Hintergrund stehen die Reflexionen aus dem Blog cognitiveagent.org, das Ringen um das neue Menschen- und Weltbild.

Aus der letzten Philosophiewerkstatt vom 12.April 2015 resultierte das – nicht ganz schar formulierte – Thema: Kann sich ein einzelner innerhalb einer multikausalen Welt überhaupt noch sinnvoll entscheiden? Kann man überhaupt noch eine Wirkung erzielen? Ist nicht irgendwie alles egal?

1. Trotz strahlendem Sommerwetter fand sich wieder ein bunter Kreis interessierter und engagierter Gesprächsteilnehmer, um sich in der DENKBAR Frankfurt zum Thema auszutauschen. Wie beim jedem Treffen bisher gab es auch dieses Mal neben schon bekannten Teilnehmern wieder auch neue Teilnehmer, die das Gespräch bereicherten.

2. Wie die Gedankenskizze des Gesprächs andeutet, förderte das gemeinsame Gespräch eine Fülle interessanter Aspekte zutage, die auf vielfältige Weise miteinander verknüpft sind. Auch wenn jeder Punkt für sich ein eigenes Thema abgeben könnte, so zeigt gerade der Überblick über und die Vernetzung von den Begriffen etwas von unserer Entscheidungswirklichkeit auf, die im Alltag oft im Dunkeln verbleibt.

INDIVIDUUM – KONTEXT

3. Das Gespräch fokussierte zunächst eher auf den individuellen Träger von Entscheidungen und lies die diverse Einflüsse des Kontextes eher am Rande.

4. Am Entscheidungsprozess traten verschieden ‚Phasen‘ hervor: (i) irgendein ein Anlass. Warum man sich überhaupt mit etwas beschäftigt. Warum öffnet man sich überhaupt für ein Thema? Wendet man sich einem Thema zu, dann gibt es in der Regel mindestens eine Alternative, was man tun könnte. Dies hängt sowohl von den konkreten Umständen wie auch von der verfügbaren Erfahrung und dem verfügbaren Wissen ab. Nach welchen Kriterien/ Präferenzen/ Werten entscheidet man dann, welche der vielen Möglichkeiten man wählen soll? Ist die Entscheidung ‚frei‘ oder durch irgendwelche Faktoren ‚vorbestimmt‘? Gibt es explizite Wissensanteile, aufgrund deren man meint, ‚rational‘ zu handeln, oder ist es eine ‚Bauchentscheidung‘? Wieweit spielen ’nicht-bewusste‘ Anteile mit hinein? Insofern nicht-bewusste Anteile von sich aus nicht bewusst sind, können wir selbst dies gar nicht wissen. Wir bräuchten zusätzliche Hilfen, um dies möglicherweise sichtbar zu machen. Schließlich wurde bemerkt, dass selbst dann, wenn wir sogar zu einer Entscheidung gekommen sind, was wir tun sollten, es sein kann, dass wir die Ausführung lassen. Wir tun dann doch nichts. Sollten wir etwas tun, dann würde unser Tun ‚eine Wirkung‘ entfalten.

ARCHITEKTUR DES INDIVIDUUMS

5. Alle diese Entscheidungsprozesse verlaufen in einer Person; im anderen, in mir. Wir wissen, dass jeder Mensch eine komplexe Architektur besitzt, sehr viele unterschiedliche Komponenten besitzt, die in Wechselwirkung stehen. Folgende drei Bereich wurden genannt, ohne Anspruch auf Vollständigkeit: (i) der Körper selbst, die Physis, das Physiologische. Das Gehirn ist eines der vielen komplexen Organe im Bereich der Physis. Das Physische kann altern, kann zwischen Menschen Varianzen aufweisen. Resultiert aus einem individuellen Wachstumsprozess (Ontogenese), und im Rahmen einer Population resultiert der Bauplan eines individuellen Körpers aus einem evolutionären Prozess (Phylogenese). Sowohl in der Phylogenese wie in der Ontogenese können sich Strukturen umweltabhängig, verhaltensabhängig und rein zufällig verändern. Weiter gibt es (ii) den Komplex, der grob mit Emotionen, Gefühle umschrieben wurde. Es sind Körper- und Gemütszustände, die auf das Bewerten der Wahrnehmung und das Entscheiden Einfluss ausüben können (und es in der Regel immer tun). Schließlich (iii) gibt es den Komplex Wissen/ Erfahrung, der Menschen in die Lage versetzt, die Wahrnehmung der Welt zu strukturieren, Beziehungen zu erkennen, Beziehungen herzustellen, komplexe Muster aufzubauen, usw. Ohne Wissen ist ein Überschreiten des Augenblicks nicht möglich.

WISSEN

6. Aufgrund der zentralen Rolle des Wissens ist es dann sicher nicht verwunderlich, dass es zum Wissen verschiedene weitere Überlegungen gab.

7. Neben der Betonung der zentralen Rolle von Wissen wurde mehrfach auf potentielle Grenzen und Schwachstellen hingewiesen: (i) gemessen an dem objektiv verfügbare Wissen erscheint unser individuelles Wissen sehr partiell, sehr begrenzt zu sein. Es ist zudem (ii) veränderlich durch ‚Vergessen‘ und ‚Neues‘. Auch stellte sich die Frage (iii) nach der Qualität: wie sicher ist unser Wissen? Wie ‚wahr-falsch‘? Woher können wir wissen, ob das, was wir ‚für wahr halten‘, an was wir ‚glauben‘, tatsächlich so ist? Dies führte (iv) zu einer Diskussion des Verhältnisses zwischen ‚wissenschaftlichem‘ Wissen und ‚Alltags-‚ bzw. ‚Bauchwissen‘. Anwesende Ärzte betonten, dass sie als Arzt natürlich nicht einfach nach ‚Bauchwissen‘ vorgehen könnten, sondern nach explizit verfügbarem wissenschaftlichen Wissen. Im Gespräch deutete sich dann an, dass natürlich auch dann, wenn jemand bewusst nach explizit vorhandenem Wissen vorgehen will, er unweigerlich an die ‚Ränder seines individuellen‘ Wissens stoßen wird und dass er dann gar keine andere Wahl hat, als nach zusätzlichen (welche!?) Kriterien zu handeln oder – was vielen nicht bewusst ist – sie ‚verdrängen‘ die reale Grenze ihres Wissens, indem sie mögliche Fragen und Alternativen ‚wegrationalisieren‘ (das ‚ist nicht ernst‘ zu nehmen, das ist ‚unwichtig‘, das ‚machen wir hier nicht so‘, usw.). Ferner wurde (v) der Status des ‚wissenschaftlichen‘ Wissens selbst kurz diskutiert. Zunächst einmal beruht die Stärke des wissenschaftlichen Wissens auf einer Beschränkung: man beschäftigt sich nur mit solchen Phänomenen, die man ‚messen‘ kann (in der Regel ausschließlich intersubjektive Phänomene, nicht rein subjektive). Damit werden die Phänomene zu ‚Fakten‘, zu ‚Daten‘. Ferner formuliert man mögliche Zusammenhänge zwischen den Fakten in expliziten Annahmen, die formal gefasst in einem expliziten Modell repräsentiert werden können. Alle diese Modelle sind letztlich ‚Annahmen‘, ‚Hypothesen‘, ‚Vermutungen‘, deren Gültigkeit von der Reproduzierbarkeit der Messungen abhängig ist. Die Geschichte der Wissenschaft zeigt überdeutlich, dass diese Modelle beständig kritisiert, widerlegt und verbessert wurden. Wissenschaftliches Wissen ist insofern letztlich eine Methode, wie man der realen Welt (Natur) schrittweise immer mehr Zusammenhänge entlockt. Die ‚Sicherheit‘ dieses Wissens ist ‚relativ‘ zu den möglichen Messungen und Modellen. Ihre Verstehbarkeit hängt zudem ab von den benutzten Sprachen (Fachsprachen, Mathematische Sprachen) und deren Interpretierbarkeit. Die moderne Wissenschaftstheorie konnte zeigen, dass letztlich auch empirische Theorien trotz aller Rückbindung auf das Experiment ein Bedeutungsproblem haben, das sich mit der Fortentwicklung der Wissenschaften eher verschärft als vereinfacht. Im Gespräch klang zumindest kurz an (vi), dass jedes explizites Wissen (auch das wissenschaftliche), letztlich eingebunden bleibt in das Gesamt eines Individuums. Im Individuum ist jedes Wissen partiell und muss vom Individuum im Gesamtkontext von Wissen, Nichtwissen, Emotionen, körperlicher Existenz, Interaktion mit der Umwelt integriert werden. Menschen, die ihr Wissen wie ein Schild vor sich hertragen, um damit alles andere abzuwehren, zu nivellieren, leben möglicherweise in einer subjektiven Täuschungsblase, in der Rationalität mutiert zu Irrationalität.

UND DEN KONTEXT GIBT ES DOCH

8. Schließlich gewann der Kontext des Individuums doch noch mehr an Gewicht.

9. Schon am Beispiel des wissenschaftlichen Wissens wurde klar, dass Wissenschaft ja keine individuelle Veranstaltung ist, sondern ein überindividuelles Geschehen, an dem potentiell alle Menschen beteiligt sind.

10. Dies gilt auch für die schier unendlich erscheinende Menge des externen Wissens in Publikationen, Bibliotheken, Datenbanken, Internetservern, die heute produziert, angehäuft wird und in großen Teilen abrufbar ist. Dazu die verschiedenen Medien (Presse, Radio, Fernsehen, Musikindustrie,….), deren Aktivitäten um unsere Wahrnehmung konkurrieren und deren Inhalt, wenn wir es denn zulassen, in uns eindringen. Die Gesamtheit dieser externen Informationen kann uns beeinflussen wie auch ein einzelner dazu beitragen kann, diese Informationen zu verändern.

11. Es kam auch zur Sprache, dass natürlich auch die unterschiedliche Lebensstile und Kulturen spezifisch auf einzelne (Kinder, Jugendliche, Erwachsene…) einwirken bis dahin, dass sie deutliche Spuren sogar im Gehirn (und in den Genen!) hinterlassen, was sich dann auch im Verhalten manifestiert.

12. Besonders hervorgehoben wurden ferner die politischen Prozesse und Teil des Wirtschaftssystems. Die Meinung war stark vertreten, dass wir auch in den Demokratien eine ‚Abkopplung‘ der politischen Prozesse von der wählenden Bevölkerung feststellen können. Der intensive und gesetzmäßig unkontrollierte Lobbyismus im Bereich deutscher Parteien scheint ein Ausmaß erreicht zu haben, das eine ernste Gefahr für die Demokratie sein kann. Die Vertretung partikulärer Interessen (genannt wurde beispielhaft die Pharmaindustrie, aber auch Finanzindustrie und weitere), die gegenläufig zum Allgemeinwohl sind, wurde – anhand von Beispielen – als übermächtiges Wirkprinzip der aktuellen Politik unterstellt. Sofern dies tatsächlich zutrifft, ist damit natürlich die sowieso schon sehr beschränkte Einflussmöglichkeit des Wählers weitgehend annulliert. Die zu beobachtende sich verstärkende Wahlmüdigkeit des Wählers wird damit nur weiter verstärkt. Das Drama ist, dass diejenigen, die das Wählervertrauen durch ihr Verhalten kontinuierlich zerstören, nämlich die gewählten Volksvertreter, den Eindruck erwecken, dass sie selbst alles verhindern, damit der extreme Lobbyismus durch Transparenz und wirksamen Sanktionen zumindest ein wenig eingedämmt wird.

ABSCHLUSS

13. In der abschließenden Reflexion bildete sich die Meinung, dass die Punkte (i) Präferenzen/ Werte/ Kriterien einerseits und (ii) Beeinflussbarkeit politischer Prozesse andererseits in der nächsten (und letzten Sitzung vor der Sommerpause) etwas näher reflektiert werden sollten. Reinhard Graeff erklärte sich bereit, für die nächste Sitzung am So 14.Juni einen Einstieg vorzubereiten und das genaue Thema zu formulieren.

AUSBLICK

14. Am So 14.Juni 2015 16:00 findet nicht nur die letzte Sitzung der Philosophiewerkstatt vor der Sommerpause statt, sondern es soll im Anschluss auch (ca. ab 19:00h) bei Essen und Trinken ein wenig darüber nachgedacht werden, wie man in die nächste Runde (ab November 2015) einsteigen möchte. Soll es überhaupt weitergehen? Wenn ja, was ändern? Usw.

Einen Überblick über alle Beiträge zur Philosophiewerkstatt nach Themen findet sich HIER

DIE NEUROWISSENSCHAFTEN – EIN PHILOSOPHISCHES SCHWARZES LOCH? – Zu einem Artikel von W.Singer in der FAZ vom 17.September 2014

(Letzte Änderungen am Text: 21.Sept.2014, 22:06h)

Sound einer Galaxie oder doch eher von Neuronen oder von Galaxien eingefangen in den Vibrationen der Neuronen?

BEGRIFF (PHILOSOPHISCHES) SCHWARZES LOCH

1. Ein Schwarzes Loch (oder auch Black hole) ist in der Astrophysik – leicht vereinfachend – ein Raum-Zeit-Gebiet, das im Kern eine Massekonzentration besitzt, die so groß ist, dass in einem bestimmten Umfeld alle Materie (einschließlich der Lichtquanten) so stark angezogen wird, dass jenseits dieses Umfeldes (jenseits des ‚Ereignishorizontes‘) nichts mehr nach außen dringt (außer der sogenannten Hawking-Strahlung (benannt nach dem Physiker Stephen Hawking)). Im Prinzip kann ein schwarzes Loch immer weiter wachsen. Ab einer bestimmten Größe entstehen im Umfeld des Ereignishorizontes allerdings ‚Sperreffekte‘, die den Zufluss von Materie erschweren und über die Hawking-Strahlung verlieren schwarze Löcher kontinuierlich Energie.

2. Der Begriff ‚philosophisches‘ schwarzes Loch wird in diesem Beitrag benutzt als eine Metapher, um eine Denkweise zu charakterisieren, die die Vielfalt der Phänomene durch Beschränkung auf ein einziges Prinzip so stark nivelliert, dass von der Vielfalt anschließend nur noch bestimmte Fragmente übrig bleiben, die als solche zwar eine gewisse ‚Wahrheit‘ verkörpern, durch den eliminierenden Kontext aber letztlich ihre ursprüngliche Wahrheit verloren haben; vielleicht muss man sogar sagen, sie werden durch den falschen Kontext geradezu ‚falsch‘.

3. Ich stelle hier die frage, ob diese Metapher vom ‚philosophischen schwarzen Loch‘ anwendbar ist auf den Artikel von Wolf Singer in der FAZ vom 17.September 2014 S.N2. Würde meine Hypothese zutreffen, dann wäre dies fast tragisch, da hier eine Sache, die in sich gut und wichtig ist, die Hirnforschung, durch ihre methodische Übergrifflichkeit viele andere Sachen dermaßen entstellt und ihrer ontologischen Besonderheit beraubt, dass damit genau das Großartige, was die Gehirne in diese Welt eingebracht haben, von den Hirnforschern selbst totgemacht, zerstört würden.

4. Dies hier ist meine individuelle Hypothese. Vielleicht würde eine empirische soziologische Untersuchung im Rahmen einer Wissenssoziologie zu noch weitreichenderen kritischen Aussagen zu den Neurowissenschaften kommen. Aber für solche Wissenschaften ist es heute sehr schwer, Forschungsgelder zu bekommen.

DIE ARGUMENTATIONSFIGUR IM TEXT

5. Warum kann ich die Frage stellen, ob die Metapher von einem ‚philosophisch schwarzem Loch‘ auf den Artikel von Wolf Singer zutrifft?

6. In dem zitierten Artikel mit der Überschrift „Erst kommt das Denken, dann die Kunst“ soll es offiziell um das Verhältnis zwischen der Kunst und den Neurowissenschaften gehen; inoffiziell ergreift der Autor aber die Gelegenheit, aus Anlass eines Themas, das außerhalb der Neurowissenschaften liegt, primär die Bedeutung und Leistung der Neurowissenschaften heraus zu stellen; das auslösende Thema, der ‚Aufhänger‘ Kunst, gerät zu einer Art ‚Randnotiz‘: ja, es gibt irgendwo Kunst, ja, sie hat ein paar Eigenschaften, aber letztlich sind alle diese Eigenschaften unwichtig, da es eigentlich nur auf die Leistungen der neuronalen Verbände ankommt, die dem künstlerischen Verhalten letztlich zugrunde liegen. Die Neuronen und deren Verhalten repräsentieren die eigentliche, die wahre Wirklichkeit; sie erzählen uns, worum es geht …

7. Nun ist es ja unbestreitbar, dass die Neurowissenschaften seit ihrem Entstehen – letztlich viele Jahrhunderte; mit der klaren Einsicht in die Isoliertheit des Neurons aber dann erst seit ca. 120 Jahre – atemberaubende neue Einblicke in unser Gehirn und in die Interaktion zwischen dem Gehirn und dem Körper ermöglicht haben. Vielen Phänomenen des beobachtbaren Verhaltens wie auch unserer subjektiven Empfindungen konnten durch die Korrelation mit neuronalen Aktivitäten neue, interessante Aspekte zugeordnet werden, die zu neuen Verstehensmodellen geführt haben.

INPUT-OUTPUT SYSTEME: DIE SUMME IST MEHR ALS IHRE TEILE

8. Bei der Erklärung des Verhaltens eines Input-Output-Systems — was biologische Systeme u.a. sind – sind die Verhältnisse nicht ganz so trivial, wie sie die Erklärungsmuster der Neurowissenschaftler oft nahe legen.

9. Aus der Tatsache, dass ein Input-Output-System aus einer Vielzahl von elementaren Einheiten – im Falle des Gehirns u.a. aus ‚Neuronen‘ – besteht, folgt sehr selten, dass man das beobachtbare (äußere) Verhalten des Systems durch einfachen Rückgriff auf die Eigenschaften seiner Bestandteile ‚erklären‘ kann.

10. Wenn jemand heute — in einem analogen Fall — einen Computer (PC, Smartphone, Auto, Kamera,…) kauft, um damit einen Text zu schreiben oder Musik zu hören oder ein Computerspiel zu spielen oder … dann interessiert sich normalerweise niemand für die elektronischen Bauteilen in diesen Geräten (würden die meisten auch nicht verstehen), sondern nur um die ‚Funktionen‘, die das Gerät ihm zur Verfügung stellt.

11. Jener, der an der Funktion ‚Text Schreiben‘ interessiert ist, interessiert sich nicht unbedingt auch für die Funktion ‚Fotos machen‘, oder nicht für die spannenden Abenteuer eines Computerspiels, usw.

EINE ABBILDUNGSVORSCHRIFT IST MEHR ALS IHRE ‚TEILE‘

12. Alle diese verschiedenen ‚Funktionen‘ die heute ein Computer ausführen kann, sind zwar – in der Tat – alle durch die gleichen elektronischen Bauteile ermöglicht worden, wie man — im Falle der Computer — aber weiß, ist es nicht möglich, aus der Gegebenheit der elektronischen Bauteile als solcher auch nur eine einzige dieser vielen möglichen Milliarden von Funktionen ‚abzuleiten‘!

13. Zwar kann man rein theoretisch aus der Beschaffenheit dieser Bauteile ableiten (und damit voraussagen), welche Arten von Funktionen generell mit diesen Bauteilen ausführbar wären, aber man könnte niemals zwingend – also niemals mit Notwendigkeit – sagen, auf diesem Computer muss genau diese ‚Funktion f‘ ausgeführt werden.

14. Der tiefere – wenngleich sehr einfache – Grund für diesen Sachverhalt liegt darin, dass das beobachtbare Verhalten eines Computers – verstanden als eine Funktion f – eine Folge von Zustandsänderungen zusammenfasst, die unterschiedlichen ‚Input I‘ in das System (Eingaben durch den Benutzer, Messwerte, …) unter Berücksichtigung aktuell verfügbarer ‚interner Zustände IS‘ auf die beobachtbaren ‚Outputs O‘ (Ereignisse auf dem Bildschirm, Töne, Bewegungen eines mechanischen Teils, …) — und möglicherweise auch auf interne Zustände IS — ‚abbildet‘, wie der Mathematiker sagen würde. Eine solche reale Verhaltensfunktion ist damit nichts anderes als eine Folge von Paaren der Art …, ((I,IS),(IS,O)), …, verallgemeinernd geschrieben als eine Abbildungsvorschrift f: I \times IS \longrightarrow IS \times O.

15. Schon an dieser Stelle kann man direkt sehen, dass die Existenz irgendwelcher interner Zustände (z.B. elektronische Bauteile oder – wie im Falle des Gehirns – von Neuronen) in keiner Weise irgendetwas darüber sagen kann, wie die übergreifende Verhaltensfunktion f aussehen wird. Die Verhaltensfunktion f wird zwar nur unter Voraussetzung der internen Zustände stattfinden können, die internen Zustände (elektronische Bauteile, Neuronen, …) erlauben aber keinerlei Schlüsse auf die übergreifenden Funktion f, die damit tatsächlich zur Ausführung kommt.

16. Jeder kennt die Formulierung ‚Die Summe ist mehr als ihre Teile‘ oder der etwas neuere Begriff der ‚Emergenz‘, d.h. des Auftretens von Eigenschaften P eines Systems (z.B. Wasser), die unter bestimmten Bedingungen (Kälte, Hitze, …) mit einem Mal ‚beobachtbar‘ werden (‚zu Eis gefrieren‘, ’sich in Dampf transformieren‘, …). Die einzelnen Bestandteile als solche ‚für sich‘ können die Eigenschaft P nicht haben; wenn aber viele solche einzelnen Elemente (z.B. Moleküle) ‚zusammen‘ in einem Raum-Zeitgebiet vorkommen, dann kann eine – die einzelnen Elemente ‚übersteigende‘ (‚emergierende‘) — Eigenschaft P sichtbar werden, die wie aus dem ‚Nichts‘ entsteht.

17. Eine seit den Anfängen der Physik beliebte Strategie, die ‚emergenten‘ Eigenschaften zusammengesetzter Systeme durch ‚Rückführung auf die zugrunde liegenden Elemente‘ zu ‚erklären‘ (bekannt unter dem Namen ‚Reduktionismus‘) ist bis heute virulent, und findet sich z.B. ungebrochen im Text von Wolf Singer wieder. Was immer wir an Verhaltensweisen bei einem Menschen beobachten können – er hat sich einige ausgewählt, die einige als ‚künstlerisch‘, als ‚Malerei‘ bezeichnen –, das Verhalten in seiner speziellen Funktionalität wird auf das Verhalten zugrunde liegender Elemente (Neuronen) zurückgeführt und soll damit ‚erklärt‘ sein.

METHODISCHE GRENZEN DER NEUROWISSENSCHAFTEN

18. Abgesehen mal davon, dass die Neurowissenschaften auch heute – was Singer sogar an einzelnen Stellen einräumt – in der Regel noch nicht über wirklich harte Erklärungsansätze verfügen (bedingt durch die Komplexität des Gehirns und Messproblemen), werden die Neurowissenschaften als solche – sofern sie ihren eigenen Methoden treu bleiben – grundsätzlich niemals und zu keinem Zeitpunkt auch nur einzige der beobachtbaren Funktionen im echten Sinne ‚erklären‘ können.

19. Wenn Neurowissenschaftler sich zu Verhaltenserklärungen hinreißen lassen, dann überschreiten Sie in diesem Moment die methodischen Grenzen, die den Neurowissenschaften grundsätzlich gesetzt sind. Erklärung von ‚Verhalten‘ geht prinzipiell über die Beschreibung von Neuronen, Neuronenverbänden, und dem Verhalten von Neuronen hinaus, da es sich um prinzipiell verschiedene Datenarten handelt. Verhalten ist die Domäne der (biologischen) Ethologie oder der modernen experimentellen verhaltensbasierten Psychologie. Diese beiden Disziplinen wissen (als Verhaltenswissenschaften) nichts von Körperzuständen und Neuronen. Begibt ein Neurowissenschaftler sich in das Gebiet des Verhaltens, dann begeht er eine methodische Grenzüberschreitung. Wenn er Verhalten beschreibe will, dann muss er seine Neuronen grundsätzlich und vollständig vergessen! Hält man sich nicht an diese methodischen Grenzziehungen, dann resultiert ein methodisches Chaos, das man leider in ganz vielen neurowissenschaftlichen Publikationen — bis hin zu den High-End Journalen — beobachten kann.

20. Natürlich kann man sich eine methodisch kontrollierte ‚Kooperation‘ zwischen ‚Neurowissenschaften‘ und ‚Psychologie‘ vorstellen – dafür gibt es auch schon lange den Namen ‚Neuropsychologie‘ –, aber eine solche Kooperation stellt sehr hohe methodische und theoretische Anforderungen. Es ist nicht zu sehen, dass sich die Mehrheit der Neurowissenschaftlern dieses Problems bewusst ist. Es gibt offizielle Lehrbücher mit dem Titel ‚Neuropsychologie‘ die in keiner Weise den wissenschaftstheoretischen Ansprüchen genügen, die man hier stellen muss.

21. Im Falle des Artikels von Wolf Singer meine ich sowohl die Erklärungsstrategie des ‚Reduktionismus‘ wie auch eine Grenzüberschreitung von der Neurowissenschaft zu den Verhaltenswissenschaften feststellen zu müssen.

KEIN BEZUG ZUR WISSENSCHAFTSTHEORIE

22. Das Grundproblem, wie man das beobachtbare Verhalten f eines biologischen Input-Output-Systems ‚erklärt‘, ist eine Fragestellung aus dem Bereich der ‚Meta-Wissenschaft‘ genannt ‚Wissenschaftstheorie‘, die letztlich zur ‚Philosophie‘ gehört, der allgemeinen Reflexion ‚über‘ die Dinge, nicht methodisch eingegrenzt auf eine bestimmte wissenschaftliche Fachdisziplin.

23. Insofern berührt der Text von Wolf Singer Aspekte und Fragestellungen, die über die Neurowissenschaften deutlich hinausgehen. Singer lässt aber nirgends in seinem Text erkennen, dass er sich dieser Sachlage bewusst ist. Er spricht über das Gehirn wie ein Techniker über seinen Schaltplan, aus dem er abliest, dass der Motor in Halle 3 nicht läuft, weil eine bestimmte Leitung mit einer bestimmten Bauteilgruppe nicht funktioniert.

24. Mit einem solchen platten ‚Erklärungsansatz‘ wird aber genau die Besonderheit des Phänomens schlicht und einfach verdeckt, zugedeckt, unsichtbar gemacht. Das verstehe ich unter einem ‚philosophisch-schwarzen Loch‘

DIE RÜCKKEHR DES GEISTES?

25. Ist schon die mangelnde Selbstreflexion der Neurowissenschaften traurig genug, so gerät diese zu einer gewissen Tragik, da sie – aufgrund ihrer aktuell starken gesellschaftlichen Akzeptanz – alternative Reflektionsansätze auf die Vielfalt der Phänomene zu übertönen droht und damit die Wahrnehmung von genau dem ‚Wunder des Geistes‘, das durch die Evolution der Körper mit Gehirnen möglich wurde, im Ansatz zerstören. Kann man das ‚Allmachtsgebaren‘ der Neurowissenschaften noch als ‚typisch menschlich‘ abtun, greifen die kognitiven Wirkungen des begrifflichen Allmachtgehabes die ontologische Brisanz der durch die Gehirne möglichen Phänomene in ihrer Substanz an.

26. Erinnern wir uns an die mathematische Formel von zuvor f: I \times IS \longrightarrow IS \times O. Es ist absolut unmöglich, aus der Beschaffenheit der Teile die Gesamtfunktion abzuleiten; insofern repräsentiert eine solche Funktion ein ‚Mehr‘ an Informationen.

REFERENZSYSTEM PHYSIK

27. Die Physik kennt keine Gesetze, die die Entstehung von Etwas aus einem ‚Nichts‘ beschreiben (‚ex nihilo nihil fit‘). Insofern ist eine Theorie wie die ‚BigBang-Theorie‘ das Maximum, was die Physik leisten kann: vorausgesetzt, es gab genügend viel Energie am Beginn des Zeitpfeils, dann kann man den ganzen ‚Rest‘ (nämlich die Entwicklung des bekannten Universums) daraus schrittweise ‚rekonstruieren‘.

28. Will man mehr, dann muss man – hypothetisch – annehmen, dass es ‚außerhalb‘ von unserem bekannten Universum noch viele andere Universen gibt, die alle miteinander auf bestimmte Weise wechselwirken können. In diesem Fall wird das Prinzip ‚ex nihilo nihil fit‘ aber nicht aufgehoben. Die endlichen Raum-Zeitgrenzen werden damit nur ‚beliebig weit‘ (rein gedanklich) ausgedehnt.

29. Bezogen auf das Verhalten konkreter Systeme würde die Physik fordern, dass man ein ‚Mehr an Information‘ erklären muss.

30. Die Physik versagt bislang aber nicht nur bei der Grundsatzfrage, wo denn die ungeheure Menge an Information in Form von Anfangsenergie ‚herkommt‘, sie versagt auch schon bei der – scheinbar – kleineren Frage, wie es zur Ausbildung von biologischen Systemen auf dem Planeten Erde kommen konnte.

31. Damit ist nicht die Detailfrage gemeint, ob bestimmte für das Leben wichtige Moleküle schon ‚fertig‘ aus dem Weltall auf die Erde kamen oder sich – auf bislang noch unklare Weise – auf der Erde ‚gebildet‘ haben, sondern die Grundsatzfrage, wie es möglich war, dass sich überhaupt biologischen Systeme auf dem Planeten Erde bilden und immer weiter ausbreiten konnten (Molekülbildung, chemische Evolution, biologische Evolution).

32. Nach den Gesetzen der Thermodynamik strebt das bekannte Universum zwar langfristig auf einen Ausgleich aller Energieunterschiede, solange aber noch lokale Unterschiede bestehen, solange können sich an den Rändern des Energiegefälles noch Phänomene ausbilden, die die an diesen ‚Rändern‘ verfügbare ‚freie‘ Energie für ‚ihre Zwecke‘ ’nutzen‘. Alle biologische Zellen und Zellverbände, sind solche Strukturen: sie entziehen ihrer Umgebung (freie) Energie und generieren immer komplexere Strukturen, die der Idee des ‚(entropischen) Ausgleichs‘ diametral entgegen wirken. Und die biologischen Strukturen tun dies in einer sowohl individuellen wie auch systemisch-vernetzten Komplexität, die jeden rein auf ‚Zufall‘ basierenden Erklärungsversuch schon im Ansatz (rein mathematisch) ad absurdum führt.

33. Will man an dieser Stelle nicht in pseudo-theologische Ansätze flüchten, die die Erklärungslücken nach eigenen Vorstellungen – beliebig ? — ‚auffüllen‘, dann benötigt man Erklärungshypothesen, die sich mit den Methoden der Wissenschaft(en) vertragen.

VERDECKTE (IMPLIZITE) EIGENSCHAFTEN

34. Wenn wir im großen Stil Phänomene beobachten und messen können, die sich als Funktionen f darstellen lassen, die sich nicht direkt aus den unmittelbaren ‚Teilen‘ des Phänomens herleiten lassen, dann gibt es – neben der notwendigen Klärung der Arbeitsweise unseres Denkens (sehr wohl auch unter Einbeziehung einer evolutionären Erkenntnistheorie) – natürlich die (ganz normale) Arbeitshypothese, dass es in ‚Verbindung‘ mit den beteiligten ‚Elementen E‘ des beobachtbaren Phänomens p nicht nur die ‚direkten Eigenschaften‘ P(E) der beteiligten Elemente gibt, sondern möglicherweise auch weitere (indirekte)Eigenschaften E* (‚hidden properties‘), die direkt nicht beobachtbar sind, sondern nur unter bestimmten Randbedingungen des Zusammenwirkens ’sichtbar‘ werden.

35. Dieser Denkansatz würde dann in die Richtung führen, dass genau jene Eigenschaften, die an komplexen Strukturen ’sichtbar‘ werden, nicht ‚aus dem Nichts‘ entstehen, sondern grundsätzlich in der Struktur der Materie-Energie angelegt sind und sich bei steigendem Komplexitätsgrad in immer komplexeren Formen ‚zeigen‘.

36. Insofern alles, was wir in der Geistes- und Kulturgeschichte über ‚Geist’/ ‚Geistigkeit‘ usw. kennengelernt haben, von genau jenem komplexen Körper mit Gehirn stammt, der sich in der biologischen Evolution schrittweise herausgeschält hat, kann man mit dieser Hypothese dann die Frage aufwerfen, ob das, was die Phänomene des ‚Geistes‘ ausmacht, nicht zurückgeht auf diese indirekten Eigenschaften der Materie-Energie. Falls ja wäre der ‚Geist‘ letztlich eine ‚interne Eigenschaft‘ der Materie-Energie von Anfang an (ein Gedanke, der philosophisch viele Vorläufer hat, wenngleich eingebettet in andere Wortspiele).

37. Für eine empirische Theoriebildung wären solchen Fragen grundsätzlich kein Problem. In jeder anspruchsvollen empirischen Theorie mit mathematischem Modell gibt es genügend viele theoretische Begriffe (auch ‚theoretische Terme‘ genannt), die nicht ‚explizit‘ (‚direkt‘) definiert sind, sondern nur im Kontext vieler anderer Begriffe und Funktionen, die als Gesamtmodell einen Erklärungsanspruch darstellen und als Gesamtmodell ‚wahr‘ oder ‚falsch‘ sind.

[Anmerkung: Die Annahme von ‚verborgenen‘, ‚indirekten‘ Eigenschaften sind in der modernen Physik seit langem üblich. Der berühmte ‚Teilchenzoo‘ der Quantenphysik bietet hier genügend Anschauungsmaterial.]

38. Eine neue empirisch begründete (!) wissenschaftliche universale Theorie des Geistes wäre vor diesem Hintergrund prinzipiell kein Problem. Sie würde aber voraussetzen, dass die einzelnen Disziplinen (wie z.B. die Gehirnforschung) sich ihrer methodischen Grenzen bewusst werden und es zulassen würden, dass andere wissenschaftliche Disziplinen im Bereich komplexer Verhaltensphänomene geeignete theoretische Modelle entwickeln, die sich zwar bedingt mit z.B. der Gehirnwissenschaft für begrenzte Fragestellungen korrelieren lassen, die aber in keinster Weise auf diese begrenzten Fachdisziplinen ‚reduzierbar‘ wären. Andersherum gesprochen: diese komplexen Theorien beschreiben Eigenschaften und Beziehungen ‚oberhalb‘ möglichen vorausgesetzten ‚primitiveren# Elementen, die nur in diesen komplexeren Begriffen ’sichtbar‘ werden und nur hier ihre ‚Bedeutung‘ haben. Eine ‚Reduktion‘ auf die einfacheren Elemente ist nicht nur rein logisch nicht möglich, sondern würde die eigentliche Aussage direkt zerstören.

[Anmerkung: Das Thema mit dem ‚impliziten‘ Geist wurde in diesem Blog schon mehrfach diskutiert; besonders vielleicht in diesem Beitrag.]

DER KUNSTBEGRIFF

39. Im übrigen wäre der Kunstbegriff, den Singer benutzt, kritisch zu hinterfragen. Er selbst stellt gleich zu Beginn einerseits fest, dass es überhaupt keinen Konsens zum Begriff ‚Kunst‘ gibt, andererseits nimmt er Bezug auf bestimmte Tätigkeiten, die er dann als ‚künstlerisch‘ bezeichnet. Was soll man jetzt denken? Warum und wie sollen bestimmte Aktivitäten von Neuronen etwas mit Kunst zu tun haben, wenn nicht klar ist, was genau Kunst ist? Warum schreibt er dann nicht gleich, dass er zum Verhältnis von Gehirn und Kunst nichts sagen kann, weil nicht klar genug ist, was Kunst ist?

Einen Überblick über alle Blogeinträge nach Titeln findet sich HIER.

NACHÜBERLEGUNGEN ZUM VORTRAG „NOTION OF GOD“ von GIUSEPPE TANZELLA-NITTI, Prof. für Dogmatische Theologie der Theologischen Fakultät der Päpstlichen Universität vom Heiligen Kreuz (Rom); Vortrag gehaltem am 17.Aug.2013 an der Universität UNICAMP (Campinas, Brasilien)

Letzte Änderung: Einfügung zweier Musikstücke am 24.August 2013

Als Begleitmusik (Variante 1)

PERSÖNLICHER NACHHALL

1) Die folgenden Überlegungen beabsichtigen nicht, den Vortrag als solchen wieder zu geben (als Hintergrundlektüre für den Vortrag war angegeben worden God, Notion of), sondern Gedanken, die sich für mich aus dem Vortrag ergeben haben, auch in Verbindung mit einem der anschließenden Gesprächskreise (der zum Glück auf Englisch war, da sich mein Portugiesisch bislang nur auf wenige Worte beschränkt).
2) Aufgrund meiner Biographie vermeide ich es eher, mich mit kirchlichen Themen zu beschäftigen, da das offiziell-kirchliche Denken — ich muss es so sagen — in meiner Erfahrung aufklärendes Denken eher verhindert als befördert. Aber da ich nun mal hier war und mein Freund den Vortrag besuchen wollte, bin ich mal mitgegangen.

EINSCHRÄNKUNG AUF GRENZEN DER WISSENSCHAFTEN

3) Eine kleine Überraschung war, dass der Vortrag selbst sich nur auf Aussagen der Wissenschaft beschränkte, und hier besonders auf die großen Diskussionen in der Physik bis ca. Ende des 20.Jahrhunderts. Alle anderen Wissenschaften wie die Geologie und Biologie mit dem evolutionären Veränderungsgeschehen auf der Erde, die Molekularbiologie und Neurowissenschaften mit den neuen Erkenntnissen zu den Grundlagen des Menschseins samt den Auswirkungen auf die moderne Philosophie, dies alles fehlte in dem Vortrag. Erst recht fehlte die Position der Kirche, die Theologie, wie diese sich zu dem Ganzen verhält (die in dem oben genannten Artikel ‚Notion of God‘ sehr wohl vorkommt).

GRENZEN UND IHRE ÜBERWINDUNG

4) Der Vortrag artikulierte im Munde des Vortragenden besonders drei Leitthemen: (i) Die Wissenschaft leistet aus Sicht der Kirche sehr wohl einen Beitrag zur Erkenntnis der Welt, wie sie ist; (ii) aufgrund der verwendeten empirischen Methoden in Kombination mit der Mathematik hat die Wissenschaft aber eingebaute Erkenntnisgrenzen, die verhindern, dass man das ‚große Ganze‘ sehen kann; (iii) die Lücken, die die Wissenschaft lässt, verlangen dennoch nach einer ‚Füllung‘, die mittels philosophischem und theologischen Denken geschlossen werden können.
5) Akzeptiert man die Annahmen, die der Vortragenden in seinem Vortrag stillschweigend macht (Anmerkung: Er hat nirgends seine eigenen Voraussetzungen offengelegt (und dies geschieht auch nicht in dem angegebenen Hintergrundartikel)), dann ist dies ein recht plausibler, schlüssiger Gedankengang.
6) Er brachte dann eine Fülle von Originalzitaten aus Briefen und Büchern berühmter Forscher, die alle mit je eigenen Worten ihre persönliche Position bezüglich der Grenzen der wissenschaftlichen Erkenntnis zum Ausdruck brachten; diese mündeten in den einen Tenor, dass sie ‚hinter allem‘ letztlich eine alles übergreifende Ordnung vermuten oder gar direkt von ‚Gott‘ sprechen. Abgerundet wurde der Zitatenstrauss durch eine Episode während einer wissenschaftlichen Konferenz im Vatikan, bei der Stephen Hawking, bekennender Atheist und aus Sicht der Kirche illegal ein zweites Mal verheiratet eine Begegnung mit Papst Paul II. hatte und der Papst Hawking entgegen Hawkings Erwartungen nicht kritisierte (in der Vergangenheit hatte Hawking von einem Papst sogar eine hohe kirchliche Auszeichnung bekommen, die der Papst (Foto war da) ‚kniend‘ überreicht hatte).

EINE FALSCHE ‚HEILE WELT‘?

7) So nett dies alles klingt, es führt letztlich an der Sache vorbei und gaukelt eine ‚heile Welt‘ vor, die so nicht existiert.

KOMMENTAR: HISTORISCHE EINORDNUNG DER WISSENSCHAFT FRAGWÜRDIG

8) In meinem ersten Kommentar in der Vortragsrunde habe ich versucht deutlich zu machen, dass die Fokussierung auf die ‚Grenzen‘ wissenschaftlichen Erkennens — so lehrreich sie in gewissen Details sind — letztlich aber die Sicht auf den tatsächlichen Gang der historischen Entwicklung verstellt. Das, was aus einer vom Vortragenden bewusst gewählten Sicht als ‚Begrenzung‘ des Wissens durch die moderne Wissenschaften erscheint, erweist sich im realen historischen Kontext als gewaltige Befreiung! Vor dem systematischen Betrieb von empirischer Wissenschaft — wobei man Galileo Galilei (1564– 1642) als einen Bezugspunkt für den historischen Beginn setzen kann (natürlich gab es auch vor Galileo andere, die schon empirische Untersuchungen angestellt haben, die Mathematik zur Beschreibung benutzt haben, aber mit seiner Person, seinen Werken und seinem Schicksal verbindet sich die Geschichte der modernen Wissenschaften in besonderer Weise) — gab es ein Sammelsurium von Wissen, stark dominiert von einem philosophischen Denken, das trotz der Klarheit eines Aristoteles (384-322BC) stark in den Fallstricken der natürlichen Denkens verhaftet war und mittels einer sogenannten Meta-Physik alle die Fragen löste, die das übrige Wissen zu dieser Zeit noch nicht lösen konnte. Dies vermittelte zwar den Eindruck von ‚Klarheit‘ und ‚Sicherheit‘, da man ja alles meinte ‚erklären‘ zu können. Der große Nachteil dieses Wissens war, dass es nicht ‚falsch‘ werden konnte. Unter der Flagge der Meta-Physik konnten also auch größte Unsinnigkeit geäußert werden und man konnte sie nicht widerlegen. So schlimm dies in sich schon ist, so schlimm wird dies dann, wenn eine politische oder kirchliche Macht (oder beide zusammen, was geschehen ist), ihre eigenen Wahrheits- und Machtansprüche mit solch einer Denkform, die nicht falsch werden kann, verknüpft. Eine kirchliche Macht formal verknüpft mit einem ‚abgeleiteten‘ Aristoteles konnte jedes ’neue‘ und ‚andersartige‘ Denken im Ansatz unterbinden. Vor diesem Hintergrund war das Aufkommen der empirischen Wissenschaften eine wirkliche Befreiung, eine Revolution und das harte unerbittliche Vorgehen der Kirche gegen die ersten Wissenschaftler (bis hin zum Tod auf dem Scheiterhaufen) belegt, dass die Inhaber der Macht sehr wohl gespürt haben, dass ein empirisch wissenschaftliches Denken trotz seiner eingebauten Grenzen mächtig genug ist, die metaphysischen Kartengebäude der Vergangenheit zum Einsturz zu bringen. Und die weitere Entwicklung zeigt überdeutlich, dass es genau dieses empirische-wissenschaftliche Denken war, das im Laufe der letzten 400 Jahre schrittweise immer mehr unser gesamtes Denken über das Universum, die Erde, das Leben und den Menschen ‚umgegraben‘ hat; wir haben atemberaubende Einblicke erlangt in ein universelles Geschehen und in einen Mikrokosmos, der alles übersteigt, was frühere Zeiten nicht einmal ahnen konnten. Wenn ein Aristoteles heute leben könnte, er wäre sicher besinnungslos vor Glück angesichts all dieser aufregenden Erkenntnisse (und natürlich würde er seine Meta-Physik komplett neu schreiben; er würde es sicher tun, nicht so die vielen philologischen Philosophen, die immer nur neue Ausgaben editieren (so wertvoll dies für sich auch sein mag)).
9) Von all dem hat der Vortragende nichts gesagt! Er hat es tunlichst vermieden, hätte er doch unweigerlich die hochproblematische Rolle der realen Kirche in diesem historischen Prozess zur Sprache bringen müssen, noch mehr, er hätte sich unangenehmen Fragen danach stellen müssen, wie es denn die Kirche heute mit der wissenschaftlichen Erkenntnis hält. Dies war mein zweiter Punkt, den ich im Plenum angemerkt habe.

KOMMENTAR: AUSLASSUNG DER NEUEREN WISSENSCHAFTSENTWICKLUNG; SCHWEIGEN ÜBER WISSENSCHAFTLICHE ERKENNTNISSE IN ANWENDUNG AUF DIE BIBEL

10) In dem zitierten Dokument God, Notion of) werden einige kirchliche Dokumente aufgelistet, die auf die eine oder andere Weise — zumindest in Worten — eine grundlegende Wertschätzung von allgemeinen wissenschaftlichen und philosophischen Erkenntnissen zum Ausdruck bringen. Allerdings, wie oben schon angemerkt, werden viele neue wissenschaftliche Disziplinen, speziell jene im Umfeld der chemisch-biologischen Evolution, Neurowissenschaften, künstliche Intelligenzforschung, ausgeklammert. Und — dies fällt vielen Nicht-Theologen vermutlich gar nicht auf — die Anwendung wissenschaftlicher Methoden auf die sogenannten ‚Offenbarungsschriften‘ des alten und Neuen Testaments (kurz ‚Bibel‘ von Griechisch ‚biblos‘ = Buch) und die theologische Lehre insgesamt wird nahezu vollständig ausgeblendet. In allen offiziellen kirchlichen Texten spielen die gut 100 Jahre andauernden wissenschaftlichen Untersuchungen zur Überlieferungsgeschichte der biblischen Dokumente, ihre historischen Kontexte, ihre literarische Formen, ihre redaktionellen Be- und Überarbeitungen, ihre Übernahme vorgegebener Themen aus dem Umfeld, usw. keine ernsthafte Rolle (Anmerkung: Diese Feststellung bezieht sich wohlgemerkt auf die offiziellen kirchlichen Verlautbarungen. In den meisten theologischen Hochschulen — zumindest im deutschsprachigen Bereich –werden diese Methoden im Rahmen der Wissenschaften von der Bibel (Exegese) sehr wohl gelehrt und angewendet, allerdings, wie man sieht, im offiziell kirchlichen Denken ohne Konsequenzen). Das gleiche zieht sich fort in den theologischen Disziplinen, die zum dogmatischen Denken gehören. Hier wird Wissenschaft und moderne Philosophie — wenn überhaupt — nur sehr selektiv einbezogen. Diese gelebten Realitäten einer Kirche sprechen eine andere Sprache als die schönen Worte der offiziell kirchlichen Verlautbarungen. Würde man die hier in den letzten 100 Jahren gewonnenen Erkenntnisse ernst nehmen, dazu die übrigen neuen wissenschaftlichen Erkenntnisse, dann würde man viele gewohnte kirchliche Positionen ziemlich sicher korrigieren müssen. Während die einen dies als ‚Verlust‘ empfinden mögen, als ‚Bedrohung‘, werden andere daran einen möglichen Weg sehen, die ursprüngliche Sprengkraft eines christlichen Glaubens auch unter veränderten Erkenntnisbedingungen wieder besser denken und dann vielleicht auch besser leben zu können. Auf diesen ganzen Komplex von Wissenschaftsverachtung durch die reale Kirche heute ist der Vortragende mit keinem Wort eingegangen (in dem von ihm angegebenen Text lässt der abschließende Abschnitt über die Sicht der Theologie den Eindruck entstehen, als ob er selbst als Autor diese 100 Jahre umfangreichster wissenschaftlicher Arbeiten zur Bibel auch völlig ausklammert und stattdessen nur klassische metaphysische Muster wiederholt, deren Gültigkeit heute mehr als fragwürdig ist).

KOMMENTAR: SCHLIESSEN DER LÜCKEN MIT UNGEEIGNETEN MITTELN

11) Damit kommen wir zum dritten Themenkreis, dem Schließen der ‚Lücken‘, die das wissenschaftliche Denken angeblich lässt. Nu muss man an dieser Stelle selbstkritisch einräumen, dass die vielen empirisch-wissenschaftlichen Disziplinen bis heute keinen einheitlichen, überall anerkannten ‚meta-wissenchaftlichen‘ Überbau in Form einer allgemein verbreiteten ‚Wissenschaftstheorie‘ oder ‚Philosophy of Science‘ haben; sofern es solche Professuren gibt, sind diese oft vereinzelt, isoliert, eher der Philosophie zugeschlagen und abgetrennt von den Wissenschaften, die dieses Denken eigentlich brauchen. Die ohne Zweifel in jedes wissenschaftliche Erkennen einfließenden philosophischen Anteile sind oft wenig thematisiert oder gar nicht thematisiert. Andererseits ist es aber so, dass de reale Gang der empirischen Wissenschaften beständig begleitet war von allerlei methodologischen Diskussionen. Die große Mannigfaltigkeit der Disziplinen und der hohe Veränderungsgrad machen es allerdings schwierig, hier mit einer Reflexion Schritt zu halten (zumal diese von den Universitäten zum Leidwesen der Wissenschaften kaum honoriert oder unterstützt wird). Aus dieser, sich aus der Sache heraus ergebenden, Schwierigkeit dann abzuleiten, dass es so etwas wie eine Philosophie der realen Wissenschaften nicht geben kann und dass man stattdessen doch lieber Vorlieb nimmt mit den ‚Philosophen der Vergangenheit‘ (die können sich ja nicht mehr wehren), ist verständlich, wenngleich für den Wissenschaftsbetrieb unglücklich. Statt die Kluft zwischen ‚Denken in der Vergangenheit und Denken heute‘ zu schließen, wird diese Kluft dann eher zementiert. Aus dieser unbefriedigenden Situation heraus entstehen dann solche Lösungsvorschläge, die ‚Erkenntnislücken‘ der heutigen Wissenschaften mit den Konzepten der alten klassischen Metaphysik zu ‚überbrücken‘ (zu ‚transzendieren‘), da man ja letztlich (so die stillschweigende Annahme) aus dem vorausgesetzten allgemeinen ‚Logos‘ (ein Begriff aus der griechischen Philosophie, zusätzlich aufgeladen durch die biblischen Schriften, u.a. vom Johannesevangelium her, das im griechischen Text auch vom ‚logos‘ spricht) existentiell und logisch meint allgemeine Zusammenhänge herleiten zu können, um die Erkenntnislücken empirischer Wissenschaften zu schließen.
12) Wie gesagt, die empirischen Wissenschaften bieten leider kein ideales Bild, aber die Einbeziehung von klassischen philosophischen Positionen ohne weitere Begründung ist nicht sehr rational. Da werden mindestens 400 Jahre kritische methodische Reflexionen komplett unterschlagen. Hier nur ein paar Anmerkungen (eine korrekte Darstellung könnte ganze Bücher füllen):

EINWÄNDE GEGEN NAIVE INANSPRUCHNAHME VON ‚LOGOS‘ UND METAPHYSIK
– ERKENNTNISTHEORIE

13) (i) ein Einspruch kommt von der modernen Erkenntnistheorie (etwa ab Descartes, über Hume, Kant, Locke und vielen anderen bis hin zur evolutionären Erkenntnistheorie). Hier hat man erkannt, dass unsere subjektive Erlebnis- und Denkwelt ganz konkrete Voraussetzungen hat, die in der Struktur und der Funktion des Gehirns begründet sind, das wiederum zusammen mit dem umgebenden Körper eine Entwicklung von vielen Millionen Jahren hinter sich hat. Die Art und Weise unseres Denkens ist ein Produkt, und die heutigen Erlebnis- und Denkformen bilden keinen endgültigen Schlusspunkt, sondern repräsentieren eine Übergangsform, die in einigen Zehntausend Jahren (falls die Gentechnik nicht schon früher Änderungen hervorbringt) anders aussehen werden als heute. Beispielsweise sehen wir (durch die Kodierung des Gehirns) beständig ‚Objekte‘, aber in der physikalischen Welt gibt es keine Objekte, nur Eigenschaftsmengen, Energiefelder. Eine klassische Metaphysik konnte unter Voraussetzung des subjektiven Denkens mit Objekten in Form einer ‚Ontologie‘ operieren, eine moderne Philosophie muss erst einmal erklären, wie sie damit klar kommt, dass unser Gehirn subjektiv überall Objekte konstruiert, obwohl es physikalisch eigentlich keine Objekte gibt (und eine moderne Philosophie muss natürlich noch erheblich mehr erklären als dieses).

– SPRACHPHILOSOPHIE

14) (ii) Ein zweiter Einspruch kommt von der Sprachphilosophie. Der Vortragende erwähnte zwar auch den frühen Wittgenstein (1889-1951) als Kronzeugen für die Einsicht in die Grenzen dessen, was man mit Sprache sagen kann, um damit einmal mehr die Grenzen der empirisch-wissenschaftlichen Methode zu thematisieren, er versäumte es dann aber, auch den späten Wittgenstein zu erwähnen, der nachhaltig aufzeigen konnte, wie die Grenzen des Sagbaren alle Sprachspiele durchziehen, auch die Alltagssprache, auch — und nicht zuletzt! — die Sprache der Philosophen. Konnte man in früheren Zeiten als Philosoph einfach einen Satz hinschreiben mit der trügerischen Annahme, das könne wohl jeder verstehen, der verstehen will, kann nach Wittgenstein jeder, der es wissen will, wissen, dass dies eine wenig haltbare Position ist. Nicht nur jeder Satz, sondern sogar jedes einzelne Wort unterliegen dem Problem, dass ein Sprecher A das, was er mit bestimmten Lauten oder Zeichen verbunden wissen will (die Bedeutung), in keinem einzigen Fall als selbstverständlich gegeben bei einem anderen Sprecher B voraussetzen kann. Dies liegt daran, dass die Zuordnung von sprachlichem Ausdruck und das mit dem Ausdruck Gemeintem nicht zwangsweise mit dem Ausdruck selbst verknüpft ist, sondern in jedem einzelnen Fall mühsam gelernt werden muss (was jeder, der mühsam eine neue Sprache lernen will auf Schritt und Tritt erfährt). Mag dies bei Bezugnahme auf empirische Sachverhalte noch einigermaßen gehen, wird es bei nicht-empirischen Sachverhalten zu einem Rate- und Glücksspiel, das umso abenteuerlicher ist, je weniger Bezugspunkte zu etwas anderem, was schon bekannt ist, vorliegen. Wer schon einmal klassische philosophische Texte gelesen hat, der weiß, dass philosophische Texte in der Regel NICHT von empirischen Sachverhalten sprechen, sondern von Erlebnis- und Denkstrukturen, die als solche nicht wie Objekte aufzeigbar sind. Die Vielzahl unterschiedlicher Interpretationen ein und desselben klassischen philosophischen Textes ist von daher kein Zufall sondern resultiert aus dieser schwierigen Bedeutungslage. Klassische philosophische Texte sind ’schön‘, solange man sie nicht ernsthaft analysiert; tut man dies, verliert man sich unweigerlich in immer mehr Aporien.
15) [Anmerkung: Ich selbst war Teilnehmer des folgenden Experimentes an derjenigen deutschen Universität, die als einzige unter den ersten 50 Plätzen internationalen Universitätsrankings vorkommt. Teilnehmer waren zwei bekannte Philosophieprofessoren, zwei habilitierte Assistenten und mindestens drei Doktoranden der Philosophie. Es ging um die Frage, ob man die Einleitung in Kants Kritik der reinen Vernunft so interpretieren könne, dass alle ausnahmslos zustimmen müssten. Das Experiment lief zwei Semester lang. An Methoden war alles erlaubt, was bekannt war und dienlich erschien. Natürlich wurden u.a. auch alle bisher verfügbaren Kommentare berücksichtigt. Nach zwei Semestern gab es nicht einmal ansatzweise eine gemeinsame Sicht der Dinge. Beweisen tut dies im strengen Sinne nichts. Ich fand es damals sehr ernüchternd.]
16) Fasst man die Erkenntnisse der modernen Erkenntnistheorie und die der modernen Sprachphilosophie zusammen, dann erscheint es nicht nachvollziehbar und geradezu gewagt, anzunehmen, man könne die bislang erkannten Grenzen der modernen empirisch-wissenschaftlichen Erkenntnis durch einen unreflektierten Rekurs auf einen alles übergreifenden ‚Logos‘ einfach so überbrücken. Diese Art von ’naiver‘ (sprich ‚unreflektierter‘) Meta-Physik (und Ontologie) ist vorbei.
17) Bedenkt man die Bedeutungs-Probleme, die die Alltagssprache besitzt, ist die Situation in den empirisch-wissenschaftlichen Disziplinen ja geradezu noch ‚idyllisch‘. Bis zu einem gewissen Grad gibt es hier noch aufzeigbare und kontrollierbare ‚Bedeutung‘, wenn auch nicht vollständig.

VERZICHT AUF ‚LOGOS‘ ODER METAPHYSIK BEDEUTET NICHT GOTTLOSIGKEIT

18) Akzeptiert man die kritischen Argumente, dann folgt daraus NICHT — wie der Vortragende zu unterstellen scheint –, dass sich damit die Frage nach einem letzten ‚Sinn‘ oder gar die Frage nach etwas, das wir ‚Gott‘ nennen, grundsätzlich erledigt hat. Was sich allerdings weitgehend erledigt hat, ist, dass man tiefgreifende Fragen, die sich durch das Fortschreiten der Wissenschaften dem Wahrheitssuchenden öffnen weder durch Rekurs auf eine vor-kritische naive Metaphysik ‚überspielen‘ kann, noch dass man theologische Positionen als Antworten benutzen kann, die sowohl die wissenschaftliche kritische Analyse der religiösen Überlieferungsgeschichte wie auch der sich aus den Wissenschaften ergebenden neuen Erkenntnisse zur Struktur des Menschen, seiner Erkenntnisfähigkeit, seinen Erlebnisstrukturen usw. unberücksichtigt lassen. Das, was der Vortragende in dem zitierten Artikel tut, ist aber genau dies: er benutzt die alte naive Metaphysik, als ob es die letzten 400 Jahre nicht gab, und er benutzt eine theologische Interpretation, die genau jene Wissenschaft, die zuvor als so wichtig gepriesen wird, vollständig ausklammert. Das ist in meinen Augen nicht seriös, das ist nicht rational, das ist unwissenschaftlich, das hilft all den Menschen nicht, die ernsthaft nach Wahrheit suchen und nicht nur eine ‚psychologische Beruhigung‘ mit ‚einlullenden Bildern‘ (obwohl das Erzählen von Märchen sehr wohl der Wahrheitsfindung dienen kann; man muss sie nur richtig erzählen. Viele der Gleichnisse (einfache Form von Märchen?), die der Gestalt Jesus von Nazareth zugeschrieben werden, sind z.B. von dieser Natur: sie machen Punkte im Verhalten von Menschen deutlich, denen man eine gewisse Lebensweisheit nicht absprechen kann (eine Weisheit, die nicht jeder mögen muss)).

DIE GRENZEN DER SPRACHE IMPLIZIEREN NICHT EINE BEGRENZTHEIT DER WELT

19) Der Gesprächskreis im Anschluss an den Vortrag war sehr heterogen. Ich selbst habe aus den vielen Aussagen folgenden Gedanken mitgenommen: Die Grenzen der Sprache (Für die Mathematik aufgezeigt durch Gödel (und auch Turing)), für die allgemeine Sprache durch Wittgenstein) bedeuten nicht das Ende der Erkenntnis, sie machen uns nur deutlich, dass die grundsätzlichen Möglichkeiten des Erkennens für uns Menschen (bisher, unter Voraussetzung des aktuellen Erkenntnisapparates) nicht beliebig sind und dass wir, wenn wir ‚wahre‘ Erkenntnis wollen, jene, die uns aus den Wirrungen des alltäglichen naiven Weltbildes tatsächlich herausführen kann, dass wir dann diese Grenzen beherzigen und berücksichtigen sollten. Dass die scheinbare Begrenzung des wahren Erkennens auf die empirisch-wissenschaftliche Vorgehensweise uns gegenüber dem Vorgehen mit der nur scheinbar alles umfassenden naiven metaphysischen Denkweise in geradezu explosionsartiger Weise in Denkräume hinein katapultiert hat, von denen keiner der alten Philosophen auch nur träumen konnte, dies sollte uns Ermutigung und Anstoß sein, diesen Weg beherzt weiter zu gehen. Darüber hinaus zeigt sich aber ein fundamentaler Tatbestand: explizites, sprachlich vermitteltes Denken kann letztlich nur jener Wirklichkeit folgen, in der wir uns vorfinden und die allem Denken voraus ist. Was wir nicht aufzeigen können, ist letztlich nicht greifbar. Mehr noch, nur im Erfahren des ‚wirklich Anderen‘ — dem Empirisch-widerständigen — erfahren wir uns selbst als das ‚Andere zum anderen‘, als ‚Selbst‘ und das, ‚was‘ wir sind bzw. sein können, wissen wir erst dann, wenn wir selbst in unserem konkreten Dasein uns selbst sichtbar werden. Dies aber bedeutet, nur wenn wir ‚aus uns heraus‘ gehen, nur wenn wir ‚uns aufs Spiel setzen‘, nur wenn wir etwas ‚Probieren‘, nur dann kann sichtbar werden, ‚was‘ bzw. ‚wer‘ wir ‚tatsächlich sind‘. Nur weil das ‚biologische Leben‘ beständig weiter ‚aus sich heraus‘ gewachsen ist, immer mehr ‚Varianten probiert‘ und ‚Komplexitäten geschaffen‘ hat sind Formen des Lebens entstanden, von denen wir ein kleiner Teil sind. Dass das DNA-Molekül und der zugehörige Übersetzungsmechanismus ‚begrenzt‘ ist (verglichen mit den klassischen metaphysischen Konzepten geradezu lächerlich primitiv) war — und ist — kein Hindernis dafür, dass immer komplexere Lebensformen entstanden sind, so komplex, dass unser heutiges Denkvermögen sie nicht vollständig beschreiben kann. Die Grenzen der Sprache sind NICHT die Grenzen des Lebens und der Wahrheit. Die Wahrheit geht jeder Sprache — und erst recht jeder Metaphysik — um Lichtjahre voraus.

JEDER KANN SEIN ‚GOTTESEXPERIMENT‘ MACHEN

20) Sollte es so etwas wie einen ‚Gott‘ geben, so brauchen wir uns mit Sicherheit keine Sorgen darum machen, ob er ‚ist‘, was er ‚tut‘ oder ob wir ihn ‚richtig erkennen‘. Wenn es einen ‚Gott‘ als das letztlich Unbegreiflich alles Umfassende geben sollte, dann kann man davon ausgehen, dass er schon immer handelt (auch ohne uns zu fragen), er ist schon immer bei und in uns, ohne dass wir darum bitten müssen, und er lässt die ‚Wahrheit‘ auch in Lebensformen aufscheinen und sich entwickeln, die wir uns nicht ausgedacht haben und über die wir keine Verfügungsgewalt haben. Mit Sicherheit ist dieser Gott nicht an eine spezielle ethnische Gruppe gebunden, mit Sicherheit interessiert diesen Gott nicht, was wir essen und trinken, mit Sicherheit spielt Jungfrauengeburt und ähnliche Folklore keine Rolle. Für diesen Gott, so es ihn gibt, geht es um wirklich Grundlegendes. Aus meiner beschränkten Wahrnehmung sehe ich nicht, dass irgendeiner der heute lebenden Religionen (Judentum, Christentum, Islam…) wirklich ernsthaft an Gott interessiert ist. Dazu ist viel zu viel Hass unterwegs, zu viel Menschenverachtung, zu viele gruppenspezifische Egoismen, zu viele Herrschaftsstrukturen, die nur denen dienen, die herrschen, zu viel Folklore, zu viel Geldmacherei, zu wenig echtes Wissen.
21) Alles in allem — das habe ich in einem andren Blogeintrag auch schon mal ausgeführt — kann man den Eindruck gewinnen, dass es heute weniger die alten Religionen sind, die uns etwas Interessantes über den Sinn dieser Welt und über Gott zu sagen haben, als vielmehr die modernen Wissenschaften, die trotz ihrer Unvollkommenheiten ein Fenster der Erkenntnis aufgestoßen haben, dass alle Räume sehr weit aufmacht, so weit, dass wir noch gar nicht alles fassen können, was wir da sehen, zugleich werden die Grundrisse einer neuen Spiritualität sichtbar, die zu erkunden und auszuprobieren noch viel zu tun bleibt.
22) Das wäre mein letzter Punkt (zu dem es auch schon frühere Blogeinträge gibt). Wenn das alles stimmt, was uns die empirischen Wissenschaften sagen, dann ist die Annahme einer direkten Kommunikation ‚Gottes‘ — was immer man alles über ihn im Detail noch sagen kann — mit jedem Punkt des Universums — und damit natürlich auch mit jedem Lebewesen, auch mit uns Menschen — grundsätzlich möglich, und zwar jederzeit und überall. Niemand braucht eine vermittelnde Instanz dazu, da wir durch unsere Körper (die ja alle aus Zellen bestehen, diese aus Molekülen, diese aus Atomen, diese aus subatomaren Teilchen) jederzeit mit jedem Punkt im Universum kommunizieren können. Die grundlegenden Regeln der — zumindest christlichen — Mystik sind mit diesem empirischen Befund deckungsgleich. Es macht ja auch keinen Sinn, ‚Gott‘ als alles umfassenden und ermöglichenden Grund allen Seins zu postulieren und ihm dann zu verbieten, sich mit jedem Punkt des Universums verbinden zu können. Von der Quantenphysik her gibt es jedenfalls keine grundlegenden Einwände (was nicht bedeutet, dass wir in der Quantenphysik soweit wären, eine solche Kommunikation vollständig beschreiben zu können). Das gute daran ist, man muss dies nicht ‚glauben‘, sondern man kann es ‚tun‘, d.h. jeder kann sein privates ‚Gottesexperiment‘ machen und mit Gott in Kontakt treten. Man muss dafür kein Geld bezahlen, man braucht dazu keine ‚Genehmigung‘, man muss dazu keinen Universitätsabschluss gemacht haben, man muss dazu keiner bestimmten politischen Partei angehören, man muss dazu kein Millionär sein; das ‚einfache Menschsein‘ genügt. Die einzige Bedingung, man muss es einfach ‚tun‘, womit wir wieder bei dem zentralen Sachverhalt sind: Leben gibt es nur dort, wo es sich ‚ereignet‘, indem man seine Möglichkeiten ausübt…

Eine Übersicht über alle bishergen Blogeinträge nach Titeln gibt es HIER

Variante Nr.2

DIE GROSSE VEREINIGUNG: Philosophie, Wissenschaft, Kunst und Religion?

1. Nachdem in den letzten Wochen — zumindest gedanklich — die ‚Vereinigung‘ von getrennten Bereichen fortgesetzt wurde (Seit Januar 2012 Philosophie und Wissenschaft, seit Februar 2013 Philosophie, Wissenschaft und Theologie/ Religion), blieb die Frage nach der Rolle der Kunst bislang außen vor.
2. Dies gründet nicht darin, dass ich selbst etwas gegen Kunst hätte — partiell war und bin ich selbst künstlerisch engagiert –, aber auch mir geht es so wie vielen (den meisten?) heute, dass diese Bereiche in unser Gesellschaft akribisch getrennt werden. In den Schulen, insbesondere den Hochschulen des Landes, sind diese Bereiche voneinander abgeschottet. In den großen Zeitungen sind die Redaktionen ebenfalls säuberlich getrennt: hier die Wissenschaften, hier das Feuilleton als Sammelstelle für Alles, was nicht Wissenschaft ist, ausgenommen Politik und Wirtschaft.
3. Und da wir uns im Normalfall eher innerhalb der vorgebahnten gesellschaftlichen Rollen und Leitplanken bewegen, praktizieren wir ein gedankliches Schisma, das — zumindest Europa und die davon beeinflussten anderen Länder — seit Jahrhunderten besteht.
4. Nun geht es nicht unbedingt um eine ‚Gleichmacherei‘, als ob Kunst gleich Wissenschaft sei oder umgekehrt, aber zumindest um die Frage der ‚inneren Beziehung‘ zwischen Philosophie, Wissenschaft, Kunst und Religion.
5. Für eine solche Fragestellung gibt es viele Gründe: Trotz vieler wissenschaftlicher Disziplinen, vieler unterschiedlicher Künste, leben wir in EINER Welt, in der dies alles ‚gleichzeitig‘ passiert, als reales Geschehen. Also sind es ‚genuine Phänomene‘ dieser einen Welt, die etwas, über die Eigenschaften dieser Welt sagen. Ferner ist es EINE spezifische Gattung, der homo sapiens sapiens, der all diese Verhaltensweise aufweist, manifestiert. Trotz aller Unterschiedlichkeit entspringen alle diese verschiedenen Phänomene einer Quelle und illustrieren je auf ihre Weise Eigenschaften dieser einen Quelle.
6. Eine Abschottung dieser verschiedenen Phänomene voneinander wäre radikal ‚unphilosophisch‘, würde dies doch bedeuten, dass man das, was die Grundlage allen Erkennens bildet, Phänomene als Teil des Erlebensraumes, ‚verdrängen‘, ‚verleugnen‘ würde. Das kann nicht angehen. Philosophisch haben wir keine ‚Metaregel‘, die es uns erlauben würde, beliebige Phänomene zu ‚Un-Phänomenen‘ zu erklären. Das oberste philosophisches Prinzip lautet, JEDES Phänomen zunächst mal als Phänomen zu akzeptieren. Wie man dieses dann später ‚interpretiert‘, ist eine nachgeordnete Frage, verlangt jedoch — zumindest im philosophischen Denken — maximale ‚Transparenz‘.
7. Die Hauptaufgabe der Philosophie angesichts der Vielfalt der Phänomene ist also die ‚Wahrung der Vielfalt‘ mit allen verfügbaren denkerischen Mitteln.
8. Die empirischen Wissenschaften haben sich in den Jahrhunderten seit ihrer Profilierung (kein einzelnes Anfangsdatum; schleichender gesellschaftlicher Prozess) dadurch ausgezeichnet, dass sie in Kombination von ‚empirischen Messverfahren‘ und ‚mathematischer Modellierung‘ TEILBEREICHE der Phänomenwelt untersucht haben. Ihre Ergebnisse sind zweilfellos atemberaubend. Dennoch sollte man vor lauter Begeisterung nicht den Blick dafür verlieren, dass es eben TEILBEREICHE des Phänomenraumes sind, d.h. dass diese Untersuchungen nur möglich waren, weil man ‚methodisch bewusst‘ viele andere Phänomene ‚ausgeklammert‘ hat, da sie mit empirischen Mitteln nicht untersuchbar waren. Zugleich hat die empirische Wissenschaft im Laufe der Jahrhunderte deutliche ‚gedankliche Entwicklungen‘ erlebt: mathematische Modelle wurden laufend verändert, verfeinert, bisweilen durch völlig neue Paradigmen ‚ersetzt‘ (z.B. klassische Physik a la Newton und Quantenphysik).
9. Es scheint so zu sein, dass die ‚Ausklammerung‘ der nicht empirisch messbaren Phänomene — mangels hinreichender philosophischer Reflexion ?! — bei vielen Akteuren zu dem Eindruck geführt hat, dass die REDUIZIERTEN (nicht ‚reduktionistisch‘!) empirischen Theorien eigentlich schon ‚Alles‘ abdecken, was sie natürlich nicht tun, da sie ja einen Großteil der Phänomene schlichtweg ausklammern. Sachlich gesehen ist dies kein Problem, aber psychologisch und machtpolitisch ist es natürlich ‚angenehmer‘, eine gesellschaftlich ’starke‘ Position zu haben als eine ’schwache‘ (z.B. die geisteswissenschaftlichen Disziplinen als ‚Sorgenkinder‘ der zunehmend ökonomisierten Universitäten). Eine Aufrechterhaltung des empirischen Interpretationsmonopols ist also weniger philosophisch-rational begründet als vielmehr psychologisch, soziologisch usw.
10. Dies so sachlich zu diagnostizieren, ist eine Sache. Eine andere Frage ist, wie man sich denn ein weniger abgrenzendes, sondern eher ein konstruktives Verhältnis zwischen empirischen Wissenschaften und den Künsten vorstellen soll? (Also Geisteswissenschaften erweitert um Kunst!)
11. Ein Verständnis der Künste könnte der kreativ-spielerische Umgang mit der ganzen Bandbreite der Phänomene sein ohne die methodisch induzierten Grenzen durch die empirischen Messverfahren. Dies würde sowohl neue Phänomene wie auch neue, implizite Zusammenhänge in diesen Phänomenen sichtbar machen, die für das, was wir als homo sapiens sapiens in dieser Welt sind/ sein können, wesentlich sind. Denn wir ‚kennen‘ uns nur ‚im Vollzug‘. Wer wir ’sind‘ bzw. wer wir ’sein können‘ zeigt sich nur im ‚praktischen Ausloten‘ der Möglichkeiten. Die methodisch induzierten Grenzen der Phänomenselektion der empirischen Wissenschaften sind im Grundsatz zu eng und — falsch verstanden — ideologisch gefährlich. Genauso wenig wie wir philosophisch auftretende Phänomene einfach ‚beiseite schieben‘ können, genauso wenig dürfen wir von vornherein bestimmte Verhaltensweisen einfach — ohne sehr harte Gründe — verbieten, da nur so überhaupt die Phänomene sichtbar werden können, die uns zu neuen, erweiterten Erkenntnissen führen können.
12. Dass bestimmte Phänomenproduktionen wie z.B. bestimmte Formen von ‚Musik‘ oder bestimmte ‚Bilder‘, in Menschen ‚angenehme Gefühle‘ anregen können, dürfte nicht das primäre und nicht das einzige Interesse in der Phänomenproduktion sein. Sonst würde durch solche spezielle Gefühle der gleiche selektierende Isolationseffekt entstehen, wie durch die methodisch induzierten Eingrenzungen der empirischen Wissenschaften (Die Geschichte ist voll von ‚Moden‘ und ‚Trends‘, die sich gewandelt haben und die sich selbst wechselseitig außer Kraft gesetzt haben. Die Rolle und Bedeutung von ‚Gefühlen‘ bei der Bewertung von Wirklichkeit wäre eine eigene Reflexion wert).
13. Die Auslotung des Möglichen im Rahmen einer kreativ-spielerischen Kunst könnte also die Grundlage für ein vertieftes Verständnis dessen sein, was/ wer/ wie wir sind. Zugleich würde eine solche prinzipiell unbegrenzte Phänomenproduktion aber nur dann zu einem ‚gesellschaftlich wirksamen Sinn‘ führen, wenn diese Phänomene ‚angemessen‘ kommuniziert würden bzw. wenn evtl. möglichst viele ähnliche Phänomenproduktionen vollziehen würden, da diese dann als ‚Teile von ihnen selbst‘ sie unmittelbar betreffen und prägen. Es ist zu fragen, ob die heute beobachtbare ‚Spezialisierung und Professionalisierung‘ von künstlerischer Phänomenproduktion nicht eher ein hochgezüchtetes Randphänomen von künstlerischer Aktivität ist, die nah dran ist an bloßer ‚Gefälligkeit‘ und Stereotypisierung und genau den kreativ-spielerischen Charakter verliert. Von gesellschaftlicher ‚Rezeption‘ kann bei dem heutigen hochspezialisierten organisierten Kunstbetrieb kaum gesprochen werden (Welche verschwindende Minderheit von Spezialisten liest Feuilletons?).
14. Dies ist ein weites Feld und kann hier jetzt nicht angemessen behandelt werden. Es geht nur darum, einen ersten Orientierungspfosten zu setzen, um anzudeuten, dass eine stärkere Interaktion von Kunst einerseits und Philosophie und Wissenschaft andererseits auch entsprechende gesellschaftliche Formen und Kommunikationsprozesse erfordert.
15. Die notwendige kommunikative Aufarbeitung neuer — künstlerisch hervorgebrachter — Phänomene muss sicherlich auf vielen Ebenen vollzogen werden. Für den methodischen Gesamtzusammenhang ist die Philosophie zuständig. Für die Erweiterung der wissenschaftlichen Untersuchungen ist die Wissenschaft selbst in enger Kooperation mit der Philosophie zuständig (z.B. auch in der Form der ‚Wissenschaftstheorie‘).
16. Letzteres kann aber nur funktionieren, wenn der Wissenschafts- und Philosophiebetrieb eine kontinuierliche Reflexion pflegen, die diese Fragen als ’normale Fragen‘ in der Routinepraxis ‚pflegen‘. Davon sind wir weit, weit entfernt. Das geschichtlich gewachsene Schisma ist tief verankert in den Köpfen aller Beteiligten und die — ungerechtfertigt unterstellte? — Eitelkeit in den Köpfen der Wissenschafts und/ oder Feuilleton-Redaktionen der Medien tut ihr Ihriges, um dieses Schisma täglich am Leben zu erhalten. Das gelegentlich immer wieder aufflammende Wehklagen der einen über diesen unseligen Zustand oder die abwertenden Bemerkungen der anderen helfen hier nicht weiter.
17. In einem internationalen Projekt, das ich in diesen Monaten zu starten versuche (lange Vorläufe in den letzten Jahren) versuchen wir ein radikal technologisches Experiment direkt mit Kunst und Philosophie zu verknüpfen. Sowohl ‚Reengineering von Goethe‘ wie auch ‚Goethefizierung von künstlicher Intelligenz‘ als platte Formeln, um etwas Komplexes anzudeuten.
18. Wie schon in vorausgehenden Blogeinträgen besprochen, führen die ‚emergenten‘ Phänomene die heutigen empirischen Wissenschaften an die Grenzen ihrer aktuellen Methoden und Modellen. In einer Metareflexion kann man erkennen, dass die empirischen Wissenschaften die Auflösungen der methodischen Aporien nur nur Erweiterung ihrer Modellbildungen durch Einbeziehung höherer Komplexitätsstufen auflösen kann. Diese können aber genau von jenen Disziplinen eingebracht werden, die sich mit ‚Handlung‘, ‚Sprache‘, ‚Bewusstsein‘, ‚Wissen‘, ‚Gefühlen‘, ‚Kunst‘ usw. beschäftigen. Diese ‚Zwitter-Disziplinen‘ — teils empirisch, prinzipiell mathematisch — können Brücken bauen zwischen den verschiedenen bislang schismatisch aufgesplitterten Phänomenmengen. Zwitter-Disziplinen haben kein Problem mit Kunst bzw. künstlerischen Phänomenen.
19. In diesem weit aufgespannten Raum von Philosophie (Kampf für alle Phänomene), empirisches Wissenschaft (Präzisierung des empirisch Messbaren), Zwitter-Disziplinen (Integration der empirischen und nicht-empirischen Phänomene) sowie Kunst (kreativ-spielerische Auslotung des Phänomenraumes) ist prinzipiell Raum für Religion, eigentlich mehr denn je. Ich verstehe unter Religion eine menschliche Haltung dahingehend, dass ein religiöser Mensch die Vielfalt des Phänomenraumes nicht nur als ‚unbeteiligter Zuschauer‘ sieht, sondern sich als ‚Teil des Ganzen‘ begreift. Dadurch verlieren die Phänomene ihren neutralen Status: sie werden zu möglichen ‚Zeichen‘ einer ‚impliziten Bedeutung‘, die sich in der Interaktion mit der Welt ‚zeigen kann‘. Dies verlangt allerdings einen ‚bewussten‘ Umgang mit der Welt als einer Welt, die einem ’nicht egal‘ ist. Alle religiös-mystischen Traditionen, die ich kenne, sind in diesem Punkt kompatibel. Die Gesamtheit des Wissens, wie es sich in Philosophie, Wissenschaften und Kunst erschließt, ist für eine so verstandene Religiosität kein Gegensatz, sondern ganz im Gegenteil ‚Ermöglichungsgrund‘ eines verantworteten Umgangs mit der Welt. Die ‚geistigen Besonderheiten‘, die viele offizielle Religionsgemeinschaften im Laufe ihrer Geschichte produziert haben, wirken vor diesem Hintergrund befremdlich und eher religionsfeindlich (eine leicht paradoxe Formulierung).

Einen Überblick über alle bisherigen Blogeinträge nach Themen findet sich HIER

Kunst als eigene Aktivität

Ich habe vor einigen Jahren, angeregt durch philosophische Reflexionen, begonnen, eigene ‚Kunstexperimente‘ zu realisieren. Ein Bereich ist die experimentelle Musik nach dem Konzept der ‚radically unplugged music (RUM)‘. Dazu habe ich mittlerweile mehr als 400 Musikstücke generiert. ‚Radically Unplugged‘ heisst, dass man nicht nach Noten spielt, das man vorher nicht probt, dass keine Stimme weiss was die andere als nächstes tun wird. Dadurch ist es möglich, dass Personen sich am Experiment beteiligen, die als ‚unmusikalisch‘ gelten, die keine Noten lesen können, ja, die nicht einmal ein Instrument spielen können. Hier ein Stück, das ich gestern ‚produziert‘ habe: ‚Coming To An End‘

Hinweis: Wer sich dieses Klangexperiment anhören möchte, sollte unbedingt darauf achten, über eine sehr gute Soundkarte und einen sehr guten Kopfhörer zu verfügen (noch besser eine Soundanlage mit guten Boxen), andernfalls sind viele Klanganteile nur sehr schlecht oder garnicht hörbar!

RÄUMLICHES GEDÄCHTNIS (Neurologisch, Psychologisch, Informatorisch…)

  1. Gelegentlich gehe ich zu den interessanten Gastvorträgen des Max-Planck-Institutes (MPI) für Hirnforschung in Frankfurt. So auch wieder mal am 12.9.2012 zu einem Vortrag von Stefan Leutgeb (siehe Link). Auslöser war das Thema ‚Räumliches Gedächtnis‘.

  2. Das Hervorstechende bei diesen Vorträgen ist in der Regel der ungeheure Aufwand an Ressourcen, der notwendig ist, um die überwiegend neuro-psycholoischen Untersuchungen durchführen zu können. Das Ernüchternde ist oft die Kargheit der Ergebnisse, und nicht nur das, sondern auch die ‚methodische Verpackung‘ sowohl der Experimente selbst wie deren Auswertung. Während die Randbedingungen der Experimente (erfreulicherweise) in der Regel mit großer Akribie beschrieben werden (vgl. als Beispiel den Artikel von Amir S. Bahar et al. (2011), mit Link), sucht man einen expliziten theoretischen Rahmen vergeblich (mir ist es bislang noch nicht gelungen, einen Artikel oder Buch aus diesem Bereich zu finden, der auch nur ansatzweise die notwendigen Bestandteile eines theoretischen Modells beschreibt). Dies ist sehr bedauerlich, da viele der Artikel mit Sicherheit an Klarheit und Durchschlagskraft gewinnen würden (manche würden dann möglicherweise gar nicht mehr geschrieben werden…).

  3. In einem älteren Eintrag hatte ich mal kurz skizziert (vgl. Wissenschaftliches Denken-2), welche Elemente eine moderne wissenschaftliche Theorie ausmachen. Davon ist die Neurowissenschaft (zumindest so, wie sie sich bislang in ihren Publikationen darstellt), meilenweit entfernt. Eine grundlegende Änderung ist nicht in Sicht  (in der Ausbildung eines Neurowissenschaftlers kommt formale Logik und Wissenschaftstheorie normalerweise nicht vor).

  4. Sofern ich als Informatiker an berechenbaren Modellen von menschenähnlicher Intelligenz interessiert bin, bräuchten mich diese Defizite der Neurowissenschaften eigentlich nicht kümmern. Als Informatiker will ich primär nicht das Gehirn ‚1-zu-1‘ nachbauen, sondern bestenfalls versuche ich die Prinzipien neuronaler Maschinen zu verstehen, um sie mit ‚anderen‘ Mitteln nachzubauen. Da 98% oder mehr einer Nervenzelle nichts mit ihrer Signalfunktion im engeren Sinne zu tun haben kann ich diese 98% quasi ‚vernachlässigen‘. Ein Neurowissenschaftler kann dies nicht. Er muss die molekularen Prozesse hinreichend aufhellen, um die daraus resultierenden Funktionen mit Bezug auf diese Maschinerie zu erklären. Als Informatiker könnte ich zwar auch die verschiedenen elektronischen Bausteine eines Computers beschreiben, um deutlich zu machen, wie diese komplexen chemischen Materialien spezielle Signalfunktionen erlauben, aber normalerweise wird man dies nicht tun, da die Materialien austauschbar sind. Das Material selbst erklärt nicht die ‚Funktion‘, die damit realisiert wird. So wissen wir seit langem, dass ich einen Computer statt mit elektronischen Chips auch mit neuronalen Zellen realisieren kann oder direkt mit bestimmten Molekülen (z.B. DNA-Computing). Entscheidend ist nie das Material, sondern immer nur die Funktionen. Die Funktionen kann ich nicht aus dem Material ‚herleiten‘. Das ‚Herumstochern‘ in der molekularen Maschinerie des Gehirns ist von daher wenig geeignet, die entscheidenden Funktionen zu ‚enthüllen‘. Sehr zugespitzt könnte man formulieren „Die Neurowissenschaften wühlen im molekularen Schlamm, um das ‚Gold‘ der neuronalen Funktionen zu finden, aber es liegt nicht dort.“

  5. Dies führt zu einem grundlegenden wissenschaftsphilosophischen Problem: Im Kontext der Physik hat man sich spätestens seit Kant die Frage gestellt, wieso abstrakte mathematische Modelle die komplexen Phänomene der Natur auf einfache elegante Weise hinreichend beschreiben können? Nicht die Anhäufung noch so vieler einzelner empirischer Daten führt zur Einsicht in grundlegende Zusammenhänge, sondern die Entwicklung abstrakter theoretischer Modelle, die es dann erlauben, die vielen Einzeldaten zusammenhängend erklären zu können. Wir verstehen bis heute zwar nicht, wie wir erklärungsfähige abstrakte Modelle ‚denken‘ können, da dies ja letztlich von unserem Gehirn geleistet wird, das nur eine endliche chemische Maschine einer speziellen Art darstellt, aber Fakt ist, dass wir nur mit solchen Modellen den ‚Wust der Daten‘ sinnvoll nutzen können. Dies gilt auch für die anhaltende Datenflut in den Neurowissenschaften, die einhergeht mit einer gleichzeitigen Modellarmut.

  6. Wie gesagt, mein Interesse an dem Vortrag (und an den in diesem Zusammenhang recherchierten anderen Artikeln (siehe Quellen unten)) resultiert aus dem Interesse für Phänomene des Gedächtnis, da ich im Laufe der Jahre gelernt habe, dass es für adaptive lernende Strukturen zwei Kernelemente gibt, ohne die nichts geht: Gedächtnis und Preferenzen.

  7. Eine erste ‚Stichprobe‘ von Artikeln im Umfeld des Vortrags von Leutgeb zeigt, dass keiner dieser Artikel sich die Mühe macht, zu Beginn genau das Feld zu beschreiben, innerhalb dessen eine Aufgabenstellung definiert wird (und ich spreche hier von Artikeln in Journalen wie ‚Science‘ oder den ‚Proceedings of the National Academy of Science of the USA‘ oder dem ‚Journal of Neuroscience‘). Nach ein paar (unvollständigen!) Andeutungen zu möglichen Kontextfaktoren formulieren diese Artikel eine Aufgabenstellung, die durchgehend vage ist. Will man sich vorweg selbst einen Überblick über die Thematik verschaffen, hat man nur die Wahl zwischen anerkannten Textbüchern, deren Inhalt aber zwangsläufig fünf und mehr Jahre alt ist, oder Wikipedia-Einträgen, die zwar recht aktuell sind, dafür aber eine sehr schwankende Qualität aufweisen (es gib aber auch einige sehr gute!). Ansätze zu theoretischen Modellen finden sich aber nirgends.

  8. Da die neuronale Maschinerie ‚für sich‘ keinerlei ‚pragmatische‘ Bedeutung aufweist, sondern nur durch ihren Bezug zu Körperfunktionen und/ oder zu beobachtbarem dem Verhalten, folgen die meisten Beiträge dem Schema ‚Korrelation zwischen beobachtbarem Verhalten (Vh) und messbaren neuronalen Zuständen (NN), also CORR(Vh, NN), dies entlang einer Zeitachse. Im Prinzip handelt es sich um eine zweiseitige Abbildung. Normalerweise bedeutet dies, dass man sowohl den Bereich des Verhaltens entweder als Mengen von Eigenschaften beschreibt, die sich in einem Prozessbaum darstellen lassen, oder noch besser als theoretische Struktur VH(……); analog mit den neuronalen Zuständen NN(…..). Sofern man dies getan hat, kann man versuchen, geeignete Abbildungsbeziehungen zu formulieren. Ich sehe nicht, dass dies in irgendeinem dieser Papiere geschieht. Dazu kommt, dass zentrale theoretische Begriffe in den Artikeln (wie z.B. Netz-Zellen, Orts-Zellen, Orts-Feld, Pfadintegration, episodisches Gedächtnis,…), wenn überhaupt, nur äußerst vage definiert sind (ohne theoretisches Modell auch ziemlich schwierig).

  9. Aus all dem folgt für meine Arbeiten an evolutionären semiotischen Systemen, dass  für die Konstruktion adaptiver Systeme mit Gedächtnis diese Artikel nicht mehr als ‚Stimuli‘ auf dem Weg zu einer   besseren Theorie sein können.

  10. Im weiteren Text finden sich Kurzcharakterisierungen der verschiedenen Artikeln. Diese basieren entweder nur auf den Zusammenfassungen oder – in einigen Fällen – auf den Zusammenfassungen ergänzt um Teile aus dem Text. In einer Reihe von Fällen konnte ich Online-Versionen finden, so dass jeder sich dire Artikel im Original selbst anschauen kann. Aus Sicht des heutigen Wissenschaftsbetriebes sind wissenschaftliche Artikel, die nicht Online sind, eigentlich tote Artikel. Die Kosten für Abonnements von wissenschaftlichen Zeitschriften sind so hoch, dass eine durchschnittliche Hochschule in Deutschland nicht genügend Geld hat, um auch nur eine repräsentative Auswahl in hinreichendem Umfang und mit hinreichender Aktualität online anbieten zu können. Damit behindert sich die Wissenschaft genau da, wo ihr eigentliches Herz schlägt: in der Kommunikation. Der scheinbare wirtschaftliche Vorteil aus Sicht der Verlage erweist sich als Bumerang für die gesamte Wissenschaft (auch wenn eine Zeitung wie die FAZ dies oft anders sieht).

 

MATERIALSAMMLUNG

 

  1. Laut Ankündigung von Stefan Leutgeb (2005, 2012) versucht sein Laboratorium auf der Systemebene die neuronalen Mechanismen zu identifizieren, die verantwortlich sind für die Langzeitspeicherung von Gedächtnisinhalten. Da man aufgrund bisheriger Forschungen weiß, dass spezielle Schaltkreise des Hippocampus für viele Arten von Gedächtnis notwendig sind, haben sie die Schnittstelle zwischen dem Hippocampus und dem entorhinalen Kortex näher untersucht. An dieser Schnittstelle lassen sich Signalmuster messen. Sein Laboratorium stellte sich die Frage, ob und wie diese Signalmuster räumliche Erinnerungen beeinflussen. Bei der Signalerzeugung sind sehr viele verschiedenen Zellen beteiligt, insbesondere sogenannte ‚Gitter-Zellen‘ (‚grid cells‘). Dabei hat sein Laboratorium herausgefunden, dass die Unterdrückung von sogenannten Theta Wellen zwar die gitter-artigen räumlichen Signalmuster im entorhinalen Kortex zerstörten, nicht aber die hippocampalen räumlichen Signalmuster, sofern die Versuchstiere sich in vertrauten Umgebungen bewegten. Sein Team stellte sich von daher die Frage, ob der entorhinale Input mit den Gitter-Zellen möglicherweise nur beim Erlernen von etwas ‚Neuem‘ notwendig sei, nicht aber beim ‚Erinnern‘ von ’schon Bekanntem‘. Beim Erlernen von Neuem stellte sich die zusätzliche Frage, ob dazu auch eine zeitliche Koordinierung von entorhinalen und hippocampalen Signalen notwendig sei.

  2. György Buzsáki (2005) geht davon aus, dass der Hippocampus einen Beitrag leistet zur Repräsentation der Umwelt. Andererseits gibt es auch andere Signale, die den Hippocampus beeinflussen. Es fragt sich, wie diese unterschiedlichen Signale im Hippocampus koordiniert werden. Stefan Lautgeb et al. (2005) identifizieren unterschiedliche Signalmuster im Hippocampus, die sie mit Situationen korrelierten, die mit Raum- und episodischem Gedächtnis in Verbindung bringen lassen. James J. Knierim (2006) thematisiert sogenannte ‚Orts-Zellen‘ (‚place cells‘) die sich im Hippocampus oder in angrenzenden Regionen finden. Dazu kommen Signalmuster, die nicht ortsgebunden sind. Der genaue Mechanismus des Zusammenspiels all dieser Signale ist aber noch nicht klar. Eva Pastalkova et al. (2006) weisen nach, dass der LTP-Mechanismus, der Langzeitspeicherung unterstützt, auch bei der Speicherung räumlicher Informationen eine Rolle spielt. James A. Ainge et al. (2007) können präzisieren, dass im Hippocampus räumliche Informationen mit ‚intendierten‘ Zielen korreliert werden können. Caswell Barry et al. (2007) finden heraus, dass die sogenannten ‚Gitter-Zellen‘ (‚grid cells‘) im entorhinalen Kortex (benachbart zum Hippocampus), den Abstand zwischen benachbarten Orten repräsentieren können (und damit die Ortsinformationen der Orts-Zellen ergänzen). Daoyun Ji und Matthew A Wilson (2007) finden Hinweise, dass im Schlaf der Neokortex und der Hippocampus so zusammenwirken können, dass Signalmuster von ‚gemachten Erfahrungen‘ sich wechselseitig regenerieren. Gergely Papp et al. (2007) vergleichen Gehirnstrukturen zwischen sehr vielen Arten von Wirbeltieren und untersuchen die Anwendbarkeit unterschiedlicher neuronaler Modelle zur Simulation des messbaren Verhaltens. Sie kommen zur Vermutung, dass für den Erwerb neuer Gedächtnisrepräsentationen allgemein wie auch speziell von räumlichen Gedächtnis-Repräsentationen der CA3-Teilbereich des Hippocampus nicht ausreicht. Daoyun Ji und Matthew A. Wilson (2008) untersuchten ferner die Rolle des Hippocampus im Kontext des sequentiellen Wege-Lernens. Sie fanden heraus, dass die hippocampalen Orts-Zellen bei Wiederholungen immer mehr von den Signalmustern unmittelbar vorausgehender Ortszellen beeinflusst wurden. C. D. Clelland et al. (2009) finden Hinweise (bei Mäusen), dass der Bereich Gyrus dentatus des Hippocampus wichtig ist für die Unterscheidung räumlicher Muster. Dori Derdikman et al. (2009) fanden heraus, dass räumliche Umgebungen im entorhinalen Kortex (Umgebung des Hippocampus) repräsentiert sind als ein Mosaik diskreter Teilkarten, die der Geometrie des umgebenden Raumes entsprechen. Pamela J. Kennedy und Matthew L. Shapiro (2009) können aufzeigen, dass im Hippocampus sowohl räumliche Informationen kodiert werden wie auch innere Zustände, die Bedürfnisse repräsentieren. Sofern Bedürfnisse vorliegen beeinflussen diese die neuronalen Muster in Richtung des Auffindens geeigneter Lösungen. Joseph R. Manns und Howard Eichenbaum (2009) kamen zur Hypothese, dass Objekte der Umgebung in einer Art Wissenslandkarte (‚cognitive map‘) im Hippocampus repräsentiert (kodiert) werden, und zwar einmal als ‚Orte von Interesse‘ (‚points of interest‘) wie auch als erinnerbare Unterstützung beim Suchen nach Objekten von speziellem Interesse. Charlotte N Boccara et al. (2010) fanden einen gemeinsamen Pool von raum-sensitiven Zellen in verschiedenen Unter- und Nachbarschaftsbereichen des Hippocampus (im medialen entorhinalen Kortex (MEC) und im Prä- and Parasubiculum (zwischen Hippocampus und Kortex). Diese Zellen befanden sich ferner in der Nachbarschaft von sogenannten ‚Richtungs-‚ und ‚Kanten-Zellen‘ (‚head‘, ‚boarder‘).

  3. Laura L. Colgin et al. — mit Leutgeb — (2010) kommen in ihrer Untersuchung zu dem Schluss, dass der Bereich CA3 (Teilbereich des Hippocampus) sich nicht wie ein standardmäßiges autoassoziatives neuronales Netz verhält, das unterschiedliche Eigenschaften der Umgebung miteinander verknüpft. Diese Ergebnisse stimmen auch überein mit anderen Untersuchungen (vgl. S.48). Damit stellt sich die Frage nach der Funktion des CA3-Bereichs neu. In Übereinstimmung mit zahlreichen anderen Untersuchungen (Zitate in diesem Artikel) scheint die primäre Aufgabe des Hippocampus zu sein, Pfadinformationen zu kodieren, so, dass nach Bedarf eine günstige Route wiedergefunden werden kann. Zugleich können diese Pfadinformationen Hinweise sein für episodische Erinnerungen, die verteilt im Neokortext abgelegt sind. André A. Fenton et al. (2010) konnten bestätigen, dass der Ortskode des Hippocampus eine dynamische räumliche Repräsentation realisiert, die durch Aufmerksamkeit kontrolliert werden kann. Die Aufmerksamkeit von von den aktuellen Bedürfnissen gesteuert, die aus den verfügbaren Zeitfenstern jenes auswählen, dessen Inhalt am meisten mit den Bedürfnissen korreliert.

  4. Inah Lee und Jangjin Kim (2010) haben auch die Abhängigkeit der räumlichen Repräsentationen im Hippocampus von internen Zuständen untersucht, insbesondere im Kontext von Lernaufgaben, die von Ratten verlangten, neue Strategien zu entwickeln. Neben der Assoziationsaufgabe, Objekte mit bestimmten Orten zu verknüpfen, mussten die Ratten auch lernen, dass es aber nur an einem bestimmten Ort eine Belohnung gab. Bei Messungen an Neuronen in CA1 konnten sie feststellen, dass sich die Signalmustern entsprechend der jeweiligen Strategie änderten. Diese Ergebnisse führen die beiden zu der Annahme, dass die räumliche Information im Hippocampus als Referenzrahmen im Hippocampus dient, innerhalb dessen dann die anderen Informationen organisiert werden. In dieses Gesamtbild passen die Funde, dass Objektinformationen im Hippocampus der Ratten ausschließlich zusammen mit Rauminformationen auftreten. Ferner legen die Ergebnisse dieser Untersuchung die Annahme nahe, dass auch nichträumliche Informationen – zumindest in CA1 — nicht unabhängig von den räumlichen Informationen sind.

  5. Die Autoren Francesco Savelli und James J. Knierim (2010) sind geleitet von dem Interesse, ein bestimmtes formales Modell (hebbsches neuronales Lernen) im Kontext von ‚Gitter-‚ und ‚Orts-Zellen‘ im medialen entorhinalen Kortex (MEC) sowie im Hippocampus zu überprüfen. Speziell untersuchen sie die Übersetzung von Signalmustern von Gridzellen in die Signalmuster von Ortszellen.

  6. Annabelle C. Singer et al. (2010) mit ihrem Team geht davon aus, dass sich wiederholende Objekte eindeutig identifizieren lassen müssen, aber auch Eigenschaften der Umgebungen, in denen diese Objekt vorkommen. Ein anderer Aspekt ist die Ähnlichkeit von Wegen (‚path equivalence‘). Das Team unterstellt koordinierte gelernte Generalisierungen über verschiedene Plätze und Episoden. Untersucht wurden neuronale Aktivitäten in CA3 und CA1 während die Tiere Aufgaben abarbeiten müssen, bei denen sie zwischen ähnlichen Elementen unterscheiden müssen. Das Team meint pfad-äquivalente Neuronenensembles identifiziert zu haben.

  7. Die Untersuchung von Janina Ferbinteanu et al. (2011) beginnt bei den bisherigen Ergebnissen, dass hippocampale Neuronen sowohl aktuelle Positionen im Raum repräsentieren können (Ortsfelder – Orts-Zellen), aber sie können auch vergangene und zukünftige Positionen im Kontext einer ‚Reise‘ (‚journey‘) repräsentieren. Letzteres verweist auf andere zeitlich zusammenhängende Gedächtniseintragungen (z.B. autobiographisches [oder auch episodisches] Material). Die Bedeutung der reise-abhängigen Aktivitäten für die Repräsentationen ist aber nicht besonders gut verstanden. Zu diesem Zweck haben sie eine experimentelle Anordnung ersonnen, in der man sowohl ortsspezifische Reize zur Verfügung hat wie auch reisespezifische Anforderungen unterstellen kann. Sie unterstellten, dass der Beginn einer Reise, ein auftretender Entscheidungspunkt sowie der Restweg nach der Entscheidung unterschiedliche Anforderungen darstellen, denen unterschiedliche ‚Strategien‘ entsprechen, die sich in den Signalmustern und darin kodiert in unterschiedliche beteiligten Gedächtnisarealen manifestieren. Mit einer — für neuronale Studien typischen — sehr aufwendigen Untersuchung wurden Daten gewonnen, die das Team dahingehend interpretiert, dass sie ein ‚Umschalten‘ (’switch‘) zwischen verschiedenen Aufgaben (aktuelle Position, zu erledigende Reise) erkennen können. So kodierten die Signalmuster im Startbereich sowohl Aufgabe und Reise, während die Signalmuster im Restbereich überwiegend die Reise kodierten. Sie deuten diese Daten zusätzlich als einen Hinweis auf eine Verzahnung zwischen den aktuellen Reisedaten und einem episodenorientierten Gedächtnis. Interessant ist die Charakterisierung von ‚Reise‘. Sie sagen, dass in ihrer Interpretation eine Reise nicht einfach eine Trajektorie von verknüpften physikalischen Orten darstellt, sondern eine Verbindung zwischen einem Start-Ort und einem Ziel (‚goal‘) kodiert, wobei diese Verbindung durch interne Zustände (einschließlich Motivation) und verfügbaren Gedächtnisinhalten ‚moduliert‘ werden kann.

  8. In einer Untersuchung, die dem Aufbau von Ferbinteanu et al. (2011) ähnelt, haben Amir S. Bahar et al. (2011) versucht, herauszufinden, wie man sich den Einfluss des Gedächtnisses beim Lernen genauer vorzustellen habe. Mit Bezug auf einfache Lernaufgaben untersuchten sie insbesondere das Signalverhalten von Ortszellen-Karten in CA1 und CA3. Obgleich zwischen CA1 und CA2 deutliche Unterschiede je nach Aufgabenstellungen gefunden werden konnten, gibt es aber auch Kooperationen.

  9. Die Untersuchung von Lindsay K. Morgan et al. (2011) unterscheidet sich von den vorausgehenden dahingehend, dass als Versuchslebewesen nicht Ratten dienen, sondern Menschen. Damit sind die Messmöglichkeiten stark eingeschränkt. Ausgangshypothese ist, dass die räumliche Navigation teilweise unterstützt wird durch Bezug auf eine intern Wissenskarte (‚cognitive map‘) der Umgebung. Eine Schlüsseleigenschaft solcher angenommener Wissenskarten ist die Repräsentation von Realweltabständen. Es wird angenommen, dass man diese mit Hilfe eines funktionellen Magnetresonanstomographen (oder als Verfahren ‚functional magnetic resonance imaging (fMRI)‘) messen kann. Als Versuchslebewesen dienten Universitätstudenten, während sie Fotos von bekannten Ausschnitten des Universitätsgeländes anschauten. Aus den fMRI-Daten zog das Team den Schluss, dass im linken Hippocampus die fMRI-Antwortniveaus (‚response levels‘) mit den Realweltdistanzen ‚korrespondierten‘ (‚corresponded‘) mit jenen in den gezeigten Bildern. Dabei meinte das Team erkennen zu können, dass jene Orientierungspunkte (‚landmarks‘), die im Bild ’näher‘ (‚closer‘) waren, repräentationell (‚representationally‘) ähnlicher waren als solche, die im Bild ‚weiter entfernt‘ (‚mor distant‘) waren. In anderen Regionen wie dem retrosplenialen Kortex oder dem parahippocampalen Bereich waren laut dem Team solche Beziehungen nicht zu beobachten. Der Anteil von Wörtern wie ‚glauben‘ und ‚vermuten‘ ist sehr hoch. Zudem werden verhaltensbasierte Ergebnisse mit Messungen an physiologidschen Substraten recht freitügig kombiniert ohne große Reflexion auf die unterschiedliche Qualitäten von bildgebenden Verfahren und direkten Messungen an Zellen.

  10. David C.Rowlanda et al. (2011) gingen von der Annahme aus, dass (nach den bisherigen Erkenntnissen) der Hippocampus für Menschen und andere Säugetiere kritisch ist für episodisches Gedächtnis (‚episodic memory‘). Damit sind die autobiographischen Aufzeichnungen von Ereignissen gemeint, zu denen die Aspekte ‚wo‘ und ‚wann‘ gehören. Sie meinen, dass bei wachen, sich verhaltenden (‚behaving‘) Nagetieren (‚rodents‘) ganz offensichtlich die Signalmuster von hippocampalen Pyramidenzellen mit der aktuellen Position in einer bestimmten Umgebung ‚korreliert‘ (von daher der Name ‚Orts-Zellen‘ (‚place cells‘)). Wenn ein Tier eine neue Umgebung erkundet, dann bilden die pyramidalen Neuronen innerhalb von wenigen Minuten ihre raumbezogenen rezeptiven Felder aus, und diese sind in der Regel danach stabil. Das Team nimmt daher an, dass diese erfahrungsabhängige Stabilisierung der Orts-Felder (‚place fields‘) ein attraktiver Kandidat eines neuronalen Korrelates für die Bildung eines hippocampalen Gedächtnisses bietet. Zusätzlich wird angenommen, dass (a) raumabhängiges Feuern als solches angeboren ist (‚innate property‘) und (b), dass Ratten während Schlaf- und Ruhephasen sich Orte und Wege ‚vorstellen‘ können (‚mentally explore‘, ‚preplay‘), bevor diese physisch untersucht werden. Unklar ist hierbei, wie genau die Überführung der Erfahrung eines Tieres von einem Kontext in ein stabiles Ortsfeld vonstatten geht, z.B. weiß man nicht, ob die Beobachtung eines Raumes bzw. die rein mentale Exploration alleine für eine stabile hippocampale Repräsentation des Raumes ausreicht, da normalerweise ein Tier dafür einen bestimmten Punkt (’spot‘) physisch besuchen muss, um demonstrieren zu können, dass bestimmte Zellen dort feuern. Um diese beiden Fälle zu klären, nutzte das Team die Erkenntnis, dass NMDA-Rezeptoren neu gebildete Orts-Felder destabilisieren können. Das Team fand heraus, dass Beobachtung alleine nicht ausreicht, um Ortsfelder zu stabilisieren. Sie deuten ihre Ergebnisse dahingehend, dass die hippocampale Repräsentation von Raum so lange ‚plastisch‘ (‚plastic‘) bleibt, bis das Tier alle Bereiche der Umgebung erkundet hat. In diesem Sinne sind Ortsfelder weniger die Repräsentation des geometrischen Raumes an sich, sondern eher die Repräsentation der Erfahrung des Tieres im Raum.

  11. Das Team Junghyup Suh et al. (2011) geht von der Annahme aus, dass das entorhinale und hippocampale Netzwerk für die Formierung eines episodischen und Arbeitsgedächtnis wichtig ist. Kennzeichnend für beide Gedächtnisformen ist die Fähigkeit der Verknüpfung von zeitlich nicht zusammenhängenden Elementen. Nach Auffassung des Teams sind die genauen neuronalen Schaltkreise unbekannt, die diese Verknüpfungen ermöglichen. So beschloss das Team, zu untersuchen, ob z.B. die Input-Neuronen von der Schicht III des entorhinalen Kortex einen Beitrag leisten. Um diese Annahme zu testen hat das Team eine transgenetische (‚transgenetic‘) Maus ‚hergestellt‘ (‚generated‘), in der diese Input-Neuronen spezifisch inhibiert waren. Diese Mutanten-Mäuse zeigten dann tatsächlich signifikante Beeinträchtigungen sowohl bei Aufgaben, bei denen normalerweise das räumliche Arbeitsgedächtnis wirksam ist wie auch bei der Enkodierung von Angstreaktionen. Das Team zieht daraus den Schluss, dass die gefundenen Ergebnisse eine kritische Rolle der Input-Neuronen der Schicht III des entorhinalen Kortex in Weiterleitung zum Hippocampus für zeitliche Verknüpfungen im Gedächtnis darstellen.

  12. Ausgehend von hippocampalen Orts-Zellen, die Rauminformationen durch eine Kombination von räumlichem selektiven Feuern und Thetawellen-Phasen-Präzession auszeichnen, untersuchte das Team Steve M. Kim et al. (2012) eine mögliche Wirkung auf die Neuronen des Subiculums. Das Subiculum empfängt direkten Input von der Region CA1 (innerhalb des Hippocampus) und sendet unterschiedliche Ausgangsprojektionen zu vielen anderen Gehirnbereichen. Das Team fokussierte sich darauf, die Signalmuster von Neuronen im Subiculum von Ratten zu untersuchen. Rein aufgrund der Signalmuster (ohne korrelierte Verhaltensbeobachtungen) errechnete das Team einen höheren Informationsgehalt in den Signalmustern des Subiculums, dazu auffällig robuste Thetawellen-Phasen-Präzessionen mit ähnlichen Spike-Oszillations-Frequenzen (‚spiking oscillation frequencies‘) wie Neuronen aus CA1.

  13. Das Team Eun Joo Kim et al. (2012) geht aus von der Annahm, dass Streß ein biologischer Faktor ist, der allgegenwärtig ist. Wenn er als unkontrollierbar durch Menschen (oder Tiere) als wahrgenommen wird, kann er andauernde negativen Effekte für das Gehirn und seine kognitiven Funktionen haben. In einer früheren Untersuchung hatte das Team am Beispiel von Ratten darüber berichtet, dass diese eine Abnahme in der Stabilität von Signalraten in CA1 erkennen liesen verbunden mit Behinderungen von Langzeit-Potentialen in CA1 sowie der Konsolidierung von räumlichem Gedächtnis. Diese Ergebnisse wurden dahingehend verfeinert, dass es eher die erhöhte Aktivität der Amygdalar-Neuronen ist, die Stress auslöst, als die Konzentration von Kortikosteron, Stress, der dazu führt, dass sich die Stabilität der Signalraten der Ortszellen verändert.

  14. Ausgangspunkt für das Team Carien S. Lansink et al. (2012) ist die Annahme, dass die Verknüpfungen von Orten mit Belohnungen kritisch abhängt von der Integrität des hippocampalen-ventralen Systems. Das ventrale Striatum (VS) empfängt einen starken räumlich-kontextuellen Input vom Hippocampus (CA1), aber es ist nicht klar, wie das ventrale Striatum diese Informationen so verarbeiten kann, dass damit ein belohnungsbezogenes Verhalten entsteht. Um diese Frage zu beantworten wurde ein Verhaltensexperiment gestartet, bei dem eine konditionierte Aufgabe durch Pfadintegration zu lösen war. Dabei wurden simultan sowohl die Signale im Hippocampus (HC) wie auch im VS von Ratten gemessen. Im Gegensatz zum HC zeigten VS-Neuronen eine geringe räumliche Auflösung; dafür kodierten sie verhaltensbezogene Aufgaben-Phasen (‚task phases‘) mit Bezug auf die Erreichung von Zielorten (‚goal sites‘). Solche Schlüsselreize (‚cues‘)(z.B. Lichtreize), die einen bestimmten Ausgang voraussagen können, bewirkten eine Umprogrammierung (‚remapping‘) von Signalmustern im HC; für das Team steht dies in Übereinstimmung mit der Rolle des HC für das episodische Gedächtnis. Eine solche Umprogrammierung kann für die gleiche Aufgabe in unterschiedlichen Gehirnregionen stattfinden. Im Gesamtergebnis zeigen diese Resultate, dass einerseits zwar ein großer Unterschied im Verarbeiten räumlicher Informationen zwischen CA1 (Hyppocampus) und VS besteht, doch besteht eine Ähnlichkeit darin, dass diskrete Schlüsselreize diese Prozesse beinflussen.

 

Literaturhinweise:

2005

György Buzsáki, Similar Is Different in Hippocampal Networks, Science 309 (5734): 568-569, 2005

Stefan Leutgeb, Jill K. Leutgeb, Carol A. Barnes, Edvard I. Moser, Bruce L. McNaughton, May-Britt Moser, Independent Codes for Spatial and Episodic Memory in Hippocampal Neuronal Ensembles, Science 22 July 2005: Vol. 309 no. 5734 pp. 619-623

2006

James J. Knierim, Neural representations of location outside the hippocampus (online at http://www.learnmem.org/cgi/doi/10.1101/lm.224606 ), Copyright © 2006, Cold Spring Harbor Laboratory Press

 Eva Pastalkova, Peter Serrano, Deana Pinkhasova, Emma Wallace, André Antonio Fenton, Todd Charlton Sacktor, Storage of Spatial Information by the Maintenance Mechanism of LTP, Science 25 August 2006: Vol. 313 no. 5790 pp. 1141-1144 DOI: 10.1126/science.1128657

2007

James A. Ainge, Minija Tamosiunaite, Florentin Woergoetter, Paul A. Dudchenko, Hippocampal CA1 Place Cells Encode Intended Destination on a Maze with Multiple Choice Points, Copyright © 2007 Society for Neuroscience 0270-6474/07/27l119769-

Caswell Barry, Robin Hayman, Neil Burgess & Kathryn J Jeffery, Experience-dependent rescaling of entorhinal grids, Nature Neuroscience 10, 682 – 684 (2007)

Daoyun Ji, Matthew A Wilson, Coordinated memory replay in the visual cortex and hippocampus during sleep, Nature Neuroscience 10, 100 – 107 (2007)

Gergely Papp, Menno P Witter, Alessandro Treves, The CA3 network as a memory store for spatial representations, online at http://www.learnmem.org/cgi/doi/10.1101/lm.687407, Received July 1, 2007, Accepted September 5, 2007, Copyright © 2007, Cold Spring Harbor Laboratory Press

2008

Daoyun Ji, Matthew A. Wilson, Firing Rate Dynamics in the Hippocampus Induced by Trajectory Learning, The Journal of Neuroscience, 30 April 2008, 28(18): 4679-4689; doi: 10.1523/​JNEUROSCI.4597-07.2008

2009

C. D. Clelland, M. Choi, C. Romberg, G. D. Clemenson Jr., A. Fragniere, P. Tyers, S. Jessberger, L. M. Saksida, R. A. Barker, F. H. Gage, T. J. Bussey, A Functional Role for Adult Hippocampal Neurogenesis in Spatial Pattern Separation, Science 10 July 2009: Vol. 325 no. 5937 pp. 210-213, DOI: 10.1126/science.1173215

Dori Derdikman, Jonathan R Whitlock, Albert Tsao, Marianne Fyhn, Torkel Hafting, May-Britt Moser, Edvard Moser, Fragmentation of grid cell maps in a multicompartment environment, Nature Neuroscience 12, 1325 – 1332 (2009) Published online: 13 September 2009, doi:10.1038/nn.2396

Pamela J. Kennedy, Matthew L. Shapiro, Motivational states activate distinct hippocampal representations to guide goal-directed behaviors, approved May 6, 2009 (received for review March 26, 2009). Published online before print June 15, 2009, doi: 10.1073/pnas.0903259106 PNAS June 30, 2009 vol. 106 no. 26 10805-10810. This article contains supporting information online at www.pnas.org/cgi/content/full/0903259106/DCSupplemental.

Joseph R. Manns, Howard Eichenbaum, A cognitive map for object memory in the hippocampus, Online at http://www.learnmem.org/cgi/doi/10.1101/lm.1484509, Received May 14, 2009, accepted July 21, 2009, Copyright © 2009 by Cold Spring Harbor Laboratory Press, Supplemental material is available online at http://www.learnmem.org.

2010

Charlotte N Boccara, Francesca Sargolini, Veslemøy Hult Thoresen, Trygve Solstad, Menno P Witter, Edvard I Moser, May-Britt Moser. Grid cells in pre- and parasubiculum, Nature Neuroscience 13, 987–994,(2010) doi:10.1038/nn.2602, Received 25 March 2010

Laura L. Colgin, Stefan Leutgeb, Karel Jezek, Jill K. Leutgeb, Edvard I. Moser, Bruce L. McNaughton, May-Britt Moser, Attractor-Map Versus Autoassociation Based Attractor Dynamics in the Hippocampal Network, Published online before print May 5, 2010, doi: 10.​1152/​jn.​00202.​2010 AJP – JN Physiol July 1, 2010 vol. 104 no. 1 35-50 Submitted 25 February 2010, accepted in final form 3 May 2010,

Copyright © 2010 The American Physiological Society. Online at http://jn.physiology.org/content/104/1/35.full.pdf+html

André A. Fenton, William W. Lytton, Jeremy M. Barry, Pierre-Pascal Lenck-Santini, Larissa E. Zinyuk, Štepan Kubík, Jan Bureš, Bruno Poucet, Robert U. Muller, Andrey V. Olypher, Attention-Like Modulation of Hippocampus Place Cell Discharge, online at: http://www.ncbi.nlm.nih.gov/pmc/articles/PMC2858227/

Inah Lee, Jangjin Kim, The shift from a response strategy to object-in-place strategy during learning is accompanied by a matching shift in neural firing correlates in the hippocampus, online at: http://learnmem.cshlp.org/content/17/8/381.full.pdf+html doi: 10.1101/lm.1829110 Learn. Mem. 2010. 17: 381-393 © 2010 Cold Spring Harbor Laboratory Press

Francesco Savelli, James J. Knierim, Hebbian Analysis of the Transformation of Medial Entorhinal Grid-Cell Inputs to Hippocampal Place Fields, Submitted 16 October 2009, accepted in final form 25 March 2010. Published online before print March 31, 2010, online at: http://jn.physiology.org/content/103/6/3167.full.pdf+html, doi: 10.​1152/​jn.​00932.​2009 AJP – JN Physiol June 1, 2010 vol. 103 no. 6 3167-3183

Annabelle C. Singer, Mattias P. Karlsson, Ana R. Nathe, Margaret F. Carr, Loren M. Frank, Experience-Dependent Development of Coordinated Hippocampal Spatial Activity Representing the Similarity of Related Locations, The Journal of Neuroscience, 1 September 2010, 30(35): 11586-11604; doi: 10.1523/​JNEUROSCI.0926-10.2010, online at: http://www.jneurosci.org/content/30/35/11586.full

2011

 Janina Ferbinteanu, Prasad Shirvalkar, Matthew L. Shapiro, Memory Modulates Journey-Dependent Coding in the Rat Hippocampus, The Journal of Neuroscience, 22 June 2011, 31(25): 9135-9146; doi: 10.1523/​JNEUROSCI.1241-11.2011. Online at: http://www.jneurosci.org/content/31/25/9135.full

Amir S. Bahar, Prasad R. Shirvalkar, Matthew L. Shapiro, Memory-Guided Learning: CA1 and CA3 Neuronal Ensembles Differentially Encode the Commonalities and Differences between Situations, The Journal of Neuroscience, 24 August 2011, 31(34): 12270-12281; doi: 10.1523/​JNEUROSCI.1671-11.2011, online at: http://www.jneurosci.org/content/31/34/12270.full.pdf+html?sid=da480191-1abf-4e09-b784-7f0dca5dd10e

Lindsay K. Morgan, Sean P. MacEvoy, Geoffrey K. Aguirre, Russell A. Epstein, Distances between Real-World Locations Are Represented in the Human Hippocampus, J Neurosci. 2011 January 26; 31(4): 1238–1245. doi:10.1523/JNEUROSCI.4667-10.2011, online at: http://www.ncbi.nlm.nih.gov/pmc/articles/PMC3074276/pdf/nihms266858.pdf

David C. Rowlanda, Yelizaveta Yanovich, Clifford G. Kentrosb, A stable hippocampal representation of a space requires its direct experience, Published online before print August 18, 2011, doi: 10.1073/pnas.1105445108 PNAS August 18, 2011 online at: http://www.pnas.org/content/early/2011/08/17/1105445108.full.pdf+html?with-ds=yes

Junghyup Suh, Alexander J. Rivest, Toshiaki Nakashiba, Takashi Tominaga, Susumu Tonegawa, Entorhinal Cortex Layer III Input to the Hippocampus Is Crucial for Temporal Association Memory, Published Online November 3 2011, Science 9 December 2011:

Vol. 334 no. 6061 pp. 1415-1420, DOI: 10.1126/science.1210125, abstract online at: http://www.ncbi.nlm.nih.gov/pubmed/22052975

2012

Steve M. Kim, Surya Ganguli, Loren M. Frank, Spatial Information Outflow from the Hippocampal Circuit: Distributed Spatial Coding and Phase Precession in the Subiculum, The Journal of Neuroscience, 22 August 2012, 32(34): 11539-11558; doi: 10.1523/JNEUROSCI.5942-11.2012

Eun Joo Kim, Earnest S. Kim, Mijeong Park, Jeiwon Cho, Jeansok J. Kim, Amygdalar Stimulation Produces Alterations on Firing Properties of Hippocampal Place Cells, J Neurosci. 2012 Aug 15;32(33):11424-34.

Carien S. Lansink, Jadin C. Jackson, Jan V. Lankelma, Rutsuko Ito, Trevor W. Robbins, Barry J. Everitt, Cyriel M.A. Pennartz, Reward Cues in Space: Commonalities and Differences in Neural Coding by Hippocampal and Ventral Striatal Ensembles. Received February 7, 2012. Revision received June 14, 2012. Accepted July 12, 2012. The Journal of Neuroscience, 5 September 2012, 32(36): 12444-12459; doi: 10.1523/​JNEUROSCI.0593-12.2012

Hilfreiche zusätzliche Links:

Stefan Leutgeb: http://biology.ucsd.edu/faculty/sleutgeb.html (zuletzt 17.Sept.2012)

Gitter-Zellen: http://en.wikipedia.org/wiki/Grid_cell (zuletzt 15.Sept.2012)

Pfad Integration: http://en.wikipedia.org/wiki/Path_integration (zuletzt 15.Sept.2012)

Orts-Zellen: http://en.wikipedia.org/wiki/Place_cell (zuletzt 15.Sept.2012)

Kopf-Richtungs-Zellen: http://en.wikipedia.org/wiki/Head_direction_cells (zuletzt 15.Sept.2012)

Raum-Sicht-Zellen: http://en.wikipedia.org/wiki/Spatial_view_cells (zuletzt 15.Sept.2012)

Grenz-Zellen: http://en.wikipedia.org/wiki/Border_cell_%28brain%29 (zuletzt 15.Sept.2012)

Striatum: http://en.wikipedia.org/wiki/Striatum (zuletzt 17.Sept.2012)

 

Einen Überblick über alle bisherigen Themen findet sich HIER

PHILOSOPHIE IM KONTEXT oder: BEGRIFFSNETZE oder: THEORIENETZWERKE

Achtung: Es hat sich gezeigt, dass diese Version einen grundlegenden Fehler enthält! Siehe am Ende des Textes den Link auf eine verbesserte Version.

 

(1) In dem Vortrag in Bremerhaven ist die Verzahnung von Philosophie und Wissenschaft hevorgehoben worden. Ansatzweise wurde skizziert, wie eine bewusstseinsbasierte Philosophie als das primäre Denken innerhalb seines Denkraumes einen ‚Unterraum‘ spezifizieren kann, der sich über die spezielle Teilmenge der ‚empirischen Phänomene‘ [PH_Emp] definiert bzw. umgekehrt, wie man ausgehend von den empirischen Disziplinen über die Frage nach den notwendigen Voraussetzungen zu einem größeren Zusammenhang kommen kann, der letztlich mit dem philosophischen Denken zusammenfällt. Versucht man, die begrifflichen Verhältnisse zwischen den verschiedenen hier einschlägigen Disziplinen zu klären, dann wird man alsbald feststellen, dass diese bei den meisten nicht ganz klar sind; dies betrifft die ganze ‚Community‘. Im Folgenden ein weiterer Versuch, die hier geltenden grundsätzlichen Verhältnisse transparent zu machen.

 

(2) Die grundsätzliche Idee (die ich seit mehr als 20 Jahren immer wieder mal auf unterschiedliche Weise versucht habe, — in erster Lnie mir selbst — zu verdeutlichen) ist im Schaubild Nr.1 angedeutet.

 

 

Gesamtrahmen Philosophie und Wissenschaften

 

 

(3) Nimmt man seinen Ausgangspunkt von existierenden empirischen Disziplinen wie Physik [Phys], Chemie [Chem], Biologie [Biol] usw. dann sind diese dadurch gekennzeichnet, dass sie aufgrund spezifischer Fragestellungen und spezifischer Messverfahren entsprechend verschiedene ‚Messwerte‘ gewinnen.

 

(4) Hierbei ist aber zu beachten, dass die empirischen Messwerte zwar – idealerweise – unabhängig von einem bestimmten Körper oder Bewusstsein ‚gewonnen‘ werden, dass sie aber nur in dem Maße in eine wissenschaftliche Theoriebildung eingehen können, als die Messwerte von Menschen auch ‚wahrgenommen‘ werden können, d.h. nur insoweit, als die handlungs- und technikbasierten Messwerte zu ‚bewussten Ereignissen‘ werden, zu ‚Phänomenen‘ [PH]. Als ‚Phänomen‘ ist ein Messwert und ein Zahnschmerz nicht unterscheidbar, allerdings haben sie verschiedene ‚Ursachen der Entstehung‘, die sich in einer ‚Reflexion‘ erschließen lassen. In dem Masse, wie man diese Unterscheidung durchführen kann, kann man dann innerhalb der ‚allgemeinen‘ Menge der Phänomene PH eine spezielle Teilmenge der ’speziellen‘ Phänomene ausgrenzen, also PH_Emp PH.

 

 

(5) In diesem Sinne kann man sagen, dass die Menge der empirischen Phänomene sich bezüglich ihrer ’speziellen Herkunft‘ von allen anderen Phänomenen unterscheiden und dass die verschiedenen empirischen Disziplinen sich diese spezielle Teilmenge auf unterschiedliche Weise ‚aufteilen‘. Idealerweise würde man sich die Menge der empirischen Phänomene PH_Emp zerlegt denken in endliche viele disjunkte Untermengen. Ob die tatsächlichen Messverfahren mitsamt den daraus resultierenden Messwerten real vollständig disjunkt sind, ist aktuell offen; spielt für die weiteren Überlegungen zunächst auch keine wesentliche Rolle. Wichtig ist nur, dass in diesem Zusammenhang nur dann von empirischen Daten wie z.B. ‚psychologischen Daten‘ DATA_SR gesprochen werden soll, wenn es reale Messwerte von realen Messvorgängen gibt, die von einem Menschen wahrgenommen werden können und dieser diese Phänomene als entsprechende empirische Phänomene PH_Emp_x interpretiert (das ‚x‘ steht hierbei für die jeweilige Disziplin).

 

(6) Wie in vorausgehenden Blogeinträgen schon mehrfach festgestellt, bilden empirische Daten DATA_x als solche noch keine wirkliche Erkenntnis ab. Diese beginnt erst dort, wo Verallgemeinerungen vorgenommen werden können, Beziehungen erkennbar sind, regelhafte Veränderungen, usw. Die Gesamtheit solcher struktureller Eigenschaften im Zusammenhang mit Daten nennt man normalerweise eine ‚Theorie‘ [TH]. Ob und inwieweit alle heutigen empirischen Disziplinen wirklich systematisches Wissen in Form von expliziten Theorien TH_x entwickeln, steht hier nicht zur Diskussion (es gibt sicher viel weniger explizite Theoriebildung als man sich wünschen würde. Die einzige Disziplin, von der man den Eindruck hat, dass sie überwiegend durch formale Konstrukte begleitet wird, die den Anspruch von Theorien erfüllen, ist die moderne Physik. Alle anderen Disziplinen fallen hinter das Ideal mehr oder weniger weit zurück.).

 

(7) Solange man sich nun innerhalb einer ganz bestimmten Disziplin bewegt, ist die Welt — in gewissem Sinne – ‚in Ordnung‘: man weiß wie man misst und man hat elementare Techniken, wie man Daten strukturiert. Fängt man an, Fragen nach den ‚Voraussetzungen‘ dieser fachspezifischen Theoriebildung zu stellen, nach der Angemessenheit der verwendeten Methoden, wird es schwierig, da für solche Fragen strenggenommen kein Instrumentarium verfügbar ist (Warum und wieso sollte ein Chemiker sich Fragen nach den Grundlagen der Erkenntnis stellen, aufgrund deren er überhaupt etwas erkennt, oder nach dem Problem der sprachlichen Bedeutung, wenn er über chemische Sachverhalte spricht, über die Angemessenheit seiner Begrifflichkeit für den zu untersuchenden Gegenstand, usw.). Noch schwieriger wird es, wenn es um mögliche Wechselwirkungen zwischen verschiedenen Theorieansätzen geht: ob und wie verhalten sich die Daten und theoretischen Modelle zwischen z.B. beobachtetem Verhalten in der Psychologie TH_SR mit zeitgleichen Messungen im Körper TH_Bd oder spezieller im Nervensystem TH_NN? Wann darf ich denn überhaupt von einer Theorie sprechen? In welchem Sinne kann ich Theorien TH_x und TH_y vergleichen? Diese – und viele andere – Fragen gehen weit über die fachspezifischen Fragestellungen hinaus, verweisen auf allgemeine fachübergreifende Zusammenhänge.

 

(8) Im deutschen Sprachraum gab es in der Zeit von ungefähr 1970 bis 1990 eine Phase, in der man verstärkt von ‚Wissenschaftstheorie‘ sprach als jener ‚Metadisziplin‘, die die allgemeinen Eigenschaften und Randbedingungen von ‚Theorien‘ untersucht und klärt. Im englischen Sprachraum nannte man dies ‚Philosophy of Science‘ (allerdings mit einer nicht ganz deckungsgleichen Bedeutung). Alle diese Strömungen haben – so scheint es – bis heute keinen nachhaltigen Einfluss auf den ’normalen Wissenschaftsbetrieb‘ nehmen können; eher ist das Thema sogar wieder rückläufig. Zwar bräuchte man es aus methodischen Gründen dringen, aber keiner will dafür Geld ausgeben.

 

(9) Die deutschsprachige Wissenschaftstheorie hatte den Nachteil, dass sie zwar versuchte, disziplinenübergreifend strukturelle Eigenschaften von Theorien zu klären, sich aber letztlich weigerte, sämtliche Voraussetzungen (einschließlich ihrer eigenen) zu reflektieren, d.h. die Wissenschaftstheorie nahm zwar einerseits gegenüber den Fachdisziplinen allgemeine Eigenschaften von Denken, Folgern, Sprechen, Messen usw. in Anspruch, die über die engen Fachdisziplinen hinausgehen, weigerte sich aber, diesen Anspruch in letzter Konsequenz zu reflektieren und auszuweisen (auch nicht die Erlanger Schule und die sogenannten Konstruktivisten). Eine solche grundlegende Reflexion war und blieb die Domäne der klassischen Philosophie, von der sich die Wissenschaftstheorie panisch abzugrenzen versuchte.

 

(10) So sehr eine gesunde Kritik an der klassischen Philosophie nottat, eine vollständige Verdrängung der philosophischen Aufgabenstellung und Denkweise wirkte aber wie eine ‚Überreaktion‘; diese hatte zur Folge, dass sich die Wissenschaftstheorie von ihren eigenen Voraussetzungen mittels einer klassischen ‚Verdrängung‘ zu befreien suchte, sich dadurch aber entscheidende Aspekte vergab.

 

 

(11) Wie das Schaubild zeigt, gehe ich davon aus, dass die im Erleben wurzelnde Reflexion der primäre Ausgangspunkt für jede Art von spezialisierendem Denken ist. Selbst eine empirische Disziplin ist im Raum der bewussten Erlebnisse, im Raum der Phänomene, verankert, und was immer ein empirischer Wissenschaftler denkt, er denkt im Rahmen der Denkmöglichkeiten, die ihm über das Bewusstsein und die ‚an das Bewusstsein gekoppelten Subsysteme‘ verfügbar sind. Andere hat er gar nicht. Ein Wissenschaftstheoretiker, der über das theoretische Denken von Fachdisziplinen forschen will, ist auch nicht besser dran. Auch er ist an den Phänomenraum als primärem Bezugssystem gebunden und auch er nutzt jene allgemeinen Reflexionsmöglichkeiten, die im Bewusstseinsraum generell verfügbar sind. D.h. jeder Versuch, eine irgendwie geartetes geordnetes Denken — sei es fachwissenschaftlich oder wissenschaftstheoretisch – als solches auf seine Voraussetzungen und Wechselwirkungen hin zu befragen, muss auf dieses ‚primäre Denken‘ zurückgehen und es für die Erkenntnis nutzen. Dieses primäre Denken aber ist genau das philosophische Denken, das auf der einen Seite mit dem alltäglichen Denken verschwimmt, und auf der anderen Seite in Wissenschaftstheorie oder gar Fachwissenschaft übergeht.

 

(12) Von der Intention her hat sich ‚Philosophie‘ immer als solch ein ‚erstes Denken‘ verstanden, das alles andere Denken umfassen sollte. In der konkreten Ausformung eines solchen ersten Denkens gab es aber immer vielfältige und starke Unterschiede. Generell kann man die Tendenz beobachten, dass das philosophische Denken sich entweder vom alltäglichen und wissenschaftlichen Denken ‚zu weit entfernt‘ hat oder aber umgekehrt diesem ‚zu nah‘ kam. Im letzteren Fall büßte Philosophie ihre kritisch-klärende Funktion ein.

 

(13) Will Philosophie beides zugleich realisieren, kritische Distanz wie auch kenntnisreiche Nähe, muss das philosophische Denken sowohl die ‚Form‘ eines wissenschaftlichen Denkens hinreichend klären wie auch die eigenen Erkenntnis — sofern überhaupt strukturierbar – entsprechend explizieren. Das philosophische Denken als ‚erstes Denken‘ wird zwar niemals seinen eigenen Anteil zugleich vollständig und korrekt explizieren können (das liegt primär an der Struktur des Denkens selbst sowie an der Verwendung von Sprache), aber es kann den Zusammenhang der einzelwissenschaftlichen Theorieansätze sowie deren allgemeinen erkenntnistheoretischen Voraussetzungen soweit explizieren, dass klar wird, (i) was ist überhaupt eine Theorie TH_x, (ii) welche erkenntnistheoretischen Voraussetzungen müssen für eine bestimmte Theorie TH_x berücksichtigt werden, (iii) wie kann man das Verhältnis von Theorien beschreiben XREL(TH_x, TH_y), (iv) wie können Objektbeschreibungen aus unterschiedlichen Theorien (z.B. Eigenschaften von Neuronen beschrieben in einer neurowissenschaftlichen Theorie TH_nn, und Eigenschaften eines beobachtbaren Verhaltens in einer psychologischen Theorie TH_sr) aufeinander bezogen werden, usw.

 

(14) Fordern muss man aber auch, dass das philosophische Denken seine Inhalte, soweit sie explizierbar sind, auch in Form von Daten DATA_ph kenntlich macht, und, darauf aufbauend, verdeutlicht, welche Strukturen TH_ph das philosophische Denken vermeintlich besitzt bzw. benutzt, um die Möglichkeit und das ‚Funktionieren‘ der Einzeltheorien zu ‚erklären‘. In gewisser Weise muss die Philosophie genauso ein ‚Modell‘ ihres Gegenstandes bauen wie dies die anderen Wissenschaften auch tun. Im Fall der Philosophie geht es um den Menschen selbst, speziell um den Menschen, insofern er ‚erkennt‘, ‚Wissen‘ entwickelt‘, er ’spricht‘, und vieles mehr. Und natürlich könnte (bzw. sie müsste es!) die Philosophie — wie alle anderen Disziplinen auch – Computermodelle benutzen, um ihr theoretisches Modell vom erkenntnisfähigen und ethisch handelndem Menschen zu explizieren. ‚Computergestützte Philosophische Theorie‘ (etwa ‚computational philosophy‘) ist nicht nur kein Gegensatz sondern ein absolutes Muss! Ohne solche Modelle hat eine moderne Philosophie kaum eine Chance, die zu behandelnde Komplexität angemessen beschreiben zu können.

 

 

Eine korrigierte Version dieses Beitrags findet sich hier.

 

 

Einen Überblick über alle bisherigen Beiträge findet man hier.

 

 

(15) Weitere Details in Fortsetzungen bzw. im Rahmen meiner online-Skripte zur allgemeinen Lerntheorie.