PHILOSOPHIEWERKSTATT – WAHRE AUSSAGEN – Memo vom 8.Okt.2017

PDF

 

ÜBERSICHT

Kurzer Bericht zur Philosophiewerkstatt vom 8.Okt.2017 im INM (Frankfurt). Die Einladung zur Sitzung findet sich HIER

ARBEITSWEISE DER PHILOSOPHIEWERKSTATT

Die Philosophiewerkstatt folgt nicht dem klassischen Schema, dass einer viel erzählt und andere zuhören, sondern stellt eine Aufgabenstellung an den Anfang und alle Teilnehmer sind eingeladen, zusammen die Aufgabenstellung durch ihre Beiträge zu erhellen. Da die Teilnehmergruppe in der Regel sehr bunt gemischt ist, führt dies zu sehr vielen interessanten Aspekten, die ein Thema vielseitig zum Leuchten bringen können. Ferner zeigt jede Sitzung immer wieder, wie wenig wir im Alltag gewohnt sind, zusammen mit anderen (jeder ist gleichberechtigt!) eine gemeinsame Sicht zu erarbeiten. Je profilierter die Teilnehmer sind, um so herausfordernder wird die Erarbeitung einer gemeinsamen Sicht. Das gemeinsame Ringen um ein Verständnis wird aber belohnt durch die Bereicherung des eigenen Standpunktes durch Sichten, die einem vorher unbekannt waren. Niemand geht nach Hause, ohne nicht viel dazu gelernt zu haben (das gilt auch für den Moderator der Sitzungen!).

AUFGABENSTELLUNG AM 8.OKT.2017

Die Anregung zu diesem Thema kam dieses Mal aus dem Blog selbst, und zwar von dem Teil 1 des Essays ‚Die Wiederentdeckung …‘. Der Teil 1 beschäftigt sich mit der Frage der Wahrheit. Da das Thema ‚Wahrheit‘ sowohl in der Philosophie wie auch in der gesamten Kulturgeschichte seit mehr als 2000 Jahren sehr prominent ist, gibt es dazu eine große Menge an Anschauungen und Texten. Um sich hier nicht schon gleich zu Beginn zu verzetteln bestand die Aufgabe darin, im eigenen Erfahrungsbereich nach solchen Situationen Ausschau zu halten, in denen jemand eine sprachliche Äußerung macht, und alle Beteiligten diese sprachliche Äußerung ’normalerweise‘ als ‚wahr‘ zu klassifizieren. Nachdem einige Beispiele gefunden wurden, sollten diese gemeinsam weiter untersucht werden (Warum klassifiziert man diese als ‚wahr‘? Was sind die Bedingungen dafür? usw.).

Gedankenskizze von der Philosophiewerkstatt am 8.Okt.2017 im INM

Bild Nr.1: Gedankenskizze von der Philosophiewerkstatt am 8.Okt.2017 im INM

ZITATE

Überraschenderweise fiel es allen schwer, überhaupt solche Beispiele vorzustellen. Als erstes poppten allerlei Zitate auf, die dem einen oder der anderen in den Sinn kamen (siehe das Schaubild Nr.1).

Erst die beharrlichen Erinnerungen des Moderators an die Aufgabenstellung förderte dann langsam, häppchenweise, Beispiele zutage. Dieser Prozess zog sich fast über die gesamte Sitzung hin.

BEISPIELE

Folgende Beispiele erblickten das Licht der Welt (Reihenfolge nicht unbedingt chronologisch):

  • Äußerungssituation Arzt mit Patient; Äußerung Arzt sagt „Dieses Medikament ist wirksam (für Problem X), weil es in einer randomisierten Doppelblind-Studie signifikant war.“
  • Äußerungssituation FreundeInnen untereinander; einer hat ein Problem X; eine spricht zum anderen Äußerung „Du must Wadenwickeln nehmen.“
  • Äußerungssituation Küche mit Herdplatte; jemand berührt  eine heiße Platte, ruft: Äußerung „Oh Scheiße, das Ding ist heiß“ (und zieht blitzartig seine Hand zurück)
  • Äußerungssituation Biblischer Text, fiktive Situation, Pilatus und Jesus von Nazareth. Pilatus fragt „Bist du der König der Juden“, und Jesus antwortet: Äußerung „Du sagst es“.
  • Äußerungssituation Jemand verkauft einen sächsischen Thaler heute als echt an einen Sammler und sagt: Äußerung „Dies ist ein echter sächsischer Thaler (aus dem Jahr X)“.
  • Äußerungssituation Jemand gibt als Pfand für eine Geldschuld heute ein Bild an eine Bank und sagt: Äußerung „Dies ist ein echter XYZ“.
  • Äußerungssituation Im Gespräch zwischen Freunden sagt jemand: Äußerung „Die Erde ist rund“.
  • Äußerungssituation Das Lehramt der katholischen Kirche hat in der Vergangenheit verkündet: Äußerung Maria, die Mutter Jesu, war bei ihrer Empfängnis Jungfrau.

KONZEPTUALISIERUNG ÄUSSERUNG

Die Frage, wann man denn eine einzelne Äußerung als ‚wahr‘ klassifizieren würde, wurde erst nach und nach schrittweise beantwortet. Diese Erklärung führte mehrere Begriffe, Konzepte zueinander, die einen Zusammenhang aufleuchten ließen. Diesen Vorgang kann man ‚Konzeptualisierung‘ nennen oder ‚Modellbildung‘ oder ‚Theoriebildung‘.

Ansatz zur Konzeptualisierung (Theoriebildung) einer Äußerungsstuation mit Wahrheitsanspruch

Bild Nr.2: Ansatz zur Konzeptualisierung (Theoriebildung) einer Äußerungssituation mit Wahrheitsanspruch

Am Beispiel mit der heißen Herdplatte sei die Konzeptualisierung zum Begriff der ‚wahren einzelnen Äußerung‘ erläutert (siehe Schaubild Nr.2):

Vorausgesetzt wird, dass es mindestens zwei Sprecher-Hörer einer Sprache L gibt, die eine reale Situation S teilen.

Im konkreten Fall sind die beiden Sprecher-Hörer in einem Raum mit einer Herdplatte.

Der eine — nennen wir ihn A — berührt die Herdplatte und zieht blitzartig die Hand wieder zurück und äußert dabei „Oh Scheiße, das Ding ist heiß“.

Der andere — nennen wir ihn B — sieht die Bewegung und hört die Äußerung.

Nehmen wir an, dass B in seiner visuellen Wahrnehmung gesehen hat, wie A die Herdplatte berührt und die Hand schnell wieder zurückzieht (Perception_B.vis(visuelle-Reize) = ‚Handbewegung-A‘), und in seiner akustischen Wahrnehmung hat er die Äußerung gehört (Perception_B.akust(akustische-Reize) = ‚Oh Scheiße, das Ding ist heiß‘).

Es wird ferner angenommen, dass eine Person, die eine Sprache L ‚gelernt‘ hat, mit einer sprachlichen Äußerung in dieser Sprache L (z.B. mit Deutsch, nicht aber mit Chinesisch) bestimmte ‚Bedeutungen‘ verbindet, die sich im Gehirn als spezifische Erregungsmuster nachweisen lassen. Also, wenn jemand eine Äußerung e hört, dann ist die akustische Wahrnehmung Perception_X.akust(e) = ‚Oh Scheiße, das Ding ist heiß‘) verknüpft mit internen, subjektiven Bedeutungsstrukturen (Meaning(‚Oh Scheiße, das Ding ist heiß‘) = InternVon(‚Oh Scheiße, das Ding ist heiß‘)), die beim Hören ‚aktiviert‘ werden.

Insofern diese internen Bedeutungen in realen Situationen gelernt wurden, gibt es eine Korrespondenz/ Ähnlichkeit zwischen diesen internen Bedeutungsstrukturen und bestimmten Formen der aktuellen Wahrnehmung. Also SIMILARITY(P_X.akust(e), Meaning(P_X.akust))).

Unter Voraussetzung solch einer Ähnlichkeit, die in der Wahrnehmung von B verfügbar ist, kann B feststellen, dass für ihn die Äußerung von A ‚Oh Scheiße, das Ding ist heiß‘ in dieser Situation für ihn B ‚wahr‘ ist. Die Aussage von A ‚Oh Scheiße, das Ding ist heiß‘ (die B wahrgenommen hat) und die bei B eine bestimmte Bedeutung InternVon(‚Oh Scheiße, das Ding ist heiß‘) assoziiert hat, korreliert bei B mit der visuellen Wahrnehmung der Situation in hinreichender Weise.

Schon an diesem einfachen Beispiel kann man sehen, wie viele Voraussetzungen erfüllt sein müssen, damit man von einer ‚wahren Äußerung im Alltag‘ sprechen kann.

KONZEPTUALISIERUNG KOMPLEXE ÄUSSERUNGSMENGEN (THEORIEN)

Im Alltag haben wir es oft mit komplexen Sachverhalten zu tun. Genannt wurden Börsengeschäfte, medizinische Prognosen, physikalische Theorien, wirtschaftliche Vorgänge, biologische Phänomene am Beispiel von Insektenstaaten, und Wetterprognosen.

In all diesen Fällen geht es um einzelne Äußerungen (z.B. „In zwei Tagen wird es am Ort X mit einer Wahrscheinlichkeit von 80 % regnen“, oder „Der Kurs der Aktie X wird in den nächsten Monaten um Y% steigen“, oder „Diese Ameise reagiert in dieser Situation so, weil Y“, usw.), die einen unterstellten ‚kausalen Zusammenhang‘ voraussetzen

Kausale Zusammenhänge treten als explizite ‚Modelle‘ und ‚Theorien‘ auf (siehe Bild Nr.3).

Aussagenmengen als Theorien

Bild Nr.3: Aussagenmenge als Theorie (stark vereinfacht)

So können Wettervoraussagen gemacht werden, weil es eine Computersimulation gibt, die auf einem mathematischen Modell beruht, in dem aktuelle Messwerte zum Zeitpunkt t und zu vielen Zeitpunkten ‚vor t‘ (historische Daten) so verrechnet werden können, dass eine ‚Voraussage’/ ‚Prognose‘ für einen späteren Zeitpunkt t+c gemacht werden kann.

Modelle in Form von Computerprogrammen repräsentieren Funktionen. Eine Funktion als solche ist weder wahr noch falsch. Wenn aber jemand sagt, dass die Funktion f bei einem bestimmten Eingabewert X, der einem realen Sachverhalt X-real in der realen Welt entspricht, den Ausgabewert Y berechnen wird, und dieser Ausgabewert Y entspricht dem Sachverhalt Y-real in der realen Welt, dann entsteht eine Aussage, die man überprüfen kann. Dann kann die Aussage ‚wahr‘ werden, weil bei Auftreten des Sacherhalts X-real nach Voraussage der Sachverhalt Y-real auftreten wird. Falls nicht, ist die Aussage nicht wahr.

Eine Theorie unterscheidet sich von einem Modell, da eine Theorie eine Menge von Aussagen repräsentiert, die als Aussagen wahr oder falsch werden können. Funktionen können Elemente innerhalb von Aussagen sein. Im Prinzip kann man jedes Modell in eine Theorie umschreiben.

Im Fall des Börsengeschehens kann man die verschiedenen Einzelaussagen über Firmen und Märkte in einen Zusammenhang einordnen, aufgrund dessen dann Beobachtungen (einzelne Aussagen) mit einer Prognose verknüpft werden können (einzelne Aussage). Wenn z.B. eine Firma A im letzten halben Jahr nur Verluste produziert hat (einzelne Aussagen), und kein Faktor bekannt ist, der diesen Verlusten gegensteuern könnte (einzelne Aussagen), dann könnte man mit Bezug auf einen erkannten ‚Zusammenhang‘ (Regel, Axiom, Gesetz) ‚folgern‘, dass diese Firma ein Kandidat für eine Übernahme oder gar für eine  Insolvenz ist.

Im Falle von Modellen und Theorien benötigt man also neben den ganzen Rahmenbedingungen für wahre einzelne Äußerungen zusätzlich ein Konzept, wie man (i) allgemeine Zusammenhänge zwischen Aussagen formulieren kann (‚Axiome‘, ‚Regeln‘ …) und (ii) wie man angenommene Zusammenhänge dazu benutzen kann, bei Vorliegen von einzelnen Aussagen zur Gegenwart auf Aussagen in der Zukunft schließen kann. Dies ist das Gebiet der ‚Logik‘.

NACHWORT

Wenn man sieht, wie heute Begriffe wie ‚künstliche Intelligenz‘ und in diesem Zusammenhang ‚Intelligenz‘ geradezu inflationär gebraucht werden, andererseits aber das Allgemeinwissen zu Theorien und Logik eher gegen Null tendiert, dann kann man sich fragen, wer hier eigentlich noch was versteht.

Statt in bundesweiten Initiativen allen Schülern Computer hinstellen zu wollen (sie haben alle ihre Smartphones), wäre es möglicherweise eine bessere Strategie, ihnen zu erklären was Funktionen, Modelle, Theorien und Logik sind, damit sie verstehen würden, was sie in diese Computer rein stecken müssen, damit diese dann vielleicht irgend etwas Sinnvolles tun. Dabei würden sie (wie furchtbar) vielleicht sogar verstehen lernen, wie sie selber denken (welch Katastrophe, sie könnten ja dann möglicherweise die überhitzten Marketingblasen durchschauen…).

KONTEXTE

Einen Überblick über alle Einträge zur Philosophiewerkstatt nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs finden sich HIER.

RINGEN UM DAS BEWUSSTSEIN – Th.W.CLARK 1995 – FUNCTION AND PHENOMENOLOGY: CLOSING THE EXPLANATORY GAP – gegen Chalmers 1995

(Letzte Aktualisierung (ab Nr.31) am Sa, 30.7.2016, 12:08h)

Th.W.CLARK, FUNCTION AND PHENOMENOLOGY: CLOSING THE EXPLANATORY GAP, in Journal of Consciousness Studies, Vol.2, No.3, 1995, pp.241-254

  1. Der aktuelle Artikel von Clark, der hier diskutiert werden soll, ist eine direkte Antwort auf den Artikel von Chalmers Facing up to the problem…, der in der gleichen Zeitschrift abgedruckt war und der in diesem Blog zuvor ausführlich besprochen worden ist.

  2. Clark bezieht die direkte Gegenposition zu Chalmers. Während Chalmers im Kern die Besonderheit der Bewusstseinserfahrung herausstellt, die sich nicht durch Rückgriff auf die empirischen Prozesse des Körpers und der Umgebung angemessen erklären lässt (das Subjektive ist von fundamental anderer Qualität als das Objektive, Empirische), versucht Clark genau dies zu tun. Er behauptet, das Phänomen des Bewusstseins sei nichts Besonderes gegenüber den anderen empirischen Prozessen.

EXISTIERENDE EMPIRISCVHE THEORIEN

  1. Sowohl Chalmers wie auch Clark berufen sich auf existierende empirische Theorien, folgern aber Gegensätzliches: Chalmers sagt, dass sich das Phänomen des Bewusstseins nicht mit den üblichen wissenschaftlichen Mitteln  hinreichend erklären lässt, und Clark meint widersprechend, Ja, doch, man kann das Phänomen des Bewusstseins damit hinreichend erklären.

  2. Im Standardmodell einer empirischen Theorie hat man einerseits eine formale Struktur, die eigentliche Theorie T, und andererseits einen empirischen Bezug, durch den mittels Messoperationen M empirische Daten D reproduzierbar verfügbar gemacht werden. Innerhalb der Struktur T kann man diese Daten klassifizieren K und in Beziehungen R einordnen. Aufgrund von Daten kann man mittels der Struktur T entweder entscheiden, dass die Daten mit der Struktur und der Dynamik der Theorie übereinstimmen oder eben nicht.

SUBJEKTIVE ERFAHRUNG NICHT MESSBAR

  1. Im Fall des Bewusstseins BEW gibt es eine Erfahrung des Bewusstseins, die allgemein als subjektiv klassifiziert wir, als nicht empirisch, nicht intersubjektiv. Damit ist ein direktes Messen im Sinne einer empirischen Theorie T nicht möglich. Im Fall des Phänomens des Bewusstseins und der typischen Erfahrung des Bewusstseins gibt es also keine direkten empirischen Daten D(BEW) und damit kann es auch keine empirische Theorie über das Bewusstsein geben. Insofern hätte Chalmers recht.

  2. Chalmers selbst spricht zwar auch über indirekte Daten des Bewusstseins (wie z.B. sprachliche Äußerungen über subjektive Erfahrungen), aber alle diese indirekte Daten sind keine Primärdaten!

IDENTITÄT VON BEWUSSTSEIN UND PROZESS

  1. Warum und wie kann dann Clark behaupten, Chalmers mache alles nur unnötig kompliziert. Clark wirft direkt die Frage auf, warum man nicht einfach mit der Hypothese starten könne, dass die Bewusstseinserfahrung BEW identisch sei mit der neuronal realisierten kybernetischen Funktion? (p.243) D.h. Clark postuliert die Identität von Bewusstsein und Funktion. (vgl. p.246) Anders: jene, die subjektive Erfahrungen ihres Bewusstseins haben, sind Instanzen von empirischen Prozessen (vgl. p.247) Oder: Wir, die wir subjektive Erfahrungen haben, sind konstituiert durch und identisch mit kognitiven Prozessen, die Qualia instantiieren, und diese Qualia sind das, was es für uns heißt, diese Prozesse zu sein.(vgl. p.247)

WAS STIMMT NUN?

  1. Im Falle von Chalmers ist klar, dass eine subjektive Erfahrungen des Bewusstseins direkt keine Messwerte für empirische Theorien liefern kann. Im Falle von Clark behauptet dieser eine Identität zwischen der subjektiven Erfahrung BEW und den ermöglichenden empirischen Prozessen Pe.

  2. In einer empirischen Theorie T kann ich von der Identität von zwei Termen t1 und t2 nur sprechen, wenn t1=t1 gilt, und dies setzt im Standardfall für den Bereich des formalen Kerns T eine Extensionsgleichheit voraus. Verbunden mit einer empirischen Interpretation Int müssen sich den theoretischen Termen t1,t2 empirische Terme t1e, t2e zuordnen lassen, die aus Messvorgängen M hervorgegangen sind, also Int(t1e) = t1 und Int(t2e) =t2.

  3. Da es im Falle von subjektive Erfahrungen des Bewusstseins BEW nach allgemeinem Verständnis keine direkten Messwerte De gibt, fehlt in der Identitätsgleichung t1=t2 mindestens ein Term. In einer empirischen Theorie wäre damit eine Identitätsbehauptung, wie Clark sie fordert, nicht realisierbar.

  4. Nach diesen ersten Überlegungen sieht es so aus, dass es unter der Annahme einer empirischen Theorie des Bewusstseins T_bw keine empirisch begründeten Messwerte zu jenen subjektiven Erfahrungen geben kann, die wir mit der subjektiven Erfahrung von Gegebenheiten des Bewusstseins verbinden. Damit wäre eine empirische Theorie des Bewusstseins ausgeschlossen. Ob irgendwelche empirischen Sachverhalte (neuronale Prozesse, andere physiologische Prozesse…) mit subjektiv erfahrbaren Gegebenheiten irgendetwas direkt zu tun haben, bleibt auf diese Weise erst einmal unklar.

HAT DAMIT CHALMERS RECHT?

  1. Nach dem bisherigen Befund hätte Chalmers also Recht damit, dass sich ein Reden über das Bewusstsein nicht reduzieren lässt auf ein Reden über empirische Prozesse, die im Kontext von subjektiven Erfahrungen beobachtbar sind. Subjektive Erfahrungen sind etwas Eigenständiges. Es sind in gewisser Weise auch Daten D, aber eben nicht-empirische Daten, subjektive Daten Ds. Empirische Daten De sind allesamt auch subjektive Daten, also De c Ds, aber nicht alle subjektive Daten Ds sind empirische Daten.

  2. Obwohl subjektive Daten Ds grundsätzliche keine empirische Daten sind, gibt es doch die Möglichkeit, subjektive Daten Ds auf sekundäre Indikatoren abzubilden Ind: Ds —> Des, die als solche empirische Daten sind, aber in ihrer Interpretation/ Deutung mit subjektiven Erfahrungen in Zusammenhang gebracht werden. Bei aller Problematik und Instabilität einer solchen sekundären Verankerung der empirischen Indikatoren Des sind die Indikatoren empirisch und können mit anderen empirischen Daten korreliert werden, also korr: Des —> De.

  3. Auf diese Weise lassen sich eine Menge interessanter Gegebenheiten sichtbar machen. Chalmers kommt bis zur Behauptung von einer Strukturellen Kohärenz zwischen der Datenmenge aus Des und der Datenmenge aus De und postuliert auch eine organisatorische Invarianz bzgl. des Outputs von zwei strukturell kohärenten Strukturen.

  4. Clark sieht von vornherein eine Identität zwischen beiden Strukturen (obgleich er nicht erklärt, wie er die subjektive Seite misst) und folgert daraus, dass überall, wo neuronale Strukturen identifizierbar sind, es ein – wenn auch noch so minimales – entsprechendes Korrelat an Bewusstsein geben muss. Bewusstsein wäre dann nichts spezifisch Menschliches, höchstens in dieser konkreten und komplexen Ausbildung aufgrund der entsprechend komplexen Struktur des Nervensystems.

  5. Während Chalmers das Problem hat, wie er aufgrund seiner messtechnischen Unterscheidung von subjektiven und empirischen Daten die Deutungshypothese eines Dualismus zwischen Bewusstsein und Nichtbewusstsein umgehen kann, erklärt Clark die Annahme eines Dualismus für unnötig (in seiner Interpretation), da es ja bei ihm sowieso nichts Besonderes neben den empirischen Sachverhalten gibt.

  6. Aus der Sicht einer empirischen Theorie ist die Position von Clark unhaltbar. Er hat kein Problem, da er die subjektiven Phänomene großzügig ausklammert.

  7. Chalmers sucht sein Heil in der Konstruktion einer Informationstheorie der doppelten Aspekte, was aber (siehe im Blogbeitrag) auch nicht überzeugen kann.

JENSEITS VON EINFACHER ONTOLOGIE

  1. Traditionell wurde – und wird (siehe Clark und viele andere) – die Annahme einer Besonderheit des Subjektiven gegenüber dem Empirischen oft zum Anlass genommen, aus der Unterschiedlichkeit der Erfahrung auf eine Unterschiedlichkeit der Existenz/ Ontologie zu schließen. Möglicherweise liegt hier der Fehler.

  2. Dem Beharren von Clark (und anderen) auf der Identität des Subjektiven mit dem Objektiven liegt ja offensichtlich die Intuition zugrunde, dass zwei verschiedene Erscheinungsweisen nicht zwingend auch auf zwei unterschiedliche Ontologien verweisen müssen. Andererseits folgt die ontologische Identität auch nicht zwingend aus einem Wunschdenken.

  3. Auch sollte einem zu denken geben, dass die sogenannten empirischen Daten De nicht gänzlich verschieden sind von den subjektiven Daten Ds! Alle empirischen Daten sind zugleich auch subjektive Daten (ohne subjektive Kenntnisnahme würde kein Forscher etwas von den Daten wissen). Die Qualifizierung als empirisch macht keine ontologische Aussage sondern ist eine epistemologische Qualifikation: ist das, was ich erfahren nur subjektiv oder auch intersubjektiv und damit empirisch! Das Gemeinsame, Verbindende ist das Moment des Erfahrens/ Erlebens/ Wahrnehmens. Und dieser Erfahrungsraum lässt sich auf vielfache Weise qualifizieren, u.a. nach den Kriterien nur subjektiv und auch intersubjektiv.

  4. Das Erfahren/ Erleben als solches ist ontologiefrei. Erst durch zusätzliche Überlegungen und Beziehungssysteme lassen sich den Erfahrungen Qualifikationen wie ’nur subjektiv‘, ‚auch intersubjektiv‘, ‚bloß gedacht‘, ‚bloß erinnert‘, ‚aktuell wahrgenommen‘ usw. zuordnen. Diese Zuordnungen sind – wie auch in vielen empirischen Theorien – nicht unbedingt direkt bzgl. einer Ontologie interpretierbar (Quantentheorie, Stringtheorie, Korpuskel/Welle, Gravitation, …).

  5. Ob also ein subjektives Erleben eine andere Ontologie implizieren soll gegenüber beobachtbaren neuronalen Prozessen ist zunächst eine völlig offene Frage. Sollten die Identitätstheoretiker wie Clark und andere Recht haben (und vieles spricht dafür), dann ließe sich das subjektive Erleben mittels geeigneter theoretischer Modelle mit jenen Ontologien in Beziehung setzen, die wir mit z.B. neuronalen Prozessen verknüpfen.

  6. Aus der theoretischen Möglichkeit, durch den Aufweis komplexer Zusammenhänge Phänomene der Art Ds mit Phänomenen der Art De in Beziehung zu setzen folgt aber auch nicht zwingend, dass man auf die Beschreibung und Analyse der Phänomene der Art Ds einfach verzichten sollte bzw. überhaupt verzichten kann.

  7. Insofern die subjektive Erfahrung auch die Basis für empirische Phänomene bildet, wäre eine Ausklammerung dieser eine Form von Verleugnung, die eher unwissenschaftlich ist.

  8. Zum anderen begegnet uns in den subjektiven Phänomenen bzw. im Gesamtphänomen Bewusstsein eine Funktionalität, die wissenschaftlich interessant ist und die hochinteressante Schlüsse auf die hervorbringenden empirischen Strukturen zulässt. Dass die aktuelle Physik sich ungern Unvollständigkeit vorwerfen lässt ist psychologisch zwar nachvollziehbar, dient aber wenig der Sache der Erkenntnis.

  9. Mit den biologischen Systemen (homo sapiens sapiens nur ein Teilmoment) haben wir es mit physikalischen Systemen zu tun, die sich mit den bisherigen physikalischen Gesetzen nicht wirklich vollständig beschreiben lassen. Dies ist eigentlich ein Glücksfall für die Wissenschaft; anhand dieser Systeme treten Eigenschaften hervor, die so anders sind, so komplex verglichen mit den einfachen Sachverhalten in der Mainstream-Physik, dass es doch von größtem Interesse sein sollte, sich mit diesen Phänomenen zu beschäftigen.

  10. Dass es insbesondere physikalische Systeme gibt, die ein sogenanntes Bewusstsein aufweisen (beim Menschen ausdrücklich, bei anderen Lebewesen schwieriger zu fassen), und dies auf Basis von neuronalen Maschinerien von unfassbarer Komplexität (ein einzelnes Gehirn hat die Komplexität einer ganzen Galaxie!), dies müsste alle Wissenschaftler elektrisieren. Dass stattdessen mit eher Energie aufgewendet wird, diese Komplexität weg zu reden, wirkt befremdlich.

CHALMERS – CLARK – KOMPOSITUM

  1. Wer hat also Recht: Chalmers oder Clark?

  2. Mit der Herausarbeitung der Besonderheit des Phänomens bewusster Erfahrung würde ich Chalmers Recht geben. Mit der Ablehnung einer zusätzlichen Ontologie würde ich Clark zusprechen. Beide, sowohl Chalmers als auch Clark würde ich kritisieren in Sachen Theoriebildung. Hier überzeugt weder Chalmers noch Clark.

Clark 1995 - Conclusions. Analyse der wichtigen Argumente

Clark 1995 – Conclusions. Analyse der wichtigen Argumente

CLARKs SCHLUSSFOLGERUNGEN UND DISKUSSION (SS.252-254)

  1. Im folgenden wechsle ich ab zwischen der Darstellung von Clarks Position (C) und Anmerkungen dazu (A).(Siehe auch das Diagramm)

  2. C: Clark kennzeichnet seinen theoretischen Ausgangspunkt als dem Naturalismus (’naturalism‘) zugehörig und sieht im Begriff einer funktionalen Theorie für sich einen wissenschaftlichen Standard. Für ihn sind funktionale Theorien gekennzeichnet durch Einfachheit, ontologische Sparsamkeit, und methodischer Zurückhaltung (‚being conservative‘).

  3. A: Clarks Hervorhebung einer Theorie als funktional lässt aufmerken, da eigentlich jede moderne Theorie per Definition relationale/ funktionale Elemente enthält, und dies daher kein besonderes Kennzeichen einer Theorie ist. Ob eine Theorie dann in einem empirischen, mathematisch abstrakten, logischen, phänomenologischen oder sonstigen Kontext benutzt wird, ändert an dieser Struktur einer Theorie nichts. Entsprechend sind Kriterien wie ‚Einfachheit‘ oder ‚methodisch zurückhaltend‘ auch wenig aussagekräftig. In gewisser Weise gilt dies für jede formale Theorie.

  4. A: Die Rede von Ontologien im Kontext moderner Theorien dagegen ist eher problematisch, da moderne formale Theorien per se ontologie-neutral sind. Man kann eine formale Theorie mit mit nahezu jeder beliebigen Ontologie verknüpfen. Ob man dies tut und mit welcher hängt vom Anwendungsfall ab. Eine empirische Interpretation verbindet eine formale Theorie mit einer bestimmten Art von zeitlich und räumlich punktuellen Messwerten. Die daraus ableitbaren allgemeinen Terme können eine spezielle Ontologie bilden, die durch die Messwerte eine partielle empirische Ontologie besitzen, aber keine vollständige. Würde man eine formale Theorie mit empirischen Äußerungen verknüpfen, die sich indirekt auf subjektive Phänomene beziehen, ließen sich daraus ganz analog zum empirischen Standardfall auch allgemeine Terme ableiten, denen eine partielle phänomenologische Ontologie zukäme. Wie sich diese beiden partiellen Ontologien nach noch zu bestimmenden Kriterien dann zueinander verhalten würden, müsste man klären. Das Vorgehen von Clark, automatisch eine bestimmte Ontologie bei empirischen Theorien zu unterstellen, und dass diese automatisch dann alle möglichen anderen Ontologien überflüssig machen würde, ist methodisch in keiner Weise gedeckt und ist auch in nahezu jeder möglichen Hinsicht unplausibell.

  5. C: Ein interessanter Aspekt ist auch Clarks Einschätzung von radikal Neuem. Tendenziell soll es nichts Neues geben, es sei denn, es gibt ganz starken empirische Argumente und eine theoretische Notwendigkeit.

  6. A: Bei dieser Formulierung erhebt sich die Frage, was starke empirische Argumente sind und ab wann der Fall einer theoretischen Notwendigkeit vorliegt? Noch grundlegender: was muss man sich unter etwas radikal Neuem mit Bezug auf eine Theorie vorstellen? Nehmen wir an, wir haben eine Theorie T mit einer Interpretation Int. (i) Solange der Messbereich festgelegt ist, kann es hier nichts radikal Neues geben, da ja nur gemessen wird, was man nach Verabredung messen will. Alles was der Verabredung widerspricht, wird nicht beachtet (methodische Blindheit!). (ii) Dann bleibt eigentlich nur, dass die Menge der Messwerte nicht vollständig unter die vereinbarten allgemeinen Terme subsumierbar sind. Sollte dieser – nicht leicht entscheidbare – Fall auftreten, müssten eventuell die allgemeinen Terme neu justiert werden. (iii) Mit oder ohne neue Justierung der allgemeinen Terme bleibt dann der Bereich der Relationen/ Funktionen sowie möglicher Regeln, die mit Hilfe eines logischen Folgerungsbegriffs Ableitungen (z.T. Prognosen) zulassen. Sofern diese mit den empirisch messbaren Gegebenheiten übereinstimmen, scheint die Theorie zu funktionieren. Gibt es Nicht-Übereinstimmungen, kann dies mehrere Gründe haben (z.B. Messfehler, ungünstige Begriffsbildung, ungünstige Relationen/ Funktionen oder ungünstige Regelformulierungen, ungeeigneter logischer Folgerungsbegriff). Was nicht passieren kann, das ist, dass ein Phänomen, das man von vornherein aus dem Messbereich ausgeschlossen hat, die Theorie in Frage stellt. Dies bedeutet, obwohl eine interpretierte Theorie <T,Int> in sich funktioniert, kann sie – bei Anlegen bestimmter Kriterien – vollständig falsch sein (man denke nur an die vielen Theorien der Vergangenheit, die auf falschen Annahmen beruhten). Radikal neu würde in diesem Kontext möglicherweise bedeuten, dass man erahnt, dass man eine neue Theorie <T*, Int*> benötigt, um neuartigen Phänomenen gerecht zu werden.

  7. A: Was Clark anscheinend am meisten (psychologisch) hindert, in den subjektiven Phänomenen Phänomene einer anderen Art anzuerkennen, ist die Annahme, dass die Annahme solcher neuer Phänomene eine neue, zusätzliche Ontologie implizieren würde, die zwangsläufig eine Art ontologischen Dualismus mit sich bringt, den er – aus welchen Gründen auch immer – ablehnt. Wie oben schon angedeutet, ist diese Ablehnung möglicherweise überflüssig, da die Annahme irgendeiner Ontologie im Rahmen der Interpretation einer formalen Theorie zunächst nichts darüber aussagt, welche weiteren Eigenschaften diese Ontologie besitzt und wie diese sich zu anderen interpretationsabhängigen Ontologien verhält. Ontologien sind letztlich primär begriffliche Strukturen im Kontext von (formalen) Theorien mit höchstens partiellen Deutungen. Hier von Dualismus zu reden oder vor einem Dualismus womöglich noch Angst haben, ist weder philosophisch noch wissenschaftlich notwendig.

  8. C: In seinem Versuch, die subjektiven Phänomene des Bewusstseins (von Clark Qualia genannt) durch Rekurs auf empirische Prozesse zu eliminieren, kommt Clark nicht umhin, diese subjektiven Phänomene als solche überhaupt anzusprechen. In diesem Zusammenhang kommt er zu Feststellungen wie jenen, dass der Zugang zum Bewusstsein über den privaten 1.Person Zugang geschieht, der als solcher in keiner Weiser durch irgendeine wissenschaftliche Methode erreichbar ist. Im gleichen Atemzug stellt er aber auch fest, dass diese subjektiven Phänomene mit neuronalen Prozessen korreliert werden können, was ausschließlich durch die Neurowissenschaften geleistet werden könne.

  9. A: Ganz offensichtlich ist es also so, dass es außerhalb der bislang definierten Messbereiche von empirischen Theorien selbst für Clark Phänomene gibt (die introspektiven Phänomene des Bewusstseins, Ps), die mit den bekannten empirischen Methoden bislang nicht erreicht werden. Seine strategische Entscheidung, das bislang wissenschaftlich Unzugängliche dadurch zu erklären zu versuchen, dass er per Deklaration (ex cathedra Entscheidung :-)) festlegt, dass diese Phänomene Ps künftig einfach als empirische Phänomene Pe zu betrachten seien (obwohl sie es schon aufgrund der Art der Phänomenerfassung nicht sein können), erwies sich nach den vorausgehenden Überlegungen aus theorietechnischen (wissenschaftsphilosophischen) Gründen als unhaltbar.

  10. A: Die These Clarks von der Identität von neuronalen Prozessen und Bewusstseinsphänomenen wird daher hier als methodisch unhaltbar abgelehnt.

  11. Aus der Ablehnung der Identitätsthese, so wie Clark sie formuliert hat, folgt allerdings nicht, wie mancher vielleicht jetzt glauben mag, dass damit ein funktionaler Zusammenhang zwischen neuronalen Prozessen und subjektiven Phänomenen grundsätzlich ausgeschlossen wird! Im Gegenteil. Autor cagent hält solch einen funktionalen Zusammenhang als sehr wahrscheinlich. Allerdings müsste dazu der theoretische Rahmen erheblich weiter entwickelt werden. Die bisher eher separat betriebenen Theorieansätze von Phänomenologie, Biologie, Psychologie, Neurowissenschaften und möglicherweise weiteren Disziplinen müssten endlich simultan entwickelt werden. Wissenschaftsphilosophisch können isolationistisch entwickelte Theorien per se aufs Ganze gesehen nur falsch sein.

Eine Übersicht über alle Blogeinträge von Autor cagent nach Titerln findet sich HIER.

NOTIZ ZU DEN UNWISSENSCHAFTLICHEN VORAUSSETZUNGEN DER WISSENSCHAFTEN

  1. Als ich gestern weiter im Buch ‚An Inventive Universe‘ von Denbigh las, diskutierte er dort u.a. die verschiedenen Positionen, die in der Physik und in der Philosophie zum Thema Determinismus eingenommen werden. Er arbeitete heraus, dass jede physikalische Theorie einen nicht unwesentlichen nicht-wissenschaftlichen Anteil besitzt, nämlich diejenigen Interessen, Fragen und Grundannahmen, die der Bildung einer wissenschaftlichen Theorie voraus liegen. Ohne diese Annahmen und vorauseilenden Interessen gibt es keine wissenschaftliche Aktivitäten.
  2. Moderne Wissenschaft versteht sich zwar so, dass sie ihr Vorgehen transparent machen will, wiederholbar, unabhängig (invariant) von individuelle Gefühle und Fantasien, aber die nicht-wissenschaftlichen vorausgehenden Annahmen sind unausweichlich individuell bedingt, aus allen möglichen Quellen (auch individuellen Interessen, Fantasien, Erinnerungen, Vorstellungen) gespeist. Etwas anderes hat auch ein Wissenschaftler nicht zur Verfügung.
  3. Im Fall des Determinismus ist z.B. die Vorstellung, dass die Ereignisse in der Natur nicht zufällig sind, sondern bestimmten Regeln, Gesetzen folgen, dass sie damit berechenbar sind, dass damit Voraussagen möglich sind, eine solche Grundannahme.
  4. Diese Annahmen kommen nicht aus der Welt jenseits des Kopfes, sondern sie entstehen im individuellen Gehirn eines potentiellen Forschers. Sie werden ihm bewusst, prägen seine Sehweise, wie er die Welt betrachtet und interpretiert. Als solche sind sie weder wahr noch falsch. Es sind Formen der Wahrnehmung von Welt.
  5. Die Mechanik von Newton passte sehr gut in diese Erwartung: plötzlich konnte man scheinbar alle Bewegungen damit berechnen. Sowohl die Bewegung der Sterne wie auch die der Körper auf der Erde.
  6. Der weitere Gang der Forschung zeigte dann aber, dass diese Wahrnehmung der Natur unvollständig, wenn nicht gar in einem tiefen Sinne falsch ist. Beim immer weiter Vordringen in das ‚Innere der Natur‘ lernten die Wissenschaftler, dass die Natur alles andere als determiniert ist; ganz im Gegenteil, sie ist radikal probabilistisch, nicht ausrechenbar im Detail, auch nicht ausrechenbar in ihren komplexesten Erscheinungen, den biologischen Lebensformen. Die Annahme einer deterministischen, Gesetzen folgenden Natur erwies sich als Fiktion des individuellen Denkens. Das, was man für objektive Wissenschaft gehalten hatte zeigte sich plötzlich als überaus subjektives Gebilde mit hohem metaphysischen Unterhaltungswert.
  7. Die Einstellung, dass Wissenschaft um so objektiver sei, umso weniger man den Anteil des erkennenden Subjektes in den Erklärungsprozess einbezieht, erweist sich immer mehr als falsch. Gerade diese Verweigerung, den handelnden Wissenschaftler mit seinen spezifischen biologischen Voraussetzungen als konstitutives Element des Erkennens nicht kritisch in die Reflexion einzubeziehen, macht Wissenschaft ideologieanfällig, lässt sie unbewusst in das Schlepptau einer verdeckten Metaphysik geraten, die umso schlimmer wütet, als man so tut, als ob es so etwas doch gar nicht gibt [Anmerkung: Eine solche Wissenschaftskritik ist nicht neu. Die Wissenschaftsphilosophie bzw. Wissenschaftstheorie ist voll von diesen kritischen Überlegungen seit mehr als 100 Jahren].
  8. Für das wissenschaftliche Denken hat dies weitreichende Konsequenzen, vorausgesetzt, man nimmt diese Erkenntnisse ernst.
  9. Streng genommen dürfte es keine einzige wissenschaftliche Disziplin mehr geben, die in ihrem Alltagsbetrieb nicht eine Theorie-kritische, sprich wissenschaftsphilosophische Abteilung besitzt, die sich kontinuierlich aktiv mit den ganzen nichtwissenschaftlichen Annahmen auseinandersetzt, die in jeden Wissenschaftsbetrieb eingehen. Insofern die Verantwortlichen eines solchen wissenschaftskritischen Unterfangens natürlich selbst von den jeweiligen Annahmen infiziert sind, gibt es keine Garantie, dass der nicht-wissenschaftliche Anteil tatsächlich immer angemessen erkannt und behandelt wird.
  10. Das heute oft so beklagte Auseinanderdriften von naturwissenschaftlichem Denken einerseits und und sozialem-kulturellem-geisteswissenschaftlichem Denken andererseits könnte durch die direkte philosophische Aufbereitung des naturwissenschaftlichen Denkens möglicherweise vermindert werden. Doch trotz aller Einsichten in die metaphysischen Schwachstellen des naturwissenschaftlichen Wissenschaftsbetriebs sieht es momentan nicht so aus, dass der Mainstream naturwissenschaftlichen Forschens sich solchen Maßnahmen öffnen würde.
  11. Man könnte sich jetzt einfach vom Geschehen abwenden und sagen, dann lass sie halt (die Naturwissenschaftler). Das Problem ist nur, dass diese Art von eingeschränktem Denken vielfache Fernwirkungen hat, die – für viele unmerkbar – grundlegende Anschauungen über die Welt und die Menschen beeinflussen.
  12. Wichtige Themen hier sind (i) das Bild vom Menschen generell, (ii) davon abhängig die Auffassung möglicher Werte, Grundwerte, Menschenrechte und Verfassungstexte, u.a. auch (iii) die Vorstellungen vom Sinn des Lebens im Kontext von religiösen Vorstellungen.
  13. Diese Überlegungen sind weiter zu führen.

Literaturhinweis:

Kenneth George Denbigh (1965 – 2004), Mitglied der Royal Society London seit 1965 (siehe: https://en.wikipedia.org/wiki/List_of_Fellows_of_the_Royal_Society_D,E,F). Er war Professor an verschiedenen Universitäten (Cambridge, Edinbugh, London); sein Hauptgebet war die Thermodynamik. Neben vielen Fachartikeln u.a. Bücher mit den Themen ‚Principles of Chemical Equilibrium, ‚Thermodynamics of th Steady State‘ sowie ‚An Inventive Universe‘.

Einen Überblick über alle Blogbeiträge des Autors cagent nach Titeln findet sich HIER.

K.G.DENBIGH: AN INVENTIVE UNIVERSE — Relektüre — Teil 3

K.G.Denbigh (1975), „An Inventive Universe“, London: Hutchinson & Co.

BISHER

Im Teil 1 der Relektüre von Kenneth George Denbighs Buch „An Inventive Universe“ hatte ich, sehr stark angeregt durch die Lektüre, zunächst eher mein eigenes Verständnis von dem Konzept ‚Zeit‘ zu Papier gebracht und eigentlich kaum die Position Denbighs referiert. Darin habe ich sehr stark darauf abgehoben, dass die Struktur der menschlichen Wahrnehmung und des Gedächtnisses es uns erlaubt, subjektiv Gegenwart als Jetzt zu erleben im Vergleich zum Erinnerbaren als Vergangen. Allerdings kann unsere Erinnerung stark von der auslösenden Realität abweichen. Im Lichte der Relativitätstheorie ist es zudem unmöglich, den Augenblick/ das Jetzt/ die Gegenwart objektiv zu definieren. Das individuelle Jetzt ist unentrinnbar subjektiv. Die Einbeziehung von ‚Uhren-Zeit’/ technischer Zeit kann zwar helfen, verschiedene Menschen relativ zu den Uhren zu koordinieren, das grundsätzliche Problem des nicht-objektiven Jetzt wird damit nicht aufgelöst.

In der Fortsetzung 1b von Teil 1 habe ich dann versucht, die Darlegung der Position von Kenneth George Denbighs Buch „An Inventive Universe“ nachzuholen. Der interessante Punkt hier ist der Widerspruch innerhalb der Physik selbst: einerseits gibt es physikalische Theorien, die zeitinvariant sind, andere wiederum nicht. Denbigh erklärt diese Situation so, dass er die zeitinvarianten Theorien als idealisierende Theorien darstellt, die von realen Randbedingungen – wie sie tatsächlich überall im Universum herrschen – absehen. Dies kann man daran erkennen, dass es für die Anwendung der einschlägigen Differentialgleichungen notwendig sei, hinreichende Randbedingungen zu definieren, damit die Gleichungen gerechnet werden können. Mit diesen Randbedingungen werden Start- und Zielzustand aber asymmetrisch.

Auch würde ich hier einen Nachtrag zu Teil 1 der Relektüre einfügen: in diesem Beitrag wurde schon auf die zentrale Rolle des Gedächtnisses für die Zeitwahrnehmung hingewiesen. Allerdings könnte man noch präzisieren, dass das Gedächtnis die einzelnen Gedächtnisinhalte nicht als streng aufeinanderfolgend speichert, sondern eben als schon geschehen. Es ist dann eine eigene gedankliche Leistungen, anhand von Eigenschaften der Gedächtnisinhalte eine Ordnung zu konstruieren. Uhren, Kalender, Aufzeichnungen können dabei helfen. Hier sind Irrtümer möglich. Für die generelle Frage, ob die Vorgänge in der Natur gerichtet sind oder nicht hilft das Gedächtnis von daher nur sehr bedingt. Ob A das B verursacht hat oder nicht, bleibt eine Interpretationsfrage, die von zusätzlichem Wissen abhängt.

Im Teil 2 ging es um den Anfang von Kap.2 (Dissipative Prozesse) und den Rest von Kap.3 (Formative Prozesse). Im Kontext der dissipativen (irreversiblen) Prozesse macht Denbigh darauf aufmerksam, dass sich von der Antike her in der modernen Physik eine Denkhaltung gehalten hat, die versucht, die reale Welt zu verdinglichen, sie statisch zu sehen (Zeit ist reversibel). Viele empirische Fakten sprechen aber gegen die Konservierung und Verdinglichung (Zeit ist irreversibel). Um den biologischen Phänomenen gerecht zu werden, führt Denbigh dann das Konzept der ‚Organisation‘ und dem ‚Grad der Organisiertheit‘ ein. Mit Hilfe dieses Konzeptes kann man Komplexitätsstufen unterscheiden, denen man unterschiedliche Makroeigenschaften zuschreiben kann. Tut man dies, dann nimmt mit wachsender Komplexität die ‚Individualität‘ zu, d.h. die allgemeinen physikalischen Gesetze gelten immer weniger. Auch gewinnt der Begriff der Entropie im Kontext von Denbighs Überlegungen eine neue Bedeutung. Im Diskussionsteil halte ich fest: Im Kern gilt, dass maximale Entropie vorliegt, wenn keine Energie-Materie-Mengen verfügbar sind, und minimale Entropie entsprechend, wenn maximal viele Energie-Materie-Mengen verfügbar sind. Vor diesem Hintergrund ergibt sich das Bild, dass Veränderungsprozesse im Universum abseits biologischer Systeme von minimaler zu maximaler Entropie zu führen scheinen (dissipative Prozesse, irreversible Prozesse, …), während die biologischen Systeme als Entropie-Konverter wirken! Sie kehren die Prozessrichtung einfach um. Hier stellen sich eine Fülle von Fragen. Berücksichtigt man die Idee des Organiationskonzepts von Denbigh, dann kann man faktisch beobachten, dass entlang einer Zeitachse eine letztlich kontinuierliche Zunahme der Komplexität biologischer Systeme stattfindet, sowohl als individuelle Systeme wie aber auch und gerade im Zusammenspiel einer Population mit einer organisatorisch aufbereiteten Umgebung (Landwirtschaft, Städtebau, Technik allgemein, Kultur, …). Für alle diese – mittlerweile mehr als 3.8 Milliarden andauernde – Prozesse haben wir bislang keine befriedigenden theoretischen Modelle

KAPITEL 4: DETERMINISMUS UND EMERGENZ (117 – 148)

Begriffsnetz zu Denbigh Kap.4: Determinismus und Emergenz

Begriffsnetz zu Denbigh Kap.4: Determinismus und Emergenz

  1. Dieses Kapitel widmet sich dem Thema Determinismus und Emergenz. Ideengeschichtlich gibt es den Hang wieder, sich wiederholende und darin voraussagbare Ereignisse mit einem Deutungsschema zu versehen, das diesen Wiederholungen feste Ursachen zuordnet und darin eine Notwendigkeit, dass dies alles passiert. Newtons Mechanik wird in diesem Kontext als neuzeitliche Inkarnation dieser Überzeugungen verstanden: mit klaren Gesetzen sind alle Bewegungen berechenbar.
  2. Dieses klare Bild korrespondiert gut mit der christlichen theologischen Tradition, nach der ein Schöpfer alles in Bewegung gesetzt hat und nun die Welt nach einem vorgegebenen Muster abläuft, was letztlich nur der Schöpfer selbst (Stichwort Wunder) abändern kann.
  3. Die neuzeitliche Wissenschaft hat aber neben dem Konzept des Gesetzes (‚law‘) auch das Konzept Theorie entwickelt. Gesetze führen innerhalb einer Theorie kein Eigenleben mehr sondern sind Elemente im Rahmen der Theorie. Theorien sind subjektive Konstruktionen von mentalen Modellen, die versuchen, die empirischen Phänomene zu beschreiben. Dies ist ein Näherungsprozess, der – zumindest historisch – keinen eindeutigen Endpunkt kennt, sondern empirisch bislang als eher unendlich erscheint.
  4. Eine moderne Formulierung des deterministischen Standpunktes wird von Denbigh wie folgt vorgeschlagen: Wenn ein Zustand A eines hinreichend isolierten Systems gefolgt wird von einem Zustand B, dann wird der gleiche Zustand A immer von dem Zustand B gefolgt werden, und zwar bis in die letzten Details.(S.122)
  5. Diese Formulierung wird begleitend von den Annahmen, dass dies universell gilt, immer, für alles, mit perfekter Präzision.
  6. Dabei muss man unterscheiden, ob die Erklärung nur auf vergangene Ereignisse angewendet wird (‚ex post facto‘) oder zur Voraussage benutzt wird. Letzteres gilt als die eigentliche Herausforderung.
  7. Wählt man die deterministische Position als Bezugspunkt, dann lassen sich zahlreiche Punkte aufführen, nach denen klar ist, dass das Determinismus-Prinzip unhaltbar ist. Im Folgenden eine kurze Aufzählung.
  8. Die Interaktion aller Teile im Universum ist nirgendwo (nach bisherigem Wissen) einfach Null. Zudem ist die Komplexität der Wechselwirkung grundsätzlich so groß, dass eine absolute Isolierung eines Teilsystems samt exakter Reproduktion als nicht möglich erscheint.
  9. Generell gibt es das Problem der Messfehler, der Messungenauigkeiten und der begrenzten Präzision. Mit der Quantenmechanik wurde klar, dass wir nicht beliebig genau messen können, dass Messen den Gegenstand verändert. Ferner wurde klar, dass Messen einen Energieaufwand bedeutet, der umso größer wird, je genauer man messen will. Ein erschöpfendes – alles umfassende – Messen ist daher niemals möglich.
  10. Im Bereich der Quanten gelten maximal Wahrscheinlichkeiten, keine Notwendigkeiten. Dies schließt nicht notwendigerweise ‚Ursachen/ Kausalitäten‘ aus.
  11. Die logischen Konzepte der mentalen Modelle als solche sind nicht die Wirklichkeit selbst. Die ‚innere Natur der Dinge‘ als solche ist nicht bekannt; wir kennen nur unsere Annäherungen über Messereignisse. Das, was ‚logisch notwendig‘ ist, muss aus sich heraus nicht ontologisch gültig sein.
  12. Neben den Teilchen sind aber auch biologische Systeme nicht voraussagbar. Ihre inneren Freiheitsgrade im Verbund mit ihren Dynamiken lassen keine Voraussage zu.
  13. Aus der Literatur übernimmt Denbigh die Komplexitätshierarchie (i) Fundamentale Teilchen, (ii) Atome, (iii) Moleküle, (iv) Zellen, (v) Multizelluläre Systeme, (vi) Soziale Gruppen.(vgl. S.143)
  14. Traditioneller Weise haben sich relativ zu jeder Komplexitätsstufe spezifische wissenschaftliche Disziplinen herausgebildet, die die Frage nach der Einheit der Wissenschaften aufwerfen: die einen sehen in den Eigenschaften höherer Komplexitätsstufen emergente Eigenschaften, die sich nicht auf die einfacheren Subsysteme zurückführen lassen; die Reduktionisten sehen die Wissenschaft vollendet, wenn sich alle komplexeren Eigenschaften auf Eigenschaften der Ebenen mit weniger Komplexität zurückführen lassen. Während diese beiden Positionen widersprüchlich erscheinen, nimmt das Evolutionskonzept eine mittlere Stellung ein: anhand des Modells eines generierenden Mechanismus wird erläutert, wie sich komplexere Eigenschaften aus einfacheren entwickeln können.

DISKUSSION

  1. Fasst man alle Argument zusammen, ergibt sich das Bild von uns Menschen als kognitive Theorientwickler, die mit ihren kognitiven Bildern versuchen, die Strukturen und Dynamiken einer externen Welt (einschließlich sich selbst) nach zu zeichnen, die per se unzugänglich und unerkennbar ist. Eingeschränkte Wahrnehmungen und eingeschränkte Messungen mit prinzipiellen Messgrenzen bilden die eine Begrenzung, die daraus resultierende prinzipielle Unvollständigkeit aller Informationen eine andere, und schließlich die innere Logik der realen Welt verhindert ein einfaches, umfassendes, eindeutiges Zugreifen.
  2. Die mangelnde Selbstreflexion der beteiligten Wissenschaftler erlaubt streckenweise die Ausbildung von Thesen und Hypothesen, die aufgrund der möglichen Methoden eigentlich ausgeschlossen sind.
  3. Die noch immer geltende weitverbreitete Anschauung, dass in der Wissenschaft der Anteil des Subjektes auszuklammern sei, wird durch die vertiefenden Einsichten in die kognitiven Voraussetzungen aller Theorien heute neu in Frage gestellt. Es geht nicht um eine Infragestellung des Empirischen in der Wissenschaft, sondern um ein verstärktes Bewusstheit von den biologischen (beinhaltet auch das Kognitive) Voraussetzungen von empirischen Theorien.
  4. In dem Maße, wie die biologische Bedingtheit von Theoriebildungen in den Blick tritt kann auch die Besonderheit der biologischen Komplexität wieder neu reflektiert werden. Das Biologische als Entropie-Konverter (siehe vorausgehenden Beitrag) und Individualität-Ermöglicher jenseits der bekannten Naturgesetze lässt Eigenschaften der Natur aufblitzen, die das bekannte stark vereinfachte Bild kritisieren, sprengen, revolutionieren.
  5. Die Idee eines evolutionären Mechanismus zwischen plattem Reduktionismus und metaphysischem Emergenz-Denken müsste allerdings erheblich weiter entwickelt werden. Bislang bewegt es sich im Bereich der Komplexitätsebenen (iii) Moleküle und (iv) Zellen.

Fortsetzung mit TEIL 4

QUELLEN

  1. Kenneth George Denbigh (1965 – 2004), Mitglied der Royal Society London seit 1965 (siehe: https://en.wikipedia.org/wiki/List_of_Fellows_of_the_Royal_Society_D,E,F). Er war Professor an verschiedenen Universitäten (Cambridge, Edinbugh, London); sein Hauptgebet war die Thermodynamik. Neben vielen Fachartikeln u.a. Bücher mit den Themen ‚Principles of Chemical Equilibrium, ‚Thermodynamics of th Steady State‘ sowie ‚An Inventive Universe‘.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

BUCHPROJEKT 2015 – Zwischenreflexion 23.August 2015 – INFORMATION – Jenseits von Shannon

Der folgende Beitrag bezieht sich auf das Buchprojekt 2015.

VORHERIGE BEITRÄGE

1. Im Beitrag von John Maynard Smith hatte dieser Kritik geübt an der Informationstheorie von Shannon. Dabei fokussierte er im wesentlichen auf die direkte Anwendung des Shannonschen Begriffs auf die informationsvermittelnden Prozesse bei der Selbstreproduktion der Zelle, und er konnte deutlich machen, dass viele informationsrelevanten Eigenschaften bei dem Reproduktionsprozess mit dem Shannonschen Informationsbegriff nicht erfasst werden. Anschließend wurde ein Beitrag von Terrence W.Deacon diskutiert, der den Shannonschen Informationsbegriff als Ausgangspunkt nutzte, den er it dem Entropiebegriff von Boltzmann verknüpfte, von dort die Begriffe thermodynamisches Ungleichgewicht, Arbeit und Evolution nach Darwin benutzte, um die Idee anzudeuten, dass jene Zustände in einem System, die bedeutungsrelevant sein könnten (und von Shannon selbst nicht analysiert werden) in Interaktion mit der Umwelt entstanden sind und entstehen.

ZWISCHENSTAND
2. Was sowohl bei Maynard Smih wie auch bei Deakon auffällt, ist, dass sie sich wenig um den möglichen Kontext des Begriffs ‚Information‘ bemühen. Wie wurde der Begriff der Information im Laufe der Ideengeschichte verstanden? Welche Besonderheiten gibt es in den verschiedenen Disziplinen?

HISTORISCH-SYSTEMATISCHE PERSPEKTIVE

3. In einem umfangreichen und detailliertem Überblick von Pieter Adriaans (2012) in der Standford Encyclopedia of Philosophy findet man ein paar mehr Zusammenhänge.

4. Zwar heißt es auch hier mehrfach, dass ein erschöpfender Überblick und eine alles umfassende Theorie noch aussteht, aber ausgehend von der antiken Philosophie über das Mittelalter, die Renaissance bis hin zu einigen modernen Entwicklungen findet man wichtige Themen und Autoren.

5. Zusammenfassend sei hier nur festgestellt, dass Aspekte des Informationsbegriffs auf unterschiedlich Weise bis zum Ende des 19.Jahrhunderts feststellbar sind, ohne dass man von einer eigentlich Philosophie der Information oder einer Informationstheorie im modernen Sinne sprechen kann. Als grobe Koordinaten, die den Ausgangspunkt für die neuere Entwicklung einer Informationstheorie markieren, nennt Adriaans (i) Information als ein Prozess, der Systeme prägen/ formieren/ informieren kann; (ii) Information als ein Zustand, der sich bei einem System einstellt, nachdem es informiert wurde; (iii) Information als die Fähigkeit eines Systems, seine Umgebung zu prägen/ formen/ informieren.

6. Weiterhin identifiziert er zusammenfassend einige Bausteine der modernen Informationstheorie: (i) Information ist ‚extensiv‘ insofern die Bestandteile in das übergreifende Ganze eingehen und sie vermindert Unsicherheit; (ii) man benötigt eine formale Sprache zu ihrer Darstellung; (iii) ein ‚optimaler‘ Kode ist wichtig; (iv) die Verfügbarkeit eines optimierten Zahlensystems (binär, Stellen, Logarithmus) spielte eine Rolle; ausgehend von konstituierenden Elementen die Idee der Entropie in Kombination mit der Wahrscheinlichkeit; (v) die Entwicklung einer formalen Logik für Begriffe wie ‚Extension/ Intension‘, ‚Folgerung‘, ‚Notwendigkeit‘, ‚mögliche Welten‘, ‚Zustandsbeschreibungen‘ und ‚algorithmische Informationstheorie‘.

7. Andere wichtige Themen sind (i) Information als Grad der Widerlegbarkeit (Popper); (ii) Information in Begriffen der Wahrscheinlichkeit (Shannon); (iii) Information als Länge des Programms (Solomonoff, Kolmogorov, Chaitin).

SHANNON ERSCHEINT ÜBERMÄCHTIG

8. Was man bei Adriaans vermisst, das ist der Bezug zur semantischen Dimension. Hierzu gibt es einen anderen sehr umfangreichen Beitrag von Floridi (2015), auf den auch Adriaans verweist. Floridi behandelt die Frage der Semantischen Information quantitativ sehr ausführlich, inhaltlich aber beschränkt er sich weitgehend auf eine formale Semantik im Umfeld einer mathematischen Informationstheorie auf der Basis von Shannon 1948. Dies verwundert. Man kann den Eindruck gewinnen, dass die ‚konzeptuelle Gravitation‘ des Shannonschen Modells jede Art von begrifflicher Alternative im Keim erstickt.

BEFREIUNG DURCH BIOLOGIE

9. Bringt man die Informationstheorie in das begriffliche Gravitationsfeld der Biologie, insbesondere der Molekularbiologie, dann findet man in der Tat auch andere begrifflich Ansätze. Peter Godfrey-Smith und Kim Sterelny (2009) zeigen am Beispiel der Biologie und vieler molekularbiologischer Sachverhalte auf, dass man das enge Modell von Shannon durch weitere Faktoren nicht nur ergänzen kann, sondern muss, will man den besonderen biologischen Sachverhalten Rechnung tragen. Allerdings führen sie ein solches Modell nicht allgemein aus. Kritiker weisen darauf hin, dass solche zusätzlichen Abstraktionen die Gefahr bieten – wie in jeder anderen wissenschaftlichen Disziplin auch –, dass sich Abstraktionen ‚ontologisch verselbständigen‘; ohne erweiternde Begrifflichkeit kann man allerdings auch gar nichts sagen.

THEORIE A LA BOLTZMANN VOR MEHR ALS 100 JAHREN

10. Diese ganze moderne Diskussion um die ‚richtigen formalen Modelle‘ zur Erklärung der empirischen Wirklichkeit haben starke Ähnlichkeiten mit der Situation zu Zeiten von Ludwig Boltzmann. In einer lesenswerten Rede von 1899 zur Lage der theoretischen Physik ist er konfrontiert mit der stürmischen Entwicklung der Naturwissenschaften in seiner Zeit, speziell auch der Physik, und es ist keinesfalls ausgemacht, welches der vielen Modelle sich in der Zukunft letztlich als das ‚richtigere‘ erweisen wird.

11. Boltzmann sieht in dieser Situation die Erkenntnistheorie gefragt, die mithelfen soll, zu klären, welche Methoden in welcher Anordnung einen geeigneten Rahmen hergeben für eine erfolgreiche Modellbildung, die man auch als theoretische Systeme bezeichnen kann, die miteinander konkurrieren.

12. Mit Bezugnahme auf Hertz bringt er seinen Zuhörern zu Bewusstsein, „dass keine Theorie etwas Objektives, mit der Natur wirklich sich Deckendes sein kann, dass vielmehr jede nur ein geistiges Bild der Erscheinungen ist, das sich zu diesen verhält wie das Zeichen zum Bezeichneten.“ (Boltzmann 1899:215f) Und er erläutert weiter, dass es nur darum gehen kann, „ein möglichst einfaches, die Erscheinungen möglichst gut darstellendes Abbild zu finden.“ (Boltzmann 1899:216) So schließt er nicht aus, dass es zum gleichen empirischen Sachverhalt zwei unterschiedliche Theorien geben mag, die in der Erklärungsleistung übereinstimmen.

13. Als Beispiel für zwei typische theoretische Vorgehensweisen nennt er die ‚Allgemeinen Phänomenologen‘ und die ‚Mathematischen Phänomenologen‘. Im ersteren Fall sieht man die theoretische Aufgabe darin gegeben, alle empirischen Tatsachen zu sammeln und in ihrem historischen Zusammenhang darzustellen. Im zweiten Fall gibt man mathematische Modelle an, mit denen man die Daten in allgemeine Zusammenhänge einordnen, berechnen und Voraussagen machen kann. Durch die Einordnung in verallgemeinernde mathematische Modelle geht natürlich die Theorie über das bis dahin erfasste Empirische hinaus und läuft natürlich Gefahr, Dinge zu behaupten die empirisch nicht gedeckt sind, aber ohne diese Verallgemeinerungen kann ein Theorie nichts sagen. Es kann also nicht darum gehen, ’nichts‘ zu sagen, sondern das, was man theoretisch sagen kann, hinreichend auf Zutreffen bzw. Nicht-Zutreffen zu kontrollieren (Poppers Falsifizierbarkeit). Boltzmann bringt seitenweise interessante Beispiele aus der damals aktuellen Wissenschaftsdiskussion, auf die ich hier jetzt aber nicht eingehe.

WIE SHANNON ERWEITERN?

14. Stattdessen möchte ich nochmals auf die Fragestellung zurück kommen, wie man denn vorgehen sollte, wenn man erkannt hat, dass das Modell von Shannon – so großartig es für die ihm gestellten Aufgaben zu sein scheint –, bzgl. bestimmter Fragen als ‚zu eng‘ erscheint. Hier insbesondere für die Frage der Bedeutung.

15. Im Beitrag von Deacon konnte man eine Erweiterungsvariante in der Weise erkennen, dass Deacon versucht hatte, über die begriffliche Brücke (Shannon-Entropie –> Boltzmann-Entropie –>Thermodynamik → Ungleichgewicht → Aufrechterhaltung durch externe Arbeit) zu der Idee zu kommen, dass es in einem biologischen System Eigenschaften/ Größen/ Differenzen geben kann, die durch die Umwelt verursacht worden sind und die wiederum das Verhalten des Systems beeinflussen können. In diesem Zusammenhang könnte man dann sagen, dass diesen Größen ‚Bedeutung‘ zukommt, die zwischen Systemen über Kommunikationsereignisse manifestiert werden können. Ein genaueres Modell hatte Deacon dazu aber nicht angegeben.

16. Wenn Deacon allerdings versuchen wollte, diese seine Idee weiter zu konkretisieren, dann käme er um ein konkreteres Modell nicht herum. Es soll hier zunächst kurz skizziert werden, wie solch ein Shannon-Semantik-System aussehen könnte. An anderer Stelle werde ich dies Modell dann formal komplett hinschreiben.

SHANNON-SEMANTIK MODELL SKIZZE

17. Als Ausgangspunkt nehme ich das Modell von Shannon 1948. (S.381) Eine Quelle Q bietet als Sender Nachrichten M an, die ein Übermittler T in Kommunikationsereignisse S in einem Kommunikationskanal C verwandelt (kodiert). In C mischen sich die Signale S mit Rauschelementen N. Diese treffen auf einen Empfänger R, der die Signale von den Rauschanteilen trennt und in eine Nachricht M* verwandelt (dekodiert), die ein Empfänger D dann benutzen kann.

18. Da Shannon sich nur für die Wahrscheinlichkeit bestimmter Signalfolgen interessiert hat und die Kapazitätsanforderungen an den Kanal C, benötigt sein Modell nicht mehr. Wenn man aber jetzt davon ausgeht, dass der Sender nur deshalb Kommunikationsereignisse S erzeugt, weil er einem Empfänger bestimmte ‚Bedeutungen‘ übermitteln will, die den Empfänger in die Lage versetzen, etwas zu ‚tun‘, was der übermittelten Bedeutung entspricht, dann muss man sich überlegen, wie man das Shannon Modell erweitern kann, damit dies möglich ist.

19. Das erweiterte Shannon-Semantik Modell soll ein formales Modell sein, das geeignet ist, das Verhalten von Sendern und Empfängern zu beschreiben, die über reine Signale hinaus mittels dieser Signale ‚Bedeutungen‘ austauschen können. Zunächst wird nur der Fall betrachtet, dass die Kommunikation nur vom Sender zum Empfänger läuft.

20. Ein erster Einwand für die Idee einer Erweiterung könnte darin bestehen, dass jemand sagt, dass die Signale ja doch ‚für sich‘ stehen; wozu braucht man die Annahme weiterer Größen genannt ‚Bedeutung‘?

21. Eine informelle Erläuterung ist sehr einfach. Angenommen der Empfänger ist Chinese und kann kein Deutsch. Er besucht Deutschland. Er begegnet dort Menschen, die kein Chinesisch können und nur Deutsch reden. Der chinesische Besucher kann zwar sehr wohl rein akustisch die Kommunikationsereignisse in Form der Laute der deutschen Sprache hören, aber er weiß zunächst nichts damit anzufangen. In der Regel wird er auch nicht in der Lage sein, die einzelnen Laute separat und geordnet aufzuschreiben, obgleich er sie hören kann. Wie wir wissen, braucht es ein eigenes Training, die Sprachlaute einer anderen Sprache zweifelsfrei zu erkennen, um sie korrekt notieren zu können. Alle Deutschen, die bei einer solchen Kommunikation teilnehmen, können die Kommunikationsereignisse wahrnehmen und sie können – normalerweise – ‚verstehen‘, welche ‚anderen Sachverhalte‘ mit diesen Kommunikationsereignissen ‚verknüpft werde sollen‘. Würde der Chinese irgendwann Deutsch oder die Deutschen Chinesisch gelernt haben, dann könnten die Deutschen Kommunikationsereignisse in Chinesische übersetzt werden und dann könnten – möglicherweise, eventuell nicht 1-zu-1 –, mittels der chinesischen Kommunikationsereignisse hinreichend ähnliche ‚adere Sachverhalte‘ angesprochen werden.

22. Diese anderen Sachverhalte B, die sich den Kommunikationsereignissen zuordnen lassen, sind zunächst nur im ‚Innern des Systems‘ verfügbar. D.h. Die Kommunikationsereignisse S (vermischt mit Rauschen N) im Kommunikationskanal C werden mittels des Empfängers R in interne Nachrichten M* übersetzt (R: S x N —> M*), dort verfügt der Empfänger über eine weitere Dekodierfunktion I, die den empfangenen Nachrichten M* Bedeutungssachverhalte zuordnet, also I: M* —> B. Insofern ein Dolmetscher weiß, welche Bedeutungen B durch eine deutsche Kommunikationssequenz im Empfänger dekodiert werden soll, kann solch ein Dolmetscher dem chinesischen Besucher mittels chinesischer Kommunikationsereignisse S_chin einen Schlüssel liefern, dass dieser mittels R: S_chin —> M*_chin eine Nachricht empfangen kann, die er dann mit seiner gelernten Interpretationsfunktion I_chin: M*_chin —> B‘ in solche Bedeutungsgrößen B‘ übersetzen kann, die den deutschen Bedeutungsgrößen B ‚hinreichend ähnlich‘ sind, also SIMILAR(B, B‘).

23. Angenommen, der empfangenen Nachricht M* entspricht eine Bedeutung B, die eine bestimmte Antwort seitens des Empfängers nahelegt, dann bräuchte der Empfänger noch eine Sendeoperation der Art Resp: B —> M* und T: M* —> S.

24. Ein Empfänger ist dann eine Struktur mit mindestens den folgenden Elementen: <S,N,M*,B,R,I,resp,T> (verglichen mit dem ursprünglichen Shannon-Modell: <S,N,M*,-,R,I,-,T>). So einfach diese Skizze ist, zeigt sie doch, dass man das Shannon Modell einfach erweitern kann unter Beibehaltung aller bisherigen Eigenschaften.

25. Natürlich ist eine detaillierte Ausführung der obigen Modellskizze sehr aufwendig. Würde man die Biologie einbeziehen wollen (z.B. im Stile von Deacon), dann müsste man die Ontogenese und die Phylogenese integrieren.

26. Die Grundidee der Ontogenese bestünde darin, einen Konstruktionsprozess zu definieren, der aus einem Anfangselement Zmin das endgültige System Sys in SYS erstellen würde. Das Anfangselement wäre ein minimales Element Zmin analog einer befruchteten Zelle, das alle Informationen enthalten würde, die notwendig wären, um diese Konstruktion durchführen zu können, also Ontogenese: Zmin x X —> SYS. Das ‚X‘ stünde für alle die Elemente, die im Rahmen einer Ontogenese aus der Umgebung ENV übernommen werden müssten, um das endgültige system SYS = <S,N,M*,B,R,I,resp,T> zu konstruieren.

27. Für die Phylogenese benötigte man eine Population von Systemen SYS in einer Umgebung ENV, von denen jedes System Sys in SYS mindestens ein minimales Anfangselement Zmin besitzt, das für eine Ontogenese zur Verfügung gestellt werden kann. Bevor die Ontogenese beginnen würde, würden zwei minimale Anfangselemente Zmin1 und Zmin2 im Bereich ihrer Bauanleitungen ‚gemischt‘, um dann der Ontogenese übergeben zu werden.

QUELLEN

  1. John Maynard Smith (2000), „The concept of information in biology“, in: Philosophy of Science 67 (2):177-194
  2. Terrence W.Deacon (2010), „What is missing from theories of information“, in: INFORMATION AND THE NATURE OF REALITY. From Physics to Metaphysics“, ed. By Paul Davies & Niels Henrik Gregersen, Cambridge (UK) et al: Cambridge University Press, pp.146 – 169
  3. Bernd-Olaf Küppers 2010), „Information and communication in living matter“, in: INFORMATION AND THE NATURE OF REALITY. From Physics to Metaphysics“, ed. By Paul Davies & Niels Henrik Gregersen, Cambridge (UK) et al: Cambridge University Press, pp.170-184
  4. Luciano Floridi (2015) Semantic Conceptions of Information, in: Stanford Enyclopedia of Philosophy
  5. Jesper Hoffmeyer (2010), „Semiotic freedom: an emerging force“, in: INFORMATION AND THE NATURE OF REALITY. From Physics to Metaphysics“, ed. By Paul Davies & Niels Henrik Gregersen, Cambridge (UK) et al: Cambridge University Press, pp.185-204
  6. Stichwort Information in der Stanford Enyclopedia of Philosophy von Pieter Adriaans (P.W.Adriaans@uva.nl) (2012)
  7. Peter Godfrey-Smith, Kim Sterelny (2009) Biological Information“, in: Stanford Enyclopedia of Philosophy
  8. Hans Jörg Sandkühler (2010), „Enzyklopädie Philosophie“, Bd.2, 2., überarbeitete und erweiterte Auflage, Meiner Verlag, Hamburg 2010, ISBN 978-3-7873-1999-2, (3 Bde., parallel dazu auch als CD erschienen)
  9. Ludwig Boltzmann (1899), „Über die Entwicklung der Methoden der theoretischen Physik in neuerer Zeit“, in: „Populäre Schriften“, Leipzig:Verlag von Johann Ambrosius Barth, 1905, SS.198-227
  10. Lawrence Sklar (2015), Philosophy of Statistical Mechanics in Stanford Encyclopedia of Philosophy
  11. Schroedinger, E. „What is Life?“ zusammen mit „Mind and Matter“ und „Autobiographical Sketches“. Cambridge: Cambridge University Press, 1992 (‚What is Life‘ zuerst veröffentlicht 1944; ‚Mind an Matter‘ zuerst 1958)
  12. Claude E. Shannon, A mathematical theory of communication. Bell System Tech. J., 27:379-423, 623-656, July, Oct. 1948
  13. Claude E. Shannon; Warren Weaver (1949) „The mathematical theory of communication“. Urbana – Chicgo: University of Illinois Press.
  14. John Maynard Smith (2000), „The concept of information in biology“, in: Philosophy of Science 67 (2):177-194
  15. Noeth, W., Handbuch der Semiotik, 2. vollst. neu bearb. und erw. Aufl. mit 89 Abb. Stuttgart/Weimar: J.B. Metzler, xii + 668pp, 2000
  16. Monod, Jacques (1971). Chance and Necessity. New York: Alfred A. Knopf
  17. Introduction to Probability von Charles M. Grinstead und J. Laurie Snell, American Mathematical Society; Auflage: 2 Revised (15. Juli 1997)

Philosophie im Kontext – Teil2 – Irrtum!

Das Diagramm im letzten Beitrag über Philosophie im Kontext ist falsch, nicht so sehr in den Details, sondern in der grundlegenden Logik.

Philosophie im Kontext - FalschBild 1

Eine korigierte Version könnte wie folgt aussehen:

Philosophie im Kontext - NeuBild 2

 

(1) In dem vorausgehenden Beitrag hatte ich versucht, auf der Basis der philosophischen Überlegungen seit Januar (letztlich natürlich noch Monate und Jahre weiter zurück) in einem Diagramm die grundsätzlichen Verhältnisse zu skizzieren, die man berücksichtigen muss, will man über das Zusammenspiel all der verschiedenen möglichen wissenschaftlichen und philosophischen Theorien sprechen, einschließlich des alltäglichen Denkens.

 

(2) Dabei ist mir ein gravierender Fehler unterlaufen, der natürlich nicht zufällig ist, sondern aus der Art und Weise resultiert, wie unser Denken funktioniert.

 

 

(3) Das Bild, so wie es jetzt ist (siehe Bild 1), zeigt — wie in einer Landkarte — das erkennende Individuum aus einer ‚Draufsicht‘ (3.Person) mit seinem Körper, darin enthalten sein Gehirn, und innerhalb des Gehirns irgendwo die subjektiven Erlebnisse als ‚Phänomene [PH]‘.

 

(4) Der Fehler liegt darin begründet, dass das subjektive Erkennen niemals als ‚Objekt einer dritten Person-Perspektive‘ auftreten kann. Das ist ja gerade das Besondere der subjektiven Erkenntnis, dass sie die ‚Innenansicht‘ eines Gehirns ist, das subjektive Erleben eines bestimmten Menschen (oder auch mit Abwandlungen eines Tieres), ’seines‘ Erlebens, bei Husserl dem ‚transzendentalen ego‘ zugeordnet. D.h. das ‚primäre Erkennen‘ ist in einem subjektiven Erleben verortet, das als solches kein Objekt einer dritten Person sein kann.

 

(5) Diesem Sachverhalt trägt Bild 2 Rechnung. Das Erkennen startet dort bei der Menge der Phänomene. Wie Husserl – und auch viele andere – zurecht herausgestellt hat, sind die Phänomene aber nicht nur ‚in sich geschlossene Objekte‘, sondern ‚phänomenologische Tatbestände‘ in dem Sinne, dass ihr ‚Vorkommen/ Auftreten‘ begleitet ist von einem ‚Wissen über sie‘; jemand, der ‚etwas erkennt‘, ‚weiß‘ dass er erkennt. Das wird im Diagramm durch den Pfeil mit dem Label ‚Reflexion‘ ausgedrückt: Im ‚Wissen um etwas‘ – Husserl nennt dies ‚Intentionalität‘ des Erkennens – können wir alles, was der Inhalt dieses primären Wissens ist, hinsichtlich möglicher unterscheidbarer Eigenschaften ‚explizit unterscheiden‘ und ‚bezugnehmende Konzepte‘ bilden.

 

 

(6) Und da der Mensch – in Ansätzen auch einige Tierarten – die wundersame Fähigkeit besitzt, ‚Gewusstes‘ [PH_Non-L] in Beziehung zu setzen (assoziieren, Assoziation) zu anderem Gewussten, das als ‚verweisenden Etwas‘ (Zeichen) [PH_L] dienen soll, kann der erkennende Mensch die ‚Inhalte seines Bewusstseins‘ – die Phänomene [PH] – mit Hilfe solcher verweisender Zeichen ‚kodieren‘ und dann unter Verwendung solcher kodierender Zeichen ‚Netzwerke solcher Zeichen‘ bilden, die – je nach ‚Ordnungsgrad‘ – mehr oder weniger ‚Modelle‘ oder gar ‚Theorien‘ bilden können.

 

(7) Da das begleitende Wissen, die Reflexion, in der Lage ist, auch ‚dynamische Eigenschaften‘ der Phänomene zu erfassen (‚Erinnern‘, ‚Vorher – nachher‘,…) kann diese Reflexion auch – nach sehr vielen Reflexionsschritten – unterscheiden zwischen jenen Phänomenen, die geschehen ‚ohne eigenes Zutun‘ (ohne eigenes ‚Wollen‘) und den anderen. Das ‚ohne eigenes Zutun‘ kann aus jenen Bereichen des ‚eigenen Körpers‘ herrühren, die die Reflexion ’nicht unter Kontrolle‘ hat oder aus Bereichen ‚außerhalb des Körpers‘, den wir dann auch ‚intersubjektiv‘ nennen bzw. neuzeitlich ‚empirisch‘ [PH_emp].

 

 

(9) In einer phänomenologischen Theorie [TH_ph], deren Gegenstandsbereich die subjektiven Erlebnisse [PH] sind, kann man daher die charakteristische Teilmenge der empirischen Phänomene [PH_emp] identifizieren. Daneben – und zugleich – kann man all die anderen Eigenschaften der Phänomene samt ihrer ‚Dynamik‘ unterscheiden und begrifflich ausdrücklich machen. Eine genaue Beschreibung aller möglicher Unterscheidung ist sehr komplex und ich habe nicht den Eindruck, dass irgend jemand dies bis heute erschöpfend und befriedigend zugleich geleistet hat. Möglicherweise kann dies auch nur als ein ‚Gemeinschaftswerk‘ geschehen. Dazu müsste man eine geeignete Methodik finden, die dies ermöglicht (vielleicht sind wir Menschen technologisch erst jetzt (2012, ca. 13.7 Milliarden Jahre nach dem Big Bang, ca. 3.7 Milliarden Jahre nach dem ersten Auftreten von lebensrelevanten Molekülen auf der Erde…) langsam in der Lage, eine solche Unternehmung einer ‚gemeinsamen Theorie des menschlichen phänomenalen Bewusstseins‘ in Angriff zu nehmen).

 

(10) Vieles spricht dafür, dass die unterschiedlichen Versuche von Philosophen, die Vielfalt der Reflexionsdynamik (und deren ‚Wirkungen‘ auf den Bewusstseinsinhalt) mit Hilfe von sogenannten ‚Kategorientafeln‘ zu strukturieren (keine gleicht wirklich völlig der anderen), in diesen Kontext der Bildung einer ‚phänomenologischen Theorie‘ [TH_ph] gehört. Idealerweise würde man – zumindest einige der bekanntesten (Aristoteles, Kant, Peirce, Husserl,…) – vor dem aktuellen Hintergrund neu vergleichen und analysieren. Sofern diese die Struktur der Dynamik des ’sich ereignenden Denkens‘ beschreiben, müssten diese Kategorientafeln letztlich alle ’strukturell gleich‘ sein. Dabei unterstellen wir, dass die Dynamik des Denkens der einzelnen Menschen aufgrund der Gehirnstruktur ‚hinreichend ähnlich‘ ist. Dies ist aber streng genommen bis heute nicht erwiesen. Die vielen neuen Erkenntnisse zur Gehirnentwicklung und zum individuellen Lernen (einschließlich der emotionalen Strukturen) legen eher die Vermutung nahe, dass es sehr wohl individuelle Unterschiede geben kann in der Art und Weise, wie einzelne Menschen die Welt ‚verarbeiten‘. Träfe dies zu, hätte dies natürlich weitreichende Folgen für die Alltagspraxis und die Ethik (und die Moral und die Gesetze…).

 

 

(11) Hat man sich dies alles klar gemacht, dann wundert es nicht mehr, dass die Bildung wissenschaftlicher empirischer Theorien [TH_emp] nicht ‚außerhalb‘ einer phänomenologischen Theoriebildung stattfinden kann, sondern nur ‚innerhalb‘, und zwar aus mindestens zwei Gründen: (i) die Menge der empirischen Phänomene [PH_emp] ist eindeutig eine echte Teilmenge aller Phänomene [PH], also PH_emp subset PH. (ii) Die empirische Theorie TH_emp entsteht im Rahmen und unter Voraussetzung der allgemeinen Reflexion, die unser primäres Denken ermöglicht und ausmacht; wir haben kein ‚zweites‘ Denken daneben oder ‚jenseits‘ im ‚Irgendwo‘. Dies erklärt auch sehr einfach das häufig bemerkte Paradox der Metatheorie: Theorien sind nur möglich, weil wir ‚über‘ (Alt-Griechisch: ‚meta‘) sie ’nachdenken‘ können. Dieses ‚Nachdenken über‘ (Metareflexion‘) ist unter Annahme der allem Denken vorausgehenden und begleitenden primären Reflexion keine Überraschung. Was immer wie uns ‚ausdenken‘, es geschieht im Rahmen der primären Reflexion und von daher kann auch alles und jedes, was wir jemals gedacht haben oder uns gerade denken beliebig miteinander in Beziehung gesetzt werden. Bezogen auf diese vorausgehende und begleitende Reflexion ist jeder ‚Denkinhalt‘ grundsätzlich ‚unabgeschlossen‘; die primäre Reflexion ermöglicht eine ‚endliche Unendlichkeit‘, d.h. der prinzipiell nicht abgeschlossene Denkprozess kann – als ‚Prozess‘ – jede endliche Struktur immer wieder und immer weiter ‚erweitern‘, ‚ausdehnen‘, usf.

 

(12) Kennzeichen von neuzeitlichen empirischen Theorien ist ihre Fundierung in ‚empirischen Messverfahren‘ [MEAS]. Kennzeichen dieser empirischen Messverfahren ist es, dass sie unabhängig vom Körper eines Menschen und auch unabhängig von seinem individuellen Erkennen, Fühlen und Wollen bei gleicher ‚Durchführung‘ immer wieder die ‚gleichen Messergebnisse‘ [DATA_emp] liefern sollen. Ob und wieweit solche ‚unabhängigen‘ Messungen tatsächlich durchgeführt werden können ist eine ‚praktische‘ und ‚technologische‘ Frage. Die Geschichte zeigt, dass dieses Konzept auf jeden Fall trotz aller Probleme im Detail bislang extrem erfolgreich war.

 

(13) Allerdings ist hier folgender Umstand zu beachten: obwohl die Messergebnisse [DATA_emp] als solche idealerweise ‚unabhängig‘ vom Fühlen, Denken und Wollen eines Menschen erzeugt werden sollen, gelangen dieses Messergebnisse erst dann zu einer ‚theoretischen Wirkung‘, wenn es irgendwelche Menschen gibt, die diese Messergebnisse DATA_emp ‚wahrnehmen‘ (Englisch: perception, abgekürzt hier als ‚perc‘) können, damit sie als ‚auftretende Phänomene‘ – und zwar hier dann als empirische Phänomene [PH_emp] – in den Bereich des ‚Wissens‘ eintreten, also perc: DATA_emp —> PH_emp. Dies bedeutet, der besondere Charakter von empirischen Phänomenen haftet ihnen nicht als ‚gewussten Eigenschaften‘, nicht qua ‚Phänomen‘ an, sondern nur im Bereich ihrer ‚Entstehung‘, ihres ‚Zustandekommens‘ (aus diesem – und nur aus diesem – Grund ist es so wichtig, beim Umgang mit Phänomenen jeweils klar zu kennzeichnen, ‚woher diese stammen), der ihrem ‚Phänomensein‘ ‚vorausliegt‘.

 

 

(14) In dem Masse nun, wie wir mittels empirischer Messungen Daten über das beobachtbare menschliche Verhalten [DATA_sr], über physiologische Eigenschaften des Körpers [DATA_bd] bzw. auch über Eigenschaften des Nervennetzes im Körper (‚Gehirn‘) [DATA_nn] gewonnen haben, können wir versuchen, basierend auf diesen verschiedenen Daten entsprechende wissenschaftliche Theorien TH_sr, TH_bd, TH_nn zu formulieren, die die Gesetzmäßigkeiten explizit machen, die durch die Daten sichtbar werden.

 

(15) Der wichtige Punkt hier ist, dass alle diese Theorien nicht ‚unabhängig‘ oder ‚jenseits von‘ einer phänomenologischen Theorie zu verorten sind, sondern ‚innerhalb‘ von dieser! Jede beliebige Theorie kann immer nur eine Theorie ‚innerhalb‘ der umfassenden und zeitlich wie logisch vorausgehenden phänomenologischen Theorie sein. Eine spezifische empirische Theorie [TH_i] zeichnet sich ja gerade dadurch aus, dass sie sich auf eine echte Teilmenge [PH_i] aller verfügbarer Phänomene [PH] beschränkt. Gerade in dieser methodischen Beschränkung liegt – wie der Gang der Geschichte uns lehrt – der große Erfolg dieser Art von Theoriebildung. Zugleich wird aber auch deutlich, dass jede dieser speziellen Theorien TH_i aufgrund ihrer speziellen Datenmengen DATA_i (denen die entsprechenden Phänomenmengen PH_emp_i] korrespondieren) zunächst einmal nichts mit einer der vielen anderen speziellen Theorien TH_j TH_i zu tun hat. Es ist eine eigene theoretische Leistung, Querbeziehungen herzustellen, strukturelle Ähnlichkeiten aufzuzeigen, usw. Dies fällt dann in den Bereich ‚interdisziplinärer Theoriebildung‘, ist ‚Metatheorie‘. Diese Art von metatheoretischen Aktivitäten ist aber nur möglich, da die primäre Reflexion alle Arten von speziellen Reflexionen zeitlich und logisch vorausgeht und das entsprechende ‚Instrumentarium‘ zur Verfügung stellt.

 

(16) In diesem Kontext ist unmittelbar einsichtig, dass subjektives Wissen prinzipiell kein Gegenstand empirischer Theoriebildung sein kann. Im Umfeld der modernen Neurowissenschaften (einschließlich Neuropsychologie) sowie im Bereich der Psychologie ist dieser grundsätzliche Tatbestand – so scheint es – bislang methodisch nicht wirklich sauber geklärt. In unzähligen Experimenten mischen sich klare empirische Vorgehensweisen mit der Benutzung von subjektiven Daten, was methodisch ungeklärt ist. Dies durchzieht alle ‚Kreise‘.

 

(17) Will man von der einzigartigen Datenquelle des primären Wissens PH für wissenschaftliche empirische Forschung PH_emp profitieren, bietet sich bislang einzig ein ‚hybrides‘ Vorgehen an, in dem ein Mensch sein eigenes subjektives Wissen PH auf der Basis einer ‚zeitlichen Korrelation‘ (t,t‘) mit empirischen Daten PH_emp, die von anderen Wissenschaftlern mittels Messungen über seinen Körper und sein Nervennetz erhoben werden. Also etwa CORR((t,t‘), PH, PH_emp). Dies ist zwar mühsam und fehleranfällig, aber die einzige methodische Möglichkeit, mit diesen ungleichen Phänomenmengen zurecht zu kommen (Mir ist nicht bekannt, dass irgendjemand diese scharfe methodische Forderung bislang erhebt geschweige denn, dass irgend jemand danach tatsächlich vorgeht).

 

(18) Für die weiteren Überlegungen soll versucht werden, diesen methodologischen Anforderungen gerecht zu werden.

 

(19) Es zeigt sich nun auch sehr klar, dass und wie das philosophische Denken gegenüber allen anderen theoretischen Erklärungsansätzen tatsächlich eine Sonderstellung einnimmt. Das philosophische Denken ist das fundamentale Denken, das jeglichem speziellen Denken zeitlich und logisch voraus liegt, nicht als Gegensatz oder als etwas ganz Anderes, sondern als das primäre Medium innerhalb dessen sich alles andere ‚abspielt‘. Während ich eine spezielle empirische Theorie als ‚Objekt des Wissens‘ klar abgrenzen und beschreiben kann, ist die dazu notwendige Metareflexion als solche kein ‚Objekt des Wissens‘, sondern immer nur ein nicht weiter hintergehbares ‚Medium‘, eben das ‚Denken‘, in dem wir uns immer schon vorfinden, das wir nicht erst ‚machen‘, das wir nur ‚benutzen‘ können. Die ‚Eigenschaften‘ dieses unseres Denkens ‚zeigen‘ sich damit auch nur ‚indirekt‘ durch die ‚Wirkung‘ der Denkaktivität auf die Inhalte des Bewusstseins (Eine Kooperation von empirischer Psychologie TH_emp_psych und phänomenologischer Analyse TH_ph kann hilfreich sein, allerdings sind die Gegenstandsbereiche DATA_emp_psych als PH_emp_psych und PH komplett verschieden und wirklich interessant würde es erst dann, wenn wir eine TH_emp_psych einer TH_ph gegenübersetzen könnten (bislang sehe ich nirgends – nicht einmal in Ansätzen – eine phänomenologische Theorie, die diesen Namen verdienen würde, noch eine wirkliche empirische psychologische Theorie, und das im Jahr 2012).

 

 

Ein Überblick über alle bisherigen Einträge findet sich hier.

 

 

In dem Online-Skript General Computational Learning Theory versuche ich, diese erkenntnisphilosophischen Aspekte zu berücksichtigen. Ich kann in diesem Skript allerdings nur einen Teilbereich behandeln. Aber aus diesen sehr abstrakt wirkenden Überlegungen ist meine ‚Rückkehr zur Philosophie‘ entscheidend mitbeeinflusst worden.

 

 

 

 

 

PHILOSOPHIE IM KONTEXT oder: BEGRIFFSNETZE oder: THEORIENETZWERKE

Achtung: Es hat sich gezeigt, dass diese Version einen grundlegenden Fehler enthält! Siehe am Ende des Textes den Link auf eine verbesserte Version.

 

(1) In dem Vortrag in Bremerhaven ist die Verzahnung von Philosophie und Wissenschaft hevorgehoben worden. Ansatzweise wurde skizziert, wie eine bewusstseinsbasierte Philosophie als das primäre Denken innerhalb seines Denkraumes einen ‚Unterraum‘ spezifizieren kann, der sich über die spezielle Teilmenge der ‚empirischen Phänomene‘ [PH_Emp] definiert bzw. umgekehrt, wie man ausgehend von den empirischen Disziplinen über die Frage nach den notwendigen Voraussetzungen zu einem größeren Zusammenhang kommen kann, der letztlich mit dem philosophischen Denken zusammenfällt. Versucht man, die begrifflichen Verhältnisse zwischen den verschiedenen hier einschlägigen Disziplinen zu klären, dann wird man alsbald feststellen, dass diese bei den meisten nicht ganz klar sind; dies betrifft die ganze ‚Community‘. Im Folgenden ein weiterer Versuch, die hier geltenden grundsätzlichen Verhältnisse transparent zu machen.

 

(2) Die grundsätzliche Idee (die ich seit mehr als 20 Jahren immer wieder mal auf unterschiedliche Weise versucht habe, — in erster Lnie mir selbst — zu verdeutlichen) ist im Schaubild Nr.1 angedeutet.

 

 

Gesamtrahmen Philosophie und Wissenschaften

 

 

(3) Nimmt man seinen Ausgangspunkt von existierenden empirischen Disziplinen wie Physik [Phys], Chemie [Chem], Biologie [Biol] usw. dann sind diese dadurch gekennzeichnet, dass sie aufgrund spezifischer Fragestellungen und spezifischer Messverfahren entsprechend verschiedene ‚Messwerte‘ gewinnen.

 

(4) Hierbei ist aber zu beachten, dass die empirischen Messwerte zwar – idealerweise – unabhängig von einem bestimmten Körper oder Bewusstsein ‚gewonnen‘ werden, dass sie aber nur in dem Maße in eine wissenschaftliche Theoriebildung eingehen können, als die Messwerte von Menschen auch ‚wahrgenommen‘ werden können, d.h. nur insoweit, als die handlungs- und technikbasierten Messwerte zu ‚bewussten Ereignissen‘ werden, zu ‚Phänomenen‘ [PH]. Als ‚Phänomen‘ ist ein Messwert und ein Zahnschmerz nicht unterscheidbar, allerdings haben sie verschiedene ‚Ursachen der Entstehung‘, die sich in einer ‚Reflexion‘ erschließen lassen. In dem Masse, wie man diese Unterscheidung durchführen kann, kann man dann innerhalb der ‚allgemeinen‘ Menge der Phänomene PH eine spezielle Teilmenge der ’speziellen‘ Phänomene ausgrenzen, also PH_Emp PH.

 

 

(5) In diesem Sinne kann man sagen, dass die Menge der empirischen Phänomene sich bezüglich ihrer ’speziellen Herkunft‘ von allen anderen Phänomenen unterscheiden und dass die verschiedenen empirischen Disziplinen sich diese spezielle Teilmenge auf unterschiedliche Weise ‚aufteilen‘. Idealerweise würde man sich die Menge der empirischen Phänomene PH_Emp zerlegt denken in endliche viele disjunkte Untermengen. Ob die tatsächlichen Messverfahren mitsamt den daraus resultierenden Messwerten real vollständig disjunkt sind, ist aktuell offen; spielt für die weiteren Überlegungen zunächst auch keine wesentliche Rolle. Wichtig ist nur, dass in diesem Zusammenhang nur dann von empirischen Daten wie z.B. ‚psychologischen Daten‘ DATA_SR gesprochen werden soll, wenn es reale Messwerte von realen Messvorgängen gibt, die von einem Menschen wahrgenommen werden können und dieser diese Phänomene als entsprechende empirische Phänomene PH_Emp_x interpretiert (das ‚x‘ steht hierbei für die jeweilige Disziplin).

 

(6) Wie in vorausgehenden Blogeinträgen schon mehrfach festgestellt, bilden empirische Daten DATA_x als solche noch keine wirkliche Erkenntnis ab. Diese beginnt erst dort, wo Verallgemeinerungen vorgenommen werden können, Beziehungen erkennbar sind, regelhafte Veränderungen, usw. Die Gesamtheit solcher struktureller Eigenschaften im Zusammenhang mit Daten nennt man normalerweise eine ‚Theorie‘ [TH]. Ob und inwieweit alle heutigen empirischen Disziplinen wirklich systematisches Wissen in Form von expliziten Theorien TH_x entwickeln, steht hier nicht zur Diskussion (es gibt sicher viel weniger explizite Theoriebildung als man sich wünschen würde. Die einzige Disziplin, von der man den Eindruck hat, dass sie überwiegend durch formale Konstrukte begleitet wird, die den Anspruch von Theorien erfüllen, ist die moderne Physik. Alle anderen Disziplinen fallen hinter das Ideal mehr oder weniger weit zurück.).

 

(7) Solange man sich nun innerhalb einer ganz bestimmten Disziplin bewegt, ist die Welt — in gewissem Sinne – ‚in Ordnung‘: man weiß wie man misst und man hat elementare Techniken, wie man Daten strukturiert. Fängt man an, Fragen nach den ‚Voraussetzungen‘ dieser fachspezifischen Theoriebildung zu stellen, nach der Angemessenheit der verwendeten Methoden, wird es schwierig, da für solche Fragen strenggenommen kein Instrumentarium verfügbar ist (Warum und wieso sollte ein Chemiker sich Fragen nach den Grundlagen der Erkenntnis stellen, aufgrund deren er überhaupt etwas erkennt, oder nach dem Problem der sprachlichen Bedeutung, wenn er über chemische Sachverhalte spricht, über die Angemessenheit seiner Begrifflichkeit für den zu untersuchenden Gegenstand, usw.). Noch schwieriger wird es, wenn es um mögliche Wechselwirkungen zwischen verschiedenen Theorieansätzen geht: ob und wie verhalten sich die Daten und theoretischen Modelle zwischen z.B. beobachtetem Verhalten in der Psychologie TH_SR mit zeitgleichen Messungen im Körper TH_Bd oder spezieller im Nervensystem TH_NN? Wann darf ich denn überhaupt von einer Theorie sprechen? In welchem Sinne kann ich Theorien TH_x und TH_y vergleichen? Diese – und viele andere – Fragen gehen weit über die fachspezifischen Fragestellungen hinaus, verweisen auf allgemeine fachübergreifende Zusammenhänge.

 

(8) Im deutschen Sprachraum gab es in der Zeit von ungefähr 1970 bis 1990 eine Phase, in der man verstärkt von ‚Wissenschaftstheorie‘ sprach als jener ‚Metadisziplin‘, die die allgemeinen Eigenschaften und Randbedingungen von ‚Theorien‘ untersucht und klärt. Im englischen Sprachraum nannte man dies ‚Philosophy of Science‘ (allerdings mit einer nicht ganz deckungsgleichen Bedeutung). Alle diese Strömungen haben – so scheint es – bis heute keinen nachhaltigen Einfluss auf den ’normalen Wissenschaftsbetrieb‘ nehmen können; eher ist das Thema sogar wieder rückläufig. Zwar bräuchte man es aus methodischen Gründen dringen, aber keiner will dafür Geld ausgeben.

 

(9) Die deutschsprachige Wissenschaftstheorie hatte den Nachteil, dass sie zwar versuchte, disziplinenübergreifend strukturelle Eigenschaften von Theorien zu klären, sich aber letztlich weigerte, sämtliche Voraussetzungen (einschließlich ihrer eigenen) zu reflektieren, d.h. die Wissenschaftstheorie nahm zwar einerseits gegenüber den Fachdisziplinen allgemeine Eigenschaften von Denken, Folgern, Sprechen, Messen usw. in Anspruch, die über die engen Fachdisziplinen hinausgehen, weigerte sich aber, diesen Anspruch in letzter Konsequenz zu reflektieren und auszuweisen (auch nicht die Erlanger Schule und die sogenannten Konstruktivisten). Eine solche grundlegende Reflexion war und blieb die Domäne der klassischen Philosophie, von der sich die Wissenschaftstheorie panisch abzugrenzen versuchte.

 

(10) So sehr eine gesunde Kritik an der klassischen Philosophie nottat, eine vollständige Verdrängung der philosophischen Aufgabenstellung und Denkweise wirkte aber wie eine ‚Überreaktion‘; diese hatte zur Folge, dass sich die Wissenschaftstheorie von ihren eigenen Voraussetzungen mittels einer klassischen ‚Verdrängung‘ zu befreien suchte, sich dadurch aber entscheidende Aspekte vergab.

 

 

(11) Wie das Schaubild zeigt, gehe ich davon aus, dass die im Erleben wurzelnde Reflexion der primäre Ausgangspunkt für jede Art von spezialisierendem Denken ist. Selbst eine empirische Disziplin ist im Raum der bewussten Erlebnisse, im Raum der Phänomene, verankert, und was immer ein empirischer Wissenschaftler denkt, er denkt im Rahmen der Denkmöglichkeiten, die ihm über das Bewusstsein und die ‚an das Bewusstsein gekoppelten Subsysteme‘ verfügbar sind. Andere hat er gar nicht. Ein Wissenschaftstheoretiker, der über das theoretische Denken von Fachdisziplinen forschen will, ist auch nicht besser dran. Auch er ist an den Phänomenraum als primärem Bezugssystem gebunden und auch er nutzt jene allgemeinen Reflexionsmöglichkeiten, die im Bewusstseinsraum generell verfügbar sind. D.h. jeder Versuch, eine irgendwie geartetes geordnetes Denken — sei es fachwissenschaftlich oder wissenschaftstheoretisch – als solches auf seine Voraussetzungen und Wechselwirkungen hin zu befragen, muss auf dieses ‚primäre Denken‘ zurückgehen und es für die Erkenntnis nutzen. Dieses primäre Denken aber ist genau das philosophische Denken, das auf der einen Seite mit dem alltäglichen Denken verschwimmt, und auf der anderen Seite in Wissenschaftstheorie oder gar Fachwissenschaft übergeht.

 

(12) Von der Intention her hat sich ‚Philosophie‘ immer als solch ein ‚erstes Denken‘ verstanden, das alles andere Denken umfassen sollte. In der konkreten Ausformung eines solchen ersten Denkens gab es aber immer vielfältige und starke Unterschiede. Generell kann man die Tendenz beobachten, dass das philosophische Denken sich entweder vom alltäglichen und wissenschaftlichen Denken ‚zu weit entfernt‘ hat oder aber umgekehrt diesem ‚zu nah‘ kam. Im letzteren Fall büßte Philosophie ihre kritisch-klärende Funktion ein.

 

(13) Will Philosophie beides zugleich realisieren, kritische Distanz wie auch kenntnisreiche Nähe, muss das philosophische Denken sowohl die ‚Form‘ eines wissenschaftlichen Denkens hinreichend klären wie auch die eigenen Erkenntnis — sofern überhaupt strukturierbar – entsprechend explizieren. Das philosophische Denken als ‚erstes Denken‘ wird zwar niemals seinen eigenen Anteil zugleich vollständig und korrekt explizieren können (das liegt primär an der Struktur des Denkens selbst sowie an der Verwendung von Sprache), aber es kann den Zusammenhang der einzelwissenschaftlichen Theorieansätze sowie deren allgemeinen erkenntnistheoretischen Voraussetzungen soweit explizieren, dass klar wird, (i) was ist überhaupt eine Theorie TH_x, (ii) welche erkenntnistheoretischen Voraussetzungen müssen für eine bestimmte Theorie TH_x berücksichtigt werden, (iii) wie kann man das Verhältnis von Theorien beschreiben XREL(TH_x, TH_y), (iv) wie können Objektbeschreibungen aus unterschiedlichen Theorien (z.B. Eigenschaften von Neuronen beschrieben in einer neurowissenschaftlichen Theorie TH_nn, und Eigenschaften eines beobachtbaren Verhaltens in einer psychologischen Theorie TH_sr) aufeinander bezogen werden, usw.

 

(14) Fordern muss man aber auch, dass das philosophische Denken seine Inhalte, soweit sie explizierbar sind, auch in Form von Daten DATA_ph kenntlich macht, und, darauf aufbauend, verdeutlicht, welche Strukturen TH_ph das philosophische Denken vermeintlich besitzt bzw. benutzt, um die Möglichkeit und das ‚Funktionieren‘ der Einzeltheorien zu ‚erklären‘. In gewisser Weise muss die Philosophie genauso ein ‚Modell‘ ihres Gegenstandes bauen wie dies die anderen Wissenschaften auch tun. Im Fall der Philosophie geht es um den Menschen selbst, speziell um den Menschen, insofern er ‚erkennt‘, ‚Wissen‘ entwickelt‘, er ’spricht‘, und vieles mehr. Und natürlich könnte (bzw. sie müsste es!) die Philosophie — wie alle anderen Disziplinen auch – Computermodelle benutzen, um ihr theoretisches Modell vom erkenntnisfähigen und ethisch handelndem Menschen zu explizieren. ‚Computergestützte Philosophische Theorie‘ (etwa ‚computational philosophy‘) ist nicht nur kein Gegensatz sondern ein absolutes Muss! Ohne solche Modelle hat eine moderne Philosophie kaum eine Chance, die zu behandelnde Komplexität angemessen beschreiben zu können.

 

 

Eine korrigierte Version dieses Beitrags findet sich hier.

 

 

Einen Überblick über alle bisherigen Beiträge findet man hier.

 

 

(15) Weitere Details in Fortsetzungen bzw. im Rahmen meiner online-Skripte zur allgemeinen Lerntheorie.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

DIE ANDERE DIFFERENZ – Teil3 – Definition des Lebens

(1) Nachdem in vorausgehenden Blogeinträgen das biologische Leben mit dem Konzept der ‚anderen Differenz‘ beschrieben wurde ergänzt um   ein paar theoretische Überlegungen zu möglichen formalen Modellen, hier nochmals kurze Überlegungen zur ‚Definition‘ von ‚Leben‘.

 

(2) Definitionen im Sinne der formalen Logik sind solche Begriffe (‚Terme‘), die als ‚Abkürzungen‘ für eine Menge ’schon bekannter Eigenschaften‘ eingeführt werden. Also Definiendum := Definiens; das ‚Definiendum‘ ist das zu Erklärende und das ‚Definiens‘ ist das schon Bekannte, mit dem erklärt wird.

 

 

(3) Solch eine Definition sieht unscheinbar aus, stellt aber einen ‚Auswahlprozess‘ dar: aus der großen Menge E der verfügbaren bekannten Eigenschaften wird eine kleine Teilmenge E‘ ausgewählt, die künftig unter einem neuen ‚Namen‘ (Label) auftreten soll, da der Autor einer solchen  Einführung Gründe hat (das wird jetzt mal unterstellt), genau diese Eigenschaften E‘ als in mindestens einer ‚Hinsicht‘ als ‚relevant‘ anzusehen.

 

(4) Sofern es sich bei solchen Eigenschaften E‘ um ‚empirische Eigenschaften‘ handelt, also Eigenschaften von Dingen, die sich im intersubjektiven Raum ‚beobachten‘ – oder gar ‚messen‘ – lassen, kann eine solche Auswahl möglicherweise eine Menge von Eigenschaften beschreiben, die ein ‚zusammenhängendes Phänomen‘ beschreiben. Beispiele wären technische Geräte (Kafffeemaschine, Mobiltelefon, Waschmaschine,….) oder Gebäude (Einfamilienhaus, Bürogebäude, Brücke, …), aber auch Pflanzen und Tiere, oder Kombinationen davon wie eine ‚Viehweide‘, ein ‚Reservat‘, ein ‚Sumpfgebiet‘, ein ‚Dschungel‘, usw. Ein ‚zusammenhängendes Phänomen‘ wäre in diesem Sinne also so etwas wie ein ‚Gegenstand‘, ein ‚Objekt‘, eventuell mit ‚unscharfen Rändern‘, wo man unsicher ist, ob dies auch noch ein ‚Haus‘, ein ‚Telefon‘ oder eine bestimmte ‚Pflanze‘ ist.

 

(5) Die Bildung einer Auswahl von Eigenschaften E‘ mit einem neuen ‚Namen‘, mit einer neuen ‚Abkürzung‘, stellt im ’normalen Leben‘ meist ein Vorgang dar, bei dem Menschen versuchen solche Eigenschaftsbündel E‘ hervor zu heben, die für den praktischen Ablauf des Lebens irgendwie eine Bedeutung haben und die in dieser spezifischen Konstellation ‚vorkommen‘. Während bei technischen Geräten der Hersteller in der Regel sagen kann, welche Eigenschaften sein Gerät ‚laut Plan‘ haben soll (und wir aufgrund von solchen Angaben auch die Korrektheit und Vollständigkeit eines Gerätes samt seiner Funktion normalerweise überprüfen können), ist es bei  ’natürlichen Gegenständen‘ zunächst mal so, dass wir nicht wissen, was ‚laut Plan‘ dazugehören soll. Geologische und klimatische Prozesse z.B. sind so komplex, dass wir bis heute nicht nur viele konkrete Experimente anstellen müssen, um Hinweise DAT_emp auf ‚beteiligte Eigenschaften‘ ‚finden‘ zu müssen, wir können aufgrund solcher empirischer Messwerte DAT_emp mit den bisher bekannten Modellen TH_emp immer nur sehr begrenze Aussagen machen, Annäherungen an den Gesamtzusammenhang. Im Falle biologischer Gegenstände haben wir gelernt, dass wir mit RNA- bzw. DNA-Molekülen die ‚Pläne‘ für die daraus sich entwickelnden Pflanzen und Tieren vorliegen haben, eine genaue Zuordnung zwischen einem solchen RNA-/ DNA-Plan und den daraus sich ergebenden individuellen Wachstumsprozessen (Ontogenese) lässt sich aber bislang nur sehr begrenzt treffen. Immerhin hat man mit diesen Plänen eine Art ‚Signatur‘ des jeweiligen zugehörigen Organismus in der Hand, und diese Signaturen kann man miteinander vergleichen. ‚Ähnlichkeiten‘ zwischen solchen Signaturen werden dann als ‚genetische Verwandtschaft‘ gedeutet; je ähnlicher umso mehr miteinander verwandt.

 

(6) Wenn es nun darum geht, zu definieren, was man unter dem neuen Begriff  ‚(biologisches) Leben‘ verstehen, dann steht man vor der Herausforderung, zu entscheiden, welche der bekannten empirischen Eigenschaften E‘ man als ‚relevant‘ ansieht für diesen Begriff. Welche Eigenschaft E’_i muss man unbedingt ‚dazutun‘ und zwar so, dass ein Verzicht auf diese Eigenschaft E’_i den Begriff wesentlich ‚unvollständig‘ machen würde, also E‘ = {E’_1, E’_2, …}.

 

(7) Wichtig hierbei ist schon der Hinweis ‚bekannt‘: wer immer sich an solch einer Begriffsbildung versucht, er wird das Problem haben, dass er/ sie immer nur aus jenen Eigenschaften E auswählen kann, die zu diesem Zeitpunkt ‚bekannt‘ sind. Das ‚verfügbare Wissen E‘ ist zu jeder Zeit t unterschiedlich gewesen, und auch innerhalb einer Zeitspanne (t, t‘) kann das verfügbare Wissen bei verschiedenen Menschen sehr unterschiedlich sein (ein Spezialist für Pflanzenkunde wird in der Regel über ein ganz anderes Wissen E_x von E verfügen wie ein Jurist E_x‘ oder ein Schreiner E_x“, also E_x ≠ E_x‘ ≠ E_x“. Wenn man also über die ‚bekannten‘ Eigenschaften E spricht, dann sollte man also mindestens einen Zeitpunkt t mit angeben, oder ein Zeitintervall (t,t‘), und zusätzlich den jeweiligen ‚Autor‘. Angenommen t‘ sei deutlich später wie t, dann würde man vielleicht vermuten, dass die bekannten Eigenschaften E zum Zeitpunkt t‘ E(t‘) alle bekannten Eigenschaften E zu einem vorausgehenden Zeitpunkt t E(t) mit beinhalten E(t) subset E(t‘). Dies muss aber keinesfalls so sein, denn entweder ist dieses Wissen zwischendurch wieder verloren gegangen (durch die Zerstörung von Bibliotheken mit dem griechischen Wissen gab es viele Jahrhunderte, in denen das Wissen ‚geringer‘ war als zu den Zeiten der Griechen; erst durch die vor der Zerstörung angefertigten Übersetzungen ins Arabische, die mit dem Islam dann über Spanien wieder nach Europa kamen, gelang das Wissen dann wieder ‚zurück‘ in die Köpfe und entfaltete im Mittelalter eine neue, ungeheure Kraft), oder aber, man gewann neue tiefgreifende Einsichten, so dass man nun ‚andere‘ Eigenschaften E* subset E(t‘) kennt, die zuvor keine Rolle gespielt haben, also E(t) cut E(t‘) = E*, die dann nun in die Definition eingehen können. Die Entwicklung des Wissens um Eigenschaften im Laufe der Zeiten E(t) –> E(t+1) –> E(t+2) –> … muss also keinesfalls ‚geradlinig‘ verlaufen; eine Population kann Eigenschaften ‚vergessen‘, die schon mal wichtig waren oder ’neue‘ finden, die zuvor nicht bekannt waren.

 

(8) Bei meinen Überlegungen, die zum Konzept der Differenz führten, habe ich mich von vielen Autoren inspirieren lassen (siehe Blogeinträge vorher oder einige meiner Buchbesprechungen bei Amazon (Deutsch und Englisch!)). Direkt nenne würde ich hier jetzt nur Gale (2009) und – insbesondere — Ward und Brownlee (2000). Storch et al (2007) ist ein Beispiel – wie man es heute leider oft findet –wo hochkarätige Experten sehr viel Detailwissen zusammengetragen haben, wo aber der eigentliche ‚Leitbegriff‘ selbst — nämlich der des Lebens – nicht thematisiert wird! In einem Buch über ‚Evolutionsbiologie‘ gibt es keinen einzigen Gedanken dazu, was eigentlich der Leitbegriff all der vielen beeindruckenden Einzeluntersuchungen ist, keinerlei theoretisches Konzept zum Leben; hier wird mit großer Detailkenntnis eine molekulare ‚Maschinerie‘ im historischen Kontext geschildert, es bleibt aber – aus philosophie-wissenschaftlicher Sicht — völlig unklar, ob dies etwas mit ‚Leben‘ zu tun haben soll, weil nirgends definiert ist, was diese Autoren unter ‚Leben‘ verstehen (wobei aus übergreifendem Wissen klar ist, dass diese vielen Details natürlich ‚irgendwie‘ etwas mit ‚Leben‘ zu tun haben, nur vergeben sich diese Autoren eine Chance, dies klar zu machen).

 

(9) Die Variabilität der bekannten Eigenschaften E(t) hängt dabei nicht nur von der generellen ‚Bekanntheit‘ ab, sondern auch, wie die unten angeführten Publikationen demonstrieren, vom ‚Standpunkt des Betrachters‘. Wenn ich mich primär nur für die chemischen Eigenschaften bestimmter Moleküle interessiere, achte ich auf andere Aspekte, als wenn ich die Frage stelle, was denn die grob als ‚biologisch‘ klassifizierten Eigenschaften E_biol subset E_emp generell charakterisiert, auch mit Blick auf andere Kontexte als die Erde. Eine solche ‚erweiterte Perspektive‘ kennzeichnet die Astrobiologie. Sie fragt explizit nach den Bedingungen, unter denen ‚Leben‘ auf der Erde möglich wurde, ist und sein wird sowie, ob und in welchem Umfang ‚Leben‘ auch woanders im Universum möglich ist. Um solch eine Frage so generell stellen zu können, muss man sich Gedanken machen, wie man den möglichst prägnant den Begriff ‚Leben‘ so fasst, dass alle Eigenschaften E_life subset E_emp, die unbedingt notwendig sind, explizit kenntlich gemacht werden, so dass man das Phänomen ‚Leben‘ im gesamten Universum ‚identifizieren‘ kann. Dazu reicht es in keinem Fall, einfach zu unterstellen, jeder wisse ja, was ‚Leben‘ sei, daher genüge es, einfach mal unterschiedliche dinge aufzuzählen, die irgendwie in diesem Zusammenhang bekannt sind. Solche Aufzählungen haben zwar den grossen Vorteil, dass sie strenggenommen niemals ‚falsch‘ oder ‚wahr‘ werden können ( da ja nicht klar ist, im Hinblick auf welche Eigenschaftsmenge sie letztlich ‚bewertet‘ werden sollen), verlieren damit aber wissenschaftlich entschieden an Wert.

 

(10) Als einzelner Mensch beurteilt man das, was man möglicherweise unter ‚Leben‘ versteht, vom Standpunkt seines ’subjektiven Erlebens‘. Dies ist eine Mischung aus ‚Aussenweltwahrnehmungen‘ mit ‚Innenwahrnehmungen‘, also im letzteren Fall von allerlei diffusen Stimmungen, Gefühlen, Bedürfnissen usw. Wir können ‚Leben‘ gar nicht ohne unseren eigenen Standpunkt, nicht ohne die Besonderheiten unseres eigenen Körpers, wahrnehmen. Von daher haben persönliche Schilderungen von ‚Leben‘ stark psychologische und autobiographische Färbungen. Durch die moderne Wissenschaft haben wir aber gelernt, wie wie zwischen den ’subjektiven Anteilen‘ unserer Welterfahrung und den empirisch beschreibbaren Eigenschaften unterscheiden können. Da unser subjektives Erleben an unser Gehirn gebunden ist, dieses in einem Körper eingebettet ist, der sowohl eine individuelle Geschichte hat (Wachstum, Lernen, Ontogenese) wie auch als Teil einer Population eine phylogenetische Geschichte besitzt (die Teil der übergreifenden biologischen Evolution ist, die wiederum eingebettet ist ein eine chemische Evolution, die wiederum nicht isoliert ist, …), wird man das subjektive Erleben auch besser einordnen können, wenn man es von diesen übergreifenden Zusammenhängen aus betrachtet (ohne dass man das subjektive Erleben darauf ‚reduzieren‘ würde; damit würde man wichtige Erkenntnisse ‚verschenken‘, die nur so verfügbar sind).

 

(11) Biologen tendieren dazu, Phänomene des Lebens von ihren ‚Mechanismen‘ her zu betrachten, was naheliegt, da ja der Biologe sich dem Phänomen des ‚Lebens‘ von seinen konkreten Erscheinungsformen her nähert. Durch Inspizierung vieler tausender, zehntausender – oder mehr — spezieller Erscheinungsformen von ‚Leben‘ wird er in die Lage versetzt zu vergleichen, zu klassifizieren, Beziehungen aufzuspüren, Abhängigkeiten zu identifizieren, um dann – möglicherweise – mittels erster ‚Modelle‘ oder ‚Theorien‘ diese vielen Phänomene zu ’systematisieren‘. Insofern geht es dann nicht nur um ‚reine Eigenschaften‘ E_biol oder E_life, sondern es geht dann auch schon um Eigenschaften E_biol, die in sich Klassifikationen darstellen, um Beziehungen (Relationen) R_biol und Dynamiken f_biol, Ax_biol, deren typisches ‚Wechselspiel‘ erst das Phänomen ‚Leben‘ so beschreibt, wie es der Experte zu erkennen meint. Also irgendwie wird man eine Struktur haben wie z.B. TH_biol = <E_biol, R_biol, f_biol, Ax_biol>. Und im Normalfall wird es so sein, dass man mit einer ersten  Theorie TH_biol_0 anfängt, und dann im Laufe der Zeit diese dann immer immer verändert TH_biol_i, bis man dann den Zustand der gerade aktuellen Theorie TH_biol_now erreicht hat.

 

(12) Während man in dem erwähnten Buch von Storch et al. keinerlei Definition zum Begriff Leben findet – erst Recht natürlich keine Theorie – findet sich im Buch von Gale (2009) zumindest eine ‚Liste von Eigenschaften‘ (Gale, 2009:17), allerdings ohne einen klaren funktionalen Zusammenhang (und damit auch keine Theorie). Sowohl Gale (S.17) wie auch Ward and Brownlee (S.56) verweisen aber auf charakteristische dynamische Eigenschaften wie ‚Wachstum‘, ‚Interaktion mit der Umwelt‘, sowie ‚Vererbung mit Variationen‘. Dies alles unter Voraussetzung von minimalen zellulären Strukturen, der Fähigkeit zur Informationskodierung, sowie der Fähigkeit, Energie aus der Umgebung aufzunehmen um diese komplexen Leistungen verfügbar machen.

 

(13) Die Physik, die sich nicht primär für das Konzept ‚Leben‘ ineressiert, sondern an mehr allgemeinen Begriffen wie ‚Energie‘ und ‚Materie‘ (und deren Zuammenspiel) interessiert ist, hat unter anderem die Gesetzmäßigkeit aufgedeckt, dass die Entropie (salopp die ‚Unordnung‘) in einem geschlossenen System einen Maximalwert annimmt. Das aktuelle Universum ist von diesem Zustand noch weit entfernt. Die ‚Differenzen‘ zur maximalen Entropie manifestieren sich als lokale ‚Ordnungen‘ in Form von ‚frei verfügbarer Energie‘. Sofern ‚Leben‘ angenähert das ist, was Gale (2009) sowie Ward and Brownlee (2000) mit ihren wenigen Begriffen nahelegen, dann hat sich das Phänomen des Lebens genau an diesen Differenzen zur maximalen Entropie gebildet, im Umfeld freier Energien, und nicht nur das, sondern das Phänomen des ‚Lebens‘ demonstriert quasi ein Antiprinzip zur Entropie: statt Strukturen ‚auszugleichen‘ werden hier Strukturen in Form frei verfügbarer Energien in andere Strukturen umgeformt, und zwar expansiv und mit einer immer größeren Komplexität. Das Phänomen des Lebens als Ganzes ist vergleichbar mit einem großen Staubsauger, der alle frei verfügbare Energie im kosmologischen Gesamtzustand unter der maximalen Entropie ‚aufsaugt‘ und damit neue, vorher nicht dagewesene Strukturen generiert, die neue Eigenschaften aufweisen, die weit über die bekannten physikalischen Phänomene hinausgehen. Angenommen, das Phänomen des Lebens als Ganzes könnte die frei verfügbaren Energien idealerweise vollständig nutzen, dann würde sich die maximale Existenzzeit des Lebens im Universum aus der Zeit ergeben, in der im Universum noch Energie frei verfügbar ist. Sicher aber sind weitere Varianten möglich, die wie heute einfach noch nicht sehen, weil unsere Wissensfähigkeit dramatisch eingeschränkt ist.

 

(14) Andererseits, während die Biologen stark an den konkreten Eigenschaften von Manifestationen des Lebens ‚hängen‘, kann man versuchen, diese Eigenschaften von einem ‚abstrakteren‘ Standpunkt aus zu betrachten, was ich in den vorausgehenden Blogeinträgen versucht hatte. Nach dem bekannten Spruch, dass man ‚den Wald vor lauter Bäumen nicht sieht‘, kann die Vielzahl der Eigenschaften biologischer Systeme das Denken daran hindern, die im Leben implizit vorhandenen Strukturen zu erkennen. In meinen Überlegungen hatte ich versuchsweise angenommen, dass die gesamte Maschinerie biologischer Systeme (z.B. der ganze ‚Körper‘), dessen Komplexität uns erschlägt, möglicherweise nur ein ‚Mittel zum Zweck‘ ist, nämlich die Rahmenbedingungen für ein neuronales System zu schaffen, dessen Zweck wiederum die Fähigkeit ist, ‚Eigenschaften der Welt‘ in ‚kognitive Strukturen‘ umzuwandeln, durch die das gesamte Universum schrittweise ‚transparent‘ wird und damit ’sich selbst‘ nahezu beliebig ‚umbauen‘ könnte. Wie wir heute wissen, lässt sich jede Form von uns heute bekanntem Wissen und Denken über minimale Potentialsysteme realisieren, die beliebig vernetzbar sind. Von diesem Leitgedanken aus liegt es nahe, die Vielfalt der Eigenschaften biologischer Systeme unter dieser Rücksicht zu analysieren. Dies führte zur Idee des minimalen Differenzsystems, vernetzbar, energetisch betrieben, kopierbar mit Veränderungen. Alles keine wirklich neue Gedanken.

 

(15) ‚Leben‘ wäre dann also jenes Phänomen im Universum, das in der Lage ist, ausgehend von den freien Energien einer nicht-maximalen Entropie beliebig skalierbare Differenzsysteme erzeugen zu können, die sich variierend kopieren lassen, und die mit ihren jeweiligen Umgebungen (und damit mit sich selbst) interagieren – und das heißt auch: kommunizieren – können. Mit welchem konkreten Material und unter welchen konkreten Randbedingungen dies auftritt, ist unwesentlich. Das ‚Geistige‘, das sich in Gestalt von ‚Lebensformen‘ zeigt, ist letztlich eine implizite Eigenschaft der gesamten umgebenden Materie-Energie, weswegen es nicht klar ist, was das Verschwinden eines konkreten Körpers (‚Tod‘) für das Phänimen des ‚Geistes‘ letztlich bedeutet. Seiner ‚Natur‘ nach kann ‚Geist‘ nicht ’sterben‘, nur eine bestimmte Realisierungsform kann sich ändern.

 

 

 Unsere Verwandten die Tiere 1

 

 

Eine Übersicht über alle bisherigen Blogeinträge findet sich hier.

 

 

 

LITERATURHINWEISE

 

Gale, J.; Astrobiology of Earth. The Emergence, Evolution, and Future of Life on a Planet in Turmoil. New York: Oxford University Press, 2009

 

Storch, V.; Welsch, U.; Wink, M.; Evolutionsbiologie. 2.Aufl. rev. and ext., Berlin – Heidelberg: Springer Verlag, 2007

 

Ward, P.D.; Brownlee, D.; Rare earth. Why Complex Life is Uncommon in the Universe. New York: Springer-Verlag New York, Inc., 2000

RÜCKKEHR DER METAPHYSIK? Natur als Offenbarung? Universale Ethik?

Einbettung von Metaphysik in moderne Wissenschaft

 

 

 

 

(1) Im Zwiegespräch mit dem Text ‚Metaphysik der Erkenntnis‘ (erstmalig 1921) von Nicolai Hartmann trifft man auf zahlreiche Aporien (siehe die anderen Blogeintragungen). Hartmann nimmt seinen Ausgangspunkt bei der — für ihn grundlegenden – Beziehung zwischen einem ‚erkennenden Subjekt‘ und einem ‚erkannten Objekt‘. Dies in einer primär ‚phänomenologischen‘ Einstellung, die ihren Ausgangspunkt bei dem ‚Gegebenem‘ nimmt im Versuch, ’sichtbar zu machen‘, was sich vorfindet.

 

(2) Tatsächlich ist das, was wir im Bewusstseinserlebnis als aufscheinendes ‚Phänomen‘ vorfinden, das erste und einzige, was wir vorfinden. Nach Hartmann ist dieses aufscheinend Gegebene aber eingebettet in eine begleitend vorhandene ‚Reflexion‘, mittels der sich Eigenschaften fokussieren, abstrahieren und in Beziehung setzen lassen; nicht zuletzt lassen sich ‚Begriffe‘ bilden. Die Reflexion als solche ist nicht mehr ’neutral‘; sie kann das vorfindlich Gegebene verändern, modifizieren und damit in gewisser Weise interpretieren.

 

(3) Die ‚Abfallprodukte‘ der Reflexion bilden nicht automatisch eine ‚Theorie‘ verstanden als ein systematisches Begriffsnetzwerk, in dem alle Begriffe vollständig aufeinander bezogen sind entweder als ‚Grundterme‘ oder als ‚axiomatische Terme‘, eingebunden in Relationen und Axiome, repräsentiert in einer eigenen ‚Theoriesprache‘. Eine Theorie auf der Basis der primären Reflexion bildet eine ‚Metaebene‘ und stellt eine Konstruktion dar, die aus einer Vielzahl von Möglichkeiten eine Variante herausgreift. Zugleich ist jede Theorie eine bestimmte Interpretation. Eine interessante Frage ist, ob und wie sowohl die Begriffe der primären Reflexion wie auch die Strukturen einer Theorie in einem bestimmbaren Sinn ‚wahr‘ oder ‚falsch‘ sein können.

 

(4) Hartmann diskutiert die Frage der ‚Wahrheit‘ im Umfeld seiner Subjekt-Objekt-Relation mit einem sehr unspezifischen Begriff von ‚Erkenntnis‘. Er geht von der Annahme aus – die er nicht weiter begründet –, dass Wahrheit mit Übereinstimmung zu tun haben muss, nämlich der Übereinstimmung (oder Nicht-Übereinstimmung) von dem erkennbaren Objekt für das Subjekt mit einem Objekt an sich, das dem erkennenden Subjekt per definitionem nicht zugänglich ist; daher spricht er hier auch von einem ‚transzendentem Objekt‘ bzw. vom ‚Transobjektivem‘, das das erkennende Subjekt ‚objiziert‘ mithilfe von ‚Bestimmtheiten‘, die ein ‚Bild‘ des ursprünglichen Objektes darstellen, nicht das transzendente Objekt selbst. Die vom Transobjektivem objizierten Bestimmtheiten, die vom verursachenden Objekt verschieden sind, will er auch eine ‚Repräsentation‘ des Transobjektiven nennen.

 

 

(5) Das ‚Transobjektive‘, das vom erkennenden Subjekt nicht erreicht werden kann, ist damit auch nicht intelligibel, ist im vollen Sinne ‚irrational‘. Dennoch assoziiert Hartmann genau mit diesem Transobjektiven das eigentliche ‚Sein‘, ‚volle Wirklichkeit‘, ‚Realität‘. Hier verortete er die ontologische Dimension, den Fluchtpunkt jeder Metaphysik. In einer Metaphysik ist Erkenntnis nur ein Durchgang, ein Medium zur Erfassung und Beschreibung von ‚Wahrheit‘ als letztlich im ‚Sein‘ gründend.

 

 

(7) Der von ihm zuerst favorisierte Wahrheitsbegriff als Übereinstimmungsoperation wahr: OBJ x OBJ* —> {wahr, falsch} mit ‚OBJ‘ für das Transobjektive (verursachende) Sein und ‚OBJ*‘ als der Repräsentation des Transobjektiven für das erkennende Subjekt setzt die Verfügbarkeit des Transobjektiven in dieser Übereinstimmung voraus, ohne aber in der Lage zu sein, zu erklären, wie das erkennende Subjekt dies nutzen soll, da das Transobjektive ja per definitionem vom Erkennen eines Transobjektiven ausgeschlossen wurde. Die sich hier auftuende logische Antinomie verwirbelt Hartmann in bis zu vier unterschiedliche Aporien, die allesamt letztlich nur diese eine zentrale Antinomie umschreiben.

 

(8) Aktuell weiss ich noch nicht, wie es ab S.88 in seinem Buch weiter gehen wird. Bezogen auf seine bisherigen Ausführungen kann man nur sagen, dass er sich mit seinem bisherigen Begriffsapparat in einer Sackgasse befindet. Auch wenn er noch weitere Aporien durch Einführung neuer begrifflicher Gebilde generieren mag, sein Grundproblem wird er nicht lösen, solange er seine bisherigen Voraussetzungen nicht einer kritischen Re-Analyse unterzieht.

 

(9) Ob mein Lösungsansatz tatsächlich ein Lösungsansatz ist, muss sich in den weiteren Diskussionen und Experimenten noch zeigen, aber auf jeden Fall sehe ich einen gedanklichen Weg, der ohne die antinomischen Konstruktionen Hartmanns auskommt, der mit den großen Themen der Philosophie kompatibel ist, und der nicht zuletzt auch mit den tiefgreifenden Erkenntnissen der modernen Naturwissenschaften harmoniert (soweit wir heute meinen zu verstehen, was wir verstehen).

 

(10) Wie schon im Bremerhaven-Vortrag skizziert nehme ich auch den Ausgangspunkt im Raum der Phänomene (es gibt keine Alternative), allerdings mit der Differenzierung, dass sich im Gesamtbereich der Phänomene Ph eine spezielle Teilmenge der empirischen Phänomene Ph_emp identifizieren lässt. Dies sind solche Phänomene, die durch Verwendung von definierten Messprozeduren meas() generiert werden, etwa meas: Ph —> Ph_emp. Empirische Phänomene sind zwar auch Phänomene, aber eben solche, die auf eine spezielle Weise hervorgebracht werden, die unabhängig vom Körper eines Menschen ist. Nur das Produkt eines Messvorganges muss wahrnehmbar sein, der Messvorgang selber ist unabhängig von einem menschlichen Körper (und Gehirn, und Bewusstsein).

 

(11) Auf den ersten Blick wirkt dieser Hinweis auf die Teilmenge der empirischen Phänomene möglicherweise unscheinbar. Aber bei längerer Betrachtung zeigt sich, dass hier die Lösung für nahezu alle Aporien liegen kann, mit denen sich Hartmann herumschlägt.

 

(12) Natürlich gilt im Falle der empirischen Phänomene Ph_emp auch – wie im Falle aller Phänomene –, dass die empirischen Phänomene nicht ‚isoliert‘ dastehen, sondern auch eingebettet sind in die allgemeine ‚Reflexion‘, die alles Erleben begleitet und durchdringt; und es gilt auch, dass sich im Medium dieser Reflexion Unterscheidungen treffen lassen, Zusammenfassungen bilden lassen, Begriffe einführen lassen, Beziehungen aufzeigen lassen, usw. bis hin dazu, dass sich explizite Theorien formulieren lassen. Diese Reflexion, Begriffsbildungen, Theoriebildung unterscheidet sich im Allgemeinen in Nichts von der alltäglichen oder philosophischen Reflexion, wohl aber im Speziellen. Auf der Basis von empirischen Daten lassen sich nämlich eindeutiger und klarer als durch die rein körperbasierten Phänomene Ph\Ph_emp Begriffe mit einer ‚operationalisierten‘ Bedeutung einführen, darauf aufbauend Abstraktionen, Relationen und Gesetzmäßigkeiten unter kontrollierten Bedingungen und in mathematischer Form. Natürlich ist auch diese Form von Erkenntnisbildung nicht frei von Problemen (dazu gibt es weit mehr als 1000 wissenschaftliche Publikationen!), doch trotz all dieser Probleme hat die Praxis gezeigt, dass diese Erkenntnisstrategie trotz aller Spezialisierung Erkenntnisse (und Technologien) hervorgebracht hat, die noch vor 100 – 150 Jahren unvorstellbar waren.

 

(13) Mittels der Reflexion (und darauf aufbauenden Theorien oder theorieähnlichen begrifflichen Strukturen) lassen sich im Strom der Phänomene Objekte, Beziehungen, und Aktionen identifizieren, die das Bild eines ‚Außenraums‘ um den Körper herum entstehen lassen, der eine eigene Dynamik hat, die man heute ansatzweise in seiner evolutionären Dimension fassen kann. Ferner kann man im Bereich der identifizierbaren Objekte solche unterscheiden, die man durch spezifische Eigenschaften als ‚biologisch‘ qualifizieren kann, als ‚Körper‘ mit einer Innenstruktur, zu der u.a. ein Nervensystem (Gehirn) gehört. Durch Korrelation der empirischen Daten mit den Erlebnisdaten läßt sich die starke Hypothese formulieren, dass die uns primär zugänglichen Phänomene Ph im Raum des Bewusstseins Eigenschaften eines Nervensystems sind, das sich empirisch nur ‚von außen‘ messen und beschreiben läßt. D.h. man kann nicht die bewussten Erlebnisse selbst ‚messen‘, sondern nur physikalisch-chemische Eigenschaften des Nervensystems DAT_nn, die zeitlich mit bestimmten Erlebnissen Ph korrelieren.

 

(14) Abseits vieler ungelöster Detailfragen lässt sich eine generelle Schlussfolgerung auf jeden Fall ziehen: die Phänomene unseres Bewusstseins sind als solche keine Objekte der umgebenden Außenwelt! Vielmehr scheint es so zu sein, dass die ‚Zustände der Außenwelt‘ auf einen ‚Körper‘ einwirken können, der diese physikalisch-chemischen Einwirkungen mittels einer Vielzahl sogenannter ‚Sensoren‘ in ’neuronale Signale‘ ‚übersetzt‘, also etwa sens: ENV x IS —> IS x NN, d.h. die Menge aller Sensoren realisieren eine Abbildung von Umweltereignissen ENV – eventuell modifiziert durch aktuelle interne Zustände IS des Körpers – in eine Menge von neuronalen Signalen NN, eventuell begleitet von zusätzlichen internen Zuständen IS des Körpers.

 

(15) Wie wir heute schon wissen werden diese sensorisch induzierten neuronalen Signale NN_sens über ein komplexes Schaltwerk von Neuronen auf verschiedenen ‚Ebenen‘ und durch verschiedene ‚Querschaltungen‘ und ‚Rückkopplungen‘ zu abstrakteren Konzepten und Beziehungen ‚weiterverarbeitet‘. D.h. das, was uns irgendwann ‚bewusst‘ wird als Phänomen Ph ist in der Regel sowohl ein ’spätes Verarbeitungsprodukt‘ und zugleich eine ‚Auswahl‘ aller stattfindender neuronaler Zustände, also etwa nn: NN_sens x NN —> NN x Ph. Hierbei gilt die weitreichende Annahme, dass die Menge der Phänomene Ph aus Sicht des Gehirns letztlich eine Teilmenge, und zwar eine echte Teilmenge, der Menge aller neuronalen Zustände ist. Sei NN_ph jene Menge von Neuronalen Signalen, die mit den erlebten Phänomenen Ph korrelieren, und NN_nph die Menge der neuronalen Signale, die nicht mit Ph korrelieren, dann gilt, dass die Menge der neuronalen Signale NN = NN_ph u NN_nph, mit der Annahme, dass die Menge der neuronalen Signale NN_ph, die mit den erlebten Phänomenen Ph korrelieren, eine echte Teilmenge aller neuronalen Signale sind NN_ph  rsubset NN. Denn gerade in diesem Umstand der echten Teilmenge wurzelt der evolutionäre Gewinn des ‚Bwusstseins‘: durch die Möglichkeit einer ‚Abstraktion‘ von der beliebig großen Komplexität des begleitenden Körpers und eines kontinuierlich wachsenden Gehirns kann man aktuelles Entscheiden und Kommunizieren in einem überschaubaren Bereich halten.

 

(16) Zu sagen, dass die bewussten Phänomene Ph aus ‚Sicht des Gehirns‘ auch nur neuronale Zustände sind ist kein (logischer) Widerspruch zur Annahme, dass die Phänomene unseres Bewusstseins aus Sicht unseres Erlebens etwas Besonderes sind, das sich nicht auf neuronale Signale reduzieren lässt. Dies hat mit dem begrifflichen Rahmen zu tun, in dem man sich bewegt. Im phänomenologischen Kontext bewege ich mich im Raum meines Erlebens. Meine ‚Daten‘ DAT_ph sind die erlebbaren Phänomene meines Bewusstseins. Aufbauend auf diesen primären Daten kann ich Begriffsnetze entwickeln, ja sogar Theorien reflexion: DAT_ph —> Th_ph. Beschränke ich mich auf die Teilmenge der empirischen Phänomene Ph_emp habe ich zwar immer noch Phänomene, im Fall der empirischen Untersuchungen zum Körper und Gehirn benutze ich aber zusätzlich zum ’normalen‘ Erkennen empirische Messverfahren meas(), mit denen ich Eigenschaften des Körpers bzw. des Nervensystems untersuche, also meas: BODY x BRAIN —> DAT_bd x DAT_nn. Insofern ich diese Messwerte als Messwerte wahrnehmen kann, sind diese natürlich auch Phänomene Ph_emp_bd und Ph_emp_nn, aber das Besondere dieser Phänomene liegt nicht in dem, was ich als Messergebnis wahrnehme, sondern in der Art, wie ich dieses Phänomen erzeugt habe, eben durch einen zusätzlichen Messvorgang. Wenn ich also bei dem Drücken einer bestimmten Taste auf einem Klavier einen bestimmten Ton höre DAT_ph_ton_i, und die Neuropsychologen zeitlich gleichzeitig durch eine geeignete Messvorrichtung in bestimmten Bereichen meines Gehirns bestimmte Erregungsmuster DAT_nn_ton_i messen können, dann kann man in der Regel nicht direkt von DAT_nn_ton_i auf DAT_ph_ton_i schliessen oder umgekehrt, aber eine Versuchsperson Vpn, die einen Ton hört (DAT_ph_ton_i)Person_abc, und die zugleich das Messergebnis (DAT_nn_ton_i)Person_abc wahrnehmen kann, kann kontrollieren, ob es zwischen den empirischen Messwerten und ihren subjektiven Wahrnehmungen eine signifikante Korrelation gibt (wobei wir unterstellen, dass die ausgewählte Gehirnregion ‚relevant‘ ist). Insofern also solch eine Versuchsperson in dieser speziellen Konstellation eine signifikante Korrelation feststellen könnte, könnte man begründet vermuten, dass das erlebte Phänomen und die gemessenen neuronalen Zustände ‚identisch‘ sind in dem Sinne, dass Erlebnisse als indirekt messbare neuronale Zustände ‚auftreten‘. Davon zu unterscheiden ist die Frage, wie man das Phänomen des subjektiven Erlebens im Rahmen einer empirischen Theorie des Gehirns ‚erklärt‘. Offensichtlich handelt es sich um eine Art ‚Innensicht‘ des Gehirns, bei der ausgewählte Bereiche der Gehirnzustände dazu dienen, wichtige Steuerungsparameter des Gehirns auf einer hohen Abstraktionsebene so zu organisieren, dass sie sich u.a. auch mit symbolischer Sprache verknüpfen lassen.

 

(17) Zusammenfassend gilt, dass die jeweiligen Konstruktionen des Gehirns auf Basis der sensorischen und körpereigenen Signale DAT_nn_sens und DAT_bd vollständige Eigenleistungen des Gehirns sind. Letztlich baut das Gehirn mit seinen ‚Bordmitteln‘ eine ‚Theorie der umgebenden Welt‘ TH_nn_env mit sich selbst als ‚agierendem Objekt‘ Th_nn_ego subset Th_nn_env.

 

(18) In diesem Kontext stellt sich die ‚Wahrheitsfrage‘ – will man diesen klassischen Term beibehalten – auf mindestens zweifache Weise: (i) systemintern und (ii) in Relation zur umgebenden Außenwelt.

 

(19) Systemintern (hier ‚Wahrheit_1‘ genannt) stellt sich primär die Frage, ob die emergierenden Theorien Th_nn als hypothetische Deutungen der in den Daten DAT_nn implizit mitgegebenen Dynamiken mit den Daten hinreichend ‚kongruent‘ sind? D.h. gilt es, dass die Daten DAT_nn vollständig in der ‚Bildmenge‘ der Theorie(n) Th_nn vorkommen? Bzw. gilt, dass  DAT_nn_sens subset Th_nn(DAT_nn_sens)? Da jede Theorie aufgrund der ihr ‚innewohnenden‘ Generalisierungen grundsätzlich mehr Elemente in ihrer Bildmenge hat als sensorische Daten in sie eingehen, kann man nicht verlangen, dass sich zu allen theoretisch möglichen Bildelementen 1-zu-1-Entsprechungen in den Primärdaten finden lassen, wohl aber kann – und muss – man verlangen, dass alle tatsächlich auftretenden Primärdaten sich als Elemente der Bildmenge darstellen lassen. Wahrheit_1 wäre dann also genau die Erfüllung dieser Forderung, dass man also sagen könnte: Eine nuronale Theorie der Welt ist Wahr_1 genau dann, wenn gilt: DAT_nn_sens subset Th_nn(DAT_nn_sens). Also nicht Übereinstimmung sondern abschwächend ‚Enthaltensein‘. Der Bewusstseinsraum Ph als ‚Bewusstsein‘  CONSC ist hier verstehbar als korrespondierend mit eine Teilmenge NN_ph der Menge der neuronalen Zustände NN, also NN_ph subset NN und die zu prüfenden neuronalen Theorien sind Muster innerhalb von NN_ph und NN_nph und ihr Referenzpunkt (ihr ‚Kriterium‘) für Wahrheit_1 ist das Enthaltensein der auftretenden neuronalen Ereignisse in der Bildmenge der Theorie. Eine logische Antinomie und daraus sich herleitenden Aporien gibt es hier nicht.

 

(20) In Relation zur umgebenden Außenwelt (hier ‚Wahrheit_2‘ genannt) stellt sich die Frage nicht innerhalb eines Systems, da das einzelne System in seinem internen Modell ‚gefangen‘ ist. Die modernen empirischen Wissenschaften haben uns aber die Möglichkeit eröffnet, dass wir andere Körper – menschliche wie tierische und andere – als ‚empirische Objekte‘ untersuchen können. Zusätzlich können wir – bis zu einem gewissen Grad – die Entwicklung von Populationen im Laufe der Zeit untersuchen. In diesem Kontext kann man die Frage der ‚Passung‘ des Verhaltens einer Population zur jeweiligen Außenwelt nach unterschiedlichen Kriterien gewichten. Z.B. stellt das schlichte ‚Überleben‘ bzw. ‚Nicht-Überleben‘ ein Basiskriterium dar. Populationen, die nicht überleben, haben offensichtlich ein Verhaltensspektrum, was nicht geeignet ist, alle notwendigen ‚Aufgaben‘, die die jeweilige Umgebung stellt, in der verfügbaren Zeit befriedigend zu lösen. Insofern das Verhalten ein Ouput des Körpers mit seinem Nervensystem ist, das auf einem bestimmten Input basiert – also sys: IN x BD x NN —> OUT — muss man sagen, dass die Systemfunktion sys offensichtlich unzulänglich ist. Da jede Systemfunktion eine Synthese von Körper mit Nervensystem BD x NN bildet, von dem wir wissen, dass es auf biochemischem Wege über Genetik, Wachstum und Vererbung weitergegeben und zugleich ‚verformt‘ wird, könnte man sagen, ein Körper-mit-Nervensystem-System SYS_bd_nn hat eine ‚wahre_2‘ Struktur, wenn das potentielle Verhalten sys( IN x BD x NN) geeignet ist, dass die Population dieses Systems POP_sys überlebt. Hier wird also der Körper mit seinem Nervensystem und den im Nervensystem bildbaren ‚Modellen‘ Th_nn einheitlich als ein dynamisches Modell sys() gesehen, das alle für das Überleben notwendigen Eigenschaften in der umgebenden Außenwelt hinreichend abbilden und gestalten kann. Das ‚Transobjektive‘ von Hartmann könnte in diesem Kontext interpretiert werden als die umgebenden Außenwelt, die auf den jeweiligen Körper einwirkt und über die verfügbaren Sensoren in dem Körper ein ‚Bild ihrer selbst‘ erzeugt, das nicht die Außenwelt ist, wie sie ‚an sich‘ ist, sondern die Außenwelt, wie sie aufgrund einer kausalen Wirkkette innerhalb eines Organismus repräsentiert werden kann. Die verfügbare neuronale Maschinerie generiert aus diesem primären ‚Bild‘ unterschiedliche komplexe Theorien, die über die konkreten einzelnen Daten hinausreichen (sie ‚transzendieren‘) und mittels einer Theorie ein übergreifendes Bild von einem ‚transzendierenden Objekt‘ entwerfen. Dieses selbst generierte ‚Bild eines Urbildes‘ kann mit dem Urbild – von einem Metastandpunkt aus betrachtet — mehr oder weniger ‚übereinstimmen‘ –also: wahr2: ENV x BD x NN x IN —> {passt, passt-nicht} –, doch ist diese Art von Passung dem individuellen System nicht zugänglich! Sie erschliesst sich nur in einer empirischen Untersuchung, die historische Entwicklungen untersuchen kann.

 

(21) Behält man das Verständnis von Metaphysik als Wissenschaft vom Seienden bei, das sich durch und jenseits der Erkenntnis erschließt und das unabhängig von der Erkenntnis existiert, dann müsste man nun sagen, Metaphysik ist im Prinzip möglich, nicht jedoch als Disziplin individuellen Erkennens, sondern nur als empirische Disziplin, die in einem Netzwerk betrieben wird. Moderne empirische Wissenschaften mit explizitem Theorieanteil, die die Leistungsfähigkeit von Populationen unter expliziter Berücksichtigung des neuronal basierten Verhaltens mit Bezug auf ihre Umwelt untersuchen, bilden gute Kandidaten für eine moderne Metaphysik.

(22) Man kann diese Überlegungen auf vielfältige Weise ergänzen und weiterführen. Ein interessanter Aspekt ist der ‚Offenbarungscharakter‘ von Natur. Wenn man bedenkt, wie umfangreich der Weg vom sogenannten Big-Bang (reine Energie mit einer unvorstellbar großen Temperatur) über Ausdehnung, Sternenbildung, Elementbildung, Bildung unserer Galaxie mit einem komfortablen Platz für unser Sonnensystem, mit einem komfortablen Platz für unsere Erde mit einer extrem günstigen Konstellation aller Planeten, der Entstehung von Molekülen aus Elementen, bis hin zu den ersten Zellen (bis heute letztlich ungeklärt)(vor ca. -3.2 Milliarden Jahren), von da aus eine ‚endogen und interaktiv  getriebene Entwicklung‘ genannt Evolution hin zu körperlichen Strukturen mit vielen Zellen, hin zu Nervensystemen (Start vor ca. -700 Mio Jahren), hin zu Körpern und Gehirnen, die explizite Modelle ihrer Umwelt und ihrer selbst entwickeln können, die symbolische Sprache erfunden haben und vieles mehr. Entscheidend: von der reinen Energie am Anfang sind wir zu Gehirnzuständen gekommen, in denen sich das Universum gleichsam ’selbst‘ anschauen kann, den Augenblick, das Einzelne, aber auch Alle und die ganze Entwicklung. Im Bewusstsein eines JEDEN Menschen kann sich potentiell das gesamte Universum mit allen seinen Facetten ‚versammeln‘, ‚aufscheinen‘. Ich habe nicht den Eindruck, dass irgendein Mensch sich der Tragweite dieses Faktums bewusst ist. Und bezogen auf die klassischen Offenbarungsreligionen (Judentum, Christentum, Islam) habe ich den Eindruck, dass diese die Menschen, statt sie mehr und tiefer zu Gott und einer Ehrfurcht vor dem Leben hinzuführen, eher dazu dienen, die Menschen Gott zu entfremden und das Leben – auch in Gestalt anderer Menschen – zu verachten, zu hassen oder gar zu töten. Ein solches Verhalten ist NIEMALS die Botschaft des Lebens, wenngleich das ‚Fressen und Gefressenwerden‘ im Bereich des Lebens eine Eigenschaft darstellt, die an die Notwendigkeit der Verfügbarkeit von hinreichender Energie gekoppelt ist. Doch in der Gestalt des Menschen hat das biologische Leben einen Punkt erreicht, bei dem dieses zwanghafte Fressen und Gefressenwerden prinzipiell durchbrochen werden kann. Wir haben die grundsätzliche Möglichkeit –zum ersten Mal seitdem es dieses Universum gibt!!! — die Gesetze des Lebens neu zu gestalten, neu zu formen, ja, letztlich können wir im Prinzip das gesamte bekannte Weltall von Grund auf neu umformen (natürlich nicht an einem Tag….). Genau dazu sind wir ‚berufen‘. Aber wen interessiert schon die Wahrheit2? Noch liegt immer ein gewisser ‚Schleier‘ über der Bestimmung des gesamten Lebens. Dass es auch irgendwo anders im riesigen Universum ähnliches der gar gleiches Leben wie unseres geben sollte, ist grundsätzlich weder auszuschließen noch würde es unserer ‚Bestimmung‘ irgendeinen Abbruch tun. Die Erkenntnis des ‚gemeinsam Gewordenseins‘ enthält in sich eine gemeinsame Berufung für das Ganze, von dem wir in Gestalt des messbaren Universums möglicherweise bislang nur einen kleinen Zipfel sehen (so wie unser Gehirn im Körper sich als ‚Herr der Dinge‘ erlebt, obgleich es doch, wie wir heute wissen können, nur einen winzigen Ausschnitt eines viel Größeren erlebt). ‚Wahrheit‘ ist das jeweils ‚Größere‘ (Magis), dem wir uns beugen und dienen müssen, da wir als einzelne nicht ‚Herr des Geschehens‘ sind. Insofern wir aber untereinander mit allem unauflöslich ‚verbunden‘ sind, ist diese individuelle Beschränkung nur relativ.

 

 

Eine direkte Fortsetzung findet sich hier

 

 

Eine Übersicht zu allen Beiträgen des Blogs findet sich im begleitenden cogntiveagent-Wiki

 

 

 

 

 

 

CARTESIANISCHE MEDITATIONEN III, Teil 2

ÄNDERUNGEN: Letzte Änderung 11.Dez.2011 vor 12:00h

CM III, Teil 2

(16) Husserl spricht länger über das Beispiel mit dem Hexaeder (CM2, 16-18). Im Rahmen seines Intentionalitätsmodells gibt es die übergreifende Einheit des cogito, das sich in seinem bewusst Sein auf ein Gegebenes als ‚cogitatum‘ bezieht, das sich in vielerlei ‚Erscheinungsweisen‘  (verknüpft mit einem Seinsmodus und einem Bewusstseinstypus)  darbietet. Dennoch sind diese unterscheidbaren Gegebenheiten nicht isoliert denkbar, sondern nur als Momente einer im cogito vorfindlichen Einheit. Zu dieser im cogito fundierten Einheit gehört auch die phänomenologische Zeitlichkeit, die die einzeln unterscheidbaren Gegebenheiten des cogitatum als ‚Dahinströmen‘, als kontinuierliche Aneinanderreihung erscheinen lassen, deren gedankliche Aufteilung wieder ein Dahinströmendes ergibt und das auch seinen Bewusstseinstypus (hier: Wahrgenommenes) beibehält. Nach Husserl werden eben nicht ‚Dinge‘ in das Wahrnehmen hineingesteckt, sondern diverse konkrete Gegebenheiten werden in der synthetischen Einheit des cogito miteinander zu einem Gedachten‘ verknüpft, und das jeweils Verknüpfte ist selbst wieder Teil dieser Einheit des cogito.

(17)Nimmt man diese Darstellung von Husserl und versucht sie innerhalb des bisherigen Rekonstruktionsmodells (TEgo: Ph_(*) x DLOG[+ONT] —> Ph_(*) x DLOG[-ONT]) einzuordnen, dann ergibt sich folgendes: das jeweilige cogitatum mit seinen unterschiedlichen Gegebenheitsweisen gehört als Phänomen ph_i zur Menge der Phänomene Ph_(t). Die ‚zeitliche Dimension‘ des Aufeinanderfolgens  soll aber  ‚koexistent‘ sein mit dem einzelnen Phänomen, hebt es einerseits nicht auf, aber ist so verfügbar, dass ich das einzelne als Teil eines ‚Ganzen‘ ‚erleben‘ kann. Nach der bisherigen Annahme ist ein Phänomen ein komplexes Gegebenes mit den Momenten  ph = <e,p,m,c>. Eine genaue Definition gibt es noch nicht, da Husserls Ausdrucksweise hier nicht sehr präzise ist. Würden wir ‚e‘ als das sich einzeln (?) ereignende Gegebene annehmen, das hier einerseits ein sinnlich Wahrgenommenes ist –z.B. p_vis– im Seinsmodus eines ‚Wahrgenommenen‘ m_wahrg, das begleitet ist von dem Wissen um ein Eines –also etwa c als ‚Ergebnis‘ aus dem bisherigen c(t-1) und dem ’neuen‘  c(t)–   dann wären die Momente ‚e,p,m,c(t-1)‘ der ‚Input‘ und ‚e,p,m,c(t)‘ wäre der ‚Output‘  durch den Bezug zum cogito. Die ‚Herstellung‘ der Einheit würde dann eine Leistung des Denkens DLOG sein: was immer zu einem bestimmten Augenblick das Wissen um einen bestimmten Gegenstand –wie z.B. ein Hexaeder– ausmachte, sobald ein neues Moment <e‘,p‘,m‘> auftritt, das mit dem bisherigen cogitatum <e,p,m,c(t-1)> in einen Zusammenhang (aufgrund von ‚Ähnlichkeiten‘) gebracht werden kann, wird das neue Moment über DLOG mit dem bisherigen vereint zu <e‘,p‘,m‘,c(t)> mit DLOG: C(t-1) —> C(t) und c in C. Generell gilt aber bislang, dass innerhalb der Synthese des cogito alle Aspekte der Phänomene ‚verarbeitet‘ werden können (DLOG: Ph_(*) —> Ph_(*)), selbst das sich ‚ereignende‘ einzelne Phänomen kann bzgl. seines Auftretens ‚e,p,c‘ streng genommen eine Veränderung dahingehend erfahren, dass das cogito die ursprüngliche Wahrnehmung schon so abändert, dass das Wahrgenommene selbst mehr ‚Interpretiertes‘ ist als ‚induziertes Ereignis‘ unabhängig vom Denken.

(18) Zeilen wie die von CM2,18,Zeilen 22-30 mit dem Kernsatz ‚..einheitlich und in der Form der immanenten Zeit sich beständig objektivierend‘ (CM2,18,Z29f) können in dem bisherigen Rekonstruktionsmodell jedenfalls eine Interpretation finden.

(19) Husserl kommt dann auf jene wundersame Eigenschaft des transzendentalen ego zu sprechen, durch die das konkret ‚reell erlebte‘ Einzelne in einer übergeordneten Einheit so erlebt werden kann, dass das einzelne in einem (Sinn-)Zusammenhang mit anderen einzelnen gelangt, durch den ein einzelnes mit einem Mal Teil eines ‚Gegenstandes‘ werden kann, oder Ausgangspunkt eines möglichen Zustandes, den es geben könnte, oder ein Zustand  erscheint als Alternative zu einem anderen aktuell gegebenem oder vorstellbaren Zustand. (vgl. CM2,SS18f).  Dieses über die Aktualität Hinausgehen können in eine reell vorgestellte/ gedachte Möglichkeit nennt Husserl ‚Potentialität‘ und mit Bezug auf das reelle Erleben spricht er in diesem Zusammenhang auch von dem ‚Horizont‘ des Erlebens (z.B. CM2,S19,Z22-27).

(20) Im Rekonstruktionsmodell TEgo: Ph_(*) x DLOG[+ONT] —> Ph_(*) x DLOG[-ONT]ist dieses Aktualität mit Horizont und intentional realisierte Potentialität dadurch gegeben, dass innerhalb des transzendentalen Ego TEgo die ‚eingebaute‘ Denklogik DLOG die Möglichkeit bietet, jedes beliebige Phänomen als ‚reell Erlebtes‘ in beliebige Zusammenhänge einordnen zu können, sowohl als Teil eines größeren Ganzen, als logische Alternative, als mögliche (zeitlich) Fortsetzung, usw. ‚Horizont‘ und ‚Potentialität‘ folgen aus de Grundannahme des TEgo als einer partiell rekursiven Abbildung. Damit ist jegliche Einheit von jeglicher Vielheit möglich, als intentionales Etwas, das nur im Bewusstsein ist.

(21) Für Husserl eröffnet sich für die phänomenologische Deskription und Methodik hier eine ’neue Methode‘, nämlich die Erforschung von möglichem Sinn und Sein durch ‚Enthüllen‘ und  ‚Herausstellen‘ des im Horizont, in der Potentialität ‚implizit‘ Gemeinten (vgl. CM2,S19,Z28ff). Dieses implizit Gemeinte wird ‚evident‘ durch Ausfaltung des im Horizont beschlossenen Potentials, indem das Denken eine ‚Folge von möglichen Wahrnehmungen‘ erzeugt, durch die sich potentieller Sinn enthüllt. Solche potentiellen Enthüllungen sind der Gegenstand von phänomenologischer Deskription und Analyse. Natürlich dann nicht beschränkt auf einzelne Sinne (als Plural von ‚Sinn‘), sondern final bezogen auf die allgemeine, universale Struktur von Sinn im Bewusstsein (vgl. CM2,S19f).

(22) Will man von diesen letzten Überlegungen Husserls einen Bezug zum Rekonstruktionsmdell TEgo: Ph_(*) x DLOG[+ONT] —> Ph_(*) x DLOG[-ONT] herstellen, dann ergibt sich ein interessantes Paradox: (i) einerseits müsste man erklären, wie eine phänomenologische Deskription und Analyse innerhalb des Rekonstruktionsmodells möglich ist, andererseits (ii) musss man annehmen, dass das Ergebnis einer solchen phänomenologischen Deskription und Analyse der universalen Strukturen letztlich genau dem Rekonstruktionsmodell entsprechen müsste, andernfalls wäre das Rekonstruktionsmodell unzulänglich.

(23) Was die Möglichkeit einer phänomenologische Deskription und Analyse innerhalb des Rekonstruktionsmodells angeht, so würde man fordern müssen, dass es innerhalb der umfassenden Synthese des transzendentalen ego als ‚Teil‘ der Denklogik DLOG eine ‚Komponente‘ geben muss, die sowohl den auftretenden Phänomenen wie auch ihrer ‚logischen Dynamik‘ sprachliche Ausdrücke so zuordnen kann, dass diese zusammengenommen eine ’sinnvolle Beschreibung‘ ergeben. Prinzipiell ist klar, wie ein solcher ‚Mechanismus‘ aussehen müsste. Wie ‚leicht‘ er sich in einem ‚funktionierenden Bewusstsein‘ ‚realisieren‘ lassen würde, ist eine andere Frage (ein Bewusstsein wie das von Husserl gehört ja bekanntlich nicht zu einem ‚Massenphänomen‘ und selbst dieses Bewusstsein hat immerhin mehrere Jahrzehnte benötigt, um eine ‚Form‘ zu finden, die dann in der Lage war, die Pariser Vorlesungen zu halten).

(24) Bezüglich der Konsequenz, dass das Ergebnis einer phänomenologischen Deskription und Analyse der universalen Strukturen letztlich genau dem Rekonstruktionsmodell entsprechen sollte, muss man die Frage klären, was denn eigentlich eine ‚adäquate Form‘ einer phänomenologischen Darstellung sein sollte? Husserl hat bislang nichts dazu gesagt. Er spricht immer nur über die ‚Inhalte‘ der Analyse. Dennoch benutzt er für seine Gedanken über diese Inhalte und die phänomenologische Deskription und Analyse wie selbstverständlich eine Sprache, hier die deutsche Sprache (selbst für seine Pariser Vorlesungen). Die deutsche Sprache ist aber bekanntlich als ’natürliche‘ Sprache beliebig ‚vieldeutig‘. Sie gewinnt ihre ‚gemeinte Bedeutung‘ durch Identifizierung jener Inhalte, die Husserl ‚gemeint hat‘, als er die Ausdrücke niederschrieb. Da es sich bei dem von Husserl ‚Gemeinten‘ nicht um einfache ‚Gegenstände der intersubjektiven Außenwelt‘ gehandelt hat (meistens nicht), sondern um ‚Gegebenheiten seines individuellen Denkens‘ in seinem ‚individuellen Bewusstsein‘ sind diese ‚gemeinten Inhalte‘ zunächst mal streng genommen für jeden anderen vollständig unzugänglich. Dass er dennoch die Hoffnung hegen konnte, dass das von ihm ‚Gemeinte‘  den  Lesern seiner Zeilen zumindest ‚potentiell zugänglich‘ sein könnte, muss einen ‚Grund‘ haben (andernfalls wäre Husserl ein ‚Verrückter‘, der ‚herumspinnt‘). Husserl hat sich zu diesem ‚Grund‘ bislang nicht geäußert (was von heute aus auffällt, zu seiner Zeit aber den normalen Denkgewohnheiten entsprach). Es ist unklar, ob und wieweit Husserl sich dieser Problematik überhaupt bewusst war. Ziemlich sicher kann man sagen, dass er zu seiner Zeit kaum eine Chance gehabt hätte, diese Frage befriedigend zu beantworten (soweit wir heute die Ideenlandschaft seiner Zeit kennen und beurteilen).

(25) Parallel zu Husserl und dann natürlich noch nach ihm entwickelte sich die moderne formale Logik, die moderne Mathematik und Wissenschaftstheorie, die Denkansätze freilegten, mit denen sich einige der Fragen, die Husserl unbeantwortet lies, beantworten lassen. Allerdings muss man festhalten, dass diese Disziplinen sich mit den gedanklichen Bereichen einer phänomenologischen Deskription und Analyse nahezu überhaupt nicht beschäftigt haben. Das Desinteresse der modernen Wissenschaftstheorie für inhaltsfundierte Analysen hat (meine persönliche Einschätzung) letztlich auch wieder zu ihrer ‚Selbstauflösung‘ geführt. Bis heute hat die Wissenschaftstheorie (im Englischen eher ‚Philosophy of Science‘, was aber die deutsche Bedeutung nicht ganz wiedergibt) jedenfalls keine allzu große Bedeutung für die Wissenschaften gewonnen, was man auf Schritt und Tritt schmerzlich merken kann.

(26) Kommen wir zurück zum ‚Gemeinten‘ von Husserl und zur Frage nach einem ‚Grund‘ für die Unterstellung Husserls, irgendein Leser seiner Texte könnte ‚verstehen‘, was er ‚gemeint‘ hat, wo er doch vornehmlich ’nur‘ über die Tatsachen seines eigenen individuellen Bewusstseins spricht/ schreibt. Generell ist klar, dass seine ‚gelebte Unterstellung‘ nur ‚Sinn‘ ergibt, wenn jeder (oder wenigstens die meisten?) Leser in seinem –von Husserl verschiedenem– Bewusstsein ‚hinreichend Ähnliches‘ vorfinden kann wie Husserl selbst.

(27) Nennen wir ein einzelnes Bewusstsein C_h_i in C_h mit ‚C_h‘ als der Menge aller möglichen ‚Husserl-Ähnlichen Bewusstseine‘. Husserl muss also unterstellt haben, dass –im idealen Fall– jedes dieser einzelnen Bewusstseine C_h_i ‚im Prinzip‘ so ähnlich ist mit seinem eigenen C_h_*, dass alles, was er über die Strukturen seines eigenen Bewusstseins C_h_* sagt mit ‚hinreichender Ähnlichkeit‘ auch in jedem dieser anderen Bewusstseine ‚vorkommt’/ ‚reell erlebbar‘ ist.

(28) Da es klar ist, dass Husserl nicht die jeweils konkreten Inhalte gemeint haben kann, die sich bei jedem einzelnen aufgrund von individuell konkreten Umständen real unterscheiden, muss es um die allgemeinen Strukturen gehen, in denen konkrete Inhalte auftreten, vorkommen, wahrgenommen, erinnert, vorgestellt usw. werden. Also, alltäglich-praktisch: wenn zwei Betrachter auf eine Tasse schauen, die zwischen ihnen steht, hat zwar jeder aufgrund seines unterschiedlichen Wahrnehmungspunktes einen anderen konkreten Eindruck von dieser Tasse, beide können aber anlässlich dieses –und weiterer– Eindrucks offensichtlich ein ‚inneres Konzept‘ von ‚Tasse‘ bilden, das in den unterschiedlichsten konkreten Kontexten ‚hinreichend ähnlich‘ funktioniert. Das deutet auf ‚allgemeine Strukturen‘ ‚in‘ den einzelnen Bewusstseinen hin, die die unterschiedlichen konkreten Ereignisse auf eine allgemeine Struktur hin ‚transformieren‘, die hypothetisch in den verschiedenen Bewusstseinen ‚hinreichend ähnlich‘ funktioniert. Solche allgemeinen Strukturen kann man recht gut mit Hilfe von formalen Modellen beschreiben. Würde also Husserl (was nun leider nicht mehr geht) die von ihm unterstellten allgemeinen Strukturen des Bewusstseins, die für jedes Bewusstsein in gleicher Weise gelten (Arbeitshypothese), mit Hilfe solcher formaler Modelle beschreiben wollen, so könnte er dies z.B. mittels des bisherigen  Rekonstruktionsmodells TEgo: Ph_(*) x DLOG[+ONT] —> Ph_(*) x DLOG[-ONT] tun. Dieses Modell unterstellt genau solche ‚universalen Strukturen‘ von Wahrnehmung, Erinnerung usw. in jedem beteiligten Bewusstsein.

(29) Husserl stellt zwar nicht explizit die Frage nach ‚Strukturen‘ im Erleben, aber er spricht darüber im Kontext: ‚…im Fluß [des Bewusstseinslebens] herrscht eine sehr wohl ausgeprägte Typik. Wahrnehmung… Wiedererinnerung… [retentionales] Leerbewusstsein… dergleichen sind allgemeine, scharf ausgeprägte Typen… Jeden solchen Typus kann ich, allgemein beschreibend,  nach seiner Struktur befragen, und zwar nach seiner intentionalen Struktur, da es eben ein intentionaler Typus ist…wie der eine in einen anderen übergeht…sich bildet…abwandelt…'(vgl. CM2,S20,Z21-34).

(30) Dieses Sprechen Husserls über implizit vorfindliche Strukturen im Fluss des Bewusstseins  bedeutet, dass er diese –ohne dies so ausdrücklich zu sagen– letztlich für jedes einzelne Bewusstsein c_h_i voraussetzt (anders macht seine Rede keinen Sinn).

(31) Schließlich benutzt Husserl hier sogar den Begriff der ‚Theorie‘: ‚Das ergibt also transzendentale Theorie der Wahrnehmung,…transzendentale Theorie der Erinnerung und des Zusammenhangs der Anschauung überhaupt, aber auch transzendentale Urteilstheorie, Willenstheorie, usw.‘ (CM2, S20f,Z37-Z2)

(32) Husserl liefert im Rahmen seiner Vorlesung bis zu dieser Stelle keine Definition –oder vergleichbare Erklärung– des Begriffs ‚Theorie‘. Man weiss an dieser Stelle daher nicht genau, was er meint, wenn er von ‚Theorie‘ spricht. Offensichtlich setzt er aber voraus, dass es diese Strukturen im Erleben sein müssen, die den Ausgangspunkt für das bilden, was er ‚Theorie‘ nennt. Die nachfolgenden Zeilen scheinen dies zu bestätigen, werfen dabei aber auch ein eigentümliches Licht auf seinen Theoriebegriff.

(33) ‚Immer kommt es darauf an, nicht wie objektive Tatsachenwissenschaften bloße Erfahrung <zu> betätigen und das Erfahrungsdatum reell zu analysieren, sondern den Linien intentionaler Synthese nachzugehen, wie sie intentional und horizontmäßig vorgezeichnet sind, wobei die Horizonte selbst aufgewiesen, dann aber auch enthüllt werden müssen‘. (CM2,S21,Z2-8)

(34) Nach diesen Zeilen scheinen die objektiven Tatsachenwissenschaften sich nur mit ‚bloßen Erfahrung‘ zu beschäftigen, dieses ‚reell zu analysieren‘ ohne –so legen es diese Worte nahe– sich mit den darin vorfindlichen Regelhaftigkeiten bzw. Strukturen zu beschäftigen. Schon zu Zeiten Husserls gab es sehr wohl das Konzept allgemeiner formaler Strukturen als Werkzeug, um mittels solcher formaler  Strukturen ‚auffindbare‘ Regelhaftigkeiten zu repräsentieren. Diese formale Strukturen kombiniert mit ihrem jeweiligen empirischen Bezug zusammen wurden als ‚Theorien‘ gehandelt. D.h. auch die sogenannten objektiven Tatsachenwissenschaften sind nur interessant, weil sie Einzelereignisse durch Bezug auf ‚darin sich zeigende Regelhaftigkeiten (= Typen, Strukturen)‘ in Form von formalen (mathematischen) Strukturen repräsentieren und die unterstellten Strukturen als das ‚Wahre‘ nehmen, an dem man das Messbare ‚misst‘. Insofern macht Husserl hier die Tatsachenwissenschaften ‚kleiner‘ als sie wirklich sind (bzw. damals schon waren).

(35) Man könnte jetzt noch einwenden, dass die Tatsachenwissenschaften zwar aus den Einzelereignissen Strukturen ‚herausziehen‘ und diese dann benutzen, aber dass sie dies tun  in einem ‚unreflektierten Kontext‘ eines sich selbst nicht bewussten Denkens und in diesem Sinne seien sie eingeschränkt und trotz Sachbezugs Seinsvergessen.

(36) Schaut man sich die Geschichte der empirischen Wissenschaften an, wird man  feststellen (müssen!), dass die scheinbar ‚unreflektierte‘ Methode der Strukturbildung unter Berücksichtigung der jeweiligen Geltungsbedingungen (!) schrittweise nicht nur den Horizont der zu untersuchenden Sachen in alle Richtungen ausgeweitet hat, sondern auch durch kontinuierliche Transparentmachung von Geltungsbedingungen immer mehr jene Strukturen des Denkens thematisiert hat, die an den Reflexionsbereich des ‚klassischen‘ philosophischen Denkens heranreichen. Die Entdeckung des ‚Subjekts‘ als konstitutiver Faktor im Kontext  physikalischer (aber auch psychologischer, soziologischer usw.) empirischer Theorien ist vielleicht nicht in eins zu setzen mit einer bewussten Selbstreflexion des Bewusstseins aber immerhin Aufdeckung des Bewusstseins als ‚Faktor‘, der in die Theoriebildung ‚konstitutiv‘ (damit letztlich als ein transzendentaler Faktor) eingeht. Mit Neurowissenschaften und speziell Neuropsychologie werden diese Geltungsbedingungen von wissenschaftlichen Erkenntnissen und Theorien kontinuierlich ‚verfeinert‘ bis dahin, dass man bestimmte kognitive Leistungen bestimmten physiologischen Strukturen und deren Funktionen zuordnen kann. Durch zugleich vermehrt eingesetzten Computersimulationen von kognitiven Strukturen in überprüfbaren experimentellen Räumen können diese Modelle von kognitiven Strukturen zusätzlich überprüft und sogar weiter entwickelt werden.

(37) So gesehen muss man wohl sagen, dass die von Husserl gescholtenen objektiven Tatsachenwissenschaften offensichtlich sehr wohl einen erheblichen Beitrag zur fortschreitenden Aufhellung der Strukturen von Wirklichkeit leisten können (wenngleich zu Zeiten Husserls die ganze Tragweite dieser Wissenschaften noch nicht so erkennbar waren wie heute, allerdings mehr als er zur Kenntnis genommen hat).
(38) Es bleibt die Frage nach dem ‚Rest‘, nach der trotz aller Erkenntniserfolge zu konstatierende ‚Differenz‘ des Erkenntnisstandpunktes. Die empirischen Wissenschaften definieren sich generell über die Selbstbeschränkung, nur solche Phänomene zu untersuchen, deren ‚Außengeltung‘ durch wiederholbare Experimente von jedem nachprüfbar sind. Aus dieser Definition folgt mit –soweit in diesem Rahmen möglicher– Denknotwendigkeit, dass ein Denkstandpunkt, der diese Beschränkung nicht akzeptiert, grundsätzlich mehr Phänomene ‚im Blick hat‘  und zu Strukturerkenntnissen kommen kann, die ‚anderer Natur‘ sind, eben philosophischer Art (oder innerhalb des allgemein Philosophischen  phänomenologisch Philosophisch, wenngleich die Definition von Phänomenologie wiederum ‚das Philosophische‘ ganz abzudecken scheint). Daraus würde ich folgern, dass objektive Tatsachenwissenschaften –eben die empirischen Wissenschaften– und philosophische Theorien gemeinsam haben, dass sie ihre Gegebenheiten in Form formaler (mathematischer) Strukturen Th darstellen können, dass sie sich aber bzgl. ihres ‚Gegenstandsbereiches  darin unterscheiden, dass gilt Ph_emp subset Ph_ph (und ’subset‘ ist hier eine ‚echte‘ Teilmenge mit Ph_ph – Ph_emp != 0).

(39) Während die Philosophie als Phänomenologie auf diese Weise die Strukturen des Denkens aus der inneren Bewusstseinsperspektive enthüllen  und darin beschreiben kann als eine phänomenologische Theorie Th_ph, tun dies die empirischen Wissenschaft  als empirische Theorie Th_emp, dabei unentrinnbar verwurzelt in der (inneren) Bewusstseinsperspektive. Durch die methodische Beschränkung auf eine Teilmenge der Phänomene (die die innere Denktätigkeit ausklammert) können die empirischen Wissenschaften das menschliche Denken trotz ihrer inneren Verwurzelung in diesem Denken nicht direkt beschreiben. Es bleibt ihnen nur der Umweg über die empirischen Phänomene und den darin implizit enthaltenen Strukturen (z.B. Gehirnaktivitäten zeitlich korreliert mit bestimmten beobachtbaren Verhaltensweisen und/oder korreliert mit empirischen ‚Selbstaussagen‘ von Personen zu ihrer ‚Selbstwahrnehmung‘, wobei der ‚Inhalt‘ der Selbstaussagen nicht empirische ist!). Sofern solche empirischen Beschreibungen systematisiert als Th_emp vorliegen und gleichzeitig systematisierte phänomenologische Beschreibungen Th_ph kann man versuchen,  beide Theorien aufeinander abzubilden. Dies kann z.B. dahin führen, dass die empirischen Strukturen erkannt werden als jene Prozesse, die im bewussten Denken vorausgesetzt werden müssen, um ‚erklären‘ zu können, warum die phänomenologischen Strukturen so sind, wie sie ‚erlebt‘ werden.  In diesem speziellen Sinne könnte man dann sagen, dass die  empirischen Wissenschaften die Geltungsbedingungen unseres phänomenologisch beschriebenen Denkens durch ihre wissenschaftliche Beschreibungen enthüllen und damit erweitern. Statt sich also gegenseitig zu bekämpfen können beide Erkenntnisstile voneinander profitieren. Dies kann zu einer wechselseitigen Erhellung führen, durch die die ‚Geistigkeit der Materie‘ sichtbar wird.

Zur Fortsetzung siehe CM3, Teil 3

HINWEIS: Einen Überblick über alle Blog-Einträge nach Titeln findet sich hier: Übersicht nach Titeln