EINLADUNG zur PHILOSOPHIEWERKSTATT: VOM MESSWERT ZUM MODELL (2) – EMPIRIE UND KREATIVITÄT? So, 27.Mai 2018, 15:00h, im INM (Frankfurt)

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062
22.Mai  2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

THEMA

In der Einladung zur letzten  Philosophiewerkstatt am 29.April 2018   fand das Stichwort von der ’adäquaten Beschreibung’ Interesse. Es wurde   weiter ausdiskutiert in Richtung der Problematik, wie man von ’Messwerten’ zu einem ’Modell’ kommt? Den meisten Menschen ist nicht bewusst, dass es auch in den empirischen Wissenschaften für den Weg von einzelnen Messwerten zu einem Modell keinen Automatismus gibt! Aus Messwerten folgt nicht automatisch eine irgendwie geartete Beziehung, erst recht kein Modell mit einem ganzen Netzwerk von Beziehungen. In allen empirischen Disziplinen braucht es Fantasie, Mut zum Denken, Mut zum Risiko, Kreativität und wie all diese schwer fassbaren Eigenschaften heißen, die im ’Dunkel des Nichtwissens’ (und des Unbewussten) mögliche Beziehungen, mögliche Muster, mögliche Faktorennetzwerke ’imaginieren’ können, die sich dann in der Anwendung auf Messwerte dann tatsächlich (manchmal!) als ’brauchbar’ erweisen. Und, ja, persönliche Vorlieben und Interessen (unbewusste Dynamiken) können sehr wohl dazu beitragen, dass bestimmte mögliche ’interessante Beziehungs-Hypothesen’ von vornherein ausgeschlossen oder eben gerade gefunden werden.

Im  Bericht zur   Sitzung vom 29.April kann man nachlesen, wie   Begriffe wie z.B.  ‚Messwert‘, ‚erklärende Beziehung‘, ‚Modell und Theorie‘ weiter erläutert und in Beziehung zur Psychoanalyse gesetzt wurden. Es ist dann nicht überraschend, dass sich für die Beteiligten folgende Themenstellung für den 27.Mai herausschälte:

NEUE FRAGESTELLUNGEN

Es bestand der Wunsch aller Beteiligten, an dieser Stelle das Gespräch fortzusetzen. Ideal wäre für die nächste Sitzung ein kleines Beispiel mit einem typischen ’Narrativ’ und ’Deutungen’ auf der Basis des ’vorausgesetzten psychoanalytischen Modells’. Es wäre dann interessant, ob man aufgrund dieses Beispiels die Struktur eines psychoanalytischen Modells beispielhaft rekonstruieren und ’hinschreiben’ könnte. Das nächste Treffen ist für den 27.Mai 18 geplant.

WO

INM – Institut für Neue Medien, Schmickstrasse 18, 60314 Frankfurt am Main (siehe Anfahrtsskizze). Parken: Vor und hinter dem Haus sowie im Umfeld gut möglich.

WER

Einleitung und Moderation: Prof.Dr.phil Dipl.theol Gerd Doeben-Henisch (Frankfurt University of Applied Sciences, Mitglied im Vorstand des Instituts für Neue Medien)

ZEIT

Beginn 15:00h, Ende 18:00h. Bitte unbedingt pünktlich, da nach 15:00h kein Einlass.

ESSEN & TRINKEN

Es gibt im INM keine eigene Bewirtung. Bitte Getränke und Essbares nach Bedarf selbst mitbringen (a la Brown-Bag Seminaren)

EREIGNISSTRUKTUR

Bis 15:00h: ANKOMMEN

15:00 – 15:40h GEDANKEN ZUM EINSTIEG

15:40 – 16:40h: GEMEINSAMER DISKURS ALLER (Fragen, Kommentare…, mit Gedankenbild/ Mindmap)

16:40 – 17:00h PAUSE

17:00 – 17:50h: Zweite GESPRÄCHSRUNDE (Mit Gedankenbild/ Mindmap)

17:50– 18:00h: AUSBLICK, wie weiter

Ab 18:00h VERABSCHIEDUNG VOM ORT

Irgendwann: BERICHT(e) ZUM TREFFEN, EINZELN, IM BLOG (wäre schön, wenn)

Irgendwann: KOMMENTARE ZU(M) BERICHT(en), EINZELN, IM BLOG (wäre schön, wenn)

Mit freundlichen Grüßen,

Gerd Doeben-Henisch

KONTEXTE

Einen Überblick über alle Einträge zur Philosophiewerkstatt nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs finden sich HIER.

 

EINLADUNG zur PHILOSOPHIEWERKSTATT: VOM MESSWERT ZUM MODELL – EMPIRIE UND KREATIVITÄT? So, 29.April 2018, 15:00h, im INM (Frankfurt)

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062
26.April 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

THEMA

In der letzten Philosophiewerkstatt vom 25.März 2018 https://www.cognitiveagent.org/2018/03/26/roboter-in-der-psychoanalyse-memo-zur-sitzung-vom-25-maerz-2018/ fand das Stichwort von der ’adäquaten Beschreibung’ Interesse. Es wurde dann weiter ausdiskutiert in Richtung der Problematik, wie man von ’Messwerten’ zu einem ’Modell’ kommt? Den meisten Menschen ist nicht bewusst, dass es auch in den empirischen Wissenschaften für den Weg von einzelnen Messwerten zu einem Modell keinen Automatismus gibt! Aus Messwerten folgt nicht automatisch eine irgendwie geartete Beziehung, erst recht kein Modell mit einem ganzen Netzwerk von Beziehungen. In allen empirischen Disziplinen braucht es Fantasie, Mut zum Denken, Mut zum Risiko, Kreativität und wie all diese schwer fassbaren Eigenschaften heißen, die im ’Dunkel des Nichtwissens’ (und des Unbewussten) mögliche Beziehungen, mögliche Muster, mögliche Faktorennetzwerke ’imaginieren’ können, die sich dann in der Anwendung auf Messwerte dann tatsächlich (manchmal!) als ’brauchbar’ erweisen. Und, ja, persönliche Vorlieben und Interessen (unbewusste Dynamiken) können sehr wohl dazu beitragen, dass bestimmte mögliche ’interessante Beziehungs-Hypothesen’ von vornherein ausgeschlossen oder eben gerade gefunden werden. Anhand konkreter Beispiele – auch aus der Psychoanalyse ? – soll diese Thematik diskutiert werden (Es sei angemerkt, dass das große Thema der letzten Sitzung, inwieweit man die Psychoanalyse als ‚empirische Wissenschaft‘ verstehen kann oder sogar verstehen muss, noch nicht völlig zu Ende diskutiert ist. Es entstand der Eindruck, als ob die ExpertenInnen der Psychoanalyse die Einstufung der Psychoanalyse als empirische Wissenschaft selbst nicht so ganz akzeptieren wollten. Es sah so aus, als ob sie  die Befürchtung haben, dass dadurch wesentliche Momente der Psychoanalyse verloren gehen könnten. Umgekehrt muss man aber auch bedenken, dass möglicherweise der empirischen Wissenschaft wichtige Aspekte verlorengehen, wenn man eine Disziplin wie die Psychoanalyse von vornherein ausklammert).

WO

INM – Institut für Neue Medien, Schmickstrasse 18, 60314 Frankfurt am Main (siehe Anfahrtsskizze). Parken: Vor und hinter dem Haus sowie im Umfeld gut möglich.

WER

Einleitung und Moderation: Prof.Dr.phil Dipl.theol Gerd Doeben-Henisch (Frankfurt University of Applied Sciences, Mitglied im Vorstand des Instituts für Neue Medien)

ZEIT

Beginn 15:00h, Ende 18:00h. Bitte unbedingt pünktlich, da nach 15:00h kein Einlass.

ESSEN & TRINKEN

Es gibt im INM keine eigene Bewirtung. Bitte Getränke und Essbares nach Bedarf selbst mitbringen (a la Brown-Bag Seminaren)

EREIGNISSTRUKTUR

Bis 15:00h: ANKOMMEN

15:00 – 15:40h GEDANKEN ZUM EINSTIEG

15:40 – 16:40h: GEMEINSAMER DISKURS ALLER (Fragen, Kommentare…, mit Gedankenbild/ Mindmap)

16:40 – 17:00h PAUSE

17:00 – 17:50h: Zweite GESPRÄCHSRUNDE (Mit Gedankenbild/ Mindmap)

17:50– 18:00h: AUSBLICK, wie weiter

Ab 18:00h VERABSCHIEDUNG VOM ORT

Irgendwann: BERICHT(e) ZUM TREFFEN, EINZELN, IM BLOG (wäre schön, wenn)

Irgendwann: KOMMENTARE ZU(M) BERICHT(en), EINZELN, IM BLOG (wäre schön, wenn)

KONTEXTE

Einen Überblick über alle Einträge zur Philosophiewerkstatt nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs finden sich HIER.

Mit freundlichen Grüßen,

Gerd Doeben-Henisch

RINGEN UM DAS BEWUSSTSEIN – Th.W.CLARK 1995 – FUNCTION AND PHENOMENOLOGY: CLOSING THE EXPLANATORY GAP – gegen Chalmers 1995

(Letzte Aktualisierung (ab Nr.31) am Sa, 30.7.2016, 12:08h)

Th.W.CLARK, FUNCTION AND PHENOMENOLOGY: CLOSING THE EXPLANATORY GAP, in Journal of Consciousness Studies, Vol.2, No.3, 1995, pp.241-254

  1. Der aktuelle Artikel von Clark, der hier diskutiert werden soll, ist eine direkte Antwort auf den Artikel von Chalmers Facing up to the problem…, der in der gleichen Zeitschrift abgedruckt war und der in diesem Blog zuvor ausführlich besprochen worden ist.

  2. Clark bezieht die direkte Gegenposition zu Chalmers. Während Chalmers im Kern die Besonderheit der Bewusstseinserfahrung herausstellt, die sich nicht durch Rückgriff auf die empirischen Prozesse des Körpers und der Umgebung angemessen erklären lässt (das Subjektive ist von fundamental anderer Qualität als das Objektive, Empirische), versucht Clark genau dies zu tun. Er behauptet, das Phänomen des Bewusstseins sei nichts Besonderes gegenüber den anderen empirischen Prozessen.

EXISTIERENDE EMPIRISCVHE THEORIEN

  1. Sowohl Chalmers wie auch Clark berufen sich auf existierende empirische Theorien, folgern aber Gegensätzliches: Chalmers sagt, dass sich das Phänomen des Bewusstseins nicht mit den üblichen wissenschaftlichen Mitteln  hinreichend erklären lässt, und Clark meint widersprechend, Ja, doch, man kann das Phänomen des Bewusstseins damit hinreichend erklären.

  2. Im Standardmodell einer empirischen Theorie hat man einerseits eine formale Struktur, die eigentliche Theorie T, und andererseits einen empirischen Bezug, durch den mittels Messoperationen M empirische Daten D reproduzierbar verfügbar gemacht werden. Innerhalb der Struktur T kann man diese Daten klassifizieren K und in Beziehungen R einordnen. Aufgrund von Daten kann man mittels der Struktur T entweder entscheiden, dass die Daten mit der Struktur und der Dynamik der Theorie übereinstimmen oder eben nicht.

SUBJEKTIVE ERFAHRUNG NICHT MESSBAR

  1. Im Fall des Bewusstseins BEW gibt es eine Erfahrung des Bewusstseins, die allgemein als subjektiv klassifiziert wir, als nicht empirisch, nicht intersubjektiv. Damit ist ein direktes Messen im Sinne einer empirischen Theorie T nicht möglich. Im Fall des Phänomens des Bewusstseins und der typischen Erfahrung des Bewusstseins gibt es also keine direkten empirischen Daten D(BEW) und damit kann es auch keine empirische Theorie über das Bewusstsein geben. Insofern hätte Chalmers recht.

  2. Chalmers selbst spricht zwar auch über indirekte Daten des Bewusstseins (wie z.B. sprachliche Äußerungen über subjektive Erfahrungen), aber alle diese indirekte Daten sind keine Primärdaten!

IDENTITÄT VON BEWUSSTSEIN UND PROZESS

  1. Warum und wie kann dann Clark behaupten, Chalmers mache alles nur unnötig kompliziert. Clark wirft direkt die Frage auf, warum man nicht einfach mit der Hypothese starten könne, dass die Bewusstseinserfahrung BEW identisch sei mit der neuronal realisierten kybernetischen Funktion? (p.243) D.h. Clark postuliert die Identität von Bewusstsein und Funktion. (vgl. p.246) Anders: jene, die subjektive Erfahrungen ihres Bewusstseins haben, sind Instanzen von empirischen Prozessen (vgl. p.247) Oder: Wir, die wir subjektive Erfahrungen haben, sind konstituiert durch und identisch mit kognitiven Prozessen, die Qualia instantiieren, und diese Qualia sind das, was es für uns heißt, diese Prozesse zu sein.(vgl. p.247)

WAS STIMMT NUN?

  1. Im Falle von Chalmers ist klar, dass eine subjektive Erfahrungen des Bewusstseins direkt keine Messwerte für empirische Theorien liefern kann. Im Falle von Clark behauptet dieser eine Identität zwischen der subjektiven Erfahrung BEW und den ermöglichenden empirischen Prozessen Pe.

  2. In einer empirischen Theorie T kann ich von der Identität von zwei Termen t1 und t2 nur sprechen, wenn t1=t1 gilt, und dies setzt im Standardfall für den Bereich des formalen Kerns T eine Extensionsgleichheit voraus. Verbunden mit einer empirischen Interpretation Int müssen sich den theoretischen Termen t1,t2 empirische Terme t1e, t2e zuordnen lassen, die aus Messvorgängen M hervorgegangen sind, also Int(t1e) = t1 und Int(t2e) =t2.

  3. Da es im Falle von subjektive Erfahrungen des Bewusstseins BEW nach allgemeinem Verständnis keine direkten Messwerte De gibt, fehlt in der Identitätsgleichung t1=t2 mindestens ein Term. In einer empirischen Theorie wäre damit eine Identitätsbehauptung, wie Clark sie fordert, nicht realisierbar.

  4. Nach diesen ersten Überlegungen sieht es so aus, dass es unter der Annahme einer empirischen Theorie des Bewusstseins T_bw keine empirisch begründeten Messwerte zu jenen subjektiven Erfahrungen geben kann, die wir mit der subjektiven Erfahrung von Gegebenheiten des Bewusstseins verbinden. Damit wäre eine empirische Theorie des Bewusstseins ausgeschlossen. Ob irgendwelche empirischen Sachverhalte (neuronale Prozesse, andere physiologische Prozesse…) mit subjektiv erfahrbaren Gegebenheiten irgendetwas direkt zu tun haben, bleibt auf diese Weise erst einmal unklar.

HAT DAMIT CHALMERS RECHT?

  1. Nach dem bisherigen Befund hätte Chalmers also Recht damit, dass sich ein Reden über das Bewusstsein nicht reduzieren lässt auf ein Reden über empirische Prozesse, die im Kontext von subjektiven Erfahrungen beobachtbar sind. Subjektive Erfahrungen sind etwas Eigenständiges. Es sind in gewisser Weise auch Daten D, aber eben nicht-empirische Daten, subjektive Daten Ds. Empirische Daten De sind allesamt auch subjektive Daten, also De c Ds, aber nicht alle subjektive Daten Ds sind empirische Daten.

  2. Obwohl subjektive Daten Ds grundsätzliche keine empirische Daten sind, gibt es doch die Möglichkeit, subjektive Daten Ds auf sekundäre Indikatoren abzubilden Ind: Ds —> Des, die als solche empirische Daten sind, aber in ihrer Interpretation/ Deutung mit subjektiven Erfahrungen in Zusammenhang gebracht werden. Bei aller Problematik und Instabilität einer solchen sekundären Verankerung der empirischen Indikatoren Des sind die Indikatoren empirisch und können mit anderen empirischen Daten korreliert werden, also korr: Des —> De.

  3. Auf diese Weise lassen sich eine Menge interessanter Gegebenheiten sichtbar machen. Chalmers kommt bis zur Behauptung von einer Strukturellen Kohärenz zwischen der Datenmenge aus Des und der Datenmenge aus De und postuliert auch eine organisatorische Invarianz bzgl. des Outputs von zwei strukturell kohärenten Strukturen.

  4. Clark sieht von vornherein eine Identität zwischen beiden Strukturen (obgleich er nicht erklärt, wie er die subjektive Seite misst) und folgert daraus, dass überall, wo neuronale Strukturen identifizierbar sind, es ein – wenn auch noch so minimales – entsprechendes Korrelat an Bewusstsein geben muss. Bewusstsein wäre dann nichts spezifisch Menschliches, höchstens in dieser konkreten und komplexen Ausbildung aufgrund der entsprechend komplexen Struktur des Nervensystems.

  5. Während Chalmers das Problem hat, wie er aufgrund seiner messtechnischen Unterscheidung von subjektiven und empirischen Daten die Deutungshypothese eines Dualismus zwischen Bewusstsein und Nichtbewusstsein umgehen kann, erklärt Clark die Annahme eines Dualismus für unnötig (in seiner Interpretation), da es ja bei ihm sowieso nichts Besonderes neben den empirischen Sachverhalten gibt.

  6. Aus der Sicht einer empirischen Theorie ist die Position von Clark unhaltbar. Er hat kein Problem, da er die subjektiven Phänomene großzügig ausklammert.

  7. Chalmers sucht sein Heil in der Konstruktion einer Informationstheorie der doppelten Aspekte, was aber (siehe im Blogbeitrag) auch nicht überzeugen kann.

JENSEITS VON EINFACHER ONTOLOGIE

  1. Traditionell wurde – und wird (siehe Clark und viele andere) – die Annahme einer Besonderheit des Subjektiven gegenüber dem Empirischen oft zum Anlass genommen, aus der Unterschiedlichkeit der Erfahrung auf eine Unterschiedlichkeit der Existenz/ Ontologie zu schließen. Möglicherweise liegt hier der Fehler.

  2. Dem Beharren von Clark (und anderen) auf der Identität des Subjektiven mit dem Objektiven liegt ja offensichtlich die Intuition zugrunde, dass zwei verschiedene Erscheinungsweisen nicht zwingend auch auf zwei unterschiedliche Ontologien verweisen müssen. Andererseits folgt die ontologische Identität auch nicht zwingend aus einem Wunschdenken.

  3. Auch sollte einem zu denken geben, dass die sogenannten empirischen Daten De nicht gänzlich verschieden sind von den subjektiven Daten Ds! Alle empirischen Daten sind zugleich auch subjektive Daten (ohne subjektive Kenntnisnahme würde kein Forscher etwas von den Daten wissen). Die Qualifizierung als empirisch macht keine ontologische Aussage sondern ist eine epistemologische Qualifikation: ist das, was ich erfahren nur subjektiv oder auch intersubjektiv und damit empirisch! Das Gemeinsame, Verbindende ist das Moment des Erfahrens/ Erlebens/ Wahrnehmens. Und dieser Erfahrungsraum lässt sich auf vielfache Weise qualifizieren, u.a. nach den Kriterien nur subjektiv und auch intersubjektiv.

  4. Das Erfahren/ Erleben als solches ist ontologiefrei. Erst durch zusätzliche Überlegungen und Beziehungssysteme lassen sich den Erfahrungen Qualifikationen wie ’nur subjektiv‘, ‚auch intersubjektiv‘, ‚bloß gedacht‘, ‚bloß erinnert‘, ‚aktuell wahrgenommen‘ usw. zuordnen. Diese Zuordnungen sind – wie auch in vielen empirischen Theorien – nicht unbedingt direkt bzgl. einer Ontologie interpretierbar (Quantentheorie, Stringtheorie, Korpuskel/Welle, Gravitation, …).

  5. Ob also ein subjektives Erleben eine andere Ontologie implizieren soll gegenüber beobachtbaren neuronalen Prozessen ist zunächst eine völlig offene Frage. Sollten die Identitätstheoretiker wie Clark und andere Recht haben (und vieles spricht dafür), dann ließe sich das subjektive Erleben mittels geeigneter theoretischer Modelle mit jenen Ontologien in Beziehung setzen, die wir mit z.B. neuronalen Prozessen verknüpfen.

  6. Aus der theoretischen Möglichkeit, durch den Aufweis komplexer Zusammenhänge Phänomene der Art Ds mit Phänomenen der Art De in Beziehung zu setzen folgt aber auch nicht zwingend, dass man auf die Beschreibung und Analyse der Phänomene der Art Ds einfach verzichten sollte bzw. überhaupt verzichten kann.

  7. Insofern die subjektive Erfahrung auch die Basis für empirische Phänomene bildet, wäre eine Ausklammerung dieser eine Form von Verleugnung, die eher unwissenschaftlich ist.

  8. Zum anderen begegnet uns in den subjektiven Phänomenen bzw. im Gesamtphänomen Bewusstsein eine Funktionalität, die wissenschaftlich interessant ist und die hochinteressante Schlüsse auf die hervorbringenden empirischen Strukturen zulässt. Dass die aktuelle Physik sich ungern Unvollständigkeit vorwerfen lässt ist psychologisch zwar nachvollziehbar, dient aber wenig der Sache der Erkenntnis.

  9. Mit den biologischen Systemen (homo sapiens sapiens nur ein Teilmoment) haben wir es mit physikalischen Systemen zu tun, die sich mit den bisherigen physikalischen Gesetzen nicht wirklich vollständig beschreiben lassen. Dies ist eigentlich ein Glücksfall für die Wissenschaft; anhand dieser Systeme treten Eigenschaften hervor, die so anders sind, so komplex verglichen mit den einfachen Sachverhalten in der Mainstream-Physik, dass es doch von größtem Interesse sein sollte, sich mit diesen Phänomenen zu beschäftigen.

  10. Dass es insbesondere physikalische Systeme gibt, die ein sogenanntes Bewusstsein aufweisen (beim Menschen ausdrücklich, bei anderen Lebewesen schwieriger zu fassen), und dies auf Basis von neuronalen Maschinerien von unfassbarer Komplexität (ein einzelnes Gehirn hat die Komplexität einer ganzen Galaxie!), dies müsste alle Wissenschaftler elektrisieren. Dass stattdessen mit eher Energie aufgewendet wird, diese Komplexität weg zu reden, wirkt befremdlich.

CHALMERS – CLARK – KOMPOSITUM

  1. Wer hat also Recht: Chalmers oder Clark?

  2. Mit der Herausarbeitung der Besonderheit des Phänomens bewusster Erfahrung würde ich Chalmers Recht geben. Mit der Ablehnung einer zusätzlichen Ontologie würde ich Clark zusprechen. Beide, sowohl Chalmers als auch Clark würde ich kritisieren in Sachen Theoriebildung. Hier überzeugt weder Chalmers noch Clark.

Clark 1995 - Conclusions. Analyse der wichtigen Argumente

Clark 1995 – Conclusions. Analyse der wichtigen Argumente

CLARKs SCHLUSSFOLGERUNGEN UND DISKUSSION (SS.252-254)

  1. Im folgenden wechsle ich ab zwischen der Darstellung von Clarks Position (C) und Anmerkungen dazu (A).(Siehe auch das Diagramm)

  2. C: Clark kennzeichnet seinen theoretischen Ausgangspunkt als dem Naturalismus (’naturalism‘) zugehörig und sieht im Begriff einer funktionalen Theorie für sich einen wissenschaftlichen Standard. Für ihn sind funktionale Theorien gekennzeichnet durch Einfachheit, ontologische Sparsamkeit, und methodischer Zurückhaltung (‚being conservative‘).

  3. A: Clarks Hervorhebung einer Theorie als funktional lässt aufmerken, da eigentlich jede moderne Theorie per Definition relationale/ funktionale Elemente enthält, und dies daher kein besonderes Kennzeichen einer Theorie ist. Ob eine Theorie dann in einem empirischen, mathematisch abstrakten, logischen, phänomenologischen oder sonstigen Kontext benutzt wird, ändert an dieser Struktur einer Theorie nichts. Entsprechend sind Kriterien wie ‚Einfachheit‘ oder ‚methodisch zurückhaltend‘ auch wenig aussagekräftig. In gewisser Weise gilt dies für jede formale Theorie.

  4. A: Die Rede von Ontologien im Kontext moderner Theorien dagegen ist eher problematisch, da moderne formale Theorien per se ontologie-neutral sind. Man kann eine formale Theorie mit mit nahezu jeder beliebigen Ontologie verknüpfen. Ob man dies tut und mit welcher hängt vom Anwendungsfall ab. Eine empirische Interpretation verbindet eine formale Theorie mit einer bestimmten Art von zeitlich und räumlich punktuellen Messwerten. Die daraus ableitbaren allgemeinen Terme können eine spezielle Ontologie bilden, die durch die Messwerte eine partielle empirische Ontologie besitzen, aber keine vollständige. Würde man eine formale Theorie mit empirischen Äußerungen verknüpfen, die sich indirekt auf subjektive Phänomene beziehen, ließen sich daraus ganz analog zum empirischen Standardfall auch allgemeine Terme ableiten, denen eine partielle phänomenologische Ontologie zukäme. Wie sich diese beiden partiellen Ontologien nach noch zu bestimmenden Kriterien dann zueinander verhalten würden, müsste man klären. Das Vorgehen von Clark, automatisch eine bestimmte Ontologie bei empirischen Theorien zu unterstellen, und dass diese automatisch dann alle möglichen anderen Ontologien überflüssig machen würde, ist methodisch in keiner Weise gedeckt und ist auch in nahezu jeder möglichen Hinsicht unplausibell.

  5. C: Ein interessanter Aspekt ist auch Clarks Einschätzung von radikal Neuem. Tendenziell soll es nichts Neues geben, es sei denn, es gibt ganz starken empirische Argumente und eine theoretische Notwendigkeit.

  6. A: Bei dieser Formulierung erhebt sich die Frage, was starke empirische Argumente sind und ab wann der Fall einer theoretischen Notwendigkeit vorliegt? Noch grundlegender: was muss man sich unter etwas radikal Neuem mit Bezug auf eine Theorie vorstellen? Nehmen wir an, wir haben eine Theorie T mit einer Interpretation Int. (i) Solange der Messbereich festgelegt ist, kann es hier nichts radikal Neues geben, da ja nur gemessen wird, was man nach Verabredung messen will. Alles was der Verabredung widerspricht, wird nicht beachtet (methodische Blindheit!). (ii) Dann bleibt eigentlich nur, dass die Menge der Messwerte nicht vollständig unter die vereinbarten allgemeinen Terme subsumierbar sind. Sollte dieser – nicht leicht entscheidbare – Fall auftreten, müssten eventuell die allgemeinen Terme neu justiert werden. (iii) Mit oder ohne neue Justierung der allgemeinen Terme bleibt dann der Bereich der Relationen/ Funktionen sowie möglicher Regeln, die mit Hilfe eines logischen Folgerungsbegriffs Ableitungen (z.T. Prognosen) zulassen. Sofern diese mit den empirisch messbaren Gegebenheiten übereinstimmen, scheint die Theorie zu funktionieren. Gibt es Nicht-Übereinstimmungen, kann dies mehrere Gründe haben (z.B. Messfehler, ungünstige Begriffsbildung, ungünstige Relationen/ Funktionen oder ungünstige Regelformulierungen, ungeeigneter logischer Folgerungsbegriff). Was nicht passieren kann, das ist, dass ein Phänomen, das man von vornherein aus dem Messbereich ausgeschlossen hat, die Theorie in Frage stellt. Dies bedeutet, obwohl eine interpretierte Theorie <T,Int> in sich funktioniert, kann sie – bei Anlegen bestimmter Kriterien – vollständig falsch sein (man denke nur an die vielen Theorien der Vergangenheit, die auf falschen Annahmen beruhten). Radikal neu würde in diesem Kontext möglicherweise bedeuten, dass man erahnt, dass man eine neue Theorie <T*, Int*> benötigt, um neuartigen Phänomenen gerecht zu werden.

  7. A: Was Clark anscheinend am meisten (psychologisch) hindert, in den subjektiven Phänomenen Phänomene einer anderen Art anzuerkennen, ist die Annahme, dass die Annahme solcher neuer Phänomene eine neue, zusätzliche Ontologie implizieren würde, die zwangsläufig eine Art ontologischen Dualismus mit sich bringt, den er – aus welchen Gründen auch immer – ablehnt. Wie oben schon angedeutet, ist diese Ablehnung möglicherweise überflüssig, da die Annahme irgendeiner Ontologie im Rahmen der Interpretation einer formalen Theorie zunächst nichts darüber aussagt, welche weiteren Eigenschaften diese Ontologie besitzt und wie diese sich zu anderen interpretationsabhängigen Ontologien verhält. Ontologien sind letztlich primär begriffliche Strukturen im Kontext von (formalen) Theorien mit höchstens partiellen Deutungen. Hier von Dualismus zu reden oder vor einem Dualismus womöglich noch Angst haben, ist weder philosophisch noch wissenschaftlich notwendig.

  8. C: In seinem Versuch, die subjektiven Phänomene des Bewusstseins (von Clark Qualia genannt) durch Rekurs auf empirische Prozesse zu eliminieren, kommt Clark nicht umhin, diese subjektiven Phänomene als solche überhaupt anzusprechen. In diesem Zusammenhang kommt er zu Feststellungen wie jenen, dass der Zugang zum Bewusstsein über den privaten 1.Person Zugang geschieht, der als solcher in keiner Weiser durch irgendeine wissenschaftliche Methode erreichbar ist. Im gleichen Atemzug stellt er aber auch fest, dass diese subjektiven Phänomene mit neuronalen Prozessen korreliert werden können, was ausschließlich durch die Neurowissenschaften geleistet werden könne.

  9. A: Ganz offensichtlich ist es also so, dass es außerhalb der bislang definierten Messbereiche von empirischen Theorien selbst für Clark Phänomene gibt (die introspektiven Phänomene des Bewusstseins, Ps), die mit den bekannten empirischen Methoden bislang nicht erreicht werden. Seine strategische Entscheidung, das bislang wissenschaftlich Unzugängliche dadurch zu erklären zu versuchen, dass er per Deklaration (ex cathedra Entscheidung :-)) festlegt, dass diese Phänomene Ps künftig einfach als empirische Phänomene Pe zu betrachten seien (obwohl sie es schon aufgrund der Art der Phänomenerfassung nicht sein können), erwies sich nach den vorausgehenden Überlegungen aus theorietechnischen (wissenschaftsphilosophischen) Gründen als unhaltbar.

  10. A: Die These Clarks von der Identität von neuronalen Prozessen und Bewusstseinsphänomenen wird daher hier als methodisch unhaltbar abgelehnt.

  11. Aus der Ablehnung der Identitätsthese, so wie Clark sie formuliert hat, folgt allerdings nicht, wie mancher vielleicht jetzt glauben mag, dass damit ein funktionaler Zusammenhang zwischen neuronalen Prozessen und subjektiven Phänomenen grundsätzlich ausgeschlossen wird! Im Gegenteil. Autor cagent hält solch einen funktionalen Zusammenhang als sehr wahrscheinlich. Allerdings müsste dazu der theoretische Rahmen erheblich weiter entwickelt werden. Die bisher eher separat betriebenen Theorieansätze von Phänomenologie, Biologie, Psychologie, Neurowissenschaften und möglicherweise weiteren Disziplinen müssten endlich simultan entwickelt werden. Wissenschaftsphilosophisch können isolationistisch entwickelte Theorien per se aufs Ganze gesehen nur falsch sein.

Eine Übersicht über alle Blogeinträge von Autor cagent nach Titerln findet sich HIER.

K.G.DENBIGH: AN INVENTIVE UNIVERSE — Relektüre — Teil 3

K.G.Denbigh (1975), „An Inventive Universe“, London: Hutchinson & Co.

BISHER

Im Teil 1 der Relektüre von Kenneth George Denbighs Buch „An Inventive Universe“ hatte ich, sehr stark angeregt durch die Lektüre, zunächst eher mein eigenes Verständnis von dem Konzept ‚Zeit‘ zu Papier gebracht und eigentlich kaum die Position Denbighs referiert. Darin habe ich sehr stark darauf abgehoben, dass die Struktur der menschlichen Wahrnehmung und des Gedächtnisses es uns erlaubt, subjektiv Gegenwart als Jetzt zu erleben im Vergleich zum Erinnerbaren als Vergangen. Allerdings kann unsere Erinnerung stark von der auslösenden Realität abweichen. Im Lichte der Relativitätstheorie ist es zudem unmöglich, den Augenblick/ das Jetzt/ die Gegenwart objektiv zu definieren. Das individuelle Jetzt ist unentrinnbar subjektiv. Die Einbeziehung von ‚Uhren-Zeit’/ technischer Zeit kann zwar helfen, verschiedene Menschen relativ zu den Uhren zu koordinieren, das grundsätzliche Problem des nicht-objektiven Jetzt wird damit nicht aufgelöst.

In der Fortsetzung 1b von Teil 1 habe ich dann versucht, die Darlegung der Position von Kenneth George Denbighs Buch „An Inventive Universe“ nachzuholen. Der interessante Punkt hier ist der Widerspruch innerhalb der Physik selbst: einerseits gibt es physikalische Theorien, die zeitinvariant sind, andere wiederum nicht. Denbigh erklärt diese Situation so, dass er die zeitinvarianten Theorien als idealisierende Theorien darstellt, die von realen Randbedingungen – wie sie tatsächlich überall im Universum herrschen – absehen. Dies kann man daran erkennen, dass es für die Anwendung der einschlägigen Differentialgleichungen notwendig sei, hinreichende Randbedingungen zu definieren, damit die Gleichungen gerechnet werden können. Mit diesen Randbedingungen werden Start- und Zielzustand aber asymmetrisch.

Auch würde ich hier einen Nachtrag zu Teil 1 der Relektüre einfügen: in diesem Beitrag wurde schon auf die zentrale Rolle des Gedächtnisses für die Zeitwahrnehmung hingewiesen. Allerdings könnte man noch präzisieren, dass das Gedächtnis die einzelnen Gedächtnisinhalte nicht als streng aufeinanderfolgend speichert, sondern eben als schon geschehen. Es ist dann eine eigene gedankliche Leistungen, anhand von Eigenschaften der Gedächtnisinhalte eine Ordnung zu konstruieren. Uhren, Kalender, Aufzeichnungen können dabei helfen. Hier sind Irrtümer möglich. Für die generelle Frage, ob die Vorgänge in der Natur gerichtet sind oder nicht hilft das Gedächtnis von daher nur sehr bedingt. Ob A das B verursacht hat oder nicht, bleibt eine Interpretationsfrage, die von zusätzlichem Wissen abhängt.

Im Teil 2 ging es um den Anfang von Kap.2 (Dissipative Prozesse) und den Rest von Kap.3 (Formative Prozesse). Im Kontext der dissipativen (irreversiblen) Prozesse macht Denbigh darauf aufmerksam, dass sich von der Antike her in der modernen Physik eine Denkhaltung gehalten hat, die versucht, die reale Welt zu verdinglichen, sie statisch zu sehen (Zeit ist reversibel). Viele empirische Fakten sprechen aber gegen die Konservierung und Verdinglichung (Zeit ist irreversibel). Um den biologischen Phänomenen gerecht zu werden, führt Denbigh dann das Konzept der ‚Organisation‘ und dem ‚Grad der Organisiertheit‘ ein. Mit Hilfe dieses Konzeptes kann man Komplexitätsstufen unterscheiden, denen man unterschiedliche Makroeigenschaften zuschreiben kann. Tut man dies, dann nimmt mit wachsender Komplexität die ‚Individualität‘ zu, d.h. die allgemeinen physikalischen Gesetze gelten immer weniger. Auch gewinnt der Begriff der Entropie im Kontext von Denbighs Überlegungen eine neue Bedeutung. Im Diskussionsteil halte ich fest: Im Kern gilt, dass maximale Entropie vorliegt, wenn keine Energie-Materie-Mengen verfügbar sind, und minimale Entropie entsprechend, wenn maximal viele Energie-Materie-Mengen verfügbar sind. Vor diesem Hintergrund ergibt sich das Bild, dass Veränderungsprozesse im Universum abseits biologischer Systeme von minimaler zu maximaler Entropie zu führen scheinen (dissipative Prozesse, irreversible Prozesse, …), während die biologischen Systeme als Entropie-Konverter wirken! Sie kehren die Prozessrichtung einfach um. Hier stellen sich eine Fülle von Fragen. Berücksichtigt man die Idee des Organiationskonzepts von Denbigh, dann kann man faktisch beobachten, dass entlang einer Zeitachse eine letztlich kontinuierliche Zunahme der Komplexität biologischer Systeme stattfindet, sowohl als individuelle Systeme wie aber auch und gerade im Zusammenspiel einer Population mit einer organisatorisch aufbereiteten Umgebung (Landwirtschaft, Städtebau, Technik allgemein, Kultur, …). Für alle diese – mittlerweile mehr als 3.8 Milliarden andauernde – Prozesse haben wir bislang keine befriedigenden theoretischen Modelle

KAPITEL 4: DETERMINISMUS UND EMERGENZ (117 – 148)

Begriffsnetz zu Denbigh Kap.4: Determinismus und Emergenz

Begriffsnetz zu Denbigh Kap.4: Determinismus und Emergenz

  1. Dieses Kapitel widmet sich dem Thema Determinismus und Emergenz. Ideengeschichtlich gibt es den Hang wieder, sich wiederholende und darin voraussagbare Ereignisse mit einem Deutungsschema zu versehen, das diesen Wiederholungen feste Ursachen zuordnet und darin eine Notwendigkeit, dass dies alles passiert. Newtons Mechanik wird in diesem Kontext als neuzeitliche Inkarnation dieser Überzeugungen verstanden: mit klaren Gesetzen sind alle Bewegungen berechenbar.
  2. Dieses klare Bild korrespondiert gut mit der christlichen theologischen Tradition, nach der ein Schöpfer alles in Bewegung gesetzt hat und nun die Welt nach einem vorgegebenen Muster abläuft, was letztlich nur der Schöpfer selbst (Stichwort Wunder) abändern kann.
  3. Die neuzeitliche Wissenschaft hat aber neben dem Konzept des Gesetzes (‚law‘) auch das Konzept Theorie entwickelt. Gesetze führen innerhalb einer Theorie kein Eigenleben mehr sondern sind Elemente im Rahmen der Theorie. Theorien sind subjektive Konstruktionen von mentalen Modellen, die versuchen, die empirischen Phänomene zu beschreiben. Dies ist ein Näherungsprozess, der – zumindest historisch – keinen eindeutigen Endpunkt kennt, sondern empirisch bislang als eher unendlich erscheint.
  4. Eine moderne Formulierung des deterministischen Standpunktes wird von Denbigh wie folgt vorgeschlagen: Wenn ein Zustand A eines hinreichend isolierten Systems gefolgt wird von einem Zustand B, dann wird der gleiche Zustand A immer von dem Zustand B gefolgt werden, und zwar bis in die letzten Details.(S.122)
  5. Diese Formulierung wird begleitend von den Annahmen, dass dies universell gilt, immer, für alles, mit perfekter Präzision.
  6. Dabei muss man unterscheiden, ob die Erklärung nur auf vergangene Ereignisse angewendet wird (‚ex post facto‘) oder zur Voraussage benutzt wird. Letzteres gilt als die eigentliche Herausforderung.
  7. Wählt man die deterministische Position als Bezugspunkt, dann lassen sich zahlreiche Punkte aufführen, nach denen klar ist, dass das Determinismus-Prinzip unhaltbar ist. Im Folgenden eine kurze Aufzählung.
  8. Die Interaktion aller Teile im Universum ist nirgendwo (nach bisherigem Wissen) einfach Null. Zudem ist die Komplexität der Wechselwirkung grundsätzlich so groß, dass eine absolute Isolierung eines Teilsystems samt exakter Reproduktion als nicht möglich erscheint.
  9. Generell gibt es das Problem der Messfehler, der Messungenauigkeiten und der begrenzten Präzision. Mit der Quantenmechanik wurde klar, dass wir nicht beliebig genau messen können, dass Messen den Gegenstand verändert. Ferner wurde klar, dass Messen einen Energieaufwand bedeutet, der umso größer wird, je genauer man messen will. Ein erschöpfendes – alles umfassende – Messen ist daher niemals möglich.
  10. Im Bereich der Quanten gelten maximal Wahrscheinlichkeiten, keine Notwendigkeiten. Dies schließt nicht notwendigerweise ‚Ursachen/ Kausalitäten‘ aus.
  11. Die logischen Konzepte der mentalen Modelle als solche sind nicht die Wirklichkeit selbst. Die ‚innere Natur der Dinge‘ als solche ist nicht bekannt; wir kennen nur unsere Annäherungen über Messereignisse. Das, was ‚logisch notwendig‘ ist, muss aus sich heraus nicht ontologisch gültig sein.
  12. Neben den Teilchen sind aber auch biologische Systeme nicht voraussagbar. Ihre inneren Freiheitsgrade im Verbund mit ihren Dynamiken lassen keine Voraussage zu.
  13. Aus der Literatur übernimmt Denbigh die Komplexitätshierarchie (i) Fundamentale Teilchen, (ii) Atome, (iii) Moleküle, (iv) Zellen, (v) Multizelluläre Systeme, (vi) Soziale Gruppen.(vgl. S.143)
  14. Traditioneller Weise haben sich relativ zu jeder Komplexitätsstufe spezifische wissenschaftliche Disziplinen herausgebildet, die die Frage nach der Einheit der Wissenschaften aufwerfen: die einen sehen in den Eigenschaften höherer Komplexitätsstufen emergente Eigenschaften, die sich nicht auf die einfacheren Subsysteme zurückführen lassen; die Reduktionisten sehen die Wissenschaft vollendet, wenn sich alle komplexeren Eigenschaften auf Eigenschaften der Ebenen mit weniger Komplexität zurückführen lassen. Während diese beiden Positionen widersprüchlich erscheinen, nimmt das Evolutionskonzept eine mittlere Stellung ein: anhand des Modells eines generierenden Mechanismus wird erläutert, wie sich komplexere Eigenschaften aus einfacheren entwickeln können.

DISKUSSION

  1. Fasst man alle Argument zusammen, ergibt sich das Bild von uns Menschen als kognitive Theorientwickler, die mit ihren kognitiven Bildern versuchen, die Strukturen und Dynamiken einer externen Welt (einschließlich sich selbst) nach zu zeichnen, die per se unzugänglich und unerkennbar ist. Eingeschränkte Wahrnehmungen und eingeschränkte Messungen mit prinzipiellen Messgrenzen bilden die eine Begrenzung, die daraus resultierende prinzipielle Unvollständigkeit aller Informationen eine andere, und schließlich die innere Logik der realen Welt verhindert ein einfaches, umfassendes, eindeutiges Zugreifen.
  2. Die mangelnde Selbstreflexion der beteiligten Wissenschaftler erlaubt streckenweise die Ausbildung von Thesen und Hypothesen, die aufgrund der möglichen Methoden eigentlich ausgeschlossen sind.
  3. Die noch immer geltende weitverbreitete Anschauung, dass in der Wissenschaft der Anteil des Subjektes auszuklammern sei, wird durch die vertiefenden Einsichten in die kognitiven Voraussetzungen aller Theorien heute neu in Frage gestellt. Es geht nicht um eine Infragestellung des Empirischen in der Wissenschaft, sondern um ein verstärktes Bewusstheit von den biologischen (beinhaltet auch das Kognitive) Voraussetzungen von empirischen Theorien.
  4. In dem Maße, wie die biologische Bedingtheit von Theoriebildungen in den Blick tritt kann auch die Besonderheit der biologischen Komplexität wieder neu reflektiert werden. Das Biologische als Entropie-Konverter (siehe vorausgehenden Beitrag) und Individualität-Ermöglicher jenseits der bekannten Naturgesetze lässt Eigenschaften der Natur aufblitzen, die das bekannte stark vereinfachte Bild kritisieren, sprengen, revolutionieren.
  5. Die Idee eines evolutionären Mechanismus zwischen plattem Reduktionismus und metaphysischem Emergenz-Denken müsste allerdings erheblich weiter entwickelt werden. Bislang bewegt es sich im Bereich der Komplexitätsebenen (iii) Moleküle und (iv) Zellen.

Fortsetzung mit TEIL 4

QUELLEN

  1. Kenneth George Denbigh (1965 – 2004), Mitglied der Royal Society London seit 1965 (siehe: https://en.wikipedia.org/wiki/List_of_Fellows_of_the_Royal_Society_D,E,F). Er war Professor an verschiedenen Universitäten (Cambridge, Edinbugh, London); sein Hauptgebet war die Thermodynamik. Neben vielen Fachartikeln u.a. Bücher mit den Themen ‚Principles of Chemical Equilibrium, ‚Thermodynamics of th Steady State‘ sowie ‚An Inventive Universe‘.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

BUCHPROJEKT 2015 – Zwischenreflexion 23.August 2015 – INFORMATION – Jenseits von Shannon

Der folgende Beitrag bezieht sich auf das Buchprojekt 2015.

VORHERIGE BEITRÄGE

1. Im Beitrag von John Maynard Smith hatte dieser Kritik geübt an der Informationstheorie von Shannon. Dabei fokussierte er im wesentlichen auf die direkte Anwendung des Shannonschen Begriffs auf die informationsvermittelnden Prozesse bei der Selbstreproduktion der Zelle, und er konnte deutlich machen, dass viele informationsrelevanten Eigenschaften bei dem Reproduktionsprozess mit dem Shannonschen Informationsbegriff nicht erfasst werden. Anschließend wurde ein Beitrag von Terrence W.Deacon diskutiert, der den Shannonschen Informationsbegriff als Ausgangspunkt nutzte, den er it dem Entropiebegriff von Boltzmann verknüpfte, von dort die Begriffe thermodynamisches Ungleichgewicht, Arbeit und Evolution nach Darwin benutzte, um die Idee anzudeuten, dass jene Zustände in einem System, die bedeutungsrelevant sein könnten (und von Shannon selbst nicht analysiert werden) in Interaktion mit der Umwelt entstanden sind und entstehen.

ZWISCHENSTAND
2. Was sowohl bei Maynard Smih wie auch bei Deakon auffällt, ist, dass sie sich wenig um den möglichen Kontext des Begriffs ‚Information‘ bemühen. Wie wurde der Begriff der Information im Laufe der Ideengeschichte verstanden? Welche Besonderheiten gibt es in den verschiedenen Disziplinen?

HISTORISCH-SYSTEMATISCHE PERSPEKTIVE

3. In einem umfangreichen und detailliertem Überblick von Pieter Adriaans (2012) in der Standford Encyclopedia of Philosophy findet man ein paar mehr Zusammenhänge.

4. Zwar heißt es auch hier mehrfach, dass ein erschöpfender Überblick und eine alles umfassende Theorie noch aussteht, aber ausgehend von der antiken Philosophie über das Mittelalter, die Renaissance bis hin zu einigen modernen Entwicklungen findet man wichtige Themen und Autoren.

5. Zusammenfassend sei hier nur festgestellt, dass Aspekte des Informationsbegriffs auf unterschiedlich Weise bis zum Ende des 19.Jahrhunderts feststellbar sind, ohne dass man von einer eigentlich Philosophie der Information oder einer Informationstheorie im modernen Sinne sprechen kann. Als grobe Koordinaten, die den Ausgangspunkt für die neuere Entwicklung einer Informationstheorie markieren, nennt Adriaans (i) Information als ein Prozess, der Systeme prägen/ formieren/ informieren kann; (ii) Information als ein Zustand, der sich bei einem System einstellt, nachdem es informiert wurde; (iii) Information als die Fähigkeit eines Systems, seine Umgebung zu prägen/ formen/ informieren.

6. Weiterhin identifiziert er zusammenfassend einige Bausteine der modernen Informationstheorie: (i) Information ist ‚extensiv‘ insofern die Bestandteile in das übergreifende Ganze eingehen und sie vermindert Unsicherheit; (ii) man benötigt eine formale Sprache zu ihrer Darstellung; (iii) ein ‚optimaler‘ Kode ist wichtig; (iv) die Verfügbarkeit eines optimierten Zahlensystems (binär, Stellen, Logarithmus) spielte eine Rolle; ausgehend von konstituierenden Elementen die Idee der Entropie in Kombination mit der Wahrscheinlichkeit; (v) die Entwicklung einer formalen Logik für Begriffe wie ‚Extension/ Intension‘, ‚Folgerung‘, ‚Notwendigkeit‘, ‚mögliche Welten‘, ‚Zustandsbeschreibungen‘ und ‚algorithmische Informationstheorie‘.

7. Andere wichtige Themen sind (i) Information als Grad der Widerlegbarkeit (Popper); (ii) Information in Begriffen der Wahrscheinlichkeit (Shannon); (iii) Information als Länge des Programms (Solomonoff, Kolmogorov, Chaitin).

SHANNON ERSCHEINT ÜBERMÄCHTIG

8. Was man bei Adriaans vermisst, das ist der Bezug zur semantischen Dimension. Hierzu gibt es einen anderen sehr umfangreichen Beitrag von Floridi (2015), auf den auch Adriaans verweist. Floridi behandelt die Frage der Semantischen Information quantitativ sehr ausführlich, inhaltlich aber beschränkt er sich weitgehend auf eine formale Semantik im Umfeld einer mathematischen Informationstheorie auf der Basis von Shannon 1948. Dies verwundert. Man kann den Eindruck gewinnen, dass die ‚konzeptuelle Gravitation‘ des Shannonschen Modells jede Art von begrifflicher Alternative im Keim erstickt.

BEFREIUNG DURCH BIOLOGIE

9. Bringt man die Informationstheorie in das begriffliche Gravitationsfeld der Biologie, insbesondere der Molekularbiologie, dann findet man in der Tat auch andere begrifflich Ansätze. Peter Godfrey-Smith und Kim Sterelny (2009) zeigen am Beispiel der Biologie und vieler molekularbiologischer Sachverhalte auf, dass man das enge Modell von Shannon durch weitere Faktoren nicht nur ergänzen kann, sondern muss, will man den besonderen biologischen Sachverhalten Rechnung tragen. Allerdings führen sie ein solches Modell nicht allgemein aus. Kritiker weisen darauf hin, dass solche zusätzlichen Abstraktionen die Gefahr bieten – wie in jeder anderen wissenschaftlichen Disziplin auch –, dass sich Abstraktionen ‚ontologisch verselbständigen‘; ohne erweiternde Begrifflichkeit kann man allerdings auch gar nichts sagen.

THEORIE A LA BOLTZMANN VOR MEHR ALS 100 JAHREN

10. Diese ganze moderne Diskussion um die ‚richtigen formalen Modelle‘ zur Erklärung der empirischen Wirklichkeit haben starke Ähnlichkeiten mit der Situation zu Zeiten von Ludwig Boltzmann. In einer lesenswerten Rede von 1899 zur Lage der theoretischen Physik ist er konfrontiert mit der stürmischen Entwicklung der Naturwissenschaften in seiner Zeit, speziell auch der Physik, und es ist keinesfalls ausgemacht, welches der vielen Modelle sich in der Zukunft letztlich als das ‚richtigere‘ erweisen wird.

11. Boltzmann sieht in dieser Situation die Erkenntnistheorie gefragt, die mithelfen soll, zu klären, welche Methoden in welcher Anordnung einen geeigneten Rahmen hergeben für eine erfolgreiche Modellbildung, die man auch als theoretische Systeme bezeichnen kann, die miteinander konkurrieren.

12. Mit Bezugnahme auf Hertz bringt er seinen Zuhörern zu Bewusstsein, „dass keine Theorie etwas Objektives, mit der Natur wirklich sich Deckendes sein kann, dass vielmehr jede nur ein geistiges Bild der Erscheinungen ist, das sich zu diesen verhält wie das Zeichen zum Bezeichneten.“ (Boltzmann 1899:215f) Und er erläutert weiter, dass es nur darum gehen kann, „ein möglichst einfaches, die Erscheinungen möglichst gut darstellendes Abbild zu finden.“ (Boltzmann 1899:216) So schließt er nicht aus, dass es zum gleichen empirischen Sachverhalt zwei unterschiedliche Theorien geben mag, die in der Erklärungsleistung übereinstimmen.

13. Als Beispiel für zwei typische theoretische Vorgehensweisen nennt er die ‚Allgemeinen Phänomenologen‘ und die ‚Mathematischen Phänomenologen‘. Im ersteren Fall sieht man die theoretische Aufgabe darin gegeben, alle empirischen Tatsachen zu sammeln und in ihrem historischen Zusammenhang darzustellen. Im zweiten Fall gibt man mathematische Modelle an, mit denen man die Daten in allgemeine Zusammenhänge einordnen, berechnen und Voraussagen machen kann. Durch die Einordnung in verallgemeinernde mathematische Modelle geht natürlich die Theorie über das bis dahin erfasste Empirische hinaus und läuft natürlich Gefahr, Dinge zu behaupten die empirisch nicht gedeckt sind, aber ohne diese Verallgemeinerungen kann ein Theorie nichts sagen. Es kann also nicht darum gehen, ’nichts‘ zu sagen, sondern das, was man theoretisch sagen kann, hinreichend auf Zutreffen bzw. Nicht-Zutreffen zu kontrollieren (Poppers Falsifizierbarkeit). Boltzmann bringt seitenweise interessante Beispiele aus der damals aktuellen Wissenschaftsdiskussion, auf die ich hier jetzt aber nicht eingehe.

WIE SHANNON ERWEITERN?

14. Stattdessen möchte ich nochmals auf die Fragestellung zurück kommen, wie man denn vorgehen sollte, wenn man erkannt hat, dass das Modell von Shannon – so großartig es für die ihm gestellten Aufgaben zu sein scheint –, bzgl. bestimmter Fragen als ‚zu eng‘ erscheint. Hier insbesondere für die Frage der Bedeutung.

15. Im Beitrag von Deacon konnte man eine Erweiterungsvariante in der Weise erkennen, dass Deacon versucht hatte, über die begriffliche Brücke (Shannon-Entropie –> Boltzmann-Entropie –>Thermodynamik → Ungleichgewicht → Aufrechterhaltung durch externe Arbeit) zu der Idee zu kommen, dass es in einem biologischen System Eigenschaften/ Größen/ Differenzen geben kann, die durch die Umwelt verursacht worden sind und die wiederum das Verhalten des Systems beeinflussen können. In diesem Zusammenhang könnte man dann sagen, dass diesen Größen ‚Bedeutung‘ zukommt, die zwischen Systemen über Kommunikationsereignisse manifestiert werden können. Ein genaueres Modell hatte Deacon dazu aber nicht angegeben.

16. Wenn Deacon allerdings versuchen wollte, diese seine Idee weiter zu konkretisieren, dann käme er um ein konkreteres Modell nicht herum. Es soll hier zunächst kurz skizziert werden, wie solch ein Shannon-Semantik-System aussehen könnte. An anderer Stelle werde ich dies Modell dann formal komplett hinschreiben.

SHANNON-SEMANTIK MODELL SKIZZE

17. Als Ausgangspunkt nehme ich das Modell von Shannon 1948. (S.381) Eine Quelle Q bietet als Sender Nachrichten M an, die ein Übermittler T in Kommunikationsereignisse S in einem Kommunikationskanal C verwandelt (kodiert). In C mischen sich die Signale S mit Rauschelementen N. Diese treffen auf einen Empfänger R, der die Signale von den Rauschanteilen trennt und in eine Nachricht M* verwandelt (dekodiert), die ein Empfänger D dann benutzen kann.

18. Da Shannon sich nur für die Wahrscheinlichkeit bestimmter Signalfolgen interessiert hat und die Kapazitätsanforderungen an den Kanal C, benötigt sein Modell nicht mehr. Wenn man aber jetzt davon ausgeht, dass der Sender nur deshalb Kommunikationsereignisse S erzeugt, weil er einem Empfänger bestimmte ‚Bedeutungen‘ übermitteln will, die den Empfänger in die Lage versetzen, etwas zu ‚tun‘, was der übermittelten Bedeutung entspricht, dann muss man sich überlegen, wie man das Shannon Modell erweitern kann, damit dies möglich ist.

19. Das erweiterte Shannon-Semantik Modell soll ein formales Modell sein, das geeignet ist, das Verhalten von Sendern und Empfängern zu beschreiben, die über reine Signale hinaus mittels dieser Signale ‚Bedeutungen‘ austauschen können. Zunächst wird nur der Fall betrachtet, dass die Kommunikation nur vom Sender zum Empfänger läuft.

20. Ein erster Einwand für die Idee einer Erweiterung könnte darin bestehen, dass jemand sagt, dass die Signale ja doch ‚für sich‘ stehen; wozu braucht man die Annahme weiterer Größen genannt ‚Bedeutung‘?

21. Eine informelle Erläuterung ist sehr einfach. Angenommen der Empfänger ist Chinese und kann kein Deutsch. Er besucht Deutschland. Er begegnet dort Menschen, die kein Chinesisch können und nur Deutsch reden. Der chinesische Besucher kann zwar sehr wohl rein akustisch die Kommunikationsereignisse in Form der Laute der deutschen Sprache hören, aber er weiß zunächst nichts damit anzufangen. In der Regel wird er auch nicht in der Lage sein, die einzelnen Laute separat und geordnet aufzuschreiben, obgleich er sie hören kann. Wie wir wissen, braucht es ein eigenes Training, die Sprachlaute einer anderen Sprache zweifelsfrei zu erkennen, um sie korrekt notieren zu können. Alle Deutschen, die bei einer solchen Kommunikation teilnehmen, können die Kommunikationsereignisse wahrnehmen und sie können – normalerweise – ‚verstehen‘, welche ‚anderen Sachverhalte‘ mit diesen Kommunikationsereignissen ‚verknüpft werde sollen‘. Würde der Chinese irgendwann Deutsch oder die Deutschen Chinesisch gelernt haben, dann könnten die Deutschen Kommunikationsereignisse in Chinesische übersetzt werden und dann könnten – möglicherweise, eventuell nicht 1-zu-1 –, mittels der chinesischen Kommunikationsereignisse hinreichend ähnliche ‚adere Sachverhalte‘ angesprochen werden.

22. Diese anderen Sachverhalte B, die sich den Kommunikationsereignissen zuordnen lassen, sind zunächst nur im ‚Innern des Systems‘ verfügbar. D.h. Die Kommunikationsereignisse S (vermischt mit Rauschen N) im Kommunikationskanal C werden mittels des Empfängers R in interne Nachrichten M* übersetzt (R: S x N —> M*), dort verfügt der Empfänger über eine weitere Dekodierfunktion I, die den empfangenen Nachrichten M* Bedeutungssachverhalte zuordnet, also I: M* —> B. Insofern ein Dolmetscher weiß, welche Bedeutungen B durch eine deutsche Kommunikationssequenz im Empfänger dekodiert werden soll, kann solch ein Dolmetscher dem chinesischen Besucher mittels chinesischer Kommunikationsereignisse S_chin einen Schlüssel liefern, dass dieser mittels R: S_chin —> M*_chin eine Nachricht empfangen kann, die er dann mit seiner gelernten Interpretationsfunktion I_chin: M*_chin —> B‘ in solche Bedeutungsgrößen B‘ übersetzen kann, die den deutschen Bedeutungsgrößen B ‚hinreichend ähnlich‘ sind, also SIMILAR(B, B‘).

23. Angenommen, der empfangenen Nachricht M* entspricht eine Bedeutung B, die eine bestimmte Antwort seitens des Empfängers nahelegt, dann bräuchte der Empfänger noch eine Sendeoperation der Art Resp: B —> M* und T: M* —> S.

24. Ein Empfänger ist dann eine Struktur mit mindestens den folgenden Elementen: <S,N,M*,B,R,I,resp,T> (verglichen mit dem ursprünglichen Shannon-Modell: <S,N,M*,-,R,I,-,T>). So einfach diese Skizze ist, zeigt sie doch, dass man das Shannon Modell einfach erweitern kann unter Beibehaltung aller bisherigen Eigenschaften.

25. Natürlich ist eine detaillierte Ausführung der obigen Modellskizze sehr aufwendig. Würde man die Biologie einbeziehen wollen (z.B. im Stile von Deacon), dann müsste man die Ontogenese und die Phylogenese integrieren.

26. Die Grundidee der Ontogenese bestünde darin, einen Konstruktionsprozess zu definieren, der aus einem Anfangselement Zmin das endgültige System Sys in SYS erstellen würde. Das Anfangselement wäre ein minimales Element Zmin analog einer befruchteten Zelle, das alle Informationen enthalten würde, die notwendig wären, um diese Konstruktion durchführen zu können, also Ontogenese: Zmin x X —> SYS. Das ‚X‘ stünde für alle die Elemente, die im Rahmen einer Ontogenese aus der Umgebung ENV übernommen werden müssten, um das endgültige system SYS = <S,N,M*,B,R,I,resp,T> zu konstruieren.

27. Für die Phylogenese benötigte man eine Population von Systemen SYS in einer Umgebung ENV, von denen jedes System Sys in SYS mindestens ein minimales Anfangselement Zmin besitzt, das für eine Ontogenese zur Verfügung gestellt werden kann. Bevor die Ontogenese beginnen würde, würden zwei minimale Anfangselemente Zmin1 und Zmin2 im Bereich ihrer Bauanleitungen ‚gemischt‘, um dann der Ontogenese übergeben zu werden.

QUELLEN

  1. John Maynard Smith (2000), „The concept of information in biology“, in: Philosophy of Science 67 (2):177-194
  2. Terrence W.Deacon (2010), „What is missing from theories of information“, in: INFORMATION AND THE NATURE OF REALITY. From Physics to Metaphysics“, ed. By Paul Davies & Niels Henrik Gregersen, Cambridge (UK) et al: Cambridge University Press, pp.146 – 169
  3. Bernd-Olaf Küppers 2010), „Information and communication in living matter“, in: INFORMATION AND THE NATURE OF REALITY. From Physics to Metaphysics“, ed. By Paul Davies & Niels Henrik Gregersen, Cambridge (UK) et al: Cambridge University Press, pp.170-184
  4. Luciano Floridi (2015) Semantic Conceptions of Information, in: Stanford Enyclopedia of Philosophy
  5. Jesper Hoffmeyer (2010), „Semiotic freedom: an emerging force“, in: INFORMATION AND THE NATURE OF REALITY. From Physics to Metaphysics“, ed. By Paul Davies & Niels Henrik Gregersen, Cambridge (UK) et al: Cambridge University Press, pp.185-204
  6. Stichwort Information in der Stanford Enyclopedia of Philosophy von Pieter Adriaans (P.W.Adriaans@uva.nl) (2012)
  7. Peter Godfrey-Smith, Kim Sterelny (2009) Biological Information“, in: Stanford Enyclopedia of Philosophy
  8. Hans Jörg Sandkühler (2010), „Enzyklopädie Philosophie“, Bd.2, 2., überarbeitete und erweiterte Auflage, Meiner Verlag, Hamburg 2010, ISBN 978-3-7873-1999-2, (3 Bde., parallel dazu auch als CD erschienen)
  9. Ludwig Boltzmann (1899), „Über die Entwicklung der Methoden der theoretischen Physik in neuerer Zeit“, in: „Populäre Schriften“, Leipzig:Verlag von Johann Ambrosius Barth, 1905, SS.198-227
  10. Lawrence Sklar (2015), Philosophy of Statistical Mechanics in Stanford Encyclopedia of Philosophy
  11. Schroedinger, E. „What is Life?“ zusammen mit „Mind and Matter“ und „Autobiographical Sketches“. Cambridge: Cambridge University Press, 1992 (‚What is Life‘ zuerst veröffentlicht 1944; ‚Mind an Matter‘ zuerst 1958)
  12. Claude E. Shannon, A mathematical theory of communication. Bell System Tech. J., 27:379-423, 623-656, July, Oct. 1948
  13. Claude E. Shannon; Warren Weaver (1949) „The mathematical theory of communication“. Urbana – Chicgo: University of Illinois Press.
  14. John Maynard Smith (2000), „The concept of information in biology“, in: Philosophy of Science 67 (2):177-194
  15. Noeth, W., Handbuch der Semiotik, 2. vollst. neu bearb. und erw. Aufl. mit 89 Abb. Stuttgart/Weimar: J.B. Metzler, xii + 668pp, 2000
  16. Monod, Jacques (1971). Chance and Necessity. New York: Alfred A. Knopf
  17. Introduction to Probability von Charles M. Grinstead und J. Laurie Snell, American Mathematical Society; Auflage: 2 Revised (15. Juli 1997)

Philosophie im Kontext – Teil2 – Irrtum!

Das Diagramm im letzten Beitrag über Philosophie im Kontext ist falsch, nicht so sehr in den Details, sondern in der grundlegenden Logik.

Philosophie im Kontext - FalschBild 1

Eine korigierte Version könnte wie folgt aussehen:

Philosophie im Kontext - NeuBild 2

 

(1) In dem vorausgehenden Beitrag hatte ich versucht, auf der Basis der philosophischen Überlegungen seit Januar (letztlich natürlich noch Monate und Jahre weiter zurück) in einem Diagramm die grundsätzlichen Verhältnisse zu skizzieren, die man berücksichtigen muss, will man über das Zusammenspiel all der verschiedenen möglichen wissenschaftlichen und philosophischen Theorien sprechen, einschließlich des alltäglichen Denkens.

 

(2) Dabei ist mir ein gravierender Fehler unterlaufen, der natürlich nicht zufällig ist, sondern aus der Art und Weise resultiert, wie unser Denken funktioniert.

 

 

(3) Das Bild, so wie es jetzt ist (siehe Bild 1), zeigt — wie in einer Landkarte — das erkennende Individuum aus einer ‚Draufsicht‘ (3.Person) mit seinem Körper, darin enthalten sein Gehirn, und innerhalb des Gehirns irgendwo die subjektiven Erlebnisse als ‚Phänomene [PH]‘.

 

(4) Der Fehler liegt darin begründet, dass das subjektive Erkennen niemals als ‚Objekt einer dritten Person-Perspektive‘ auftreten kann. Das ist ja gerade das Besondere der subjektiven Erkenntnis, dass sie die ‚Innenansicht‘ eines Gehirns ist, das subjektive Erleben eines bestimmten Menschen (oder auch mit Abwandlungen eines Tieres), ’seines‘ Erlebens, bei Husserl dem ‚transzendentalen ego‘ zugeordnet. D.h. das ‚primäre Erkennen‘ ist in einem subjektiven Erleben verortet, das als solches kein Objekt einer dritten Person sein kann.

 

(5) Diesem Sachverhalt trägt Bild 2 Rechnung. Das Erkennen startet dort bei der Menge der Phänomene. Wie Husserl – und auch viele andere – zurecht herausgestellt hat, sind die Phänomene aber nicht nur ‚in sich geschlossene Objekte‘, sondern ‚phänomenologische Tatbestände‘ in dem Sinne, dass ihr ‚Vorkommen/ Auftreten‘ begleitet ist von einem ‚Wissen über sie‘; jemand, der ‚etwas erkennt‘, ‚weiß‘ dass er erkennt. Das wird im Diagramm durch den Pfeil mit dem Label ‚Reflexion‘ ausgedrückt: Im ‚Wissen um etwas‘ – Husserl nennt dies ‚Intentionalität‘ des Erkennens – können wir alles, was der Inhalt dieses primären Wissens ist, hinsichtlich möglicher unterscheidbarer Eigenschaften ‚explizit unterscheiden‘ und ‚bezugnehmende Konzepte‘ bilden.

 

 

(6) Und da der Mensch – in Ansätzen auch einige Tierarten – die wundersame Fähigkeit besitzt, ‚Gewusstes‘ [PH_Non-L] in Beziehung zu setzen (assoziieren, Assoziation) zu anderem Gewussten, das als ‚verweisenden Etwas‘ (Zeichen) [PH_L] dienen soll, kann der erkennende Mensch die ‚Inhalte seines Bewusstseins‘ – die Phänomene [PH] – mit Hilfe solcher verweisender Zeichen ‚kodieren‘ und dann unter Verwendung solcher kodierender Zeichen ‚Netzwerke solcher Zeichen‘ bilden, die – je nach ‚Ordnungsgrad‘ – mehr oder weniger ‚Modelle‘ oder gar ‚Theorien‘ bilden können.

 

(7) Da das begleitende Wissen, die Reflexion, in der Lage ist, auch ‚dynamische Eigenschaften‘ der Phänomene zu erfassen (‚Erinnern‘, ‚Vorher – nachher‘,…) kann diese Reflexion auch – nach sehr vielen Reflexionsschritten – unterscheiden zwischen jenen Phänomenen, die geschehen ‚ohne eigenes Zutun‘ (ohne eigenes ‚Wollen‘) und den anderen. Das ‚ohne eigenes Zutun‘ kann aus jenen Bereichen des ‚eigenen Körpers‘ herrühren, die die Reflexion ’nicht unter Kontrolle‘ hat oder aus Bereichen ‚außerhalb des Körpers‘, den wir dann auch ‚intersubjektiv‘ nennen bzw. neuzeitlich ‚empirisch‘ [PH_emp].

 

 

(9) In einer phänomenologischen Theorie [TH_ph], deren Gegenstandsbereich die subjektiven Erlebnisse [PH] sind, kann man daher die charakteristische Teilmenge der empirischen Phänomene [PH_emp] identifizieren. Daneben – und zugleich – kann man all die anderen Eigenschaften der Phänomene samt ihrer ‚Dynamik‘ unterscheiden und begrifflich ausdrücklich machen. Eine genaue Beschreibung aller möglicher Unterscheidung ist sehr komplex und ich habe nicht den Eindruck, dass irgend jemand dies bis heute erschöpfend und befriedigend zugleich geleistet hat. Möglicherweise kann dies auch nur als ein ‚Gemeinschaftswerk‘ geschehen. Dazu müsste man eine geeignete Methodik finden, die dies ermöglicht (vielleicht sind wir Menschen technologisch erst jetzt (2012, ca. 13.7 Milliarden Jahre nach dem Big Bang, ca. 3.7 Milliarden Jahre nach dem ersten Auftreten von lebensrelevanten Molekülen auf der Erde…) langsam in der Lage, eine solche Unternehmung einer ‚gemeinsamen Theorie des menschlichen phänomenalen Bewusstseins‘ in Angriff zu nehmen).

 

(10) Vieles spricht dafür, dass die unterschiedlichen Versuche von Philosophen, die Vielfalt der Reflexionsdynamik (und deren ‚Wirkungen‘ auf den Bewusstseinsinhalt) mit Hilfe von sogenannten ‚Kategorientafeln‘ zu strukturieren (keine gleicht wirklich völlig der anderen), in diesen Kontext der Bildung einer ‚phänomenologischen Theorie‘ [TH_ph] gehört. Idealerweise würde man – zumindest einige der bekanntesten (Aristoteles, Kant, Peirce, Husserl,…) – vor dem aktuellen Hintergrund neu vergleichen und analysieren. Sofern diese die Struktur der Dynamik des ’sich ereignenden Denkens‘ beschreiben, müssten diese Kategorientafeln letztlich alle ’strukturell gleich‘ sein. Dabei unterstellen wir, dass die Dynamik des Denkens der einzelnen Menschen aufgrund der Gehirnstruktur ‚hinreichend ähnlich‘ ist. Dies ist aber streng genommen bis heute nicht erwiesen. Die vielen neuen Erkenntnisse zur Gehirnentwicklung und zum individuellen Lernen (einschließlich der emotionalen Strukturen) legen eher die Vermutung nahe, dass es sehr wohl individuelle Unterschiede geben kann in der Art und Weise, wie einzelne Menschen die Welt ‚verarbeiten‘. Träfe dies zu, hätte dies natürlich weitreichende Folgen für die Alltagspraxis und die Ethik (und die Moral und die Gesetze…).

 

 

(11) Hat man sich dies alles klar gemacht, dann wundert es nicht mehr, dass die Bildung wissenschaftlicher empirischer Theorien [TH_emp] nicht ‚außerhalb‘ einer phänomenologischen Theoriebildung stattfinden kann, sondern nur ‚innerhalb‘, und zwar aus mindestens zwei Gründen: (i) die Menge der empirischen Phänomene [PH_emp] ist eindeutig eine echte Teilmenge aller Phänomene [PH], also PH_emp subset PH. (ii) Die empirische Theorie TH_emp entsteht im Rahmen und unter Voraussetzung der allgemeinen Reflexion, die unser primäres Denken ermöglicht und ausmacht; wir haben kein ‚zweites‘ Denken daneben oder ‚jenseits‘ im ‚Irgendwo‘. Dies erklärt auch sehr einfach das häufig bemerkte Paradox der Metatheorie: Theorien sind nur möglich, weil wir ‚über‘ (Alt-Griechisch: ‚meta‘) sie ’nachdenken‘ können. Dieses ‚Nachdenken über‘ (Metareflexion‘) ist unter Annahme der allem Denken vorausgehenden und begleitenden primären Reflexion keine Überraschung. Was immer wie uns ‚ausdenken‘, es geschieht im Rahmen der primären Reflexion und von daher kann auch alles und jedes, was wir jemals gedacht haben oder uns gerade denken beliebig miteinander in Beziehung gesetzt werden. Bezogen auf diese vorausgehende und begleitende Reflexion ist jeder ‚Denkinhalt‘ grundsätzlich ‚unabgeschlossen‘; die primäre Reflexion ermöglicht eine ‚endliche Unendlichkeit‘, d.h. der prinzipiell nicht abgeschlossene Denkprozess kann – als ‚Prozess‘ – jede endliche Struktur immer wieder und immer weiter ‚erweitern‘, ‚ausdehnen‘, usf.

 

(12) Kennzeichen von neuzeitlichen empirischen Theorien ist ihre Fundierung in ‚empirischen Messverfahren‘ [MEAS]. Kennzeichen dieser empirischen Messverfahren ist es, dass sie unabhängig vom Körper eines Menschen und auch unabhängig von seinem individuellen Erkennen, Fühlen und Wollen bei gleicher ‚Durchführung‘ immer wieder die ‚gleichen Messergebnisse‘ [DATA_emp] liefern sollen. Ob und wieweit solche ‚unabhängigen‘ Messungen tatsächlich durchgeführt werden können ist eine ‚praktische‘ und ‚technologische‘ Frage. Die Geschichte zeigt, dass dieses Konzept auf jeden Fall trotz aller Probleme im Detail bislang extrem erfolgreich war.

 

(13) Allerdings ist hier folgender Umstand zu beachten: obwohl die Messergebnisse [DATA_emp] als solche idealerweise ‚unabhängig‘ vom Fühlen, Denken und Wollen eines Menschen erzeugt werden sollen, gelangen dieses Messergebnisse erst dann zu einer ‚theoretischen Wirkung‘, wenn es irgendwelche Menschen gibt, die diese Messergebnisse DATA_emp ‚wahrnehmen‘ (Englisch: perception, abgekürzt hier als ‚perc‘) können, damit sie als ‚auftretende Phänomene‘ – und zwar hier dann als empirische Phänomene [PH_emp] – in den Bereich des ‚Wissens‘ eintreten, also perc: DATA_emp —> PH_emp. Dies bedeutet, der besondere Charakter von empirischen Phänomenen haftet ihnen nicht als ‚gewussten Eigenschaften‘, nicht qua ‚Phänomen‘ an, sondern nur im Bereich ihrer ‚Entstehung‘, ihres ‚Zustandekommens‘ (aus diesem – und nur aus diesem – Grund ist es so wichtig, beim Umgang mit Phänomenen jeweils klar zu kennzeichnen, ‚woher diese stammen), der ihrem ‚Phänomensein‘ ‚vorausliegt‘.

 

 

(14) In dem Masse nun, wie wir mittels empirischer Messungen Daten über das beobachtbare menschliche Verhalten [DATA_sr], über physiologische Eigenschaften des Körpers [DATA_bd] bzw. auch über Eigenschaften des Nervennetzes im Körper (‚Gehirn‘) [DATA_nn] gewonnen haben, können wir versuchen, basierend auf diesen verschiedenen Daten entsprechende wissenschaftliche Theorien TH_sr, TH_bd, TH_nn zu formulieren, die die Gesetzmäßigkeiten explizit machen, die durch die Daten sichtbar werden.

 

(15) Der wichtige Punkt hier ist, dass alle diese Theorien nicht ‚unabhängig‘ oder ‚jenseits von‘ einer phänomenologischen Theorie zu verorten sind, sondern ‚innerhalb‘ von dieser! Jede beliebige Theorie kann immer nur eine Theorie ‚innerhalb‘ der umfassenden und zeitlich wie logisch vorausgehenden phänomenologischen Theorie sein. Eine spezifische empirische Theorie [TH_i] zeichnet sich ja gerade dadurch aus, dass sie sich auf eine echte Teilmenge [PH_i] aller verfügbarer Phänomene [PH] beschränkt. Gerade in dieser methodischen Beschränkung liegt – wie der Gang der Geschichte uns lehrt – der große Erfolg dieser Art von Theoriebildung. Zugleich wird aber auch deutlich, dass jede dieser speziellen Theorien TH_i aufgrund ihrer speziellen Datenmengen DATA_i (denen die entsprechenden Phänomenmengen PH_emp_i] korrespondieren) zunächst einmal nichts mit einer der vielen anderen speziellen Theorien TH_j TH_i zu tun hat. Es ist eine eigene theoretische Leistung, Querbeziehungen herzustellen, strukturelle Ähnlichkeiten aufzuzeigen, usw. Dies fällt dann in den Bereich ‚interdisziplinärer Theoriebildung‘, ist ‚Metatheorie‘. Diese Art von metatheoretischen Aktivitäten ist aber nur möglich, da die primäre Reflexion alle Arten von speziellen Reflexionen zeitlich und logisch vorausgeht und das entsprechende ‚Instrumentarium‘ zur Verfügung stellt.

 

(16) In diesem Kontext ist unmittelbar einsichtig, dass subjektives Wissen prinzipiell kein Gegenstand empirischer Theoriebildung sein kann. Im Umfeld der modernen Neurowissenschaften (einschließlich Neuropsychologie) sowie im Bereich der Psychologie ist dieser grundsätzliche Tatbestand – so scheint es – bislang methodisch nicht wirklich sauber geklärt. In unzähligen Experimenten mischen sich klare empirische Vorgehensweisen mit der Benutzung von subjektiven Daten, was methodisch ungeklärt ist. Dies durchzieht alle ‚Kreise‘.

 

(17) Will man von der einzigartigen Datenquelle des primären Wissens PH für wissenschaftliche empirische Forschung PH_emp profitieren, bietet sich bislang einzig ein ‚hybrides‘ Vorgehen an, in dem ein Mensch sein eigenes subjektives Wissen PH auf der Basis einer ‚zeitlichen Korrelation‘ (t,t‘) mit empirischen Daten PH_emp, die von anderen Wissenschaftlern mittels Messungen über seinen Körper und sein Nervennetz erhoben werden. Also etwa CORR((t,t‘), PH, PH_emp). Dies ist zwar mühsam und fehleranfällig, aber die einzige methodische Möglichkeit, mit diesen ungleichen Phänomenmengen zurecht zu kommen (Mir ist nicht bekannt, dass irgendjemand diese scharfe methodische Forderung bislang erhebt geschweige denn, dass irgend jemand danach tatsächlich vorgeht).

 

(18) Für die weiteren Überlegungen soll versucht werden, diesen methodologischen Anforderungen gerecht zu werden.

 

(19) Es zeigt sich nun auch sehr klar, dass und wie das philosophische Denken gegenüber allen anderen theoretischen Erklärungsansätzen tatsächlich eine Sonderstellung einnimmt. Das philosophische Denken ist das fundamentale Denken, das jeglichem speziellen Denken zeitlich und logisch voraus liegt, nicht als Gegensatz oder als etwas ganz Anderes, sondern als das primäre Medium innerhalb dessen sich alles andere ‚abspielt‘. Während ich eine spezielle empirische Theorie als ‚Objekt des Wissens‘ klar abgrenzen und beschreiben kann, ist die dazu notwendige Metareflexion als solche kein ‚Objekt des Wissens‘, sondern immer nur ein nicht weiter hintergehbares ‚Medium‘, eben das ‚Denken‘, in dem wir uns immer schon vorfinden, das wir nicht erst ‚machen‘, das wir nur ‚benutzen‘ können. Die ‚Eigenschaften‘ dieses unseres Denkens ‚zeigen‘ sich damit auch nur ‚indirekt‘ durch die ‚Wirkung‘ der Denkaktivität auf die Inhalte des Bewusstseins (Eine Kooperation von empirischer Psychologie TH_emp_psych und phänomenologischer Analyse TH_ph kann hilfreich sein, allerdings sind die Gegenstandsbereiche DATA_emp_psych als PH_emp_psych und PH komplett verschieden und wirklich interessant würde es erst dann, wenn wir eine TH_emp_psych einer TH_ph gegenübersetzen könnten (bislang sehe ich nirgends – nicht einmal in Ansätzen – eine phänomenologische Theorie, die diesen Namen verdienen würde, noch eine wirkliche empirische psychologische Theorie, und das im Jahr 2012).

 

 

Ein Überblick über alle bisherigen Einträge findet sich hier.

 

 

In dem Online-Skript General Computational Learning Theory versuche ich, diese erkenntnisphilosophischen Aspekte zu berücksichtigen. Ich kann in diesem Skript allerdings nur einen Teilbereich behandeln. Aber aus diesen sehr abstrakt wirkenden Überlegungen ist meine ‚Rückkehr zur Philosophie‘ entscheidend mitbeeinflusst worden.