Archiv der Kategorie: Verifikation

PSYCHOANALYSE ALS PROTOTYP EINER REFLEKTIERTEN EMPIRISCHEN WISSENSCHAFT. Bericht zur Sitzung vom 9.September 2018

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 10.Sept. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

KONTEXT

Die Sitzung am 9.September 2018 hatte eine Vorgeschichte.

ROBOTER VERLANGEN BESCHREIBUNG

In einer Sitzung im Januar 2018 hatte sich die bunt gemischte Gesprächsrunde die Frage gestellt, ob man einen Psychoanalytiker durch einen Roboter ersetzen könne. Die Analyse kam zur Erkenntnis, dass der Bau eines geeigneten Roboters voraussetzt, dass es eine hinreichend angemessene Beschreibung dessen gibt, was genau ein Psychoanalytiker im Rahmen eines therapeutischen Prozesses tut, wie die Interaktionen mit dem Analysanden sind, und welche speziellen ‚inneren Zustände‘ beim Analytiker gegeben sein müssen, damit er so handeln kann. Damit verschob sich die Aufgabenstellung hin zu einer solchen angemessenen Beschreibung des Psychoanalytikers/ der Psychoanalytikerin in einem Therapieprozess.

PSYCHOANALYSE ALS EMPIRISCHE THEORIE

In der nachfolgenden Sitzung im März 2018 wurde daher das Selbstverständnis der Psychoanalyse im Rahmen des Begriffs einer empirischen Theorie abgefragt. Das erstaunliche Ergebnis war, dass die Psychoanalyse grundsätzlich alle Anforderungen an eine empirische Wissenschaft erfüllt. Sie hat allerdings zwei Besonderheiten: (i) Der Beobachter und der Theoriemacher sind selbst Bestandteil der Theorie; (ii) die Messvorgänge laufen unter Laborbedingungen ab, die neben schon klassifizierten Phänomenen kontinuierlich auch ’neue‘ Phänomene zulässt, die für die Theoriebildung wichtig sein können (für Details siehe den Beitrag).

VON DEN DATEN ZUM MODELL

In der nachfolgenden Sitzung im April 2018 fokussierte sich das Gespräch auf das Wechselspiel zwischen ‚Daten‘ und erklärendem ‚Modell‘ (‚Theorie‘) und wie es zum Modell kommt. Speziell im Fall des Psychoanalytikers ergibt sich eine Doppelrolle: (i) als Teil des Prozesses agiert er/sie im Prozess als Mensch mit ‚Un-Bewusstem‘ und und seinen ‚Erfahrungen‘ und seinem bisherigen ‚Modell‘, andererseits (ii) ist er/sie reflektierter Profi, der seine Wahrnehmungen des Analysanden, der Umgebung und seiner selbst mit seinem ‚professionellen Modell‘ abgleichen muss. Der hier offensichtlich werdende ‚dynamische Charakter der Modellbildung‘ ist charakteristisch für jede Modellbildung, wird aber in den meisten empirischen Wissenschaften eher verdeckt. (Für Details siehe den Beitrag).

EINE PSYCHOANALYTISCHE FALLSTUDIE

In der Sitzung vom Mai 2018 wurde nach so viel vorausgehender Theorie ein konkretes Fallbeispiel betrachtet, das eine der teilnehmenden Psychoanalytikerinnen  vorstellte. Dieses Beispiel demonstrierte sehr klar, wie die Psychoanalytikerin als aktives Moment im Therapieprozess im Bereich des Un-Bewussten mit dem Analysand interagiert und dadurch diesen in die Lage versetzt, einen Zugriff auf jene Faktoren zu bekommen, die im Un-Bewussten das Verhalten über Jahrzehnte massiv beeinflusst hatten. Dadurch lies sich dann schnell und wirkungsvoll eine qualitative Verbesserung der Situation des Analysanden herstellen.

WISSENSCHAFTSPHILOSOPHISCHE AKTUALITÄT DER PSYCHOANALYSE

GEISTESWISSENSCHAFTEN VERSUS NATURWISSENSCHAFTEN

Die Gegensatzbildung zwischen ‚Geisteswissenschaften‘ einerseits und ‚Harten Wissenschaften‘ andererseits ist nicht neu und bei vielen so eine Art Stereotyp, das man gar nicht mehr hinterfragt. In den ‚harten Wissenschaften‘ selbst gibt es aber immer wieder von einzelnen selbst-kritische Überlegungen zur Problematik des ‚Beobachters‘ und des ‚Theoriemachers‘, die aus der eigentlichen Theorie ausgeklammert werden, was wissenschaftsphilosophisch zu erheblichen Problemen führt (Ein prominentes Beispiel, was ich auch gerade im Blog analysiere und diskutiere ist Edelman, ein exzellenter Erforscher des Immunsystems und des Gehirns).

INGENIEURWISSENSCHAFTEN

In den Ingenieurwissenschaften, die den empirischen Wissenschaften in Sachen Formalisierung in Nichts nachstehen, eher noch ausführlicher und in vielen Fällen erheblich detaillierter sind, gibt es dagegen schon seit vielen Jahren die wachsende Erkenntnis, dass 60 – 80% der Projekte nicht daran scheitern, dass die beteiligten Experten zu wenig wissen, sondern daran, dass die beteiligten ExpertenInnen ihre eigenen psychologischen Zustände zu wenig kennen, mit ihnen nicht umgehen können, diese in die Planung von Projekten und den zugehörigen komplexen Formalisierungen nicht einbeziehen. Statt von ‚Beobachter‘ und ‚Theoriemacher‘ spreche ich hier vom ‚Akteur‘ als jenem Moment eines Theorieprozesses, das sowohl die Theorie entwickelt als auch anwendet. Eine moderne und zukunftsfähige Theorie des Engineerings wird nicht umhin kommen, irgendwann den Akteur selbst in die Theoriebildung einzubeziehen (einen Theorieansatz in diese Richtung findet sich in dem Online-Buchprojekt ‚Actor-Actor-Interaction Anaysis‘).

PSYCHOANALYSE ALS PROTOTYP

Interessant ist, dass die Psychoanalyse eigentlich ein Prototyp einer solchen ‚Beobachter-Integrierten empirischen Theorie‘ ist, und zwar schon von Anfang an. Wie Jürgen Hardt, einer der teilnehmenden Psychoanalytiker, in Erinnerung rief, hatte der Begründer der Psychoanalyse, Freud, von Anfang an die Forderungen aufgestellt, (i) dass die Psychoanalyse eine Naturwissenschaft sein muss, allerdings (ii) mit dem methodischen Hinweis, dass man das ‚Seelische‘ nicht mit den unleugbar somatischen Parallelvorgängen (im Gehirn, im Körper) verwechseln dürfe. Aus Sicht eines verkürzten Empirieverständnisses wurde dies oft als ‚un-empirisch‘ oder gar als ‚dualistisch‘ charakterisiert. Dies ist jedoch unangemessen. Freud ging es primär darum, zunächst mal jene ‚Phänomene zu retten‘, die sich bei dem damaligen Zustand der empirischen Wissenschaften noch nicht in die aktuellen theoretischen Modelle (sofern es denn überhaupt echte empirische Modelle waren) einordnen liesen. Es zeichnet ‚wahre empirische Wissenschaft‘ schon immer aus, dass sie ‚Phänomene‘ akzeptiert, auch und gerade dann, wenn die aktuelle Theoriebildung sie noch nicht einordnen kann.

KEIN DUALISMUS

Dazu kommt, dass man die Charakterisierung von ‚Dualismus‘ selbst sehr kritisch hinterfragen muss. In der modernen Mathematik und damit auch in allen empirischen Theorien, die Mathematik benutzen (was letztlich alle empirischen Disziplinen sind, die den Anforderungen einer ‚wissenschaftlichen‘ Theorie gerecht werden wollen) gibt es nur zwei Grundbegriffe:’Menge‘ und ‚Relation (Funktion)‘. Während man für das abstrakte Konzept ‚Menge‘ in der empirischen Wirklichkeit nahezu beliebig viele konkrete ‚Objekte‘ finden kann, die als ‚Instanzen/ Beispiele‘ für Mengen dienen können, sozusagen die Prototypen für ‚Reales‘, lassen sich für ‚Relationen/ Funktionen‘ so leicht keine direkte Entsprechungen finden. ‚Relationen‘ bestehen nur ‚zwischen‘ Objekten, ‚Funktionen‘ dagegen lassen sich ‚Veränderungen‘ zuschreiben. Beides ‚Beziehungen zwischen‘ und ‚Veränderungen‘ sind keine realen Objekte; sie existieren quasi nur in unserer Wahrnehmung als ‚virtuelle‘ Objekte. Das Verhältnis zwischen ‚realen Objekten‘ und ‚virtuellen Relationen/ Funktionen‘ würde man daher nicht als ‚Dualismus‘ bezeichnen, da der Begriff des Dualismus spätestens seit Descartes  eher für die Forderung nach zwei unterschiedliche ‚Substanzen‘ (‚res extensa‘, ‚res cogitans) reserviert hat. Objekte kann man vielleicht als Substnzen (‚res extensa‘) bezeichnen, nicht aber ‚virtuelle Relationen/ Funktionen‘.

Angewendet auf die Psychoanalyse wäre die Freudsche Unterscheidung von ’somatischen Prozessen‘ (Gehirn/ Körper als ‚res extensa‘, denen zugleich aber auch ‚dynamische‘ Eigenschaften zukommen (= Funktionen)) und dem ‚Seelischen‘, das sich qualitativ im ‚Bewusstsein‘ zeigt (= Phänomene als ‚virtuelle Objekte‘ (mit virtuellen Beziehungen) in einer spezifischen Dynamik (mit virtuellen Funktionen)) dann kein klassischer Dualismus sondern eine Unterscheidung unterschiedlicher Phänomenklassen, denen unterschiedliche Gesetzmäßigkeiten zukommen.

SYSTEMISCHES KONZEPT

Was viele gern übersehen, das ist die ‚Gesamtsicht‘, die der Psychoanalyse zu eigen ist. Freud selbst tendierte in seiner Spätphase (Hinweis Jürgen Hardt) zu einem ‚organismischen‘ Denken, wie er es nannte; heute würde man es vielleicht ’systemisch‘ nennen. Durch die Anerkennung der Tatsache, dass das ‚Bewusstsein‘ nur einen Teil – heute müsste man vielleicht sagen: einen sehr kleinen Teil! – der Vorgänge im menschlichen Körper abbildet, wobei das ‚Un-Bewusste‘ letztlich den ganzen Restkörper beinhaltet, muss die Psychoanalyse jede Reaktion eines Akteurs als eine ‚Antwort des ganzen Systems‘ betrachten, die in den meisten Fällen von Prozessen und Faktoren verursacht werden, die eben un-bewusst sind. Insofern es weder aktuell eine vollständige Theorie aller Körperprozesse gibt noch man davon ausgehen kann, dass die Menge der möglichen Körperprozesse endlich und konstant ist, nicht einmal im Fall eines einzelnen Akteurs, ist die psychoanalytische Theoriebildung kontinuierlich in einer Situation, wo es eine Modellvorstellung M bis zum Zeitpunkt t gibt, die ab dem Zeitpunkt t mit einer offenen Menge von Phänomenen Ph_t+ konfrontiert werden kann, die vielfach bzw. überwiegend noch nicht Teil des bisherigen Modells M sind. Sofern das Modell M Anhaltspunkte für Interpretationen oder Verhaltensprognosen gibt, kann der Therapeut danach handeln; sofern das Modell ’schweigt‘, muss er das tun, was die Evolution seit 3.8 Milliarden Jahren tut: mangels Wissen über die Zukunft lassen biologische Populationen die Bildung von ‚Varianten‘ zu, von denen vielleicht einige dann in der Zukunft ‚passen‘, wenn alle anderen aufgrund von Veränderungen der Umgebung ’nicht mehr passen‘. Dieses ‚Handeln bei mangelndem Wissen ist der wichtigste Überlebensakt aller biologischer Systeme. Die ‚Quelle‘ für psychotherapeutische Verhaltensvarianten ist das eigene System, der Körper des Psychoanalytikers, schwerpunktmäßig sein Un-Bewusstes, das ‚aus sich heraus‘ wahrnimmt und reagiert.

Von den Psychoanalytikern wurde zahllose Beispiel angeführt, deren Phänomenologie die Arbeitshypothese nahelegt, dass es zwischen dem ‚Un-Bewussten‘ des Therapeuten und dem Un-Bewussten des Patienten offensichtlich eine Kommunikation im Nicht-Bewussten-Bereich geben muss, da unbewusste Zustände des Patienten, von denen der Therapeut bis dahin nichts wusste, sehr charakteristische Körperzustände beim Therapeut hervorriefen, die dann zum ‚Katalysator‘ dafür wurden, dass der Therapeut und der Patient dadurch einen entscheidenden Hinweis auf die zugrunde liegenden un-bewussten Faktoren im Patient gewinnen konnten.

Angesichts dieser Systemsicht und ihrer komplexen Dynamik stellt sich die Frage nach der Funktion des ‚Bewusstseins‘ ganz anders. Irgendwie erscheint das Bewusstsein wichtig (mindestens für alle sprachliche Kommunikation und explizite Planung), aber irgendwie ist das Bewusstsein nur ein kleiner Teil eines viel größeren dynamischen Systems, dessen Ausmaß und genaue Beschaffenheit weitgehend im Dunkeln liegt. Die moderne Gehirnforschung (wie auch die gesamte moderne Physiologie) könnte hier sicher viele wertvolle Erkenntnisse beisteuern, wären sie nicht bislang wissenschaftsphilosophisch so limitiert aufgestellt. Viele der möglichen interessanten Erkenntnisse ‚verpuffen‘ daher im Raum möglicher Theorien, da diese Theorien nicht ausformuliert werden.

ERFOLGSKRITERIEN

Natürlich kann und muss man die Frage stellen, inwieweit ein psychoanalytisches Modell – oder gar eine ausgebaute Theorie – ‚verifizierbar‘ bzw. ‚falsifizierbar‘ ist. Berücksichtigt man die methodischen Probleme mit dem Begriff der ‚Falsifikation‘ (siehe dazu die kurze Bemerkung Nr.18 im Blogbeitrag vom 5.September 2018) beschränken wir uns hier auf den Aspekt der ‚Verifikation‘.

Eine Verifikation wäre im allgemeinen die ‚Bestätigung‘ einer ‚Prognose‘, die man aus dem ‚bestehenden Modell‘ ‚abgeleitet‘ hatte. Da das ‚bestehende Modell‘ im Fall der Psychoanalyse im allgemeinen nicht als ‚formalisiertes Modell‘ vorliegt, kann es sich bei den möglichen ‚Prognosen‘ daher nur um ‚intuitive Schlüsse‘ des Therapeuten aus seinem ‚bewusst-unbewussten‘ Modell handeln. Im praktischen Fall bedeutet dies, dass (i) es einen ‚therapeutischen Prozess‘ gab, der alle offiziellen Anforderungen an einen psychoanalytischen Prozess erfüllt, dass (ii) ein Zustand erreicht wird, in dem der Patient einen höheren Grad an ‚Selbststeuerung‘ erreicht hat. Dies kann sich an vielerlei Phänomenen fest machen, z.B. der Patient hat weniger ‚Angst‘, sein ‚körperlicher Gesundheitszustand‘ ist besser geworden, er kann seine ‚Alltagsaufgaben besser lösen‘, er ist generell ‚weniger krank‘, er besitzt mehr ‚Selbstvertrauen‘ im Umgang mit zuvor gefürchteten Situationen, und dergleichen mehr. All diese Phänomene kann man objektivieren. Die sehr verbreiteten Auswertungen nur per Fragebogen sind eher unbrauchbar und nutzlos.

WEITERES VORGEHEN

Zum ersten Mal tauchte die Idee auf, die bisherigen Gespräche zur Psychoanalyse in einem kleinen Büchlein zusammen zu fassen und zu publizieren.

Eine spontane Fortsetzung findet sich HIER.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

ÜBER DIE MATERIE DES GEISTES. Relektüre von Edelman 1992. Teil 6

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 29.August 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

LETZTE ÄNDERUNG: 1.Dez.2018, Wiederholung der vorausgehenden Diskussion gestrichen. Kumulierte Zusammenfassungen sind HIER.

Gerald M.Edelman, Bright Air, Brilliant Fire. On the Matter of the Mind, New York: 1992, Basic Books

KAP.7 DIE PROBLEME NEU ÜBERLEGT

  1. Nach den ersten Analysen in Kap.1-6 stellt Edelman eine ‚Zwischenreflexion‘ an. Angesichts der entdeckten Komplexität und Dynamik im Fall des Gehirns und seiner Entwicklung stellt sich die Frage, wie man den Zusammenhang zwischen den vorfindlichen materiellen Strukturen und ihren Funktionen miteinander in Beziehung setzen (‚to relate‘) kann.(vgl. S.65f)
  2. Und um seine mögliche neue Position zu bestimmen wiederholt er summarisch nochmals seine zuvor geäußerte Kritik an der ‚falschen Objektivität‘ der Physik, an der zu eng gefassten Kognitionswissenschaft, und er wiederholt auch wieder die unsinnigen Vergleiche mit einem falschen Begriff von Computer, der weder theoretisch noch praktisch Sinn macht.(vgl. SS.66-69)
  3. Grundsätzlich hält er an der Forderung fest, (i) eine ‚Theorie‘ zu bauen (‚to construct), die (ii) ‚wissenschaftlich‘ ist. ‚Wissenschaftlich sein‘ macht er an der Eigenschaft fest (iii), dass die Theorie ‚überprüfbar‘ sein soll. Allerdings muss die Theorie (iv) ’nicht immer‘ zu (v) ‚Voraussagen auf allen Ebenen führen‘, noch muss (vi) ‚jeder Teil von der Theorie direkt falsifizierbar‘ sein.(vgl. S.66)
  4. Aufgrund seiner massiven Kritik an der unterdrückten Rolle des Beobachters speziell in der Physik (vgl. S.66f) muss man indirekt folgern, dass (a) der Beobachter in einer ‚kritischen Wissenschaft‘ im Zusammenspiel mit der Theorie ‚anders integriert wird als bisher‘. Dies bedeutet, man muss berücksichtigen, (b) dass es ‚mentale Ereignisse‘ gibt (‚Bewusstsein‘, ‚Intentionalität‘) gibt, die (c) nur durch ‚Introspektion‘ oder (d) nur durch indirekte Schlüsse aufgrund des beobachtbaren Verhaltens von anderen‘ zugänglich sind.(vgl. S.67)

DISKUSSION FORTSETZUNG

  1. Das Kapitel 7 ist sehr kurz und bringt weitgehend nur Wiederholungen ausgenommen der Punkt mit der Theorie. Der ist neu. Und es ist überhaupt das erste Mal, dass Edelman in diesem Buch explizit über eine ‚wissenschaftliche Theorie‘ spricht, obgleich er sich selbst ja als Wissenschaftler versteht und  er seine eigenen Überlegungen gleichwohl als wissenschaftlich verstanden wissen will (wenngleich er das aktuelle Buch in seiner Form nicht streng als wissenschaftliche Theorie verfasst hat).
  2. Seine Charakterisierung einer ‚wissenschaftlichen Theorie‘ ist interessant. Sie ist generell sehr fragmentarisch; sie ist ferner in ihrer Ernsthaftigkeit fragwürdig, da er die Forderung der Falsifizierbarkeit mit dem Argument einschränkt, dass ansonsten Darwins Theorie in ihrer Anfangszeit niemals hätte Erfolg haben können; und sie ist geradezu mystisch, da er eine radikal neue Rolle des Beobachters mit all seinen mentalen Eigenschaften innerhalb der Theoriebildung einfordert, ohne aber irgendwelche Hinweise zu liefern, wie das praktiziert werden soll.
  3. Man stellt sich die Frage, welchen ‚Begriff von Theorie‘ Edelman eigentlich benutzt? In der Geschichte der empirischen Wissenschaften gab es viele verschiedene Begrifflichkeiten, die nicht ohne weiteres kompatibel sind, und seit ca. 100 Jahren gibt es eine eigene Meta-Wissenschaft zu den Wissenschaften mit Namen wie ‚Wissenschaftsphilosophie‘, ‚Wissenschaftstheorie‘, ‚Wissenschaftslogik‘, deren Gegenstandsbereich gerade die empirischen Wissenschaften und ihr Theoriebegriff ist. Obgleich das Gebiet der Wissenschaftsphilosophie, wie ich es hier nenne, bislang immer noch keinen geschlossenen begrifflichen Raum darstellt, gibt es doch eine Reihe von grundlegenden Annahmen, die die meisten Vertreter dieses Feldes einer Metawissenschaft zu den Wissenschaften teilen. Aufgrund seiner bisherigen Ausführungen scheint Edelman nichts vom Gebiet der Wissenschaftsphilosophie zu kennen.
  4. Die Überprüfbarkeit einer Theorie ist in der Tat ein wesentliches Merkmal der modernen empirischen Wissenschaften. Ohne diese Überprüfbarkeit gäbe es keine empirische Wissenschaft. Die Frage ist nur, was mit ‚Überprüfbarkeit‘ gemeint ist bzw. gemeint sein kann.
  5. Wenn Edelman fordert dass für eine Theorie gelten soll, dass nicht (vi) ‚jeder Teil von der Theorie direkt falsifizierbar‘ sein muss, dann geht er offensichtlich davon aus, dass eine Theorie T aus ‚Teilen‘ besteht, also etwa T(T1, T2, …, Tn) und dass im ‚Idealfall‘ jeder Teil ‚direkt falsifizierbar‘ sein müsste. Diese Vorstellung ist sehr befremdlich und hat weder mit der Realität existierender physikalischer Theorien irgend etwas zu tun noch entspricht dies den modernen Auffassungen von Theorie. Moderne Theorien T sind mathematische (letztlich algebraische) Strukturen, die als solche überhaupt nicht interpretierbar sind, geschweige den einzelne Teile davon. Ferner liegt die Erklärungsfähigkeit von Theorien nicht in ihren Teilen, sondern in den ‚Beziehungen‘, die mittels dieser Teile formulierbar und behauptbar werden. Und ob man irgendetwas aus solch einer Theorie ‚voraussagen‘ kann hängt minimal davon ab, ob die mathematische Struktur der Theorie die Anwendung eines ‚logischen Folgerungsbegriffs‘ erlaubt, mittels dem sich ‚Aussagen‘ ‚ableiten‘ lassen, die sich dann – möglicherweise – ‚verifizieren‘ lassen. Diese Verifizierbarkeit impliziert sowohl eine ‚Interpretierbarkeit‘ der gefolgerten Aussagen wie auch geeignete ‚Messverfahren‘, um feststellen zu können, ob die ‚in den interpretierten Aussagen involvierten entscheidbaren Eigenschaften‘ per Messung verifiziert werden können oder nicht. Der zentrale Begriff ist hier ‚Verifikation‘. Der Begriff der ‚Falsifikation‘ ist relativ zu Verifikation als komplementärer Begriff definiert. Begrifflich erscheint dies klar: wenn ich nicht verifizieren kann, dann habe ich automatisch falsifiziert. In der Praxis stellt sich aber oft das Problem, entscheiden zu können, ob der ganz Prozess des Verifizierens ‚korrekt genug‘ war: sind die Umgebungsbedingungen angemessen? Hat das Messgerät richtig funktioniert? Haben die Beobachter sich eventuell geirrt? Usw. Als ‚theoretischer Begriff‘ ist Falsifikation elegant, in der Praxis aber nur schwer anzuwenden. Letztlich gilt dies dann auch für den Verifikationsbegriff: selbst wenn der Messvorgang jene Werte liefert, die man aufgrund einer abgeleiteten und interpretierten Aussage erwartet, heißt dies nicht mit absoluter Sicherheit, dass richtig gemessen wurde oder dass die Aussage möglicherweise falsch interpretiert oder falsch abgeleitet worden ist.
  6. All diese Schwierigkeiten verweisen auf den ausführenden Beobachter, der im Idealfall auch der Theoriemacher ist. In der Tat ist es bislang ein menschliches Wesen, das mit seinen konkreten mentalen Eigenschaften (basierend auf einer bestimmten materiellen Struktur Gehirn im Körper in einer Welt) sowohl Phänomene und Messwerte in hypothetische mathematische Strukturen transformiert, und diese dann wiederum über Folgerungen und Interpretationen auf Phänomene und Messwerte anwendet. Dies in der Regel nicht isoliert, sondern als Teil eines sozialen Netzwerkes, das sich über Interaktionen, besonders über Kommunikation, konstituiert und am Leben erhält.
  7. Edelman hat Recht, wenn er auf die bisherige unbefriedigende Praxis der Wissenschaften hinweist, in der die Rolle des Theoriemachers als Teil der Theoriebildung kaum bis gar nicht thematisiert wird, erst recht geht diese Rolle nicht in die eigentliche Theorie mit ein. Edelman selbst hat aber offensichtlich keinerlei Vorstellung, wie eine Verbesserung erreicht werden könnte, hat er ja noch nicht einmal einen rudimentären Theoriebegriff.
  8. Aus dem bisher Gesagten lässt sich zumindest erahnen, dass ein verbessertes Konzept einer Theorie darin bestehen müsste, dass es eine explizite ‚Theorie einer Population von Theoriemachern (TPTM)‘ gibt, die beschreibt, wie solch eine Population überhaupt eine Theorie gemeinsam entwickeln und anwenden kann und innerhalb dieser Theorie einer Population von Theoriemachern würden die bisherigen klassischen Theoriekonzepte dann als mögliche Theoriemodelle eingebettet. Die TPTM wäre dann quasi ein ‚Betriebssystem für Theorien‘. Alle Fragen, die Edelman angeschnitten hat, könnte man dann in einem solchen erweiterten begrifflichen Rahmen bequem diskutieren, bis hinab in winzigste Details, auch unter Einbeziehung der zugrunde liegenden materiellen Strukturen.
  9. Das, was Edelman als Theorie andeutet, ist vollständig unzulänglich und sogar in wesentlichen Punkten falsch.
  10. Anmerkung: Darwin hatte nichts was einem modernen Begriff von Theorie entsprechen würde. Insofern ist auch das Reden von einer ‚Evolutionstheorie‘ im Kontext von Darwin unangemessen. Damit wird aber der epochalen Leistung von Darwin kein Abbruch getan! Eher wirkt sein Werk dadurch noch gewaltiger, denn die Transformation von Gedanken, Phänomenen, Fakten usw. in die Form einer modernen Theorie setzt nicht nur voraus, dass man über die notwendigen Formalisierungsfähigkeiten verfügt (selbst bei den theoretischen Physikern ist dies nicht unbedingt vollständig gegeben) sondern man kann erst dann ’sinnvoll formalisieren‘, wenn man überhaupt irgendetwas ‚Interessantes‘ hat, was man formalisieren kann. Die großen Naturforscher (wie z.B. Darwin) hatten den Genius, die Kreativität, den Mut, die Zähigkeit, das bohrende, systematisierende Denken, was den Stoff für interessante Erkenntnisse liefert. Dazu braucht man keine formale Theorie. Die Transformation in eine formale Theorie ist irgendwo Fleißarbeit, allerdings, wie die Geschichte der Physik zeigt, braucht man auch hier gelegentlich die ‚Genies‘, die das Formale so beherrschen, dass sie bisherige ‚umständliche‘ oder ‚unpassende‘ Strukturen in ‚einfachere‘, ‚elegantere‘, ‚besser passende‘ formale Strukturen umschreiben.

Fortsetzung folgt HIER.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

Wieweit können wir unseren eigenen Gedanken trauen, dass sie wahr sind? Memo zur Philosophiewerkstatt vom 11.Juni 2017

Abstract—Dieser Text schildert die Eingangsgedanken
zur Philosophiewerkstatt vom 11.Juni 2017 (in aktualisierter
Form) und berichtet anhand der Gedankenskizze
vom Gespräch. Zu vielen Aspekten und Gedanken blieben
abschließende Stellungnahmen aufgrund der knappen Zeit
aus. Vielleicht l ässt sich dies in der letzten Sitzung vor der
Sommerpause am 16.Juli 2017 noch ergänzen.

PDF-Version

I. Einleitung

A. Erbe aus der letzten Sitzung

In der letzten Philosophiewerkstatt vom 30.April 2017 wurde eine Linie skizziert vom körperlichen Dasein eines Menschen in einem Raum, zu seinem Innenleben voller Eindrücke und Gedanken, durchsetzt von Gefühlen, von dort zu seinem Körper mit dem Nervensystem und Gehirn, durch die das Innenleben möglich wird, und dann der Hinweis auf das Werkzeug Sprache, wodurch Menschen ihr eigenes Innenleben mit dem Innenleben anderer Menschen unterschiedlich gut verknüpfen können.

Im Gespräch zeigte sich dann, dass das Verhältnis von sprachlichem Ausdruck zu dem mit dem Ausdruck Gemeintem (die intendierte Bedeutung) alles andere als einfach ist, kein ‚Selbstläufer‘, kein Automatismus für wahr Sätze. Es entstand vielmehr der Eindruck, dass die Möglichkeit zur subjektiven Täuschung, zur Verzerrung, zum Irrtum von vornherein gegeben ist. Etwas Angemessenes, Richtiges, Wahres sagen zu können erfordert viel Aufmerksamkeit und viel Erfahrung. Was aber, wenn große Teile der Erfahrung schon falsch sind? Wenn gar eine ganze Kultur ’schief liegt‘?

Im folgenden werden zwei berühmte philosophisch-wissenschaftliche Positionen thesenartig vorgestellt, die zu weiterem Nachdenken anregen können.

B. Nilsson: Alles ist Glauben

Nils John Nilssonist ein US-amerikanischer Informatiker, der mit zu den Gründungsvätern der modernen Informatik zählt, hier speziell im Gebiet der künstlichen Intelligenz (KI). Sehr spät, 2014, hat er ein Buch publiziert mit dem Titel Understanding Beliefs.

Nilsson 2014: Mensch so wie Roboter
Nilsson 2014: Mensch so wie Roboter

In dem Maße wie die Informatik im Bereich der KI-Forschung mit Prozessen zu tun hat, die dem menschlichen Erkennen und Denken ähneln, in dem Maße stellen sich hier auch ähnliche — wenn nicht gar die ‚gleichen‘ — Fragen, wie die, die sich uns Menschen stellen, wenn wir über unser eigenes Denken nachsinnen wollen. In der Philosophie nennt man dieses Gebiete des philosophischen Denkens Erkenntnistheorie (engl.: epistemology). Und in der Tat, Nilsson, nach vielen Jahrzehnten der KI-Forschung, wendet sich in seinem jüngsten Buch dezidiert erkenntnistheoretischen Fragen zu, und in diesem Fall nicht Fragen des Denkens bei Maschinen, sondern, genau umgekehrt, herausgefordert durch seine Beschäftigung mit den Maschinen, den Fragen des Erkennens beim Menschen, bei uns selbst.

Bemerkenswert ist hier allerdings seine Formulierung. Ausgehend von den Robotern (vgl. Bild ‚Mensch so wie Roboter‘), die er kennt, weil er selber Roboter entwickelt, gebaut und getestet hat, überträgt er das Robotermodell — so scheint es — einfach auf die Menschen. Genauso, wie es bei dem Roboter ist (it is the same for us humans (vgl.KP 55)) mit sensorischer Wahrnehmung, daraus resultierendem Wissen und Erklärungen und Folgerungen, genau so sei es bei uns Menschen. Auch der menschliche Körper hat eine Sensorik, ein auf der Wahrnehmung basierendes Wissen und zusätzliches Wissen als Erklärung und Folgerungen.Im Fall des Menschen ist es allerdings nicht ein Ingenieur, der baut, sondern der Prozess der biologischen Evolution, der aus Zellen mit DNA-Molekülen menschliche Körper entstehen lässt. (vgl. KP 55ff)

Struktur des menschlichen Wissens nach Nilsson (2014), Kap.1
Struktur des menschlichen Wissens nach Nilsson (2014), Kap.1

Bei der Beschreibung des menschlichen Wissens (vgl. Bild ‚Struktur menschlichen Wissens) unterscheidet Nilsson am Körper der Menschen grundsätzlich Sensorik, die die Außenweltereignisse wahrnehmen kann, dann das Gehirn, das alle Signale verarbeitet, und indirekt das Bewusstsein, in dem unsere Wahrnehmungen und unser Wissen sich zeigen.[Anmerkung: Nilsson erwähnt das Bewusstsein in diesem Kapitel nicht explizit!] Ferner nimmt er ebenfalls nur implizit das beobachtbare Verhalten an, das die Grundlage für die empirische Psychologie bildet.

In Korrespondenz zu diesen Annahmen unterscheidet Nilsson grundsätzlich drei verschiedene Disziplinen, die sich mit menschlichem Wissen beschäftigen: die Philosophie, die Kognitionswissenschaften in Gestalt der kognitiven Psychologie, und die Neurowissenschaften.

Die Neurowissenschaften sortiert er schnell aus, da sie bislang nach seiner Einschätzung noch kein hinreichendes Wissen darüber erarbeitet haben, wie unser Wissen und unsere Überzeugungen im Gehirn tatsächlich repräsentiert sind. [Anmk: Womit sich die Frage stellt, woher wissen wir denn überhaupt etwas über unser Wissen; das Bewusstsein erwähnt er ja nicht.]

Die Philosophie in Form von Erkenntnistheorie (engl.: epistemology) erwähnt er auch nur kurz. Die Erkenntnistheorie beschäftige sich hauptsächlich mit Wissen in Form von deklarativem Wissen, das mittels erklärenden feststellenden sprachlichen Äußerungen artikuliert wird.

Die Kognitionspsychologie (die auch zu den Kognitionswissenschaften gerechnet wird) wird auch nur beiläufig erwähnt. Diese entwickelt theoretische Modelle über das deklarative (Wissen, dass) und prozedurale (Wissen wie) Wissen.

Details über diese verschiedene Disziplinen sowie ihr mögliches Zusammenwirken werden nicht mitgeteilt.

Unbeschwert von methodischen Anforderungen der genannten drei Disziplinen geht Nilsson dann relativ schnell zu der Behauptung über, dass Überzeugungen und Wissen letztlich das Gleiche seien. All unser tatsachenbezogenes Wissen drückt sich in unseren Überzeugungen aus. Überzeugungen sind hypothetisch und veränderbar; sie bilden eine schier unendliche Liste. Sie enthalten inhaltlich Annahmen über Objekte, Eigenschaften und Beziehungen. Ausgedrückt/ artikuliert werden Überzeugungen durch sprachliche Äußerungen in der Form von feststellenden (deklarativen) Ausdrücken. Viele Sätze zusammen bilden dann Theorien bzw. Modelle, die die Realität der Außenwelt für uns Menschen ersetzen, da wir sie so real erleben, als ob sie die Realität wären. Tatsächlich sind sie im Vergleich zur Realität der Außenwelt aber nur virtuelle Größen, die unser Gehirn aufgrund der Sinnesdaten berechnet und uns als produzierte (= virtuelle) Realität anbietet.

Ob und wieweit virtuelle Modelle der Realität ‚entsprechen‘, das müssen spezielle wissenschaftliche Verfahren klären. Ein Mensch kann nicht nur direkt einen bestimmten Sachverhalt X ‚glauben‘, er kann auch glauben, dass der Sachverhalt X nicht zutrifft.

C. Popper: Wider die Unüberwindbarkeit des begrifflichen Rahmens

Von Karl Popper gibt es viele gewichtige Schriften. Hier soll sein Aufsatz The Myth of the Framework berücksichtigt werden, der als Kapitel 2 des Buches The Myth of the Framework: In Defence of Science and Rationality 1994 erschienen ist.

In diesem Text vertritt Popper einige Kernthesen, die er — aufgrund seines umfangreichen historischen Wissens — mit sehr vielen Beispielen illustriert. So interessant diese Beispiele sind, so können sie aber auch die Kernthesen verdecken. Im Folgenden (siehe dazu auch Bild ‚Gegen den Mythos von der …‘) werden daher die historischen Beispiele weitgehend ausgeblendet. Dem interessierten Leser sei aber empfohlen, den ganzen Text zu lesen.

https://www.cognitiveagent.org/wp-content/uploads/2017/06/PopperMythFramework1-2400.jpg
Popper (1994): Gegen den Mythos von der Unüberwindbrkeit des begrifflichen Rahmens

Popper beginnt seinen Text mit einer These, die er dem sogenannten Relativismus zuschreibt: dass jeder Mensch in seinem Denken jeweils einen bestimmten kulturellen Kontext widerspiegele, und dieser Kontext sich in Form eines bestimmten begrifflichen Rahmens (engl.: framework) bestimmend auf das Denken auswirke. Die Wahrnehmung der Welt wird im Lichte des begrifflichen Rahmens so stark bestimmt, dass ein anderer Mensch mit einem anderen kulturellen Kontext bei gleichen Wahrnehmungen zu unterschiedlichen Interpretationen kommen würde. Diese kulturell und dann begrifflich-rahmenmäßig induzierten Interpretationsunterschiede seien unüberwindlich.

Dieser Auffassung widerspricht Popper vehement.

Dabei macht er gleich zu Beginn eine Unterscheidung, die er leider nicht weiter ausführt und systematisiert: er weist darauf hin, dass man zwischen dem jeweiligen begrifflichen Rahmen und den Voraussetzungen für einen Dialog unterscheiden muss. Das eine ist, was wir wissen (innerhalb unseres begrifflichen Rahmens), das andere sind psychologische und soziale Rahmenbedingungen, die festlegen, ob und wie wir miteinander kommunizieren. Explizit nennt er hier illustrierend die Toleranz, den guten Willen, Freiheit, Rationalität und auch eine demokratische Verfasstheit. Diese (und andere) Faktoren können einen offenen, kritischen Diskurs fördern.

Dass ein offener Diskurs wichtig ist, das liegt daran, dass gerade bei Unterschieden im begrifflichen Rahmen angesichts unterschiedlicher Kulturen diese Unterschiede eine Herausforderung darstellen: wirken diese Unterschiede bedrohlich? Haben sie möglicherweise einschneidende negative Folgen für die Betroffenen? Es besteht dann die Gefahr einer Ablehnung, die sich mit Gewalt verbindet, bis hin zum Krieg. Werden Unterschiede aber offen aufgegriffen, nüchtern analysiert, versucht man aus ihnen zu lernen, kommt man aufgrund von Unterschieden zu neuen, möglicherweise besseren Einsichten, dann können alle Beteiligten aus solchen Unterschieden einen Gewinn ziehen. Und genau für diesen konstruktiv-positiven Umgang mit Unterschieden haben sich im Laufe der Jahrhunderte und sogar Jahrtausenden Haltungen wie Toleranz und Rationalität sehr bewährt.

Es fragt sich, was man näher hin unter einem begrifflichen Rahmen verstehen soll. Diese Frage wird von Popper nicht sehr präzise beantwortet. Allgemein bauen wir unsere begriffliche Rahmen als Teil unserer Kultur auf, um die Welt, das Leben zu erklären. Dies beinhaltet zahlreiche Annahmen (engl.: assumptions) und Prinzipien. In der Wahrnehmung der Welt geht der begriffliche Rahmen insoweit ein, als jede Beobachtung Theorie geladen ist (engl.: theory impregnated). Wahre Aussagen sind solche, die sich mit Bezug auf reale Sachverhalten entscheiden lassen. Sofern ein solcher entscheidbarer Bezug auf Sachverhalte verfügbar ist, sind sprachliche Aussagen unterschiedlicher Sprachen ineinander übersetzbar. Durch eine solche Entscheidbarkeit von Sätzen gibt es Ansatzpunkte für eine Falsifizierbarkeit. Popper geht allerdings nicht näher darauf ein, ob und wie sich die Entscheidbarkeit einzelner Aussagen im größeren Kontext einer Theorie nutzen lässt.

II. Nilsson, Popper und das Gespräch

Im nachfolgenden Gespräch wurden die Thesen von Nilsson und Popper von den Teilnehmern nur sehr indirekt angesprochen.[Anmk: An dem Tag lagen die graphischen Interpretationen noch nicht vor und die verfügbare Zeit war ein bisschen knapp,um die Text voll zu lesen.] Es wird daher erst das Gespräch kurz skizziert und dann werden einige Fragen aufgeführt, die sich angesichts der vorausgehenden Themen stellen können. Möglicherweise wird die nächste Sitzung der Philosophiewerkstatt am So 16.Juli 2017 eine Weiterführung und Vertiefung der aktuellen Überlegungen bringen, zusätzlich angereichert von Thesen von Deutsch (1997) „The Fabric of Reality“.

III. Memo Gespräch

Gedankenbild zum Gespräch der Philosophiewerkstatt vom 11.Juni 2017
Gedankenbild zum Gespräch der Philosophiewerkstatt vom 11.Juni 2017

A. Alltagserfahrung

Das Gespräch nahm seinen (natürlichen) Ausgangspunkt bei Alltagserfahrungen der Teilnehmer. Alle empfinden die Situation so, dass sie immer schneller mit immer mehr Fakten überflutet werden; dies führt dazu, dass sich Wissen durch die schiere Menge selbst relativiert. Das Reden von ‚Wissen‘, das heute überall verfügbar sei, gewinnt dadurch fast illusorische Züge, da der einzelne mit seinem Gehirn in seinem Leben nur einen Bruchteil des verfügbaren Wissens wird verarbeiten können.

Diese Relativität von Wissen prägt unsere politischen Formen (Mehrheiten, keine absoluten Wahrheiten) und auch die Rechtsfindung (Fakten sammeln, abwägen, evaluierten). Die leitenden Rechtsnormen repräsenieren keine absoluten Werte und sind interpretationsbedürftig.

B.Kinder

Die Entwicklung der Kinder war schon oft ein Modellfall für viele Fragen. Auch für die Frage nach der Wahrheit war dies wieder ergiebig: sie überschwemmen ihre Umgebung mit Warum-Fragen und suchen Deutungsangebote. Ein Blick in die Kulturen und Geschichte deutet an, dass die Suche nach Erklärungen möglicherweise ein tiefsitzendes Bedürfnis des Menschen nach Verstehen, nach Sicherheit widerspiegelt. Und insofern von der Deutung/ Erklärung viele praktischen Konsequenzen abhängen können, stellt sich die Frage nach der Wahrheit eines Zutreffens in der Erfahrungswelt meist nicht interessefrei.

C. Wissenschaftliches Wissen

Es ist interessant, dass die Menschen erst nach vielen tausend Jahren in der Lage waren, die Produktion und Pflege von wahrem, nachprüfbaren Wissen zu beherrschen. Wissenschaftliches Wissen gründet auf nachvollziehbaren, wiederholbaren Messprozessen, die als solche jedem zugänglich sind, die unabhängig sind von den inneren Zuständen des einzelnen. Solche wissenschaftliche Messungen generieren für einen bestimmten Zeitpunkt und einen bestimmten Ort einen Messwert. Messwerte als solche bieten aber keine Erklärung. Um einzelne Messwerte für die Zwecke der Erklärung zu benutzen, muss eine allgemeine Beziehung generiert werden, die für alle bekannten Messwerte funktioniert. Diese Beziehung ist kein empirisches Objekt im üblichen Sinne, sondern eine kreative Erfindung des Wissenschaftlers, der damit versucht, die Messwerte zu deuten. In der Regel hilft das verfügbare Vorwissen bei der Formulierung solch einer Hypothese. Gelingt es, mit Hilfe eines allgemeinen Verfahrens andere potentielle Messwerte voraus zu sagen (Prognose), dann wird dies üblicherweise als Bestätigung der Hypothese interpretiert; im anderen Fall spricht man von einer Abschwächung oder gar Widerlegung (Falsifikation).

D. Biologische Evolution

Interessant ist, dass es zwischen diesem experimentellen Vortasten des Wissenschaftlers und dem Prozess der biologischen Evolution direkte Parallelen gibt. Im Prozess der biologischen Evolution besitzt jede Zelle im DNA-Molekül eine Art Vorwissen der bisherigen Erfolge, und ergänzend dazu werden zufällig-kreativ zahllose neue Varianten gebildet. Einige von diesen neuen Varianten zeugen dann, dass sie funktionieren (d.h. meistens: überleben können), andere nicht. Das Überleben ist in diesem Zusammenhang dann die Bestätigung.

E. Menschliches Bewusstsein

Die wissenschaftliche Form des Wissens wirft auch Licht auf eine fundamentale Eigenart des menschlichen Bewusstseins. Im menschlichen Bewusstsein treffen die konkreten sensorischen Ereignisse zusammen mit den abstrahierten, geclusterten, vernetzten Elementen des Gedächtnisses. Dadurch kann jeder Mensch beständig konkrete Objekte als Instanzen von allgemeinen Begriffen erkennen und sieht sie sogleich in allen möglichen Kontexten. Dies ist einerseits sehr hilfreich, birgt aber zugleich auch die Gefahr, dass eine falsche Vorerfahrung aktuelle Wahrnehmungen falsch einordnet.

In allen Kontexten tauchten immer wieder auch die Frage nach den Werten auf. Es blieb offen welche Rolle Gefühle wie angenehm/ unangenehm spielen, unterschiedliche Interessen, Bedürfnisse. Welchen Stellenwert haben sie letztlich?

 

Einen Überblick über alle Einträge zur Philosophiewewrkstatt nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs finden sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.