PSYCHOANALYSE ALS PROTOTYP EINER REFLEKTIERTEN EMPIRISCHEN WISSENSCHAFT. Bericht zur Sitzung vom 9.September 2018

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 10.Sept. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

KONTEXT

Die Sitzung am 9.September 2018 hatte eine Vorgeschichte.

ROBOTER VERLANGEN BESCHREIBUNG

In einer Sitzung im Januar 2018 hatte sich die bunt gemischte Gesprächsrunde die Frage gestellt, ob man einen Psychoanalytiker durch einen Roboter ersetzen könne. Die Analyse kam zur Erkenntnis, dass der Bau eines geeigneten Roboters voraussetzt, dass es eine hinreichend angemessene Beschreibung dessen gibt, was genau ein Psychoanalytiker im Rahmen eines therapeutischen Prozesses tut, wie die Interaktionen mit dem Analysanden sind, und welche speziellen ‚inneren Zustände‘ beim Analytiker gegeben sein müssen, damit er so handeln kann. Damit verschob sich die Aufgabenstellung hin zu einer solchen angemessenen Beschreibung des Psychoanalytikers/ der Psychoanalytikerin in einem Therapieprozess.

PSYCHOANALYSE ALS EMPIRISCHE THEORIE

In der nachfolgenden Sitzung im März 2018 wurde daher das Selbstverständnis der Psychoanalyse im Rahmen des Begriffs einer empirischen Theorie abgefragt. Das erstaunliche Ergebnis war, dass die Psychoanalyse grundsätzlich alle Anforderungen an eine empirische Wissenschaft erfüllt. Sie hat allerdings zwei Besonderheiten: (i) Der Beobachter und der Theoriemacher sind selbst Bestandteil der Theorie; (ii) die Messvorgänge laufen unter Laborbedingungen ab, die neben schon klassifizierten Phänomenen kontinuierlich auch ’neue‘ Phänomene zulässt, die für die Theoriebildung wichtig sein können (für Details siehe den Beitrag).

VON DEN DATEN ZUM MODELL

In der nachfolgenden Sitzung im April 2018 fokussierte sich das Gespräch auf das Wechselspiel zwischen ‚Daten‘ und erklärendem ‚Modell‘ (‚Theorie‘) und wie es zum Modell kommt. Speziell im Fall des Psychoanalytikers ergibt sich eine Doppelrolle: (i) als Teil des Prozesses agiert er/sie im Prozess als Mensch mit ‚Un-Bewusstem‘ und und seinen ‚Erfahrungen‘ und seinem bisherigen ‚Modell‘, andererseits (ii) ist er/sie reflektierter Profi, der seine Wahrnehmungen des Analysanden, der Umgebung und seiner selbst mit seinem ‚professionellen Modell‘ abgleichen muss. Der hier offensichtlich werdende ‚dynamische Charakter der Modellbildung‘ ist charakteristisch für jede Modellbildung, wird aber in den meisten empirischen Wissenschaften eher verdeckt. (Für Details siehe den Beitrag).

EINE PSYCHOANALYTISCHE FALLSTUDIE

In der Sitzung vom Mai 2018 wurde nach so viel vorausgehender Theorie ein konkretes Fallbeispiel betrachtet, das eine der teilnehmenden Psychoanalytikerinnen  vorstellte. Dieses Beispiel demonstrierte sehr klar, wie die Psychoanalytikerin als aktives Moment im Therapieprozess im Bereich des Un-Bewussten mit dem Analysand interagiert und dadurch diesen in die Lage versetzt, einen Zugriff auf jene Faktoren zu bekommen, die im Un-Bewussten das Verhalten über Jahrzehnte massiv beeinflusst hatten. Dadurch lies sich dann schnell und wirkungsvoll eine qualitative Verbesserung der Situation des Analysanden herstellen.

WISSENSCHAFTSPHILOSOPHISCHE AKTUALITÄT DER PSYCHOANALYSE

GEISTESWISSENSCHAFTEN VERSUS NATURWISSENSCHAFTEN

Die Gegensatzbildung zwischen ‚Geisteswissenschaften‘ einerseits und ‚Harten Wissenschaften‘ andererseits ist nicht neu und bei vielen so eine Art Stereotyp, das man gar nicht mehr hinterfragt. In den ‚harten Wissenschaften‘ selbst gibt es aber immer wieder von einzelnen selbst-kritische Überlegungen zur Problematik des ‚Beobachters‘ und des ‚Theoriemachers‘, die aus der eigentlichen Theorie ausgeklammert werden, was wissenschaftsphilosophisch zu erheblichen Problemen führt (Ein prominentes Beispiel, was ich auch gerade im Blog analysiere und diskutiere ist Edelman, ein exzellenter Erforscher des Immunsystems und des Gehirns).

INGENIEURWISSENSCHAFTEN

In den Ingenieurwissenschaften, die den empirischen Wissenschaften in Sachen Formalisierung in Nichts nachstehen, eher noch ausführlicher und in vielen Fällen erheblich detaillierter sind, gibt es dagegen schon seit vielen Jahren die wachsende Erkenntnis, dass 60 – 80% der Projekte nicht daran scheitern, dass die beteiligten Experten zu wenig wissen, sondern daran, dass die beteiligten ExpertenInnen ihre eigenen psychologischen Zustände zu wenig kennen, mit ihnen nicht umgehen können, diese in die Planung von Projekten und den zugehörigen komplexen Formalisierungen nicht einbeziehen. Statt von ‚Beobachter‘ und ‚Theoriemacher‘ spreche ich hier vom ‚Akteur‘ als jenem Moment eines Theorieprozesses, das sowohl die Theorie entwickelt als auch anwendet. Eine moderne und zukunftsfähige Theorie des Engineerings wird nicht umhin kommen, irgendwann den Akteur selbst in die Theoriebildung einzubeziehen (einen Theorieansatz in diese Richtung findet sich in dem Online-Buchprojekt ‚Actor-Actor-Interaction Anaysis‘).

PSYCHOANALYSE ALS PROTOTYP

Interessant ist, dass die Psychoanalyse eigentlich ein Prototyp einer solchen ‚Beobachter-Integrierten empirischen Theorie‘ ist, und zwar schon von Anfang an. Wie Jürgen Hardt, einer der teilnehmenden Psychoanalytiker, in Erinnerung rief, hatte der Begründer der Psychoanalyse, Freud, von Anfang an die Forderungen aufgestellt, (i) dass die Psychoanalyse eine Naturwissenschaft sein muss, allerdings (ii) mit dem methodischen Hinweis, dass man das ‚Seelische‘ nicht mit den unleugbar somatischen Parallelvorgängen (im Gehirn, im Körper) verwechseln dürfe. Aus Sicht eines verkürzten Empirieverständnisses wurde dies oft als ‚un-empirisch‘ oder gar als ‚dualistisch‘ charakterisiert. Dies ist jedoch unangemessen. Freud ging es primär darum, zunächst mal jene ‚Phänomene zu retten‘, die sich bei dem damaligen Zustand der empirischen Wissenschaften noch nicht in die aktuellen theoretischen Modelle (sofern es denn überhaupt echte empirische Modelle waren) einordnen liesen. Es zeichnet ‚wahre empirische Wissenschaft‘ schon immer aus, dass sie ‚Phänomene‘ akzeptiert, auch und gerade dann, wenn die aktuelle Theoriebildung sie noch nicht einordnen kann.

KEIN DUALISMUS

Dazu kommt, dass man die Charakterisierung von ‚Dualismus‘ selbst sehr kritisch hinterfragen muss. In der modernen Mathematik und damit auch in allen empirischen Theorien, die Mathematik benutzen (was letztlich alle empirischen Disziplinen sind, die den Anforderungen einer ‚wissenschaftlichen‘ Theorie gerecht werden wollen) gibt es nur zwei Grundbegriffe:’Menge‘ und ‚Relation (Funktion)‘. Während man für das abstrakte Konzept ‚Menge‘ in der empirischen Wirklichkeit nahezu beliebig viele konkrete ‚Objekte‘ finden kann, die als ‚Instanzen/ Beispiele‘ für Mengen dienen können, sozusagen die Prototypen für ‚Reales‘, lassen sich für ‚Relationen/ Funktionen‘ so leicht keine direkte Entsprechungen finden. ‚Relationen‘ bestehen nur ‚zwischen‘ Objekten, ‚Funktionen‘ dagegen lassen sich ‚Veränderungen‘ zuschreiben. Beides ‚Beziehungen zwischen‘ und ‚Veränderungen‘ sind keine realen Objekte; sie existieren quasi nur in unserer Wahrnehmung als ‚virtuelle‘ Objekte. Das Verhältnis zwischen ‚realen Objekten‘ und ‚virtuellen Relationen/ Funktionen‘ würde man daher nicht als ‚Dualismus‘ bezeichnen, da der Begriff des Dualismus spätestens seit Descartes  eher für die Forderung nach zwei unterschiedliche ‚Substanzen‘ (‚res extensa‘, ‚res cogitans) reserviert hat. Objekte kann man vielleicht als Substnzen (‚res extensa‘) bezeichnen, nicht aber ‚virtuelle Relationen/ Funktionen‘.

Angewendet auf die Psychoanalyse wäre die Freudsche Unterscheidung von ’somatischen Prozessen‘ (Gehirn/ Körper als ‚res extensa‘, denen zugleich aber auch ‚dynamische‘ Eigenschaften zukommen (= Funktionen)) und dem ‚Seelischen‘, das sich qualitativ im ‚Bewusstsein‘ zeigt (= Phänomene als ‚virtuelle Objekte‘ (mit virtuellen Beziehungen) in einer spezifischen Dynamik (mit virtuellen Funktionen)) dann kein klassischer Dualismus sondern eine Unterscheidung unterschiedlicher Phänomenklassen, denen unterschiedliche Gesetzmäßigkeiten zukommen.

SYSTEMISCHES KONZEPT

Was viele gern übersehen, das ist die ‚Gesamtsicht‘, die der Psychoanalyse zu eigen ist. Freud selbst tendierte in seiner Spätphase (Hinweis Jürgen Hardt) zu einem ‚organismischen‘ Denken, wie er es nannte; heute würde man es vielleicht ’systemisch‘ nennen. Durch die Anerkennung der Tatsache, dass das ‚Bewusstsein‘ nur einen Teil – heute müsste man vielleicht sagen: einen sehr kleinen Teil! – der Vorgänge im menschlichen Körper abbildet, wobei das ‚Un-Bewusste‘ letztlich den ganzen Restkörper beinhaltet, muss die Psychoanalyse jede Reaktion eines Akteurs als eine ‚Antwort des ganzen Systems‘ betrachten, die in den meisten Fällen von Prozessen und Faktoren verursacht werden, die eben un-bewusst sind. Insofern es weder aktuell eine vollständige Theorie aller Körperprozesse gibt noch man davon ausgehen kann, dass die Menge der möglichen Körperprozesse endlich und konstant ist, nicht einmal im Fall eines einzelnen Akteurs, ist die psychoanalytische Theoriebildung kontinuierlich in einer Situation, wo es eine Modellvorstellung M bis zum Zeitpunkt t gibt, die ab dem Zeitpunkt t mit einer offenen Menge von Phänomenen Ph_t+ konfrontiert werden kann, die vielfach bzw. überwiegend noch nicht Teil des bisherigen Modells M sind. Sofern das Modell M Anhaltspunkte für Interpretationen oder Verhaltensprognosen gibt, kann der Therapeut danach handeln; sofern das Modell ’schweigt‘, muss er das tun, was die Evolution seit 3.8 Milliarden Jahren tut: mangels Wissen über die Zukunft lassen biologische Populationen die Bildung von ‚Varianten‘ zu, von denen vielleicht einige dann in der Zukunft ‚passen‘, wenn alle anderen aufgrund von Veränderungen der Umgebung ’nicht mehr passen‘. Dieses ‚Handeln bei mangelndem Wissen ist der wichtigste Überlebensakt aller biologischer Systeme. Die ‚Quelle‘ für psychotherapeutische Verhaltensvarianten ist das eigene System, der Körper des Psychoanalytikers, schwerpunktmäßig sein Un-Bewusstes, das ‚aus sich heraus‘ wahrnimmt und reagiert.

Von den Psychoanalytikern wurde zahllose Beispiel angeführt, deren Phänomenologie die Arbeitshypothese nahelegt, dass es zwischen dem ‚Un-Bewussten‘ des Therapeuten und dem Un-Bewussten des Patienten offensichtlich eine Kommunikation im Nicht-Bewussten-Bereich geben muss, da unbewusste Zustände des Patienten, von denen der Therapeut bis dahin nichts wusste, sehr charakteristische Körperzustände beim Therapeut hervorriefen, die dann zum ‚Katalysator‘ dafür wurden, dass der Therapeut und der Patient dadurch einen entscheidenden Hinweis auf die zugrunde liegenden un-bewussten Faktoren im Patient gewinnen konnten.

Angesichts dieser Systemsicht und ihrer komplexen Dynamik stellt sich die Frage nach der Funktion des ‚Bewusstseins‘ ganz anders. Irgendwie erscheint das Bewusstsein wichtig (mindestens für alle sprachliche Kommunikation und explizite Planung), aber irgendwie ist das Bewusstsein nur ein kleiner Teil eines viel größeren dynamischen Systems, dessen Ausmaß und genaue Beschaffenheit weitgehend im Dunkeln liegt. Die moderne Gehirnforschung (wie auch die gesamte moderne Physiologie) könnte hier sicher viele wertvolle Erkenntnisse beisteuern, wären sie nicht bislang wissenschaftsphilosophisch so limitiert aufgestellt. Viele der möglichen interessanten Erkenntnisse ‚verpuffen‘ daher im Raum möglicher Theorien, da diese Theorien nicht ausformuliert werden.

ERFOLGSKRITERIEN

Natürlich kann und muss man die Frage stellen, inwieweit ein psychoanalytisches Modell – oder gar eine ausgebaute Theorie – ‚verifizierbar‘ bzw. ‚falsifizierbar‘ ist. Berücksichtigt man die methodischen Probleme mit dem Begriff der ‚Falsifikation‘ (siehe dazu die kurze Bemerkung Nr.18 im Blogbeitrag vom 5.September 2018) beschränken wir uns hier auf den Aspekt der ‚Verifikation‘.

Eine Verifikation wäre im allgemeinen die ‚Bestätigung‘ einer ‚Prognose‘, die man aus dem ‚bestehenden Modell‘ ‚abgeleitet‘ hatte. Da das ‚bestehende Modell‘ im Fall der Psychoanalyse im allgemeinen nicht als ‚formalisiertes Modell‘ vorliegt, kann es sich bei den möglichen ‚Prognosen‘ daher nur um ‚intuitive Schlüsse‘ des Therapeuten aus seinem ‚bewusst-unbewussten‘ Modell handeln. Im praktischen Fall bedeutet dies, dass (i) es einen ‚therapeutischen Prozess‘ gab, der alle offiziellen Anforderungen an einen psychoanalytischen Prozess erfüllt, dass (ii) ein Zustand erreicht wird, in dem der Patient einen höheren Grad an ‚Selbststeuerung‘ erreicht hat. Dies kann sich an vielerlei Phänomenen fest machen, z.B. der Patient hat weniger ‚Angst‘, sein ‚körperlicher Gesundheitszustand‘ ist besser geworden, er kann seine ‚Alltagsaufgaben besser lösen‘, er ist generell ‚weniger krank‘, er besitzt mehr ‚Selbstvertrauen‘ im Umgang mit zuvor gefürchteten Situationen, und dergleichen mehr. All diese Phänomene kann man objektivieren. Die sehr verbreiteten Auswertungen nur per Fragebogen sind eher unbrauchbar und nutzlos.

WEITERES VORGEHEN

Zum ersten Mal tauchte die Idee auf, die bisherigen Gespräche zur Psychoanalyse in einem kleinen Büchlein zusammen zu fassen und zu publizieren.

Eine spontane Fortsetzung findet sich HIER.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

DER VERSTECKTE BEOBACHTER UND AKTEUR. Wo Denken sich verabschiedet. Notiz

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062
12.April 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: cagent

Philosophie des Beobachters - Vogelperspektive

Philosophie des Beobachters – Vogelperspektive

DER  BEOBACHTER

In den Wissenschaften ist klar, dass es ohne einen Beobachter nichts gibt: keine Experimente mit Messungen, die Daten generieren, und keine Modelle, Theorien, die Daten in Zusammenhänge setzen und damit Deutungs- oder gar Erklärungshypothesen liefern.

Weniger klar ist, dass und wieweit der Beobachter konstitutiv in eine Theorie eingeht und dass eine ’normale‘ Theorie nicht in der Lage ist, ihren eigenen Beobachter zu thematisieren.

Besonders krass ist der Fall in der Physik. Die standardisierten physikalischen Messeinheiten erlauben interessante Modellbildungen zu Strukturen und Dynamiken der realen Welt, es ist mit diesen Daten und Modellen jedoch nicht möglich, den physik- spezifischen Beobachter angemessen zu beschreiben.

Andere Disziplinen wie z.B. die Biologie, die Psychologie oder die Soziologie kommen den komplexen Phänomenen eines Beobachters zwar ’näher‘, aber auch diese – wenn sie denn als empirische Wissenschaften arbeiten – können ihre jeweiligen spezifischen Beobachter nicht mir eigenen ‚Bordmitteln‘ erschöpfend beschreiben. Würden sie es tun, würden sie ihr Wissenschaftsparadigma sprengen; dann müssten sie aufhören, empirische Wissenschaften zu sein.

IRREFÜHRUNG INTERDISZIPLINARITÄT

Im übrigen muss man auch fragen, ob nicht alle Disziplinen auf ihre spezifische Weise Sichten zum Beobachter entwickeln, die  jeweils spezifisch  ‚Recht‘ haben. Nur eine Zusammenschau aller dieser verschiedenen Sichten würde dem komplexen Phänomen ‚Beobachter‘ gerecht, wenngleich prinzipiell unvollständig. Allerdings wäre keine der einzelnen Disziplinen je für sich in der Lage, eine ‚Gesamtschau‘ zu organisieren. Das gibt der normale Theoriebegriff nicht her. Das Reden vom ‚Interdisziplinären‘ ist insofern eine Farce. Hier wird eine Disziplinen-Übergreifende Einheit angedeutet, die es zwischen Einzeldisziplinen prinzipiell nicht geben kann (und auch in der Praxis nie erreicht wird; das scheitert schon an den verschiedenen Sprachen der Disziplinen).

ROLLEN

In der Praxis der Gesellschaft und der Industrie manifestiert sich das Dilemma des versteckten Beobachters im Phänomen der unterschiedlichen Rollen. An einem Systems-Engineering Prozess (SEP) kann man dies verdeutlichen.

Die Manager eines SEP legen Rahmenbedingungen fest, geben Ziele vor, überwachen den Ablauf. Der Prozess selbst wird von unterschiedlichen Experten (Akteuren) gelebt. Diese Experten setzen den ‚durch die Manager gesetzten Rahmen‘ für die Dauer des Prozesses voraus, als gültiges Referenzsystem, innerhalb dessen sie ihre Problemlösung in Kooperation mit anderen Akteuren ‚leben‘.

Innerhalb eines SEP gibt es Akteure , z.B. die Mensch-Maschine Interaktions (MMI) Experten, heute auch schon Akteur-Akteur-Interaktions (AAI) Experten genannt (Akteure können Menschen (biologische Systeme) oder auch mittlerweile Roboter (nicht-biologische Systeme) sein. ‚Cyborgs‘ bilden neuartige ‚Zwitterwesen‘, wo noch nicht ganz klar ist, ob es ‚erweiterte biologische Systeme‘ sind oder es sich hier um eine neue hybride Lebensform als Ergebnis der Evolution handelt). Die MMI oder AAI Experten entwickeln Konzepte für ‚potentielle Benutzer (User)‘, also ‚andere Akteure‘, die in ‚angedachten Abläufen‘ mit ‚angedachten neuen Schnittstellen (Interface)‘ aktiv werden sollen. Werden die Pläne der AAI Experten akzeptiert und realisiert, entstehen für die angedachten Abläufe neue Schnittstellen, mit denen dann andere – dann ‚reale‘ – Akteure‘ arbeiten werden. Tritt dieser Fall ein, dann übernehmen die ‚Anwender (User)‘ einen ‚von anderen Akteuren gesetzten‘ Rahmen für ihr Handeln.

Vom Auftraggeber (Ebene 1) zum Manager eines SEP (Ebene 2) zu den Experten des SEP (Ebene 3) zu den intendierten Anwendern (Ebene 4). Wie sich dies dann wieder auf die umgebende Gesellschaft (Ebene 5) auswirkt, die sowohl Auftraggeber (Ebene 1) als auch Manager von Prozessen (Ebene 2) als auch die verschiedenen Experten (Ebene 3) beeinflussen kann, ist im Normalfall weitgehend unklar. Zu vielfältig sind hier die möglichen Verflechtungen.

Andere Querbeziehungen in einen SEP hinein (kleine Auswahl) treten dort auf, wo z.B. die AAI Experten andere Wissenschaften zu Rate ziehen, entweder über deren ‚Produkte‘ (Artikel, Bücher, Verfahren) oder direkt durch Einbeziehung der Akteure (Psychologie, Psychologen, Soziologie, Soziologen, usw.).

An keiner Stelle in diesem überaus komplexen Rollengeflecht gibt es normalerweise eine Rolle, die offiziell sowohl die spezifischen Aufgaben ‚innerhalb‘ einer Rolle wie auch die ‚Rolle selbst‘ beobachtet, protokolliert, untersucht. Eine solche Rolle würde jeweils vorgegebene Rollen ‚durchbrechen‘, ‚aufbrechen‘, ‚verletzten‘. Das verwirrt, schafft Unruhe, erzeugt Ängste und Abwehr.

HOFNARREN, PHILOSOPHEN

Andererseits gibt es historisch diese Formen in allen Zeiten. In der einen Form ist es der ‚Hofnarr‘, der kraft seiner Rolle grundsätzlich anders sein darf, dadurch feste Muster, Klischees durchbrechen darf, bis zum gewissen Grad wird dies auch erwartet, aber nur bis zu einem gewissen Grad. Unterschwellige Machtstrukturen dürfen in der Regel nicht angetastet werden.

In der anderen Rolle haben wir die Philosophen. Das philosophische Denken kann das einzelwissenschaftliche Denken ‚imitieren‘, es kann aber jederzeit aus diesem Muster ausbrechen und nach den Voraussetzungen des einzelwissenschaftlichen Denkens fragen. Ein Philosoph kann — von seinem Denken her — die immer und überall wirksamen ‚Voraussetzungen‘ von Verhalten und Denken ‚hinterfragen‘, ‚thematisieren‘ und auf diese Weise einer expliziten Reflexion und sogar bis zu einem gewissen Grade einer Theoriebildung zugänglich machen. Der Philosoph als Teil einer Gesellschaft mit seiner Nähe zum ‚Hofnarren‘ darf meistens aber nur soviel anders sein (Schulphilosophie), die die Gesellschaft ihm zugesteht. Vom Standpunkt eines philosophischen Denkens aus kann man unterschiedliche einzelwissenschaftliche Modelle und Theorien ‚als Objekte‘ untersuchen, vergleichen, formalisieren und man kann auf einer ‚Metaebene‘ zu den Einzelwissenschaften ‚integrierte Theorien‘ schaffen; nur so. Interdisziplinarität ist von hier aus betrachtet eine Form von Ideologie, die genau solche Integrationen  verhindert.

WISSENSCHAFTLICHE EINZELSTAATEREI

Der Versuch der Einzelwissenschaften, sich der ‚Gängelei‘ eines philosophischen Denkens zu entziehen, führt bei aller Positivität der einzelwissenschaftlichen Erkenntnisse zu dem großen Wirrwarr, das wir heute um uns herum beobachten können. Ein komplexes Phänomen wie der Homo sapiens wird zwischen den einzelwissenschaftlichen Mühlsteinen zu Sand zerrieben; übrig bleibt nichts. Die verschiedenen biologischen, psychologischen, neurologischen, soziologischen usw. ‚Substrate‘ bilden unterschiedliche Zerrformen, die in keinem Gesamtbild integriert sind. Das kommt einer Abschaffung des Menschen durch den Wissenschaftsbetrieb gleich. Dies erinnert ein wenig an den kleinstaatlichen Flickenteppich, bevor Deutschland ein integrierter Staat wurde; jeder war sein eigener Fürst; sehr schön; komplexere Einheit fand nicht statt. Das menschliche Gehirn bevorzugt Vereinfachungen, und das subjektive Machtgefühl eines jeden fühlt sich geschmeichelt, wenn es sich als (wenn auch kleiner und beschränkter) ‚Fürst‘ fühlen kann.

Philosophiewerkstatt Serie 2.0 – Ab 12.Okt.2014 – DENKBAR Frankfurt

(Letzte Änderung: 26.Sept.2014, 09:02h)

philosophieWerkstatt v2.0

philosophieWerkstatt v2.0

Ja, es geht weiter. Die

philosophieWerkstatt

geht mit Version v2.0 in eine neue Runde, ab So 12.Oktober 2014,

jeden 2.Sonntag im Monat,
16:00 – 19:00h
in der
DENKBAR Frankfurt
Spohrstrasse 46a

Unkostenbeitrag: 5€

Essen und Trinken wird angeboten von Michas Essen & Trinken. Parken ist im Umfeld schwierig; evtl. in der Rat-Beil-Strasse (entlang der Friedhofsmauer). (Achtung: die Webseite der DENKBAR ist momentan nicht ganz aktuell; eine Aktualisierung soll demnächst folgen).

Anliegen der Philosophiewerkstatt ist es, ein philosophisches Gespräch zu ermöglichen, in dem die Fragen der TeilnehmerInnen versuchsweise zu Begriffsnetzen verknüpft werden, die in Beziehung gesetzt werden zum allgemeinen Denkraum der Philosophie, der Wissenschaften, der Kunst und Religion. Im Hintergrund stehen die Reflexionen aus dem Blog cognitiveagent.org, das Ringen um das neue Menschen- und Weltbild.

12.Okt.14

Bei einer offenen Veranstaltung mit einem neuen Publikum weiß man natürlich nie genau, wie der Verlauf ist, wenn man sich wechselseitig im Gespräch ernst nimmt, ich kann aber sagen, was meine Intention an diesem ersten Nachmittag sein wird:

  • Es wird eine kleine ‚Aufwärmphase‘ geben durch Vorstellungen und Austausch von Erwartungen; dies wird beiläufig für alle sichtbar ‚mitprotokolliert‘.
  • Es folgt dann das ‚Gespräch über das Gespräch‘: Was tun wir, wenn wir reden? Was heisst ‚Verstehen‘? Wie kommen die Wörter zu ihrer ‚Bedeutung‘? Wie entsteht in uns ‚Bedeutung‘? … etwa in diese Richtung.
  • Wir lesen also keine schlauen Bücher über philosophische Themen (das kann jeder zu Hause in seinem stillen Kämmerlein tun…), sondern wir ‚lesen in uns selbst‘, versuchsweise, experimentell. Philosophie am lebenden Objekt.
  • Klassisch könnte man sagen, beschäftigen wir uns anfangshaft mit Sprachphilosophie und Erkenntnistheorie.
  • Alles, was wir diskutieren, wird live in ‚Denkbildern‘ (nein, keine ‚mindmaps‘) festgehalten, indem wir unser Denken ‚aufmalen’… (wir folgen dabei keiner DIN Norm…).
  • Ich habe auch tonnenweise experimentelle Musik dabei; damit kann man gelegentlich ein paar ‚Störgeräusche‘ vor dem Hintergrund langjähriger verfestigter Klanggewohnheiten erzeugen (ein Presslufthammer kann nerven, aber er kann auch verfestigte Strukturen aufbrechen … :-)).
  • Essen und Trinken werden als angenehme Begleitumstände betrachtet, solange dadurch das Denken angeregt wird.
  • Wenn uns das philosophische Denken vom akademischen Betrieb ‚genommen‘ wurde, müssen wir es uns selbst zurückholen, indem wir es einfach tun: philosophisch denken, zusammen, live, ‚unplugged‘ ….

Einen kurzen Bericht zu dieser philosophieWerkstatt v.20 findet sich HIER

REDUKTIONISMUS, EMERGENZ, KREATIVITÄT, GOTT – S.A.Kauffman – Teil 3

Vorausgehender Teil 2

Letzte Änderung (mit Erweiterung): 24.März 2013

ZUSAMMENFASSUNG TEIL 1-2:

(1) Nach einer Charakterisierung des ‚Reduktionismus‘ am Beispiel der modernen Physik führte Kauffman verschiedene Argumente gegen diesen Reduktionismus an. Daraus und aus weiteren Argumenten formte er dann Argumente für die Nichtreduzierbarkeit des Biologischen auf das Physikalische. Diese führten dann zurück zum Ursprung des Lebens, zur unglaublichen Komplexität dieses Anfang und zugleich der anhaltenden Schwierigkeit, diesen Anfang plausibel erklären zu können. Kauffman präsentiert dabei auch ein eigenes Modell, das Modell der autokatalytischen Mengen, das — zumindest mathematisch – viele der wichtigen Fragen zu erklären scheint. Die dann folgenden Gedanken sind sehr ‚dicht‘ und kombinieren mehrere komplexe Konzepte: z.B. Begriffe wie ‚Bedeutung‘, ‚Wert‘, ‚Handeln‘, ‚Handelnder‘, ‚Zeichen‘ als wichtige Eigenschaften des Biologischen. Dazu die Frage nach möglichen Vorläufern, nach ‚allerersten Handelnden‘, sozusagen ‚Protoagenten‘. Zusätzlich wird angenommen, dass sich auf das Verhalten eines biologischen Systems der Begriff ‚zielgerichtet‘ anwenden lässt, der weitere Begriffe wie ‚Bedeutung‘, ‚Wert‘, ‚Absicht‘ und ‚Handelnder‘ impliziert. Schon auf der Ebene einer einzelnen Zelle sieht Kauffman alle wichtigen Eigenschaften als gegeben an: Zellen können ‚entdecken‘ (‚detect‘), sie haben eine ‚Wahl‘ (‚choice‘), und sie können ‚handeln‘ (‚act‘). Zusätzlich können sie sich ‚reproduzieren‘ und können mindestens einen ‚Arbeitszyklus‘ (‚work cycle‘ (im Sinne einer Carnot-Maschine) ausführen. Zusätzlich aber, und dies hebt Kauffman hervor, benötigen diese Systeme die Fähigkeit, diese Zufuhr von freier Energie zu organisieren. Dazu gehört die Fähigkeit der ‚Speicherung‘ von Energie und der Selbstreproduktion. Kauffman schlägt vor, diese ‚Zielgerichtetheit‘, die ein außenstehender Betrachter in solch einem evolutionären Prozess ‚erkennen‘ kann, als eine spezifische Eigenschaft solcher Systeme zu sehen, die er ‚Handlungsfähigkeit‘ (‚agency‘) nennt. Am Beispiel eines einfachen Bakteriums verdeutlicht Kauffman diese Begriffe weiter und führt an dieser Stelle fundamentale Begriffe kognitiver Prozesse ein wie ‚Semiose‘, ‚Zeichen‘, ‚Bedeutung‘, Absicht‘ usw. In diesem Zusammenhang erwähnt Kauffman nochmals David Hume (1711 – 1776), der die philosophische These aufgestellt hatte, dass man aus einem einfache ‚Sein‘, aus bloßen ‚Fakten‘, kein ‚Sollen‘ ableiten kann. Die zuvor von Kauffman vorgelegte Interpretation eines Proto-Handelnden würde dies einerseits bestätigen (der Gradient als solcher impliziert nichts), aber andererseits würde deutlich, dass ein Faktum (der Gradient) innerhalb der Beziehung zu einem System, das diesen Gradienten als ‚Zeichen‘ für etwas ‚interpretieren‘ kann, das für das System einen ‚Wert‘ darstellt, in den ‚Kontext eines Sollens‘ geraten kann, das vom interpretierenden System ausgeht. Während Arbeit für einen Physiker nach Kauffman beschrieben werden kann als eine ‚Kraft die über eine Distanz wirken kann‘, reicht dies nach Peter Atkins (Chemiker) nicht aus: Arbeit nimmt auch Bezug auf ‚Einschränkungen‘ (‚constraints‘), durch die die Freiheitsgrade verringert werden und diese Einschränkungen wiederum erlauben neue Arbeit. Er nennt dies das ‚Vorantreiben der Organisation von Prozessen‘ (‚propagating the organization of processes‘). Er erwähnt in diesem Zusammenhang den Unterschied zwischen ‚Wärme‘ (‚heat‘) und ‚Arbeit (‚work‘). Die maximale Verschiedenheit von Bewegungen in einem Gas liegt vor, wenn die Moleküle eine maximale Bewegungsfreiheit haben, also ein Minimum an Einschränkungen. Dieser Zustand erzeugt ‚Wärme‘ aber leistet keine ‚Arbeit‘. Um ‚Arbeit‘ zu verrichten muss man die Freiheitsgrade ‚einschränken‘. Kauffman kritisiert ferner das sehr verbreitete Konzept der ‚Information‘ nach Shannon bzw. das algorithmische Informationskonzept von Kolmogorov und meint, dass dieser Informationsbegriff zu kurz greift. Beiden Konzepten ist gemeinsam, dass sie letztlich nur nach der Menge der Informationen fragen, die übermittelt wird, aber vollständig offen lassen, ‚was‘ Information denn letztlich ist.
(2) [ANMERKUNG: Schon die bisherigen Ausführungen zeigen, dass Kauffmans Reflexionen sich komplexer Begriffe (‚Handelnder‘, ‚Semiose‘,…) bedienen, die er von ‚außen‘ an das ‚Phänomen‘ heranträgt. Die Phänomene selbst ‚zwingen‘ diese Begriffe ’nicht‘ auf; als reflektierender Beobachter kann man aber bei Kenntnis solcher Konzepte ‚Ansatzpunkte im Phänomen‘ sehen, die die Anwendung solcher Begriffe ’nahelegen‘. Folgt man seinen Deutungsvorschlägen, dann kann man in der Tat zwischen den Phänomenen und den vorgeschlagenen Begriffen eine Reihe von Zusammenhängen ‚erkennen‘, die die ‚reinen Fakten‘ in ‚komplexe Phänomene‘ ‚verwandeln‘, die sich einer aktuell möglichen physikalischen Interpretation entziehen.]
(3) Auf den SS.101-119 untersucht Kauffman unter der Überschrift ‚Order for Free‘ verschiedene mathematische Modelle, die emergente Phänomene simulieren. Auf die technischen Details gehe ich hier nicht weiter ein. [Anmk: Ich werde diese Modelle ab SS2013 im Rahmen meiner Vorlesungen testen und dann gelegentlich nochmal darüber berichten. Für die zentralen Aussagen der folgenden Kapitel spielen die Details keine Rolle.]

NICHTERGODISCHES UNIVERSUM

(4) Auf den SS 120-128 untersucht Kauffman das ‚Nichtergodische Universum‘ (Nonergodic Universe‘). Mit ‚Ergodizität‘ (‚Ergodicity‘) ist eine gewisse ‚Gleichheit‘ gemeint, die sich in der Gesamtheit der Ereignisse feststellen lässt, die unter Voraussetzung einer ‚Endlichkeit‘ eine ‚Wiederholbarkeit‘ impliziert. ‚Nichtergodizität‘ meint dann, dass nicht alle Ereignisse gleich häufig sind; damit wird das, was tatsächlich vorkommt, ‚besonders‘. Und Kauffman geht davon aus, dass die Entwicklung des Universums in allen bekannten Phasen in diesem Sinne besonders, ‚einzigartig‘ (‚unique‘) ist und sich hierin ’nicht wiederholt‘. (vgl. S.120f)
(5) Mittels einer Modellrechnung versucht er dies zu verdeutlichen: er nimmt das Beispiel von Proteinen mit jeweils L=200 Aminosäurebausteinen (tatsächliche Proteine können erheblich länger sein). Nimmt man an, dass 20 verschiedene Aminosäurebausteine verfügbar sind, dann ergibt sich die Menge aller möglichen Kombinationen als 20^200, dies entspricht 1.6 * 10^260. Als Alter des Universums nimmt er 10^17 s an. Ferner nimmt Kauffman beispielhaft an, dass für die Bildung eines Moleküls 10^-15 s benötigt würden. Er errechnet dann die Zahl von 10^67 Wiederholungen der gesamten Geschichte des Universums, um alle möglichen Poteine zu bilden [Anmk1: ich hatte 1.6*10^213 errechnet]. [Anmk2: Die Annahme von Kauffman setzt voraus, dass die Proteine nacheinander gebildet werden. Würde man annehmen, dass der Bildungsprozess parallel stattfinden würde, könnten natürlich zur gleichen Zeit viel mehr Proteine gebildet werden. Nimmt man – sehr idealisierend – an, dass sich innerhalb von 10^-15 s 10^80 Proteine bilden würden, dann wären dies innerhalb eines Durchlaufs des Universums vom BigBang bis heute 10^112 verschiedene Proteine. Das entspräche einem verschwindend kleinen Prozentsatz von 9.95*10^-111 % aller möglichen Proteine (der Länge 20). Das würde bedeuten, dass die Geschichte des gesamten Universums auch in diesem extrem unwahrscheinlichen Fall paralleler Erzeugung noch 1.6*10^148 mal wiederholt werden müsste, um alle möglichen Proteine der bescheidenen Länge L=200 zu bilden. Die Annahme eines ergodischen Universums für den Bereich der biogenen Moleküle erscheint also als stark unzutreffend.]
(6) Und Kauffman merkt an, dass dieser nicht-ergodische Charakter sich auf alle komplexen Phänomene oberhalb der Atome erstreckt.(vl. S.123). [Anmk: In Abwandlung der Kauffmanschen Überlegungen zu den autokatalytischen Prozessen könnte man auch folgende Überlegung formulieren: bei allen Prozessen, in denen sich komplexe Strukturen aus einfacheren Strukturen bilden, beobachten wir, dass in einem bestimmten Raumgebiet R_i sich eine spezifische Anfangsmenge S_j von Strukturen gebildet hat, deren Nachfolgezustand nf(S_j)=S_(j+1) sich durch Stattfinden bestimmter endlicher Veränderungen ’nf‘ (Operationen) bilden. D.h. die Menge der möglichen nachfolgenden Strukturen ist nachhaltig bestimmt durch die vorausgehende Stufe. Dadurch wird die Menge der ‚formal möglichen‘ Strukturen eingeschränkt auf die Menge der ‚historisch möglichen‘ Strukturen. Dies kann ’negativ‘ wirken im Sinne einer unnötigen Beschränkung. Man kann diesen Prozess aber auch so verstehen, dass die zu einem bestimmten Zeitpunkt ‚erreichten‘ Strukturen eine Art ‚Strukturgedächtnis‘ bilden von dem, was möglich ist. Die nachfolgenden Zeitpunkte müssen also nicht bei ‚Punkt Null‘ anfangen sondern können die ‚bisherigen Erfahrungen‘ nutzen. Das wiederum wäre im Sinn einer ‚Wissensbildung‘ ein ‚positiver‘ Fortschritt und wäre genau jene Form von ‚Beschleunigung‘, die die realen evolutionären Prozesse von den formalen Modellen reiner Zufälle unterscheidet. Da sich ferner nur solche Strukturen auf Dauer behaupten können, die sich im Kontext ‚bewähren‘, weil sie den ‚Gegebenheiten entsprechen‘, bilden solche ‚memorierten Strukturen‘ nicht nur eine ’neutrale, zufallsgesteuerte‘ Selektion, sondern eine ‚ko-evolutive‘ Entwicklung im Sinne eines strukturellen ‚Echos‘ auf das, was durch die Vorgabe der jeweiligen Umgebung ‚erwartet‘ wird.] Und nach weiteren spekulativen Modellexperimenten (vgl. S.123ff) folgert er dann, dass durch das Aufkommen von nichtergodischen = historischen Prozessen die Gewinnung von zureichenden Wahrscheinlichkeiten im realen Universum prinzipiell nicht möglich ist (höchstens unter sehr speziellen Randbedingungen). Damit gewinnt das Universum einen sowohl nicht-zufälligen Charakter und besitzt doch – quasi paradox — zugleich eine Nichtvoraussagbarkeit.(vgl.S.127f)

ADAPTION, PRÄADAPTION, KO-EVOLUTION

(7) Im folgenden Kapitel ‚Breaking The Galilean Spell‘ (etwa: Das Brechen von Galileis Zauber)(SS.129-149) versucht Kauffman nicht nur das, was er den ‚Zauber Galileis‘ nennt, ‚auszutreiben‘ (vgl.S.131), sondern auch – positiv – die Grundlage zu legen für seine ‚Wiederentdeckung des Heiligen‘.(vgl. S.130) Zur Erinnerung: Der ‚Zauber Galileis‘ besteht für Kauffman darin, dass die neue Form der wissenschaftlichen Beschreibbarkeit der Natur, die – natürlich nicht nur – mit Galilei begann und dann in den empirischen Wissenschaften (mit Newton, Schroedinger, mit Einstein usw.) eine ungeheuerliche Erfolgsgeschichte geschrieben hat, den Eindruck entstehen lies, als ob man das Verhalten der Natur mit einigen wenigen Gesetzen mathematisch vollständig beschreiben kann. Zeigten schon die Ausführungen in den vorausgehenden Kapiteln zur ‚Nichtergodizität‘ des Universums, dass diese Beschreibbarkeit nicht vollständig sein kann, so bringt jetzt Kauffmann nochmals speziell die biologische Evolution ins Spiel. Seine Hauptthese lautet: Das Biologische ist radikal nichtvorhersagbar und endlos kreativ. (vgl.S.130).
(8) Die zentralen Begriffe hier sind ‚Adaptation‘ und dann ‚Präadaptation‘. Mit ‚Adaptation‘ ist generell der Prozess gemeint, dass bestimmte genetisch kodierte Eigenschaften sich im Laufe der Interaktion mit den jeweiligen Umgebungen nicht nur generell ‚verändern‘ können, sondern dass es bestimmte Eigenschaften sind, die sich im Laufe der Zeit auf diese Weise ‚passend‘ zu einer bestimmten Umgebung ‚herausbilden‘. Diese biologische Eigenschaften (Kauffman macht dies am Beispiel der Entwicklung des Organs Herz fest) sind nach Kauffman weder erkenntnismäßig noch ontologisch mit den bekannten physikalischen Gesetzen voraussagbar. (vgl. S.131) Der Grund hierfür ist der Mangel an wiederkehrenden Eigenschaften. Weder sind jene Konstellationen voraussagbar, die zur Herausbildung des Herzens geführt haben, noch konnte man die dann tatsächliche Herausbildung des Herzens voraussagen, da die jeweiligen genetischen Kombinationen (nach Kauffman) prinzipiell nicht voraussagbar sind. ‚Prädaptation‘ ist eine Art Verfeinerung des Begriffs ‚Adaptation‘ dahingehend, dass es innerhalb einer genetischen Information Teilinformationen geben kann, die über lange Zeit hin keine besondere ‚Bedeutung‘ besaßen, bis irgendwann eine Konstellation Auftritt in der es plötzlich eine interessante ‚Verwendung‘ gibt. (vgl. S.131f) Berücksichtigt man den zusätzlichen Umstand, dass Adaptationsprozesse zeitgleich mit unzählig vielen anderen Adaptationsprozessen verlaufen, dann bilden solche Phänomene des sich ‚wechselseitig die Bälle Zuspielens‘ die Grundlage für das, was wir ‚Koevolution‘ nennen. Ein Adaptationsprozess alleine könnte noch so viele ‚Ansatzpunkte‘ (präadaptive Voraussetzungen) bieten; eine bestimmte Entwicklung würde nur stattfinden, wenn entsprechend parallel andere Entwicklungen zeitgleich auch verfügbar wären. Die in der Wechselwirkung sich dann zeigenden neuen Eigenschaften sagen etwas aus, über die beteiligten Prozesse, sind aber natürlich nicht voraussagbar im Sinne der klassischen Physik. Für eine Voraussagbarkeit würde man ein umfassendes Wissen aller möglichen künftigen Umgebungen benötigen samt der zugehörigen beteiligten adaptiven Prozesse. Nach Kauffman hat dieses Wissen niemand, es nicht verfügbar, also kann man auch nichts voraussagen. (vgl. S.132f).
(9) [Anmk: An dieser Stelle ist Vorsicht geboten. Zwar liegt hier sicher keine Voraussagbarkeit im Sinne der klassischen Physik vor, aber die klassische Physik wurde ja schon längst um die Quantenphysik erweitert. In der Quantenphysik weiß man deutlich weniger als im Falle von biologischen adaptiven Prozessen, und dennoch kann man quantenphysikalisch vieles ‚erklären‘. Ich halte es für möglich und wahrscheinlich, zu einer Theoriebildung im Zwischenbereich von Quantenphysik und klassischer Physik zu kommen, die mit beiden Bereichen ‚kompatibel‘ ist und die in der Tat die klassisch nicht voraussagbaren biologischen adaptiven Phänomene ‚erklären‘ und in gewisser Weise auch ‚voraussagen‘ kann. Dazu müsste man nur den Theoriebegriff entsprechend anpassen, was bislang – so scheint es – einfach noch niemand getan hat. Warum eigentlich nicht?]

KREATIVITÄT

(10) Durch diese wechselseitigen Abhängigkeiten der biologischen adaptiven Entwicklungen voneinander sind sie nicht nur schwer (bis garnicht) voraussagbar, sondern sie sind auch fragil, anfällig für ein kommendes Scheitern, wenn bestimmte Randbedingungen wieder wegfallen, die sie voraussetzen. (vgl. S.133) Identifiziert man diese ‚partiell gesetzlose‘ Situation mit ‚Kreativität‘ in dem Sinne, dass in einer ‚offenen‘ Situation beständig ’neue‘ Strukturen generiert werden, dann ist diese ‚endlose (‚ceaseless‘) Kreativität eine Form, die man mit dem Begriff ‚Gott‘ in Verbindung bringen kann, sozusagen eine natürliche Form von ‚Heiligkeit‘ (’sacred‘). (vgl.S.135) [Anmk: das englische Wort ’sacred‘, das Kauffman benutzt, ist eigentlich ein Adjektiv und kommt alleine als Substantiv eigentlich nicht vor. Er benutzt es aber so, wie wir im Deutschen das Wort ‚das Heilige‘ benutzen.]
(11) Auf die Frage, ob man die Gesetzeslosigkeit der biologischen adaptiven Prozesse ‚beweisen‘ könne, mein Kauffman mit Hinweis auf Goedels Unvollständigkeitsbeweis, dass die Voraussetzung für solch einen Beweis nicht gegeben seien, da mit der beständigen Erzeugung neuer nicht voraussagbarer Fakten kein vollständiges abgeschlossenes System vorliege, das einen solchen Beweis erlaube. (vgl.S.135)[Anmk: Das scheint mir zu wenig. Es geht ja hier nicht um die Fakten im einzelnen, sondern um die strukturellen Rahmenbedingungen, unter denen bestimmte Fakten auftreten bzw. nicht auftreten. Ich sehe zwar momentan auch niemanden, der einen solchen Beweis dafür oder dagegen bislang geführt hat, aber ich würde momentan nicht ausschließen wollen, dass wir zumindest mehr sagen können, als es Kauffman hier tut. Immerhin legt er hier den Finger auf die ‚Wunde’… ]

Teil 4

Einen Überblick über alle vorausgehenden Einträge in den Blog nach Themen findet sich HIER