Archiv der Kategorie: Psychologie

MASLOW UND DIE NEUE WISSENSCHAFT. Nachbemerkung zu Maslow (1966)

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

Datum: 21.Juni 2020 (Korrekturen: 24.Juni 2020)

KONTEXT

Wenn man sich nicht nur wundern will, warum das Phänomen von ‚Fake News‘ oder ‚Verschwörungstheorien‘ so verbreitet ist und selbst vor akademischer Bildung nicht Halt macht, dann muss man versuchen, den Mechanismus zu verstehen, der diesem Phänomen zugrunde liegt. Von den vielen Zugängen zu dieser Frage finde ich das Buch von Maslow (1966) The Psychology of Science besonders aufschlussreich.

VERLUST DES PHÄNOMENS

Maslow erlebte seine Arbeit als Psychotherapeut im Spannungsfeld zur damaligen experimentellen verhaltensorientierten Psychologie im Stil von Watson. Während er als Psychotherapeut versuchte, die ganze Bandbreite der Phänomene ernst zu nehmen, die sich in der Begegnung mit konkreten Menschen ereignet, gehörte es zum damaligen Programm einer empirischen Verhaltens-Psychologie, die Phänomene im Kontext von Menschen auf beobachtbares Verhalten zu beschränken, und hier auch nur auf solche Phänomene, die sich in (damals sehr einfachen) experimentellen Anordnungen reproduzieren lassen. Außerdem galt das Erkenntnisinteresse nicht den individuellen Besonderheiten, sondern allgemeinen Strukturen, die sich zwischen allen Menschen zeigen.

Maslow verallgemeinert die Betrachtung dahingehend, dass er die Einschränkung der Phänomene aus Sicht einer bestimmten Disziplin als Charakteristisch für die Wissenschaft seiner Zeit diagnostiziert. Er meinte in dieser Ausklammerung von Phänomenen eine tiefer liegende Tendenz zu erkennen, in der letztlich die Methode über das Phänomen gestellt wird: wehe dem Phänomen, wenn es nicht zu den vereinbarten Methoden passt; es hat hier nichts zu suchen. In dem Moment, in dem die Wissenschaft von sich aus entscheiden darf, was als Phänomen gelten darf und was nicht, gerät sie in Gefahr, ein Spielball von psychologischen und anderen Dynamiken und Interessen zu werden, die sich hinter der scheinbaren Rationalität von Wissenschaft leicht verstecken können. Aus der scheinbar so rationalen Wissenschaft wird verdeckt eine irrationale Unternehmung, die sich selbst immunisiert, weil sie ja alle Phänomene ausklammern kann, die ihr nicht passen.

VERLUST DER EINHEIT

Zu der verdeckten Selbstimmunisierung von wissenschaftlichen Disziplinen kommt erschwerend hinzu, dass die vielen einzelnen Wissenschaften weder begrifflich noch prozedural auf eine Integration, auf eine potentielle Einheit hin ausgelegt sind. Dies hier nicht verstanden als eine weitere Immunisierungsstrategie, sondern als notwendiger Prozess der Integration vieler Einzelaspekte zu einem möglichen hypothetischen Ganzen. Ohne solche übergreifenden Perspektiven können viele Phänomene und daran anknüpfende einzelwissenschaftliche Erkenntnisse keine weiterreichende Deutung erfahren. Sie sind wie einzelne Findlinge, deren Fremdheit zu ihrem Erkennungszeichen wird.

SUBJEKTIV – OBJEKTIV

In der orthodoxen Wissenschaft, wie Maslow die rigorosen empirischen Wissensschaften nennt, wird ein Begriff von empirisch, von objektiv vorausgesetzt, der den Anspruch erhebt, die reale Welt unabhängig von den internen Zuständen eines Menschen zu vermessen. Dies geht einher mit der Ausklammerung der Subjektivität, weil diese als Quelle allen Übels in den früheren Erkenntnistätigkeiten des Menschen diagnostiziert wurde. Mit der Ausklammerung der Subjektivität verschwindet aber tatsächlich auch der Mensch als entscheidender Akteur. Zwar bleibt der Mensch Beobachter, Experimentator und Theoriemacher, aber nur in einem sehr abstrakten Sinne. Die inneren Zustände eines Menschen bleiben in diesem Schema außen vor, sind quasi geächtet und verboten.

Diese Sehweise ist selbst im eingeschränkten Bild der empirischen Wissenschaften heute durch die empirischen Wissenschaften selbst grundlegend in Frage gestellt. Gerade die empirischen Wissenschaften machen deutlich, dass unser Bewusstsein, unser Wissen, unser Fühlen funktional an das Gehirn gebunden sind. Dieses Gehirn sitzt aber im Körper. Es hat keinen direkten Kontakt mit der Welt außerhalb des Körpers. Dies gilt auch für die Gehirne von Beobachtern, Experimentatoren und Theoriekonstrukteuren. Keiner von ihnen sieht die Welt außerhalb des Körpers, wie sie ist! Sie alle leben von dem, was das Gehirn aufgrund zahlloser Signalwege von Sensoren an der Körperoberfläche oder im Körper einsammelt und daraus quasi in Echtzeit ein dreidimensionales Bild der unterstellten Welt da draußen mit dem eigenen Körper als Teil dieser Welt errechnet. Dies bedeutet, dass alles, was wir bewusst wahrnehmen, ein internes, subjektives Modell ist, eine Menge von subjektiven Ereignissen (oft Phänomene genannt, oder Qualia), von denen einige über Wahrnehmungsprozesse mit externen Ursachen verknüpft sind, die dann bei allen Menschen in der gleichen Situation sehr ähnliche interne Wahrnehmungsereignisse erzeugen. Diese Wahrnehmungen nennen wir objektiv, sie sind aber nur sekundär objektiv; primär sind sie interne, subjektive Wahrnehmungen. Die Selbstbeschränkung der sogenannten empirischen Wissenschaften auf solche subjektiven Phänomene, die zeitgleich mit Gegebenheiten außerhalb des Körpers korrelieren, hat zwar einen gewissen praktischen Vorteil, aber der Preis, den die sogenannten empirischen Wissenschaften dafür zahlen, ist schlicht zu hoch. Sie opfern die interessantesten Phänomene im heute bekannten Universum nur, um damit ihre einfachen, schlichten Theorien formulieren zu können.

In ihrer Entstehungszeit — so im Umfeld der Zeit von Galilelo Galilei — war es eine der Motivationen der empirischen Wissenschaften gewesen, sich gegen die schwer kontrollierbaren Thesen einer metaphysischen Philosophie als Überbau der Wissenschaften zu wehren. Die Kritik an der damaligen Metaphysik war sicher gerechtfertigt. Aber In der Gegenbewegung hat die empirische Wissenschaft gleichsam — um ein Bild zu benutzen — das Kind mit dem Bade ausgeschüttet: durch die extreme Reduktion der Phänomene auf jene, die besonders einfach sind und durch das Fehlen eines klaren Kriteriums, wie man der Gefahr entgeht, wichtige Phänomene schon im Vorfeld auszugrenzen, wurde die moderne empirische Wissenschaft selbst zu einer irrationalen dogmatischen Veranstaltung.

Es ist bezeichnend, dass die modernen empirischen Wissenschaften über keinerlei methodischen Überbau verfügen, ihre eigene Position, ihr eigenes Vorgehen rational und transparent zu diskutieren. Durch die vollständige Absage an Philosophie, Erkenntnistheorie, Wissenschaftsphilosophie — oder wie man die Disziplinen nennen will, die sich genau mit diesen Fragen beschäftigen — hat sich die empirische Wissenschaft der Neuzeit einer nachhaltigen Rationalität beraubt. Eine falsche Metaphysik zu kritisieren ist eines, aber sich selbst angemessen zu reflektieren, ein anderes. Und hier muss man ein Komplettversagen der modernen empirischen Wissenschaften konstatieren, was Maslow in seinem Buch über viele Kapitel, mit vielen Detailbeobachtungen aufzeigt.

DAS GANZE IST EIN DYNAMISCHES ETWAS

Würden die empirischen Wissenschaften irgendwann doch zur Besinnung kommen und ihren Blick nicht vor der ganzen Breite und Vielfalt der Phänomene verschließen, dann würden sie feststellen können, dass jeder Beobachter, Experimentator, Theoriemacher — und natürlich alle Menschen um sie herum — über ein reiches Innenleben mit einer spezifischen Dynamik verfügen, die kontinuierlich darauf einwirkt, was und wie wir denken, warum, wozu usw. Man würde feststellen, dass das Bewusstsein nur ein winziger Teil eines Wissens ist, das weitgehend in dem um ein Vielfaches größeren Unbewusstsein verortet ist, das unabhängig von unserem Bewusstsein funktioniert, kontinuierlich arbeitet, all unsere Wahrnehmung, unser Erinnern, unser Denken usw. prägt, das angereichert ist mit einer ganzen Bandbreite von Bedürfnissen und Emotionen, über deren Status und deren funktionale Bedeutung für den Menschen wir bislang noch kaum etwas wissen (zum Glück gab und gibt es Wissenschaften, die sich mit diesen Phänomenen beschäftigen, wenngleich mit großen Einschränkungen).

Und dann zeigt sich immer mehr, dass wir Menschen vollständig Teil eines größeren BIOMs sind, das eine dynamische Geschichte hinter sich hat in einem Universum, das auch eine Geschichte hinter sich hat. Alle diese Phänomene hängen unmittelbar untereinander zusammen, was bislang aber noch kaum thematisiert wird.

Das Erarbeiten einer Theorie wird zu einem dynamischen Prozess mit vielen Faktoren. Bei diesem Prozess kann man weder die primäre Wahrnehmung gegen konzeptuelle Modelle ausspielen, noch konzeptuelle Modelle gegen primäre Wahrnehmung, noch kann man die unterschiedlichen internen Dynamiken völlig ausklammern. Außerdem muss der Theoriebildungsprozess als gesellschaftlicher Prozess gesehen werden. Was nützt eine elitäre Wissenschaft, wenn der allgemeine Bildungsstand derart ist, dass Verschwörungstheorien als ’normal‘ gelten und ‚wissenschaftliche Theorien‘ als solche gar nicht mehr erkannt werden können? Wie soll Wissenschaft einer Gesellschaft helfen, wenn die Gesellschaft Wissenschaft nicht versteht, Angst vor Wissenschaft hat und die Wissenschaft ihrer eigenen Gesellschaft entfremdet ist?

BOTSCHAFT AN SICH SELBST?

Das biologische Leben ist das komplexeste Phänomen, das im bislang bekannten Universum vorkommt (daran ändert zunächst auch nicht, dass man mathematisch mit Wahrscheinlichkeiten herumspielt, dass es doch irgendwo im Universum etwas Ähnliches geben sollte). Es ist ein dynamischer Prozess, dessen Manifestationen man zwar beobachten kann, dessen treibende Dynamik hinter den Manifestationen aber — wie generell mit Naturgesetzen — nicht direkt beobachtet werden kann. Fasst man die Gesamtheit der beobachtbaren Manifestationen als Elemente einer Sprache auf, dann kann diese Sprache möglicherweise eine Botschaft enthalten. Mit dem Auftreten des homo sapiens als Teil des BIOMs ist der frühest mögliche Zeitpunkt erreicht, an dem das Leben ‚mit sich selbst‘ sprechen kann. Möglicherweise geht es gerade nicht um den einzelnen, wenngleich der einzelne im Ganzen eine ungewöhnlich prominente Stellung einnimmt. Vielleicht fängt die neue Wissenschaft gerade erst an. In der neuen Wissenschaft haben alle Phänomene ihre Rechte und es gibt keine Einzelwissenschaften mehr; es gibt nur noch die Wissenschaft von allen für alles ….

KONTEXT ARTIKEL

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

KI UND BIOLOGIE. Blitzbericht zu einem Vortrag am 28.Nov.2018

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062
29.Nov. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

LETZTE AKTUALISIERUNG: 1.Dez.2018, Anmerkung 1

KONTEXT

Im Rahmen einer öffentlichen Veranstaltung des Fachbereichs 2 ‚Informatik & Ingenieurwissenschaften‘ der Frankfurt University of Applied Sciences am 28.November 2018 mit dem Rahmenthema „Künstliche Intelligenz – Arbeit für Alle?“ hielt Gerd Doeben-Henisch einen kurzen Vortrag zum Thema „Verändert KI die Welt?“ Voraus ging ein Vortrag von Herrn Helmut Geyer „Arbeitsmarkt der Zukunft. (Flyer zur Veranstaltung: FRA-UAS_Fb2_Karte_KI-Arbeit fuer alle_Webversion )

EINSTIEG INS KI-THEMA

Im Kontext der Überlegungen zur Arbeitswelt angesichts des technologischen Wandels gerät die Frage nach der Rolle der Technologie, speziell der digitalen Technologie — und hier noch spezieller der digitalen Technologie mit KI-Anteilen – sehr schnell zwischen die beiden Pole ‚Vernichter von Arbeit‘, ‚Gefährdung der Zukunft‘ einerseits und ‚Neue Potentiale‘, ‚Neue Arbeit‘, ‚Bessere Zukunft‘, wobei es dann auch einen dritten Pol gibt, den von den ‚übermächtigen Maschinen‘, die die Menschen sehr bald überrunden und beherrschen werden.

Solche Positionen, eine Mischungen aus quasi-Fakten, viel Emotionen und vielen unabgeklärten Klischees, im Gespräch sachlich zu begegnen ist schwer bis unmöglich, erst Recht, wenn wenig Zeit zur Verfügung steht.

Doeben-Henisch entschloss sich daher, das Augenmerk zentral auf den Begriff ‚Künstliche Intelligenz‘ zu lenken und die bislang uneinheitliche und technikintrovertierte Begrifflichkeit in einen größeren Kontext zu stellen, der das begrifflich ungeklärte Nebeneinander von Menschen und Maschinen schon im Ansatz zu überwinden sucht.

ANDERE DISZIPLINEN

Viele Probleme im Kontext der Terminologie der KI im technischen Bereich erscheinen hausgemacht, wenn man den Blick auf andere Disziplinen ausweitet. Solche andere Disziplinen sind die Biologe, die Mikrobiologie sowie die Psychologie. In diesen Disziplinen beschäftigt man sich seit z.T. deutlich mehr als 100 Jahren mit komplexen Systemen und deren Verhalten, und natürlich ist die Frage nach der ‚Leistungsfähigkeit‘ solcher Systeme im Bereich Lernen und Intelligenz dort seit langem auf der Tagesordnung.

Die zunehmenden Einsichten in die unfassbare Komplexität biologischer Systeme (siehe dazu Beiträge in diesem Blog, dort auch weitere Links), lassen umso eindrücklicher die Frage laut werden, wie sich solche unfassbar komplexen Systeme überhaupt entwickeln konnten. Für die Beantwortung dieser Frage wies Doeben-Henisch auf zwei spannende Szenarien hin.

KOMMUNIKATIONSFREIE EVOLUTION

Entwicklungslogik vor der Verfügbarkeit von Gehirnen
Entwicklungslogik vor der Verfügbarkeit von Gehirnen

In der Zeit von der ersten Zelle (ca. -3.8 Mrd Jahren) bis zur Verfügbarkeit hinreichend leistungsfähiger Nervensysteme mit Gehirnen (ab ca. -300.000, vielleicht noch etwas früher) wurde die Entwicklung der Lebensformen auf der Erde durch zwei Faktoren gesteuert: (a) die Erde als ‚Filter‘, was letztlich zu einer bestimmten Zeit geht; (b) die Biomasse mit ihrer Reproduktionsfähigkeit, die neben der angenäherten Reproduktion der bislang erfolgreichen Baupläne (DNA-Informationen) in großem Umfang mehr oder weniger starke ‚Varianten‘ erzeugte, die ‚zufallsbedingt‘ waren. Bezogen auf die Erfolge der Vergangenheit konnten die zufälligen Varianten als ’sinnlos‘ erscheinen, als ’nicht zielführend‘, tatsächlich aber waren es sehr oft diese zunächst ’sinnlos erscheinenden‘ Varianten, die bei einsetzenden Änderungen der Lebensverhältnisse ein Überleben ermöglichten. Vereinfachend könnte man also für die Phase die Formel prägen ‚(Auf der dynamischen Erde:) Frühere Erfolge + Zufällige Veränderungen = Leben‘. Da zum Zeitpunkt der Entscheidung die Zukunft niemals hinreichend bekannt ist, ist die Variantenbildung die einzig mögliche Strategie. Die Geschwindigkeit der ‚Veränderung von Lebensformen‘ war in dieser Zeit auf die Generationsfolgen beschränkt.

MIT KOMMUNIKATION ANGEREICHERTE EVOLUTION

Nach einer gewissen ‚Übergangszeit‘ von einer Kommunikationsfreien zu einer mit Kommunikation angereicherte Evolution gab es in der nachfolgenden Zeit die Verfügbarkeit von hinreichend leistungsfähigen Gehirnen (spätestens mit dem Aufkommen des homo sapiens ab ca. -300.000)[1], mittels deren die Lebensformen die Umgebung und sich selbst ‚modellieren‘ und ‚abändern‘ konnten. Es war möglich, gedanklich Alternativen auszuprobieren, sich durch symbolische Kommunikation zu ‚koordinieren‘ und im Laufe der letzten ca. 10.000 Jahren konnten auf diese Weise komplexe kulturelle und technologische Strukturen hervorgebracht werden, die zuvor undenkbar waren. Zu diesen Technologien gehörten dann auch ab ca. 1940 programmierbare Maschinen, bekannt als Computer. Der Vorteil der Beschleunigung in der Veränderung der Umwelt – und zunehmend auch der Veränderung des eigenen Körpers — lies ein neues Problem sichtbar werden, das Problem der Präferenzen (Ziele, Bewertungskriterien…). Während bislang einzig die aktuelle Erde über ‚Lebensfähig‘ ‚oder nicht Lebensfähig‘ entschied, und dies das einzige Kriterium war, konnten die  Lebewesen mit den neuen Gehirnen  jetzt eine Vielzahl von Aspekten ausbilden, ‚partielle Ziele‘, nach denen sie sich verhielten, von denen oft erst in vielen Jahren oder gar Jahrzehnten oder gar noch länger sichtbar wurde, welche nachhaltigen Effekte sie haben.

Anmerkung 1: Nach Edelman (1992) gab es einfache Formen von Bewusstsein mit den zugehörigen neuronalen Strukturen ab ca. -300 Mio Jahren.(S.123) Danach hätte es  also ca. 300 Mio Jahre gedauert, bis   Gehirne, ausgehend von einem ersten einfachen Bewusstsein, zu komplexen Denkleistungen und sprachlicher Kommunikation in der Lage waren.

LERNEN und PRÄFERENZEN

Am Beispiel von biologischen Systemen kann man fundamentale Eigenschaften wie z.B. das ‚Lernen‘ und die ‚Intelligenz‘ sehr allgemein definieren.

Systematisierung von Verhalten nach Lernen und Nicht-Lernen
Systematisierung von Verhalten nach Lernen und Nicht-Lernen

In biologischer Sicht haben wir generell Input-Output-Systeme in einer unfassbar großen Zahl an Varianten bezüglich des Körperbaus und der internen Strukturen und Abläufe. Wie solch ein Input-Output-System intern im Details funktioniert spielt für das konkrete Leben nur insoweit eine Rolle, als die inneren Zustände ein äußerlich beobachtbares Verhalten ermöglichen, das wiederum das Überleben in der verfügbaren Umgebung ermöglicht und bezüglich spezieller ‚Ziele‘ ‚erfolgreich‘ ist. Für das Überleben reicht es also zunächst, einfach dieses beobachtbare Verhalten zu beschreiben.

In idealisierter Form kann man das Verhalten betrachten als Reiz-Reaktions-Paare (S = Stimulus, R = Response, (S,R)) und die Gesamtheit des beobachtbaren Verhaltens damit als eine Sequenz von solchen (S,R)-Paaren, die mathematisch eine endliche Menge bilden.

Ein so beschriebenes Verhalten kann man dann als ‚deterministisch‘ bezeichnen, wenn die beobachtbaren (S,R)-Paare ’stabil‘ bleiben, also auf einen bestimmten Reiz S immer die gleiche Antwort R erfolgt.

Ein dazu komplementäres Verhalten, also ein ’nicht-deterministisches‘ Verhalten, wäre dadurch charakterisiert, dass entweder (i) der Umfang der Menge gleich bleibt, aber manche (S,R)-Paare sich verändern oder (ii) der Umfang der Menge kann sich ändern. Dann gibt es die beiden interessanten Unterfälle (ii.1) es kommen nach und nach neue (S,R)-Paare dazu, die ‚hinreichend lang‘ ’stabil‘ bleiben, aber ab einem bestimmten Zeitpunkt ‚t‘ sich nicht mehr vermehren (die Menge der stabilen Elemente wird ‚eingefroren‘, ‚fixiert‘, ‚gezähmt‘, …), oder (ii.2) die Menge der stabilen (S,R)-Paare expandiert ohne Endpunkt.

Bezeichnet man diese Expansion (zeitlich ‚befristet‘ oder ‚unbefristet‘) als ‚Lernen‘, dann wird sichtbar, dass die ‚Inhalte des Lernens‘ (die korrespondierenden Repräsentationen der (S,R)-Paare in den internen Zuständen des Systems) einmal davon abhängen, was die Umgebung der Systeme ‚erlaubt‘, zum anderen, was die ‚inneren Zustände‘ des Systems an ‚Verarbeitung ermöglichen‘, sowie – sehr indirekt – über welche welche ‚internen Selektionskriterien‘ ein System verfügt.

Die ‚internen Selektionskriterien‘ werden hier kurz ‚Präferenzen‘ genannt, also Strategien, ob eher ein A oder ein B ’selektiert‘ werden soll. Wonach sich solche Kriterien richten, bleibt dabei zunächst offen. Generell kann man sagen, dass solche Kriterien primär ‚endogen‘ begründet sein müssen, dass sie aber nachgeordnet auch von außen (‚exogen‘) übernommen werden können, wenn die inneren Kriterien eine solche Favorisierung des exogenen Inputs ‚befürworten‘ (Beispiel sind die vielen Imitationen im Lernen bzw. die Vielzahl der offiziellen Bildungsprozesse, durch die Menschen auf bestimmte Verhaltens- und Wissensmuster trainiert (programmiert) werden). Offen ist auch, ob die endogenen Präferenzen stabil sind oder sich im Laufe der Zeit ändern können; desgleichen bei den exogenen Präferenzen.

Am Beispiel der menschlichen Kulturen kann man den Eindruck gewinnen, dass das Finden und gemeinsame Befolgen von Präferenzen ein bislang offenes Problem ist. Und auch die neuere Forschung zu Robotern, die ohne Terminierung lernen sollen (‚developmental robotics‘), hat zur Zeit das Problem, dass nicht ersichtlich ist, mit welchen Werten man ein nicht-terminiertes Lernen realisieren soll. (Siehe: Merrick, 2017)) Das Problem mit der Präferenz-Findung ist bislang wenig bekannt, da die sogenannten intelligenten Programme in der Industrie immer nur für klar definierte Verhaltensprofile trainiert werden, die sie dann später beim realen Einsatz unbedingt einhalten müssen.  Im technischen Bereich spricht man hier oft von einer ’schwachen KI‘. (Siehe: VDI, 2018) Mit der hier eingeführten Terminologie  wären dies nicht-deterministische Systeme, die in ihrem Lernen ‚terminieren‘.

INTELLIGENZ

Bei der Analyse des Begriffs ‚Lernen‘ wird sichtbar, dass das, was gelernt wird, bei der Beobachtung des Verhaltens nicht direkt ’sichtbar‘ ist. Vielmehr gibt es eine allgemeine ‚Hypothese‘, dass dem äußerlich beobachtbaren Verhalten ‚interne Zustände‘ korrespondieren, die dafür verantwortlich sind, ob ein ’nicht-lernendes‘ oder ein ‚lernendes‘ Verhalten zu beobachten ist. Im Fall eines ‚lernenden‘ Verhaltens mit dem Auftreten von inkrementell sich mehrenden stabilen (S,R)-Paaren wird angenommen, das den (S,R)-Verhaltensformen ‚intern‘ entsprechende ‚interne Repräsentationen‘ existieren, anhand deren das System ‚entscheiden‘ kann, wann es wie antworten soll. Ob man diese abstrakten Repräsentationen ‚Wissen‘ nennt oder ‚Fähigkeiten‘ oder ‚Erfahrung‘ oder ‚Intelligenz‘ ist für die theoretische Betrachtung unwesentlich.

Die Psychologie hat um die Wende zum 20.Jahrhundert mit der Erfindung des Intelligenztests durch Binet und Simon (1905) sowie in Weiterführung durch W.Stern (1912) einen Ansatz gefunden, die direkt nicht messbaren internen Repräsentanten eines beobachtbaren Lernprozesses indirekt dadurch zu messen, dass sie das beobachtbare Verhalten mit einem zuvor vereinbarten Standard verglichen haben. Der vereinbarte Standard waren solche Verhaltensleistungen, die man Kindern in bestimmten Altersstufen als typisch zuordnete. Ein Standard war als ein Test formuliert, den ein Kind nach möglichst objektiven Kriterien zu durchlaufen hatte. In der Regel gab es eine ganze Liste (Katalog, Batterie) von solchen Tests. Dieses Vorgehensweisen waren sehr flexibel, universell anwendbar, zeigten allerdings schon im Ansatz, dass die Testlisten kulturabhängig stark variieren konnten. Immerhin konnte man ein beobachtbares Verhalten von einem System auf diese Weise relativ zu vorgegebenen Testlisten vergleichen und damit messen. Auf diese Weise konnte man die nicht messbaren hypothetisch unterstellten internen Repräsentationen indirekt qualitativ (Art des Tests) und quantitativ (Anteil an einer Erfüllung des Tests) indizieren.

Im vorliegenden Kontext wird ‚Intelligenz‘ daher als ein Sammelbegriff für die hypothetisch unterstellte Menge der korrespondierenden internen Repräsentanten zu den beobachtbaren (S,R)-Paaren angesehen, und mittels Tests kann man diese unterstellte Intelligenz qualitativ und quantitativ indirekt charakterisieren. Wie unterschiedlich solche Charakterisierung innerhalb der Psychologie modelliert werden können, kann man in der Übersicht von Rost (2013) nachlesen.

Wichtig ist hier zudem, dass in diesem Text die Intelligenz eine Funktion des Lernens ist, das wiederum von der Systemstruktur abhängig ist, von der Beschaffenheit der Umwelt sowie der Verfügbarkeit von Präferenzen.

Mehrdimensionaler Raum der Intelligenzrpräsentanen
Mehrdimensionaler Raum der Intelligenzrpräsentanen

Aus Sicht einer solchen allgemeinen Lerntheorie kann man statt biologischen Systemen auch programmierbare Maschinen betrachten. Verglichen mit biologischen Systemen kann man den programmierbaren Maschinen ein Äquivalent zum Körper und zur Umwelt spendieren. Grundlagentheoretisch wissen wir ferner schon seit Turing (1936/7), dass programmierbare Maschinen ihr eigenes Programm abändern können und sie prinzipiell lernfähig sind. Was allerdings (siehe zuvor das Thema Präferenz) bislang unklar ist, wo sie jeweils die Präferenzen herbekommen sollen, die sie für eine ’nachhaltige Entwicklung‘ benötigen.

ZUKUNFT VON MENSCH UND MASCHINE

Im Licht der Evolution erscheint die  sich beschleunigende Zunahme von Komplexität im Bereich der biologischen Systeme und deren Populationen darauf hinzudeuten, dass mit der Verfügbarkeit von programmierbaren Maschinen diese sicher nicht als ‚Gegensatz‘ zum Projekt des biologischen Lebens zu sehen sind, sondern als eine willkommene Unterstützung in einer Phase, wo die Verfügbarkeit der Gehirne eine rapide Beschleunigung bewirkt hat. Noch bauen die biologischen Systeme ihre eigenen Baupläne  nicht selbst um, aber der Umbau in Richtung von Cyborgs hat begonnen und schon heute ist der Einsatz von programmierbaren Maschinen existentiell: die real existierenden biologischen Kapazitätsgrenzen erzwingen den Einsatz von Computern zum Erhalt und für die weitere Entwicklung. Offen ist die Frage, ob die Computer den Menschen ersetzen sollen. Der Autor dieser Zeilen sieht die schwer deutbare Zukunft eher so, dass der Mensch den Weg der Symbiose intensivieren wird und versuchen sollte, den Computer dort zu nutzen, wo er Stärken hat und zugleich sich bewusst sein, dass das Präferenzproblem nicht von der Maschine, sondern von ihm selbst gelöst werden muss. Alles ‚Böse‘ kam in der Vergangenheit und kommt in der Gegenwart vom Menschen selbst, nicht von der Technik. Letztlich ist es der Mensch, der darüber entscheidet, wie er die Technik nutzt. Ingenieure machen sie möglich, die Gesellschaft muss entscheiden, was sie damit machen will.

BEISPIEL EINER NEUEN SYMBIOSE

Der Autor dieser Zeilen hat zusammen mit anderen KollegenInnen in diesem Sommer ein Projekt gestartet, das darauf abzielt, dass alle 11.000 Kommunen in Deutschland ihre Chancen haben sollten, ihre Kommunikation und Planungsfähigkeit untereinander dramatisch zu verbessern, indem sie die modernen programmierbaren Maschinen in neuer ‚intelligenter‘ Weise für ihre Zwecke nutzen.

QUELLEN

  • Kathryn Merrick, Value systems for developmental cognitive robotics: A survey, Cognitive Systems Research, 41:38 – 55, 2017
  • VDI, Statusreport Künstliche Intelligenz, Oktober 2018, URL: https://www.vdi.de/vdi-statusbericht-kuenstliche-intelligenz/ (zuletzt: 28.November 2018)
  • Detlef H.Rost, Handbuch der Intelligenz, 2013: Weinheim – Basel, Beltz Verlag
  • Joachim Funke (2006), Kap.2: Alfred Binet (1857 – 1911) und der erste Intelligenztest der Welt, in: Georg Lamberti (Hg.), Intelligenz auf dem Prüfstand. 100 Jahre Psychometrie, Vandenhoek & Ruprecht
  • Alfred Binet, Théodore Simon: Methodes nouvelles pour le diagnostiqc du niveau intellectuel des anormaux. In: L’Année Psychologique. Vol. 11, 1904, S. 191–244 (URL: https://www.persee.fr/doc/psy_0003-5033_1904_num_11_1_3675 )
  • William Stern, Die psychologischen Methoden der Intelligenzprüfung und deren Anwendung an Schulkinder, 19121: Leipzig, J.A.Barth
  • Alan M. Turing, On computable numbers, with an application to the Entscheidungsproblem. Proceedings of the London Mathematical Society, 42(2):230–265, 1936-7
  • Gerald M.Edelman, Bright Air, Brilliant Fire. On the Matter of the Mind, New York: 1992, Basic Books

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

ÜBER DIE MATERIE DES GEISTES. Relektüre von Edelman 1992. Teil 9

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 12.Okt. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

Gerald M.Edelman, Bright Air, Brilliant Fire. On the Matter of the Mind, New York: 1992, Basic Books

BISHER

Für die bisherige Diskussion siehe die kumulierte Zusammenfassung HIER.

KURFASSUNG

Aus wissenschaftsphilosophischer Sicht ist das Kapitel 10 sehr aufschlussreich. Der in den vorausgehenden Kapiteln immer wieder angedeutete Brückenschlag zwischen Physiologie (mit Gehirnforschung) und Psychologie (verhaltensorientiert) wird in diesem Kapitel ein wenig ‚anfassbarer‘. Allerdings nicht in dem Sinne, dass der Brückenschlag nun explizit erklärt wird, aber so, dass einerseits die Begrifflichkeit auf psychologischer Seite und andererseits die Begrifflichkeit auf physiologischer Seite etwas ausdifferenziert wird. Die Beschreibung der Beziehung zwischen beiden Begrifflichkeiten verbleibt im Bereich informeller Andeutungen bzw. in Form von Postulaten, dass die zuvor geschilderte physiologische Maschinerie in der Lage sei, die angedeuteten psychologischen Strukturen in ihrer Dynamik zu ‚erklären‘.

KAP.10 Gedächtnis und Konzepte (‚Memory and Concepts‘): Errichtung einer Brücke zum Bewusstsein (‚Building a Bridge to Consciousness‘)

  1. Nach den vorbereitenden Kapiteln 1-9 versucht Edelman mit den soweit formulierten Grundlagen nun ‚höhere‘ Hirnleistungen und ‚psychologische (=verhaltensbasierte)‘ Eigenschaften durch Rückgriff auf die evolutionären und neuronalen Mechanismen zu ‚erklären‘.

  2. Der Ausgangspunkt der Überlegungen in Kap.10 bilden die Annahmen der vorausgehenden Kapitel, dass die ‚Welt‘ ‚außerhalb‘ eines Organismus ein überwältigendes Ereignisfeld ist, das vom wahrnehmenden Organismus erst einmal ’strukturiert‘ werden muss, damit der Organismus mit diesen Ereignisfeldern konstruktiv umgehen kann. Es stellen sich in diesem Kontext folgende Fragen: (i) welche Strukturierungen nimmt ein Organismus vor, und (ii) wie konnten sich jene Mechanismen ausbilden, die solche Strukturierungen ermöglichen? Zusätzlich ist zu bedenken, dass sich die außer-organismischen Ereignisfelder – kontinuierlich wie auch disruptiv – ändern. Es reicht also nicht, die Fähigkeit der Herausbildung solcher strukturierenden Mechanismen einmalig anzunehmen, sondern (iii) es muss auch geklärt werden, wie es zu ‚dynamischen Anpassungen‘ der strukturierenden Mechanismen angesichts einer sich ändernden Umwelt kommen kann? Die bisherige Antwort auf die Fragen (i) – (iii) war der Verweis auf (a) evolutionäre Strukturbildung, auf (b) embryonale Entwicklung, sowie auf die (c) flexible Verschaltung von neuronalen Karten sowohl durch (c.1) Rückkopplungen wie auch durch (c.2) Hierarchiebildungen. Mit diesen Annahmen zu einer komplexen dynamischen Maschinerie verbindet Edelman die Überzeugung, dass sich damit alle bekannten komplexen Funktionsleistungen des Gehirns (wie z.B. ‚Gedächtnis‘ (‚memory‘) wie auch beobachtbare psychologische Eigenschaften ‚erklären‘ lassen. (vgl. S.99f)

  3. Für das, was nach Edelman ‚erklärt‘ werden soll, benutzt er die Worte ‚Bewusstsein‘, ‚Intentionalität‘, ‚Kategorisierung der Wahrnehmung‘ (‚perceptual categorization‘), ‚Gedächtnis‘ und ‚Lernen‘. Und er spricht im Zusammenhang dieser Wortmarken von ‚höheren Gehirnfunktionen‘ (‚higher brain functions‘). Damit verknüpft Edelman in dieser kurzen Beschreibung zwei methodisch unterschiedliche Betrachtungsweisen: die Begriffe ‚Bewusstsein‘, ‚Intentionalität‘, ‚Kategorisierung der Wahrnehmung‘, ‚Gedächtnis‘ und ‚Lernen‘ gehören normalerweise in den Bereich der verhaltensbasierten Psychologie; der Begriff ‚höhere Gehirnfunktionen‘ dagegen verweist auf den Bereich der Biologie mit den Spezialbereichen Physiologie und darin noch spezieller der Gehirnforschung. Damit findet sich hier die Stelle, wo er die beiden Pole Psychologie und Gehirnforschung verknüpfen möchte. Bemerkenswert ist seine ausdrückliche Feststellung, dass diese 5 mentalen Leistungen, obwohl sie oft ‚getrennt/ isoliert‘ (’separated‘) behandelt werden, doch ‚untrennbare Aspekte einer gemeinsamen mentalen Leistung‘ (‚inseparable aspects of a common mental performance‘) darstellen. Diese Feststellung geht weit über die benannten einzelnen Wortmarken hinaus. Aus dieser Feststellung folgt, dass wir es hier mit 5 unterscheidbaren mentalen ‚Leistungen‘ zu tun haben, die man als ‚Funktionen‘ {f1, …,f5} auffassen kann und sie in einer wissenschaftlichen Sicht auch so auffassen muss; dazu postuliert Edelman eine Superfunktion f*, die sich aus diesen genannten 5 Funktionen ‚zusammensetzt‘ als etwa f* = f1 u … u f5. Sind schon die einzelnen Funktionen – jede für sich – sehr ‚komplex‘ (und bis heute in der Psychologie nur unvollständig erklärt), so führt die postulierte Superfunktion f* in einen Denkbereich, der nur schwer zu fassen ist, und der bislang eigentlich von niemandem theoretisch irgendwie modelliert worden ist. (vgl. S.100) //* Falls es doch irgendwo solch eine Ausarbeitung gibt, wäre ich als Autor für einen Hinweis sehr dankbar! *//

  4. Edelman sagt ganz klar, dass es der Bereich des ‚Verhaltens‘ (‚behavior‘, ‚B‘ ) ist, an dem die Bedeutung der drei ‚fundamentalen Funktionen‘ (‚fundamental functions‘) f1 ‚Kategorisierung der Wahrnehmung‘, f2 ‚Gedächtnis‘ und f3 ‚Lernen‘ zu ‚testen‘ sind. Und er sieht auch eine funktionale Abhängigkeit zwischen diesen fundamentalen Funktionen der Art, dass f2 (Gedächtnis) die Funktion f1 (Kategoriale Wahrnehmung) voraussetzt und die Funktion f3 (Lernen) setzt sowohl f1 als auch f2 voraus. Alle drei ‚beeinflussen‘ (‚affect‘) das Verhalten ‚B‘, weil sie sich untereinander beeinflussen. Angenähert könnte man dann formulieren B = (f1,f2,f3). Nach Edelmann versorgen Wahrnehmen und Gedächtnis das System mit grundlegenden Datenstrukturen, und Lernen kann daraus neue, weiterreichende Strukturen ableiten. Dann stellt Edelman plötzlich fest, dass die beiden Funktionen f1 und f2 für das Lernen f3 zwar notwendige Voraussetzungen bilden (also: f3 = (f1,f2), aber sie alleine noch nicht ausreichend wären; es bedarf noch einer weiteren Funktionalität fx, also f3=(f1,f2,fx). Diese weitere Funktion fx verweist nach Edelman auf ein ‚Wertesystem‘ (‚value system‘), das von den Kategorisierungsleistungen des Wahrnehmens und Erinnerns unabhängig ist. Wir bekommen damit folgende Zusammenhänge: B = f*() mit f* = (f3,f4,f5) und f3 = (f1,f2,fx). (vgl. S.100)

  5. Das ‚Wertesystem‘ fx hat – aus Sicht des Verhaltens B – mehrere Eigenschaften: (i) es basiert auf unterschiedlichen Wertelieferanten fx = (fx1, …, fxn), die (ii) unterschiedliche ‚Erwartungen‘ (‚expectancy‘) als ‚Referenzpunkte‘ (’set points‘) ausbilden können. Diese Erwartungen können als Fitnesswerte in dem Sinne genutzt werden, dass ein Systemverhalten solche Referenzpunkte entweder ‚befriedigt‘ (und damit wieder ‚zurück setzt‘) oder ’nicht befriedigt‘ (und damit ’nicht zurücksetzt‘). Ein Lernen f3 ist ‚erfolgreich‘ (‚is achhieved‘), wenn das System seine ‚Systemzustände‘ (‚IS‘) so arrangieren kann, dass ‚in der Zukunft‘ das Verhalten des Systems bei Auftreten von werthaften Referenzpunkten direkt die ‚richtige Verhaltensantwort‘ findet. Dies impliziert als eine weitere Komponente eine ‚Dauer‘, eine zeitliche Erstreckung zwischen zwei ‚Zeitpunkten‘ (t,t‘) mit t‘ als ’später‘ zu t. Nur unter Voraussetzung einer ‚hinreichend langen‘ Zeitdauer (t,t‘) kann Lernen sich realisieren, also f3(f1,f2,fx,(t,t‘)) = (Success_1, …, Success_n) mit der Bedeutung, dass Lernen innerhalb einer Zeitspanne (t,t‘) dazu führt, dass werthafte Referenzpunkte von fx() mit Hilfe von Wahrnehmung, Wahrnehmungskategorien und Gedächtnis in ‚möglichst kurzer Zeit‘ so bedient werden können, dass sie auf einen ’neutralen Wert‘ zurück gehen. Das exakte Zusammenspiel zwischen einem solchen Lernen f3() und den übrigen Größen f4, f5 und Verhalten ‚B‘ bleibt zunächst offen. (vgl. S.101)

  6. Den Zusammenhang zwischen diesen verhaltensbasierten Begriffen – nennen wir sie hier ‚Begriffe_B‘ – und jenen Begriffen, die auf der Theorie der neuronalen Gruppen basiert – nennen wir sie hier ‚Begriffe_NN‘ – sieht Edelman grundsätzlich darin, dass die Begriffe_NN letztlich ein materielles System S_NN beschreiben, das als ein ‚Modell‘ dienen kann, über dem man die Begriffe_B ‚interpretieren‘ kann. Anders ausgedrückt postulirt Edelman hier eine Abbildung der Art: Interpretation_B_NN : Begriffe_B <—> Begriffe_NN. Edelman beschreibt diese Abbildung an dieser Stelle aber nicht wirklich; er unterstellt sie einfach; er nimmt sie an und illustriert sie anhand sehr vager Beispiele. (vgl. S.101)

  7. Edelman führt an dieser Stelle noch einen weiteren Prozess (eine Funktion) ‚fc‘ ein, dem er die Fähigkeit zuschreibt, dass dieser auf der Basis von Wahrnehmung (f1) und von Gedächtnis (f2) im Kontext des Lernens (f3) und möglicherweise auch — das sagt er nicht explizit – unter Berücksichtigung des Wertesystems (fx) in der Lage ist, ‚allgemeine Beziehungen‘ (‚general relational properties‘) hervorzubringen (‚to yield‘). Unter Voraussetzung dieser fünf Funktionen {f1, f2, f3, fx, fc} will er dann später zeigen, wie man damit das ‚Auftreten eines Bewusstseins‘ (‚the emergence of consciousness‘) erklären kann. //* Es sei hier darauf hingewiesen, dass die Kozeptualisierungsleistung fc im Rahmen psychologischer Modelle des Gedächtnisses oft als eine Eigenschaft des Gedächtnisses angesehen wird bzw. — was Edelman ja zuvor selbst feststellt – z.T. auch schon als eine Leistung der Wahrnehmung f1. *//

  8. Den Rest des Kapitels widmet Edelman zwei Wortmarken: ‚Gedächtnis‘ (‚memory‘) und ‚Konzepte‘ (‚concepts‘).

  9. Seine allgemeinste Bedeutungszuschreibung zur Wortmarke ‚Gedächtnis‘ geschieht in der verhaltensbasierten Perspektive der Psychologie, indem er die Wortmarke ‚Gedächtnis‘ verbindet mit der ‚Fähigkeit, ein Verhalten zu wiederholen‘ (f2) (‚ability to repeat a performance‘). Diese Fähigkeit beinhaltet die andere, kurz zuvor eingeführte, Fähigkeit zur Konzeptualisierung fc, die im Rahmen des Gedächtnisses die zu einem bestimmten Zeitpunkt t vorhandenen konzeptuellen Strukturen ISc(t) ‚erweitert‘ (‚enhancement‘), so dass zu einem späteren Zeitpunkt T‘ eine erweiterte konzeptuelle Struktur ISc(t‘) vorliegt.(vgl. S.102)

  10. Parallel und zwischen diesen vorausgehenden psychologischen Erklärungen streut Edelman immer wieder auf informelle Weise Bemerkungen ein, wie sich die so beschriebenen psychologischen Strukturen und Funktionalitäten durch seine neuronale Maschinerie S_NN erklären lassen würden. Eine wirkliche Erklärung der hier notwendigen Interpretationsleistung der Art: Interpretation_B_NN : Begriffe_B <—> Begriffe_NN mit Begriffe_NN = S_NN leistet Edelman hier aber nicht. (vgl. S.102)

  11. Edelman verweist ferner auf das sich im Verhalten manifestierende Phänomen, dass Konzeptualisierungen, die wir als ‚Kategorien‘ auffassen und nutzen, nicht statisch sondern ‚dynamisch‘ sind, d.h. der Prozess des Anordnens läuft kontinuierlich und neue Ereignisse können bisherige Anordnungen ‚überschreiben‘, ‚ergänzen‘. (vgl. S.102)

  12. Wie schon zuvor bemerkt, ist die Einführung der eigenständigen Kategorisierungsleistung (Konzeptbildung) fc im Rahmen des Gedächtnisses in ihrer Beziehung zu der vorausgehenden Kategorisierungsleistung f1 in der Wahrnehmung nicht klar beschrieben. Und auf S.104 charakterisiert er die Kategorisierungsleistung der Wahrnehmung f1 als ‚zufallsgesteuert‘ (‚probabilistic‘) und als die ‚initiale Basis‘ (‚initial basis‘) des Gedächtnisses f2 und — das muss man hier unterstellen – der weiteren Kategorisierungsleistung fc des Gedächtnisses. Allgemeine, sich im Verhalten manifestierende psychologisch begründete Begriffe wie ‚Assoziation‘, ‚Ungenauigkeit‘ (‚inexactness‘), sowie ‚Generalisierung‘, sieht Edelman als Ergebnis dieser vorausgesetzten f1, f2 und fc Leistungen.(vgl. S.104)

  13. Edelman betont ausdrücklich, dass das ‚Gedächtnis‘ f2 über die Fähigkeit verfügt, die ‚zeitliche Abfolge von Ereignissen‘ zu ’notieren‘ (‚to account of‘).(vgl. S.104)

  14. Nachdem Edelman eine Reihe von psychologisch motivierte Wortmarken – wie z.B. {f1, f2, f3, fx, fc} – eingeführt hatte, die das verhaltenspsychologische Begriffsfeld Begriffe_B bilden, führt er nun weitere, neue Wortmarken aus dem Bereich des Gehirns ein, die alle zum physiologisch motivierten Begriffsfeld Begriffe_NN gehören. Sein Motiv für diese begrifflichen Erweiterungen ist, dadurch mehr begriffliche Möglichkeiten zu bekommen, um die Interpretationsfunktion Interpretation_B_NN : Begriffe_B <—> Begriffe_NN zu differenzieren.

  15. Er beginnt mit der Einführung der Begriffe ‚Cortex‘ (Cx), ‚Cerebellum‘ (Cm), ‚Hippocampus‘ (Hp), und ‚Basal Ganglia‘ (Bg), wobei Cm, Hp und Bg den Prozess des Cortex im Bereich des ‚räumlichen und zeitlichen Ordnens‘ unterstützen, was Edelman in Verbindung sieht mit den psychologisch beschriebenen Leistungen des Gedächtnisses. (vgl. S.104) Auf der nächsten Seite erwähnt er auch noch den ‚Motor Cortex‘ (Cxm), der als Teil des Cortex eng mit den zuvor genannten Strukturen kooperiert. (vgl. S.105)

  16. Bemerkenswert ist, dass Edelman bei der Charakterisierung der Leistungen der genannten Gehirnstrukturen auf psychologische Begriffe zurückgreift, z.B. wenn er vom Cerebellum Cm sagt, dass es eine wichtige Rolle spiele bei der ‚zeitlichen Ordnung‘ und einem ‚möglichst kontinuierlichen Verlauf‘ von Bewegungen (‚timing and smoothing of successions of movements‘). Letztlich kennen wir primär nur ein beobachtbares Verhalten und dessen Eigenschaften. Und es ist natürlich ein solches beobachtbares Verhalten (Gegenstand der Psychologie) als eine Art ‚Referenzpunkt‘ zu nehmen, um zu schauen, welche physiologischen Prozesse und welche zugehörigen physiologische Strukturen – wie z.B. das Cerebellum – im Kontext eines solchen beobachtbaren Verhaltens auftreten. Sofern es gelingt (was methodisch und messtechnisch extrem schwierig ist), eine irgendwie statistisch signifikante Korrelation zwischen physiologischen Messwerten und psychologischen Beobachtungswerten zu erfassen, kann man feststellen, dass z.B. das Cerebellumg Cm ‚eine wichtige Rolle spiele bei‘. Ohne ein explizites psychologisches Referenzmodell Begriffe_B wäre eine solche Korrelation ’spielt eine Rolle bei‘ nicht möglich. Dabei reicht es auch nicht aus, irgendwelche isolierte physiologische Messwerte zu haben, sondern man benötigt ein komplettes physiologisches Referenzmodell Begriffe_NN, das von den physiologischen Messwerten motiviert wird, das man mit dem psychologischen Referenzmodell Begriffe_NN in Beziehung setzt. Man müsste dann verfeinert sagen: (i) aufgrund von psychologischen Verhaltensdaten DAT_B generieren Psychologen ein psychologisches Referenzmodell Begriffe_B; (ii) aufgrund von physiologischen Messwerten DAT_NN generieren Physiologen (Gehirnforscher) ein physiologisches Referenzmodell Begriffe_NN; (iii) In einem interdisziplinären Team wird eine Interpretationsfunktion Interpretation_B_NN : Begriffe_B <—> Begriffe_NN konstruiert, die einen Zusammenhang herstellt zwischen psychologischen Verhaltensdaten und physiologischen Messwerten.(vgl. S.104f)

  17. Auf der Verhaltensebene unterscheidet Edelman zwischen der ‚einzelnen Handlung‘ mit deren zeitlicher und kontinuierlicher Ausführung einerseits und ‚zeitlich sich erstreckenden Handlungsfolgen‘. Diese längeren, komplexeren – psychologisch charakterisierten — ‚Handlungsfolgen‘ bringt er in Verbindung mit der physiologischen Struktur genannt ‚Basal Ganglia‘ Bg. Eine solche komplexe Funktion wie ‚Handlungsplanung‘ (fd) interagiert mit sehr vielen unterschiedlichen anderen Funktionen, u.a. auch mit dem Wertesystem fx.(vgl. S.105f)

  18. Für die Charakterisierung der nächsten physiologischen Struktur Hippocampus (Hp) benötigt Edelman weitere psychologische Begriffe, die er bislang noch nicht eingeführt hatte: er unterscheidet bei der psychologischen Funktion des Gedächtnisses (f2) zwischen eine ‚Kurzzeit-Gedächtnis‘ (’short-term memory‘) (Mst) und einem ‚Langzeit-Gedächtnis‘ (‚long-term memory‘) (Mlt). Zwischen diesen beiden psychologischen Formen des Gedächtnisses gib es spezifische Interaktionsmuster. Eines hat damit zu tun, dass Elemente des Kurzzeitgedächtnisses in das Langzeitgedächtnis ‚übernommen‘ werden. Und mit Bezug auf dieses psychologische Referenzmodell sieht Edelman den Hippocampus mit beteiligt. Der Hippocampus empfängt von allen Teilen des Cortex Signale, auch vom Wertesystem fx, und schickt seine Prozesswerte auch wieder zu den sendenden Stellen zurück.(vgl. S.106f)

  19. Abschließend zu den genannten Strukturen ‚Cortex‘ (Cx), mit ‚Motor-Cortex (Cxm), ‚Cerebellum‘ (Cm), ‚Hippocampus‘ (Hp), und ‚Basal Ganglia‘ (Bg) meint Edelman, dass die Differenziertheit und Flexibilität dieser Strukturen – kondensiert in einem physiologischen begrifflichen Modell Begriffe_NN – ausreicht, um das zuvor erstellte psychologische Referenzmodell des Verhaltens zu erklären.(vgl. S.107f)

  20. An dieser Stelle kommt Edelman nochmals zurück auf die Wortmarke ‚Konzepte‘ (‚concepts‘) und grenzt seine Verwendung dieser Wortmarke ab von jener, in der ‚Konzepte‘ in einem rein linguistischen Kontext gesehen wird. Für Edelman sind ‚Konzepte‘ Ordnungsstrukturen (Kategorien), durch die der Strom der Wahrnehmungen und der Gedächtnisinhalte, immer wieder neu geordnet werden können, vorab zu jeder Sprache, als Voraussetzung für Sprache. Das System gewinnt dadurch die Möglichkeit, sein Verhalten mit Bezug auf diese Strukturen neu zu kontrollieren. (vgl. S.108)

  21. Das Besondere an der Konzeptualisierungsfähigkeit ist, dass sie auch unabhängig von aktuellen Stimuli stattfinden kann, dass sie sich auf ‚alles‘ anwenden kann, was im Wahrnehmen, Erinnern und Denken vorkommen kann. Dies bedeutet, die Konzeptualisierungsfähigkeit kann ihre eigenen Ergebnisse, so abstrakt sie auch sein mögen, zum Gegenstand einer späteren Aktivität machen. //* Mathematiker nennen solch eine Struktur ‚rekursiv‘ *// Solche ‚abstrakteren‘ Strukturen (Konzepte) benötigen auch keine ‚topographischen‘ Strukturen, wie man sie im Bereich der sensorischen Wahrnehmung findet. Dies hat zur Folge, dass auch nicht-topographische Ereignisse wie z.B. systemrelevante ‚Werte‘ (über Bedürfnisse wie Hunger, Durst,…) in die Strukturierung einbezogen und damit verhaltensrelevant werden können. (vgl. S.108-110)

  22. Erstaunlich ist, dass Edelman an dieser Stelle nun eine Wortmarke einführt, die weder dem physiologischen Sprachspiel zugehört, noch dem psychologischen, sondern dem philosophischen Sprachspiel sofern es auf den Raum subjektiver Phänomene fokussiert ist: ‚Intentionalität‚, indem er sagt, dass die konzeptuellen Strukturbildungen ‚intentional‚ (‚intentional‘) sind. Und Edelman geht noch weiter; er sieht hier einen ‚Übergang‘, eine ‚Brücke‘ (‚the bridging elements‘) von der Physiologie zum ‚Bewusstsein‚ (‚consciousness‘) und er stellt ausdrücklich fest, dass für diesen Brückenschlag ‚keine neuen theoretischen Annahmen‘ (’no new theoretical assumptions‘) gemacht werden müssen. Diese letzte Bemerkung trifft zu, wenn man sie auf die vorausgesetzte physiologische Maschinerie bezieht: das physiologische Modell Begriffe_NN wird nicht verändert. Mit der Einführung der Wortmarken ‚Intentional‘ und ‚Bewusstsein‘ aktiviert er aber ein neues (philosophisches) Sprachspiel, das er bislang nicht benutzt hat, und das er bislang in keiner Weise erklärt hat. Man müsste hierfür auch einen eigenen Begriff Begriffe_PH einführen vergleichbar zu Begriffe_B und Begriffe_NN und man müsste natürlich auch hier explizite Interpretationsfunktionen einführen wie Interpretation_B_PH : Begriffe_B <—> Begriffe_PH sowie Interpretation_NN_PH : Begriffe_NN <—> Begriffe_PH.

DISKUSSION FORTSETZUNG: KAP.10

  1. Aus wissenschaftsphilosophischer Sicht ist das Kapitel 10 sehr aufschlussreich. Der in den vorausgehenden Kapiteln immer wieder angedeutete Brückenschlag zwischen Physiologie (mit Gehirnforschung) und Psychologie (verhaltensorientiert) wird in diesem Kapitel ein wenig ‚anfassbarer‘. Allerdings nicht in dem Sinne, dass der Brückenschlag nun explizit erklärt wird, aber so, dass einerseits die Begrifflichkeit auf psychologischer Seite und andererseits die Begrifflichkeit auf physiologischer Seite etwas ausdifferenziert wird. Die Beschreibung der Beziehung zwischen beiden Begrifflichkeiten verbleibt im Bereich informeller Andeutungen bzw. in Form von Postulaten, dass die zuvor geschilderte physiologische Maschinerie in der Lage sei, die angedeuteten psychologischen Strukturen in ihrer Dynamik zu ‚erklären‘.

  2. Am Ende des Kapitels 10, mehr nur in Form einer kurzen Andeutung, in einer Art Fußbote, bringt Edelman noch die Begriffe ‚Intentionalität‘ und ‚Bewusstsein‘ ins Spiel, allerdings ohne jedwede Motivation, ohne jedwede Erklärung. Diese Begriffe entstammen einen ganz anderen Sprachspiel als dem zuvor besprochenen physiologischen oder psychologischem Sprachspiel; sie gehören zum philosophischen Sprachspiel, und die Behauptung Edelmans, dass man auch diese Wortmarken aus dem philosophischen Sprachspiel in ein Erklärungsmuster einbeziehen könnte, das seine Grundlage in dem physiologischen Modell Begriffe_NN habe, ist an dieser Stelle ein reines Postulat ohne jeglichen Begründungsansatz.

  3. Wissenschaftsphilosophisch kann man hier festhalten, dass man drei Sprachspiele unterscheiden muss:

    1. Ein psychologisches Sprachspiel, das von Verhaltensdaten DAT_B ausgeht, und relativ zu diesen Begriffsnetzwerke Begriffe_B einführt (Modelle, Theorien), um die Verhaltensdaten zu erklären.

    2. Ein physiologisches Sprachspiel, das von physiologischen Daten DAT_NN ausgeht, und relativ zu diesen Begriffsnetzwerke Begriffe_NN einführt (Modelle, Theorien), um die Prozesse der physiologischen Strukturen (Gehirn) zu erklären.

    3. Ein phänomenologisches Sprachspiel (Teilbereich der Philosophie), das von phänomenologischen Daten DAT_PH ausgeht, und relativ zu diesen Begriffsnetzwerke Begriffe_PH einführt (Modelle, Theorien), um die Prozesse der phänomenologischen Strukturen (Bewusstsein) zu erklären.

  4. Diese Sprachspiele kann man isoliert, jedes für sich betreiben. Man kann aber auch versuchen, zwischen den verschiedenen Sprachspielen ‚Brücken‘ zu bauen in Form von ‚Interpretationsfunktionen‘, also:

    1. Zwischen Psychologie und Physiologie: Interpretationsfunktion Interpretation_B_NN : Begriffe_B <—> Begriffe_NN

    2. Zwischen Psychologie und Phänomenologie: Interpretationsfunktion Interpretation_B_PH : Begriffe_B <—> Begriffe_PH

    3. Zwischen Phänomenologie und Physiologie: Interpretationsfunktion Interpretation_PH_NN : Begriffe_PH <—> Begriffe_NN

  5. Man muss festhalten, dass es bis heute (2018) solche Interpretationsfunktionen als explizite Theorien noch nicht gibt; genauso wenig gibt es die einzelnen Theorien Begriffe_X (X=B, PH, NN) als explizite Theorien, obgleich es unfassbare viele Daten und partielle (meist informelle) Beschreibungen gibt.

ANHANG: BILD VON ANGESTRICHENEN BUCHSEITEN

 

Beispiel, wie die Buchseiten aussehen, nachdem ich sie 'gelesen' habe ...
Beispiel, wie die Buchseiten aussehen, nachdem ich sie ‚gelesen‘ habe …

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

ÜBER DIE MATERIE DES GEISTES. Relektüre von Edelman 1992. Teil 8

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 27.Sept. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

Gerald M.Edelman, Bright Air, Brilliant Fire. On the Matter of the Mind, New York: 1992, Basic Books

BISHER

Für die bisherige Diskussion siehe die kumulierte Zusammenfassung HIER.

KURZFASSUNG

Mit der Skizzierung seines Modells einer neuronalen Maschinerie liefert Edelman interessante Ansatzpunkte, um in einer möglichen, noch nicht existierenden, ‚Brückentheorie‘ zwischen Psychologie und Physiologie verschiedene psychologisch definierte Eigenschaften ‚von der Maschinerie her‘ plausibel zu machen. Eher unplausibel wirkt sein Versuch, die Wertefrage in Details des Genotyps und dann in Details des Phänotyps zu verlagern. Eine alternative Sicht wird vom Autor dieses Textes angedeutet.

KAP.9 NEURONALER DARWINISMUS

  1. In diesem Kapitel will Edelman Argumente vorbringen, warum die ‚Gehirnwissenschaft‘ eine ‚Wissenschaft des Erkennens‘ bzw. ‚… der Erkennung‘ (‚recognition‘) ist.

  2. Für seine Argumentation setzt Edelman voraus, dass wir Tiere (‚animals‘) haben, die sich in einer Umgebung befinden und sich in Interaktion mit dieser langfristig ‚anpassen‘, d.h. in der Lage sind, hinreichend viele Nachkommen überlebensfähig zu erzeugen. Diese Anpassungsfähigkeit beruht NICHT auf irgendwelche Instruktionen, sondern wird von den Tieren aufgrund der ihnen innewohnenden Eigenschaften ermöglicht. Diese innewohnende Eigenschaft, sich kurzfristig im Verhalten und langfristig in der Struktur des Körpers ‚anpassen zu können‘, verbindet Edelman mit dem Begriff ‚Erkennung‘ (‚recognition‘), der gebunden ist an die Struktur eines ‚Gehirns‘. Die von Edelman gemeinte Form der Erkennung basiert nicht auf expliziten Instruktionen sondern auf ‚Selektion/ Auswahl‘, die sich im Rahmen des Verhaltens ergibt. Dieses Verhalten muss in Verbindung mit dem Gehirn von der Gehirnwissenschaft untersucht werden. (vgl. 81f)

  3. In der Umgebung, die Edelman für seine Tiere voraussetzt, gibt es Ereignisse, die ’neu‘ sind, ‚unvorhergesehen‘! Solche Ereignisse kann man nicht mit schon bekanntem Wissen oder bekannten Regeln bearbeiten. Edelman postuliert daher, dass ein System, das auf ‚Auswahl/ Selektion‘ basieren soll, in der Lage ist, vor neuen Ereignissen in der Umgebung intern, im System, ‚Varianten‘ bilden kann. Die bisherigen Forschungen zur embryonalen und anschließenden Entwicklung des Gehirns legen nahe, dass dieser Prozess der ‚Gehirnentstehung/ Gehirnwerdung‘ keine 1-zu-1 Kopie eines vorgegebenen Plans ist, sondern ein Realisierungsgeschehen umfasst, bei dem sich in einer Mischung aus Umgebungsreizen und Zufällen neue individuelle Strukturen ausbilden, so dass selbst eineiige Zwillinge über unterschiedliche Feinstrukturen verfügen. Damit liegen unterschiedliche Gehirne vor, die aufgrund ihres im Körper umgesetzten Verhaltens selektiert werden können. Solch eine Variabilität wird darüber hinaus nicht nur einmal, zu Beginn des Lebens eines Tieres benötigt, sondern während des ganzen Lebens. Wie kann ein Gehirn dies leisten? (vgl. S.82)
  4. Innerhalb der Verhaltensanforderungen benennt Edelman einige Verhaltenseigenschaften explizit, die das Gehirn zu leisten in der Lage sein muss: (i) ‚Kategorisierung‘ von Ereignissen in der Wahrnehmung — auch schon vor-sprachlich –, (ii) Kategorisierungen im Kontext des Gedächtnisses, (iii) Aufbau eines ‚Bewusstseins‘, (iv) Entwicklung von ‚Sprache‘. (vgl. S.82)
  5. Edelman formuliert dann – quasi zwischen drin – ein wissenschaftsphilosophisches Postulat, dass eine Theorie, die wissenschaftlich sein will, ausschließlich auf Prozessen und Ordnungen basieren muss, die in der physikalischen Welt (‚physical world‘) vorkommen. Und aus diesem wissenschaftsphilosophischen Postulat leitet er dann ein anderes wissenschaftsphilosophisches Postulat ab, dass nämlich eine wissenschaftliche Erklärung von ‚psychologischen‘ Prozessen aufzeigen muss, wie diese mit ‚physiologischen‘ Prozessen in Zusammenhang stehen.(vgl. S.82)

  6. Eine solche wissenschaftliche Theorie zur Erklärung des Zusammenhangs zwischen psychologischen und physiologischen Prozessen hat Edelman in der ‚Theorie der neuronalen Gruppen Selektion (TNGS)‘ formuliert. Diese Theorie wurde zudem speziell entwickelt, um das Problem des ‚Bewusstsein‘ (‚consciousness‘) in den Griff zu bekommen. (vgl. S.82f)

  7. Die beiden zentralen theoretischen Konzepte in der TNGS sind ‚TNGS Wiedereintritt‘ (‚TNGS reentry‘) und ‚Globales Abbilden‘ (‚global mapping‘). (vgl. S.83)

  8. Im Zusammenhang damit muss man die Evolution neuer Formen (‚morphologies‘) sowohl vom Körper als auch vom Gehirn berücksichtigen. (vgl. S.83)

  9. Solche neuen Formbildungen finden im wesentlichen in drei Phasen statt: (i) die Entstehung von Netzwerken von Neuronen während der Entwicklung; (ii) unterschiedliche Gewichtungen der Verbindungen unter dem Einfluss von Einwirkungen von außen (und innen); (iii) Bildung von neuronalen Karten, die untereinander durch Wiedereintrittsverbindungen verbunden sind. (vgl. S.83)
  10. Bezüglich der frühen Entstehung von Netzwerken von Neuronen während der Entwicklung (Pase 1) wiederholt er die Feststellungen von vorausgehenden Kapiteln. Die Kernbotschaft ist, dass die sich herausbildenden Netzwerke genetisch nur sehr grob vor-bestimmt sind. Jedes einzelne Gehirn ist in dieser Phase sehr individuell. Die in dieser Phase verfügbaren Funktionen des Gehirns bilden ein ‚erstes Repertoire‚. (vgl. S.83)
  11. Mit der beginnenden Interaktion der Neuronen untereinander und durch Ereignisse an den Rändern (sensorische Wahrnehmung, propriozeptive Ereignisse im Körper,…) (Phase 2) werden einige Verbindungen ‚gestärkt‘, andere bleiben schwach, und mit diesen ‚Stärkungen von Verbindungen‘ bilden sich ’neue Funktionen‘ heraus, die dann insgesamt das ‚zweite Repertoire‚ bilden. (Vgl. S.83-85)
  12. Dadurch dass neuronale Karten reziprok miteinander verknüpft sind (Phase 3) können die gleichen Ausgangsreize nicht nur parallel auf unterschiedliche Weise bearbeitet werden, sondern es ist auch möglich, dass sie sich im gleichen Zeitfenster wechselseitig beeinflussen und diese Signale in übergeordneten Karten zusammen geführt werden.(vgl. S.85)

  13. In Verbindung mit Gedächtnis (‚memory‘) sieht Edelman in diesen reziproken Karten nicht nur die Grundlage für Verhalten überhaupt sondern speziell auch für eine ‚Brücke‘ zwischen Physiologie und Psychologie. (vgl. S.85)
  14. An dieser Stelle führt Edelman nun – etwas überraschend – ‚neuronale Gruppen‚ (neuronal groups‘) ein als die eigentlichen Einheiten, die der ’neuronalen Selektion‘ unterliegen. Einzelne Neuronen eignen sich dafür schlecht, weil sie entweder nur ‚anregend‘ (‚excitatory‘) sind oder nur ‚hemmend‘ (‚inhibitory‘). Außerdem sendet ein einzelnes Neuron seine Synapsen zu vielen anderen Neuronen. Will man hier eine hinreichende Schärfe in der Adressierung realisieren, dann muss man viele Neuronen kombinieren, die sich in bestimmten Bereichen dann überlappen. Von daher können eigentlich nur ‚Gruppen von Neuronen‘ solche Anforderungen erfüllen und bieten sich von daher als natürliche Einheiten der Selektion an. (vgl. S.85-87)
  15. Edelman will diese Themen dann am Beispiel der ‚Kategorisierung in der Wahrnehmung‘ (‚perceptual categorization) weiter ausführen. Er verweist dabei auch auf das Postskript mit einem Abschnitt zur Kategorisierung (S.233f). In diesem Postskript-Abschnitt kritisiert er vor allem jene Positionen, die bei der Frage der Kategorien von festen Strukturen ausgehen, die auch als solche ‚repräsentiert werden. Mit Verweis auf Wittgenstein und einigen Psychologen argumentiert er für eine Sicht der Kategorisierung, die sich aus der direkten Interaktion mit der physischen Umgebung ergibt. Ausgehend von konkreten Beispielen bilden alle Individuen konkrete Kerne, die sich im Laufe der Zeit erweitern, überlagern, ergänzen können. Einige der Elemente in solchen induktiven-dynamischen Netzen sind dann ‚typischer‘ als andere. Zwischen den Elementen können einige ‚ähnlicher‘ sein als andere, ’näher dran‘, usw. Aufgrund des induktiv-beispielhaften Charakters dieser Bildungsprozesse sind diese Strukturen bei allen Individuen grundsätzlich verschieden.

  16. Das Phänomen der ‚Kategorisierung‘, das sich im Verhalten manifestiert (= Psychologie), gründet also in neuronalen Verschaltungen (= Physiologie), die im wesentlichen auf neuronale Karten (bestehend aus neuronalen Kernen) verweisen, die jeweils unabhängige Reize (Stimuli) empfangen, die aber aufgrund der reziproken Verbindungen sich innerhalb eines Zeitfensters wechselseitig bestärken. Mit anderen Worten, Eigenschaften A in der einen Karte werden zeitgleich mit Eigenschaften B in einer anderen Karte durch wechselseitige ‚Verstärkung‘ ’synchronisiert‘. Damit können verschiedene Eigenschaften zu einem Eigenschaftsbündel koordiniert werden. Je häufiger dies passiert, umso stärker wird diese Verbindung. Diese Synchronisierungsprozess können jederzeit mit beliebig vielen verschiedenen Karten passieren. Und, wie man erkennen kann, vollziehen sich diese Synchronisierungsprozesse nicht aufgrund eines ‚Supervisors höherer Ordnung‘, nicht aufgrund irgendwelcher ‚Instruktionen‘ von ‚außen‘, sondern aufgrund von physikalischen Außenweltereignissen (oder auch körperintern (propriozeptiv) erzeugte Ereignisse), die über Sensoren und neuronale Signalverarbeitung zu den Karten geleitet werden. Der Mechanismus der reziprok verschalteten Karten extrahiert aus diesen vor-verarbeiteten sensorischen (auch propriozeptiven) Signalen dann unterschiedliche Eigenschaften, die dann die ‚Bausteine für Kategorien‘ bilden. (vgl. S.87)

  17. Da es ja sehr viele neuronale Karten mit sehr vielen reziproken Verbindungen untereinander gibt, können die Ausgänge von bestimmten Karten auch auf die Eingänge von vorausgehenden ‚Verarbeitungsstufen‘ zurück geleitet werden, um die Verarbeitung auf diese Weise zu modifizieren, oder diese reziproke Verbindungen werden für höhere Verarbeitungen benutzt, oder, oder , … Die Vielfalt der hier möglichen wechselseitigen Beeinflussungen ist groß. Edelman verweist auf ein Computermodell, das RCI (‚reentrant cortical integration‘) Modell (das reziproke kortikale Integrationsmodell), in dem er diese Theorie modellhaft umgesetzt und getestet hatte. Details dazu hat er in seinem Buch ‚The Remembert Past‘ beschrieben).(vgl. S.87-89)

  18. Für die Kopplung des wahrgenommenen (perzeptuellen) Inputs eines Systems zu seinem Output (meist über Motorkomplexe), führt Edelman ferner noch ‚globale neuronale Karten‘ ein. Diese können den Output vieler lokaler neuronaler Karten zusammenfassen, integrieren, und damit komplexe Muster zur Steuerung von Motorkomplexen und damit dem beobachtbaren Verhalten nutzen. Zugleich können diese Outputs aber auch wieder rückgekoppelt werden auf den grundlegenden Input zum ‚(neuronalen) Vergleich‘, ob tatsächlich die ‚Wirkung‘ entsteht‘, die aufgrund des Outputs ‚(neuronal) erwartet‘ wird. Auf diese Weise kann die Gehirnwissenschaft (= Physiologie) eine neuronale Maschinerie anbieten, mit denen die Psychologie das äußerlich beobachtbare Verhalten ‚erklären‘ können.(vgl. S.87-89)

  19. An dieser Stelle führt Edelman den Aspekt des ‚angemessenen‘ Verhaltens ein, das aus Sicht der Evolution und ‚Fitness‘ ‚besser geeignet ist‘ als ein anderes. Da er den Aspekt des ‚Supervisors‘ zuvor schon ausgeschlossen hat und auch keine ‚vorgegebenen Instruktionen‘ zulassen will, ist hier nicht ganz klar, wie in diesen hochdynamische induktive Struktur genetische ‚Präferenzen für Verhalten‘ eingeführt werden können. Er postuliert hier ‚interne Kriterien (‚internal criteria of value‘) dafür, dass Verhaltensweisen ‚werthaft‘ sind. Diese internen, genetisch bedingten, Kriterien bestimmen nicht konkrete Werte, sondern sie ‚beschränken die Bereiche‘ (‚constrain the domains‘), in denen Kategorisierungen stattfinden. Und er sieht diese genetisch bedingten Beschränkungen besonders in jenen Bereichen des Gehirns verortet, wo lebenswichtige Funktionen reguliert werden. Explizit nennt er: Herzschlag, Atmung, sexuelle Reaktion, Ernährungsreaktion, Drüsenfunktionen (= Ausschüttung chemischer Signalstoffe zur Steuerung von Funktionen), autonome (‚autonomic‘) Reaktionen. Diese stark vor-geprägten Kategorisierungen soll sich in einem entsprechend lebensförderndem Verhalten manifestieren.(vgl. S.90f)

  20. Um diesen noch recht abstrakten Gedanken von ‚genetisch motivierter Präferenz‘ zu präzisieren berichtet Edelman von einem Computerexperiment ‚Darwin III‘, in dem im Rahmen des visuellen Systems solche neuronale Gruppen/ Karten ‚bevorzugt‘ wurden, die Licht verarbeiteten, das auf zentrale Bereiche des Auges traf. (vgl. S.91-93)

  21. Unklar bleibt hier, wie diese ‚Bevorzugung‘ (‚Präferenz‘) überhaupt in das System kommt, so, wie es bislang von Edelman geschildert wurde. In der weiteren Erklärung zeigt Edelman einen größeren Systemzusammenhang von einem Auge, einem Arm, und das ‚Erlernen‘, einem visuellen Reiz einer bestimmten Art zu folgen und es zu greifen. Hier wird deutlich, dass sehr viele Subsysteme sich miteinander koordinieren müssen, damit Kategorisierungsleistung und Bewegung ‚zusammen passen‘. Es gibt auch eine erste Idee, wie sich diese Subsysteme über reziproke Verbindungen wechselseitig induktiv beeinflussen können. Wie ein zusätzlicher genetisch motivierter Mechanismus der ‚Bevorzugung‘ in dieses System Eingang findet, bleibt aber weiter unklar.(vgl. S.93)

  22. Das ‚Präferenz (= Wert) System‘ (‚value system‘) ist klar zu unterscheiden von dem ‚Kategorisierung-System‘. Während das Kategorisierung-System induktiv über reziproke Karten arbeitet und darin ‚epigenetisch‘ wirksam ist, liegt das genetisch motivierte Präferenz-System dem epigenetischen Kategorisierung-System voraus. Edelman berichtet, dass im Computerexperiment, wenn man das Präferenz-System ‚heraus nimmt‘, dass dann das System nicht zum Ziel kommt. Damit postuliert er ein Axiom von der Notwendigkeit von Präferenz-Systemen für Kategorisierung-Systemen, ohne dass ganz klar wird, wie diese genetische motivierten Präferenzen in das System hineinkommen.(vgl. S.94)

  23. In den folgenden Abschnitten diskutiert Edelman diverse Kritiken an seiner TNSG Theorie und kommt auf den Seiten 96f nochmals explizit auf das genetisch motivierte Präferenz-System zurück, während er sich gegen Kritik von Crick verteidigt. Grundsätzlich sieht Edelman im Rahmen der Evolution zwei selektive Systeme: (i) das ‚Evolutive‘, das aufgrund der Selektion von Individuen durch Passung/ Nicht-Passung zur Umgebung stattfindet, und (ii) das ’somatische‘, das sich primär durch Passung/ Nicht-Passung der neuronalen Gruppen zu den Reizanforderungen. Das somatische System ist aber nicht isoliert/ neutral gegenüber den genetischen Vorgaben, die als Präferenzen (‚values‘) die Selektion von geeigneten neuronalen Gruppen und Verschaltungen mit steuern. Der Ansatzpunkt für eine Einwirkung der genetischen Präferenzen auf das somatische System ohne Direktiven im Details sieht er über die wechselseitigen Wirkungen von ‚Strukturen‘, die als solche ‚genetisch motiviert‘ sein können. Wie diese ‚Motivierung bestimmter Strukturen‘ stattfinden kann, ohne den induktiven Prozesse zu stören, ist nicht ganz klar geworden.(vgl. SS.94-97)

DISKUSSION FORTSETZUNG: HIER KAP.9

  1. Die Verwendung des Ausdrucks ‚Erkennung/ Erkennen‘ (‚recogniton‘) in Nr. 2 erscheint mir sehr gewagt, da die übliche Verwendungsweise des Ausdrucks ‚Erkennung‘ ein menschliches Subjekt voraussetzt, das im Rahmen seines Bewusstseins und dem zugehörigen – weitgehend unbewussten – ‚Kognitiven System‘ die wahrgenommenen – äußerliche (Sinnesorgane) wie innerliche (Körpersensoren) – Ereignisse ‚interpretiert‘ auf der Basis der ‚bisherigen Erfahrungen‘ und im Rahmen der spezifischen Prozeduren des ‚kognitiven Systems‘. Das von Edelman unterstellte ’selektive System‘ bezieht sich primär auf Strukturen, die sich ‚evolutiv‘ ausbilden oder aber ’somatisch‘ auf die Arbeitsweise des Gehirns, wie es sich im ‚laufenden Betrieb‘ organisiert. Das somatische System ist aber Teil des weitgehend ‚unbewussten kognitiven Systems‘, das in der alltäglichen Verwendung des Begriffs ‚Erkennung‘ ohne jegliche Bezugnahme auf die Details der Maschinerie einfach voraussetzt wird. Im Alltag liegt hier die Aufspaltung der Wirklichkeit in den bewussten Teil und den unbewussten vor, dessen wir uns – normalerweise – im alltäglichen ‚Vollzug‘ nicht bewusst sind (daher ja ‚unbewusst‘). Wenn Edelman also hier einen Ausdruck wie ‚Erkennung‘ aus dem ‚bewussten Verwendungszusammenhang‘ einfach so, ohne Kommentar, für einen ‚unbewussten Verwendungszusammenhang‘ benutzt, dann kann dies nachfolgend zu nachhaltigen Verwirrungen führen.

  2. Der Punkt (3) von Edelman ist absolut fundamental. An ihm hängt alles andere.

  3. Der Punkt (4) spiegelt ein anderes fundamentales Verhältnis wieder, das Edelman immer und immer wieder thematisiert: das Verhältnis von Psychologie (die Wissenschaft vom Verhalten) und Physiologie (die Wissenschaft vom Körper, speziell vom Gehirn). Alle Eigenschaftszuschreibungen, die die Psychologie vornimmt (wie z.B. mit dem Ausdruck ‚Intelligenz‘, ‚Intelligenzquotient‘, ‚Reflex‘, usw.), basieren auf empirischen Beobachtungen von realem Verhalten von realen Menschen, die dann im Rahmen expliziter (formaler = mathematischer) Modelle/ Theorien in Beziehungen eingebracht werden. Die Psychologie schaut nicht (!) in das ‚Innere‘ des Systems. Das tut die Physiologie. Die Physiologie untersucht die Struktur und die Dynamik des Körpers; dazu gehört auch das Gehirn. Und auch die Physiologie sammelt empirische Daten von den Körperprozessen (z.B. wie ein Neuron zusammengesetzt ist, wie es physikalisch, chemisch, mikrobiologisch usw. funktioniert) und versucht diese empirische Daten in explizite Modelle/ Theorien einzubauen. Im Idealfall haben wir dann eine psychologische Theorie T_psych über beobachtbares Verhalten mit theoretisch unterstellten möglichen Faktoren ‚hinter‘ dem Verhalten, und parallel eine physiologische Theorie T_phys über körperinterne Prozesse, die die verschiedenen Einzelbeobachtungen in einen ‚Zusammenhang‘ bringen. Was wir aber NICHT haben, das ist eine Erklärung des Zusammenhangs ZWISCHEN beiden Theorien! Die Gegenstandsbereiche ‚beobachtbares Verhalten‘ und ‚beobachtbare Körperprozesse‘ sind zunächst voneinander völlig abgeschottet. Spontan vermutet man natürlich, dass es zwischen Gehirnprozessen, hormonellen Prozessen, Atmung usw. und dem beobachtbaren Verhalten einen Zusammenhang gibt, aber diesen Zusammenhang EXPLIZIT zu machen, das ist eine eigenständige Leistung mit einer ‚Brückentheorie‘ T_physpsych(T_phys, T_psych), in der dieser Zusammenhang ausdrücklich gemacht wird. Es gibt dazu sogar Ausdrücke wie ‚Psychosomatik‘, ‚Neuropsychologie‘, aber die dazu gehörigen Texte kommen bislang nicht als explizite ‚Brückentheorie‘ daher. Und wenn Edelman hier ausdrücklich die Ausdrücke ‚Wahrnehmung, ‚Gedächtnis‘, ‚Bewusstseins‘, ‚Sprache‘ nennt, dann handelt es sich ausnahmslos um hochkomplexe Sachverhalte, zu denen es bislang keine hinreichende psychologische Theorien gibt, wenngleich beeindruckende Forschungen und Forschungsansätze. Festzustellen, dass eine physiologische Theorie des Gehirns Erklärungsansätze liefern müsse, wie diese psychologischen Phänomene zu ‚erklären‘ sein ist folgerichtig, aber aktuell schwierig, da die Psychologie diese Phänomene noch keineswegs zweifelsfrei abklären konnte. Am weitesten fortgeschritten sich möglicherweise die psychologischen Forschungen zur ‚Wahrnehmung‘, zum ‚Gedächtnis‘, und irgendwie zu ‚Sprache‘, kaum zu ‚Bewusstsein‘ und dem Verhältnis zum ‚Unbewussten‘.

  4. Die beiden in (5) aufgeführten metatheoretischen (= wissenschaftsphilosophischen) Postulate sind so, wie sie Edelman formuliert, mindestens missverständlich und darum Quelle möglicher gravierender Fehler. Die Verortung von wissenschaftlichen Aussagen in der ‚physikalischen‘ Welt und von speziell psychologischen Aussagen in den ‚physiologischen Prozessen des Körpers‘ sind als solche sicher kompatibel mit dem bisherigen Verständnis von empirischer Wissenschaft generell. Allerdings, wie gerade im vorausgehenden Punkt (C) dargelegt, gibt es empirische Datenbereiche (hier: Verhaltensdaten, Körperprozesse), die direkt zunächst nichts miteinander zu tun haben. Die auf diesen unterschiedlichen Datenbereichen beruhenden Modell-/ Theoriebildungen sind von daher zunächst UNABHÄNGIG voneinander und haben ihre wissenschaftliche Daseinsberechtigung. Zu wünschen und zu fordern, dass zwei zunächst methodisch unabhängige Modelle/ Theorien T_psych und T_phys miteinander in Beziehung gesetzt werden, das liegt ‚in der Natur des wissenschaftlichen Verstehenwollens‘, aber dies wäre eine zusätzliche Theoriedimension, die die beiden anderen Teiltheorien VORAUSSETZT. Dieser methodisch-logische Zusammenhang wird in der Formulierung von Edelmann nicht sichtbar und kann dazu führen, dass man eine wichtige Voraussetzung der gewünschten Erklärungsleistung übersieht, übergeht, und damit das Ziel schon im Ansatz verfehlt.

  5. Dass – wie in (6) behauptet – die ‚Theorie der neuronalen Gruppen Selektion (TNGS)‘ jene Erklärung liefere, die die psychologischen Theorien ‚erklärt‘ ist von daher methodisch auf jeden Fall falsch. Allerdings kann man die Position von Edelman dahingehend verstehen, dass die TNGS ein physiologisches Modell liefere (was die große Schwäche besitzt, dass weder der übrige Körper, von dem das Gehirn nur ein verschwindend kleiner Teil ist, noch die jeweilige Umgebung einbezogen sind), das im Rahmen einer T_physpsych-Brückentheorie entscheidende Beiträge für solche einen Zusammenhang liefern könnte. Letzteres scheint mir in der Tat nicht ganz ausgeschlossen.

  6. In den Punkten (7) – (12) beschreibt Edelman drei Phasen der Strukturbildung, wie es zu jenen physiologischen Strukturen kommen kann, die dann – unterstellt – dem beobachtbaren Verhalten ‚zugrunde‘ liegen. Allerdings, für das aktuell beobachtbare Verhalten spielen die verschiedenen Entstehungsphasen keine Rolle, sondern nur der ‚Endzustand‘ der Struktur, die dann das aktuelle Verhalten – unterstellt – ‚ermöglicht. Der Endzustand ist das Gehirn mit seinen neuronalen Verschaltungen, seinen Versorgungsstrukturen und seiner anhaltenden ‚Plastizität‘, die auf Ereignismengen reagiert. Aus den Punkten (7) – (12) geht nicht hervor, wo und wie diese Strukturen das ‚Bewusstsein erklären‘ können.

  7. Wenn Edelman in (13) meint, dass seine neuronalen Karten mit den reziproken Verbindungen eine Grundlage für das psychologische Konzept des Gedächtnisses liefern können, dann ist dies sicher eine interessante Arbeitshypothese für eine mögliche Brückentheorie, aber die müsste man erst einmal formulieren, was wiederum eine psychologische Theorie des Gedächtnisses voraussetzt; eine solche gibt es bislang aber nicht.

  8. Der Punkt (14) adressiert mögliche Details seiner Modellvorstellung von neuronalen Karten mit reziproken Verbindungen.

  9. Der Punkt (15) greift das Thema von Punkt (13) nochmals auf. Die ‚Kategorisierung von Wahrnehmungsereignissen‘ ist letztlich nicht von dem Thema ‚Gedächtnis isolierbar. Er zitiert im Postskript auch viele namhafte PsychologenInnen, die dazu geforscht haben. Die Kerneinsicht dieser empirischen Forschungen geht dahin, dass sich solche Strukturen, die wir ‚Kategorien‘ nennen, ‚dynamisch‘ herausbilden, getriggert von konkreten Wahrnehmungsereignissen, die bei jedem individuell verschieden sind. Natürlich liegt hier die Vermutung nahe, dass entsprechend dynamische Strukturen im Körper, im Gehirn, vorhanden sein müssen, die dies ermöglichen. Dass hier Psychologie und Physiologie Hand-in-Hand arbeiten können, liegt auch auf der Hand. Aber dies stellt erhebliche methodische Herausforderungen, die Edelman kaum bis gar nicht adressiert.

  10. In Punkt (16 – 18) beschreibt Edelman auf informelle Weise, wie er sich das Zusammenspiel von psychologischen Eigenschaften (die eine explizite psychologische Theorie T_psych voraussetzen) und seinem neuronalen Modell (für das er eine physiologische Theorie T_phys beansprucht) vorstellt. Auf dieser informellen Ebene wirkt seine Argumentation zunächst mal ‚plausibel‘.

  11. Ab Punkt (19) berührt Edelman jetzt einen weiteren Fundamentalpunkt, der bis heute generell ungeklärt erscheint. Es geht um die Frage der ‚Werte‘, die ein Verhalten in einem gegeben Möglichkeitsraum in eine bestimmte ‚Richtung‘ anregen/ drängen …. (es gibt dafür eigentlich kein richtiges Wort!), so dass das System einem neuen Zustandsraum erreicht, der für es ‚günstiger‘ ist als ein anderer, auf jeden Fall ‚das Leben ermöglicht‘. Die Evolutionstheorie hat über das Phänomen der hinreichenden ‚Nachkommen‘ ein ‚operationales Kriterium‘ gefunden, mit dem sich der Ausdruck ‚Fitness‘ mit Bedeutung aufladen lässt. Über das ‚Überleben‘ bzw. ‚Nicht-Überleben‘ wirkt sich dies indirekt auf den Genotyp aus: die ‚günstigen‘ Genotypen überleben und die ’nicht günstigen‘ sterben aus. Ein ‚überlebender‘ Genotyp – einen, den man ‚fit‘ nennt – triggert dann den embryonalen Prozess und den darin gründenden ‚Entwicklungsprozess‘, der in einer ’nicht-deterministischen‘ Weise Körper- und damit Gehirnstrukturen entstehen lässt, die auf individueller Ebene immer verschieden sind. Jene Gehirnstrukturen, die für lebenserhaltende Systeme wichtig sind (letztlich die gesamte Körperarchitektur und das Zusammenspiel aller Komponenten untereinander) werden aber – trotz des nicht-deterministischen Charakters – offensichtlich dennoch herausgebildet. In all diesem lässt sich kein ‚geheimnisvoller Faktor‘ erkennen und er erscheint auch nicht notwendig. Das System ‚als Ganzes‘ repräsentiert ein ‚Erfolgsmodell‘. Hier jetzt – wie Edelman es versucht – im konkreten Details nach ‚Orten von Präferenzen‘ zu suchen erscheint unplausibel und seine Argumentation ist auch nicht schlüssig. Wenn Edelman ‚interne Kriterien für werthaftes Verhalten‘ postuliert, die genetisch bedingt sein sollen, dann postuliert er hier Eigenschaften, die sich nicht aus der Biochemie der Prozesse herauslesen lassen. Was er hier postuliert ist so eine Art von ‚genetischem Homunculus‘. Damit widerspricht er letztlich seinen eigenen wissenschaftlichen Überzeugungen. Letztlich ist es nur ein ‚Genotyp als ganzer‘, der ein ‚bislang erfolgreichen Phänotyp‘ repräsentiert. Scheiter er irgendwann – was auf lange Sicht der Normalfall ist, da die Erde sich ändert –, dann verschwindet der Genotyp einfach; jener, der ‚überlebt‘, verkörpert als ‚Ganzer‘ ein Erfolgsmodell, nicht ein einzelner, isolierter Aspekt. Mit dieser empirisch-wissenschaftlichen Sicht verschwinden die ‚Werte‘ zwar ‚aus dem System‘, aber das übergeordnete ’system-transzendente‘ Verhältnis zwischen System und Umwelt bleibt weiter erhalten und es ist dieses Verhältnis, das alleine darüber entscheidet, ob etwas ‚Leben-Ermöglichendes‘ ist oder nicht. Damit erweitert sich die Fragestellung nach der ‚Verortung möglicher Präferenzen‘ deutlich, wenn man das empirisch neue Phänomen des Bewusstseins einbezieht (das nur in Kombination mit einem Unbewussten auftritt!). Während die Umwelt-System-Beziehung primär über das Überleben entscheidet, ermöglicht das Bewusstsein in Kombination mit dem Unbewussten (z.B. dem Gedächtnis) eine ‚Extraktion‘ von Eigenschaften, Beziehungen, Dynamiken und mit kombinatorischen Varianten von dieser Umwelt-System-Beziehung, so dass eine kommunizierende Gruppe von Homo sapiens Exemplaren von nun an mögliche Zukünfte schon in der Gegenwart bis zu einem gewissen Graf ‚voraus anschauen‘ und auf ‚Lebensfähigkeit‘ ‚testen‘ kann. Insofern stellt das Bewusstsein und die Kommunikation eine radikale Erweiterung der Überlebensfähigkeit dar, nicht nur für den Homo sapiens selbst, sondern auch für die Gesamtheit des biologischen Lebens auf der Erde! Mit dem Ereignis Homo sapiens tritt das biologische Leben auf der Erde (und damit im ganzen Universum!?) in eine radikal neue Phase. Edelmans Versuch, ‚Werte‘ in einzelnen genetischen Strukturen und dann in einzelnen Strukturen des Gehirns zu finden wirken von daher unlogisch und abwegig. Edelmans Beispiele in den Punkten (20) – (23) können nicht klarmachen, wie diese interne Präferenzsystem funktionieren soll (ich werde diesen Punkt an konkreten Systemen nochmals selbst durchspielen).

  12. Zusammenfassend würde ich für mich den Text von Edelman so interpretieren, dass (i) seine Skizze der neuronalen Maschinerie mit den reziproken Verbindungen und den unterschiedlichen Verschaltungen ganzer Karten ein interessanter Ansatzpunkt ist, für ein neuronales Modell, das in einer psychologisch-physiologischen Brückentheorie getestet werden könnte und sollte, sein Versuch aber (ii), die Wertefrage in biochemische Prozesse verorten zu wollen, ist in mehrfachem Sinne unplausibel, methodisch unklar und führt vom Problem eher weg.

 

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

 

EPISTEMISCHE SCHOCKWELLEN. Die letzten 3500 Jahre

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 20.Sept. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

KONTEXT

Die Diskussion im Kontext des letzten Textes von Freud zur Psychoanalyse lässt erkennen, wie sich das Bild von uns Menschen über uns selbst dadurch in gewisser Weise ändern kann und letztlich dann ändert, wenn wir uns auf diese Gedanken einlassen. Die Einbeziehung des ‚Unbewussten‘ in das Gesamtbild des Systems homo sapiens verschiebt so manche Beziehungen im Gefüge des menschlichen Selbstbildes, und nicht nur das, es wirkt sich auch aus auf das Gesamtbild der empirischen Wissenschaften, auf ihr Gesamtgefüge. Dies hatte sich ja auch schon angedeutet in der vorausgehenden Diskussion des Buches von Edelman, die noch nicht abgeschlossen ist.

Dies hat mich angeregt, über Freud und Edelman hinausgehenden einige der epistemischen Schockwellen zusammen zu stellen, denen das menschliche Selbstverständnis in den letzten ca. 3500 Jahren ausgesetzt war. Dabei muss man sich darüber im Klaren sein, dass es natürlich immer nur eine Minderheit war, die überhaupt an den übergreifenden Erkenntnissen teilhaben konnte, und selbst diese Minderheit zerfällt in unterschiedliche Subgruppen ohne ein kohärentes Gesamtbild.

EPISTEMISCHE SCHOCKWELLEN

Unter ‚Schockwellen‘ werden hier energetische Ereignisse verstanden, die nur gelegentlich auftreten, und die geeignet sind, bestehende Strukturen zumindest zum Schwingen, zum Erbeben zu bringen, wenn nicht gar zu ihrer Zerstörung führen. ‚Epistemisch‘ bezieht sich auf die Dimension des Erkennens, des Verstehens, zu dem Exemplare des Homo sapiens fähig sind. ‚Epistemische Schockwellen‘ sind also Ereignisse, durch die das Selbstverständnis, die Weltbilder der Menschen in Schwingungen versetzt wurden bzw. sich neu aufbauen mussten.

Die folgende Zusammenschau solcher epistemischer Schockwellen ist in keiner Weise vollständig, weitgehend nicht differenziert genug, rechtfertigt sich aber dadurch, dass es darum geht in einer überschaubaren Weise einen Grundeindruck von der Dynamik des Geistes zu vermitteln, die dem Geschehen des biologisch fundierten Lebens innewohnt.

CLUSTER RELIGION

 

Stichworte zu 'Epistemische Schockwellen', Teil 1. ca. -1500 bis ca. 1500
Stichworte zu ‚Epistemische Schockwellen‘, Teil 1. ca. -1500 bis ca. 1500

Zwischen ca. -1500 bis etwa 650 gab mindestens 8 große das Weltverstehen prägende Ereignisse – daneben viele andere, weitere –, die wir im Nachgang als ‚Religionen‘ bezeichnen. Religionen zeichnen sich aus durch ‚Gründer‘, durch ‚Botschaften‘, durch ‚Erfahrungen‘ und dann meistens nachfolgend durch ‚Regeln‘ und Bildung von ‚Organisationsformen‘. Sie erheben einen Anspruch auf ‚Deutung der Welt‘ mit ‚Sinn‘, ‚Werten‘ und ‚Spielregeln‘. Sie versprechen auch den Kontakt zu eine Letzten, Größten, Umfassenden, Endgültigen, dem alles andere unter zu ordnen ist. Vielfach gehen diese Versprechungen auch einher mit speziellen ‚außergewöhnlichen Erlebnissen‘, die im einzelnen stattfinden.

In Vorderasien und Europa waren dies vor allem das Duo Judentum-Christentum und der Islam. Während diese sich explizit auf einen ‚Schöpfer‘ bezogen, kam der indische Subkontinent neben der vielfältigen Götterwelt des Hinduismus in seinem Grundtenor — realisiert im Buddhismus — ohne einen expliziten Schöpfer aus, allerdings nicht ohne eine tiefgreifende Existenzerfahrung des einzelnen Menschen, der sich durch einen geeigneten Lebensstil und Meditation möglichst weitgehend von einem normalen Alltag und seinen vielfältigen Spannungen isolierte.

So verschieden Jugentum-Christentum, Islam auf der einen Seite und Indischer Existentialismus auf der anderen Seite auf den ersten Blick wirken können, kann man aber dennoch auffällige strukturelle Parallelen erkennen.

Die sprachliche Seite der genannten Religionen tendiert dazu, nicht die Weite und Vielfalt der Welt zu kommunizieren, keine weiterreichende Erkenntnisse, sondern die Sprache hat einzig den Zweck, eine bestimmte, abgegrenzte Idee zu kommunizieren, diese abzugrenzen von allem anderen, bis dahin, dass alle Abweichungen diskreditiert werden. Jene Menschen, die sich sprachlich von der ‚Norm‘ entfernen sind Abweichler, Dissidenten, Ungläubige, Verräter, Feinde. Die Sprache wird also nicht gesehen als ein offener, lebendiger, dynamischer Raum von ‚Wahrheit‘, die sich weiter entwickeln kann, sondern als eine symbolische Fessel, eine symbolische Mauer, die einige wenige Ideen abgrenzen sollen. Auch der Buddhismus, der eigentlich sein Fundament in einer schwer beschreibbaren individuellen Existenzerfahrung sieht, praktiziert Sprache überwiegend als Gefängnis.

Betrachtet man sich die Geschichte dieser Religionen bis heute, dann ist diese Starrheit unübersehbar. Alle modernen Erkenntnisse und Entwicklungen prallen an der Sprache dieser Religionen ab.

Neben der sprachlichen Dimension haben alle diese Religionen auch eine ‚Erlebnisdimension‘, oft auch ‚Spiritualität‘ oder ‚Mystik‘ genannt. Einzelne, Gruppierungen, Bewegungen erzähltem davon, schrieben es auf, dass sie ‚besondere, tiefgreifende Erlebnisse‘ hatten, die ihnen ‚klar gemacht haben‘, was wirklich ‚wichtig‘ ist, ‚worin der Sinn des Lebens‘ liegt, Erlebnisse, die ihnen ‚Frieden‘ geschenkt haben, ‚Erfüllung‘, ‚Wahrheit‘. Und diese Erlebnisse waren immer so stark, dass sie diese Menschen aus allen Schichten dazu bewegt haben, ihr Lebens radikal zu ändern und von da an eben ‚erleuchtet‘ zu leben. Diese Menschen gab es nicht nur im Umfeld des Buddhismus, sondern auch zu Tausenden, Zehntausenden im Umfeld des Judentum-Christentums.

Solange diese religiösen Bewegungen sich im Umfeld der etablierten religiösen Überzeugungen und Praktiken bewegen wollten, mussten sie sich – wie immer auch ihre individuellen Erlebnisse waren – diesem Umfeld anpassen. In vielen Fällen führte dies auch zu Absetzbewegungen, zur Entwicklung neuer religiöser Bewegungen. Das Problem dieser erlebnisbasierten Bewegungen war, dass sie entweder nicht die Sprache benutzen durften, die sie zur Beschreibung ihrer Erlebnisse brauchten (da nicht erlaubt), oder aber, sie benutzten eine neue Sprache, und dies führte zum Konflikt mit den etablierten Sprachspielen.

Unter den vielen hunderten Bewegungen allein im Bereich Judentum-Christentum, die z.T. viele tausend, ja zehntausend  Mitglieder hatten und dabei oft auch materiell sehr wohlhabend bis reich wurden, möchte ich zwei kurz erwähnen: die Reformation angefeuert von Martin Luther und den Jesuitenorden, angefeuert von Ignatius von Loyola. Im historischen Klischee werden beide Bewegungen oft als direkte Gegner skizziert, da der Jesuitenorden kurz nach Beginn der Reformationsbewegung gegründet wurde und der katholische Papst gerade diesen Orden auch zur ‚Bekämpfung der Reformation‘ einsetzte. Dieses Bild verdeckt aber die wirklich interessanten Sachverhalte.

Der Jesuitenorden entstand aus den spirituellen Erfahrungen eines baskischen Adligen, deren innere Logik, Beschreibung und Praxis, im Lichte der Erkenntnisse der modernen Psychologie (und Psychoanalyse) stand halten würde. Außerdem war der Orden aufgrund dieser Spiritualität extrem weltoffen, wissenschaftsaffin, und revolutionierte die damals beginnende christliche Missionierung der Welt, indem jeweils die Kultur der verschiedenen Erdteile studiert und übernommen und sogar gegen zerstörerische Praktiken der europäischen Kolonisatoren geschützt wurden. Genau dieses wahre Gesicht des Ordens mit einer radikal individuell-erlebnisbasierten Spiritualität und daraus resultierenden Weltoffenheit und Menschlichkeit führte dann zum Verbot und Aufhebung des Ordens weltweit, verbunden mit Einkerkerungen, Folter und Tod ohne Vorankündigung. Das korrupte Papsttum ließ sich damals von dem portugiesischen und spanischen Hof erpressen, die ihre menschenverachtende Geschäfte in den Kolonien, speziell Südamerika, bedroht sahen. Dies war nicht die einzige Aufhebung und Misshandlung, die der Orden seitens des Papstums erfuhr. Während Luther sich gegen das Papsttum erhob und es auf einen Konflikt ankommen ließ, blieben die Jesuiten dem Papst treu und wurden vernichtet.

Diese Minigeschichte ließe sich aber zu einem großen Thema erweitern, da eben die sprachlich fixierten Religionen generell ein Problem mit Wahrheit und damit mit jeglicher Art von Erfahrung haben. Die Akzeptanz individueller Erfahrung als möglicher Quell von ‚Wahrheit‘, möglicherweise einer weiter reichenden alternativen Wahrheit zu der sprachlich fixierten (und damit eingesperrten) Wahrheit der Religionen, eine solche Akzeptanz würde das Wahrheitsmonopol dieser Religionen aufheben. Bislang hat keine der genannten Religionen es geschafft, von sich aus ihr problematisches Wahrheitsmonopol in Frage zu stellen.

JUDENTUM – CHRISTENTUM – PHILOSOPHIE

In der Zeit vor den modernen empirischen Wissenschaften existierte wissenschaftliches Denken entweder gar nicht oder in enger Verbindung mit dem philosophischen Denken bzw. der Medizin.

In der alten und klassischen Griechischen Philosopie (ca. -800 bis -200) wurde das Weltverstehen in vielen Bereichen erstmalig sehr grundlegend reflektiert, unabhängig von bestimmten religiösen Überzeugungen, obgleich natürlich auch diese Denker nicht im luftleeren Raum lebten sondern in konkreten Kulturen mit einer damals üblichen Moral, Ethik, Spielregeln, Sprachspielen.

Unter den vielen bedeutenden Konzepten war das größte systematische Konzept wohl jenes von Aristoteles, Schüler Platons, und den an ihn anschließenden Schulen. Während dieses griechische Denken nach der Eroberung Griechenlands durch die Römer in Mittel- und Westeuropa bis zum Jahr 1000 mehr oder weniger unbekannt war (Kriege, radikal anti-wissenschaftliche Einstellung der katholischen Kirche) war der damalige Islam sehr offen für Wissen. Das griechische Denken war im Islam weitgehend bekannt, lag entsprechend in arabischen Übersetzungen vor, und durch eine Vielzahl von Schulen, Bildungsstätten und großen Bibliotheken (z.T. mehrere hundert Tausend Bücher!) wurde dieses Wissen gepflegt und weiter entwickelt (welcher Kontrast zum heutigen Islam!). Und nur über diese Umweg über den hochgebildeten Islam mit Übersetzungsschulen in Spanien kam das Wissen der Griechen ab ca. 1000 wieder in das christliche Mittel- und West-Europa.

Mit dem Entstehen eines aufgeschlosseneren Bildungssystem in Europa wanderten die griechischen Gedanken über Bücher und Gelehrte wieder in europäische Bildungsstätten ein. Es gab eine Zeit der intensiven Auseinandersetzung zwischen bisheriger christlicher Theologie und Aristoteles. Auf dem Höhepunkt der begrifflichen Integration von christlichem Glauben und Aristotelischer Weltsicht gab es aber ‚Abspaltungstendenzen‘ in mehreren Bereichen.

POLITIK – WISSENSCHAFT – SPIRITUALITÄT

Das zunehmend freie und kritische Denken begann mit der Infragestellung der bis dahin waltenden absolutistischen Machtstrukturen.

Das methodisch geschulte universitäre Denken begann, über die aristotelischen Konzepte hinaus zu denken. Anknüpfungspunkte gab es genügend.

Das individuelle Erleben der Menschen, ihre Frömmigkeit, ihre Spiritualität suchte nach neuen Wegen, benutzte eine neue Sprache, um sich besser ausdrücken zu können.

Das neue politische Denken führte später zur französischen Revolution und vielen ähnlichen politischen Erneuerungsbewegungen.

Das neue philosophische Denken führt alsbald zum Bildung der neuen empirischen Wissenschaften mit neuer Logik und Mathematik.

Die neue Spiritualität lies viele neue religiöse Bewegungen entstehen, die quer zu allen etablierten Glaubensformen lagen, u.a. auch zur Reformation.

PHILOSOPHIE – WISSENSCHAFT

Stichworte zu 'Epistemische Schockwellen', Teil2. ca. ca. 1550 bis ca.2018
Stichworte zu ‚Epistemische Schockwellen‘, Teil2. ca. ca. 1550 bis ca.2018

Aus der Vielzahl der philosophischen Denker bieten sich vier besonders an: Descartes, Kant, Wittgenstein und Carnap.

Von heute aus betrachtet markieren diese Vier entscheidende Umbrüche des philosophischen Denkens, das von den Entwicklungen in der Logik, Mathematik,Physik, Geowissenschaften, Biologie und Psychologie zusätzlich profitiert hat und noch immer profitiert.

Descartes versuchte zu klären, inwieweit sich die Wahrheitsfrage nur durch Rekurs auf das eigene Denken lösen ließe. Sein Fixpunkt in der Gewissheit des eigenen Denkens (cogito ergo sum) wurde aber erkauft durch einen fortbestehenden Dualismus zwischen Körper (res extensa) und Denken/ Geist (res cogitans), den er mit einem irrationalen Gedanken zu einer Zirbeldrüse zu kitten versuchte.

Kant führte dieses Forschungsprogramm von Descartes letztlich weiter. Sein Vermittlungsversuch zwischen fehlbarer konkreter empirischer Erfahrung und den allgemeinen Prinzipien der Mathematik und des Denkens (des Geistes) ging über Descartes insoweit hinaus, dass er auf eine Zirbeldrüsen-ähnliche Lösung verzichtete und stattdessen davon ausging, dass der Mensch in seinem Denken von vornherein in abstrakten Kategorien wahrnimmt und denkt. Unsere menschliche Konstitution ist so, dass wir so wahrnehmen und Denken. Er konstatierte damit ein Faktum, das wir heute mit all unseren Erkenntnissen nur bestätigen können. Es blieb bei ihm offen, warum dies so ist. Es zeichnet seine intellektuelle Redlichkeit aus, dass er die offenen Enden seiner erkenntnistheoretischen (epistemischen) Analysen nicht krampfhaft mit irgendwelchen Pseudo-Lösungen versucht hat zu vertuschen.

Wittgenstein war der erste, der sich mit dem Funktionieren der Sprache und ihrer Wechselwirkung mit unserem Denken ernsthaft, ja radikal beschäftigte. Während er in seinem Frühwerk noch der Statik der damaligen modernen Logik huldigte, begann er dann später alle diese statischen formalen Konstruktionen in der Luft zu zerreißen, durchlief weh-tuende detaillierte Analysen der Alltagssprache, machte vor nichts Halt, und hinterließ mit seinem frechen und angstfreien Denken einen Trümmerhaufen, dessen Verdienst es ist, den Raum frei gemacht zu haben für einen echten Neuanfang.

Carnap wirkt in diesem Zusammenhang auf den ersten Blick wie ein Antipode zu Wittgenstein, und in der Tat hat er ja das vor-wittgensteinsche Sprachverständnis in seinen Studien zu den formalen Sprachen, zur Logik, zur logischen Semantik weiter angewendet. Allerdings hat er dies dann auch im Kontext der empirischen Wissenschaften getan. Und in diesem Kontext hat sein formal-scholastisches Denken immerhin dazu beigetragen, die Grundstrukturen moderner empirische Theorien mit einem formalen Kern frei zu legen und ihre Eigenschaften zu untersuchen.

Alle diese genannten Ansätze (Kant, Wittgenstein, Carnap) wurden später mehrfach kritisiert, abgewandelt, weiter entwickelt, aber es waren diese Ansätze, die die nachfolgenden Richtungen entscheidend beeinflusst haben.

Ein interessanter Grenzfall ist Freud (s.u.). Irgendwie könnte man ihn auch zur Philosophie rechnen.

LOGIK – MATHEMATIK

Aus heutiger Sicht kann man sich gar nicht mehr vorstellen, dass es eine Zeit gegeben hat, in der die moderne Logik und Mathematik nicht verfügbar war. Nahezu alles, was unseren Alltag ausmacht setzt sehr viel Mathematik als beschreibende Sprache, als Berechnung, als Simulation voraus. Dass mathematisches Denken in den Schulen so wenig – und immer weniger – behandelt wird, ist sehr irritierend.

Logik und Mathematik sind einen weiten Weg gegangen.

Ein Meilenstein ist der Übergang von der klassischen aristotelischen Logik (eng an der Alltagssprache, Einbeziehung inhaltlichen Alltagsdenkens) zur modernen formalen Logik seit Frege (formale Sprache, formaler Folgerungsbegriff).

Eng verknüpft mit der Entwicklung der neuen formalen Logik ist auch die Entwicklung der modernen Mathematik, die entscheidend mit der Erfindung der Mengenlehre durch Cantor ihren Durchbruch fand, und dann mit Russel-Whitehead und Hilbert die Neuzeit erreichte. Keine der modernen Arbeiten in Gebieten wie z.B. Algebra, Topologie, Geometrie sind ohne diese Arbeiten denkbar, ganz zu schweigen von der modernen theoretischen Physik.

EMPIRISCHE WISSENSCHAFTEN

Erste Ausläufer empirischer Wissenschaft gab es schon vor Galilei (man denke z.B. nur an die bahnbrechenden Forschungen zur Medizin von dem islamischen Gelehrten (und Philosophen, Logiker, Theologen!) Avicenna). Doch an der Person Galileis kristallisiert sich der Konflikt zwischen neuem, offenen wissenschaftlichen Denken und dem alten, geschlossenen christlichen Denken. Zudem hat Galilei eben konsequent sowohl eine experimentelle Messmethode angewendet wie auch eine beginnende mathematische Beschreibung. Mit Newton gelang dann eine Fassung von Experiment und Theorie, die atemberaubend war: die Bewegung der Himmelskörper ließ sich nicht nur mit einfachen mathematischen Formeln beschreiben, sondern auch noch mit bis dahin unbekannter Präzision voraus sagen. Es sollte dann zwar noch fast 300 Jahre dauern, bis die moderne Physik eine erste Theorie zur Entstehung des ganzen Weltalls formulieren konnte samt ersten experimentellen Bestätigungen, aber die Befreiung des Denkens von dogmatischen Sprachbarrieren war geschafft. Die Wissenschaft insgesamt hatte sich freigeschwommen.

Schon im 17.Jahrhundert hatte Niels Stensen entdeckt, dass die unterschiedlichen Ablagerungsschichten der Erde in zeitlicher Abfolge zu interpretieren sind und man daher auf geologische Prozesse schließen kann, die die Erde durchlaufen haben muss.

Zwei Jahrhunderte später, schon im 19.Jahrhundert, wurde diese historische Sicht der Erde ergänzt durch Charles Darwin, der am Beispiel der Pflanzen- und Tierwelt auch Hinweise auf eine Entwicklung der Lebensformen fand. Sowohl die Erde als auch die biologischen Lebensformen haben eine Entwicklung durchlaufen, zudem in enger Wechselwirkung.

Fast parallel zu Darwin machte Freud darauf aufmerksam, dass unser ‚Bewusstsein‘ nicht die volle Geschichte ist. Der viel größere Anteil unseres menschlichen Systems ist ’nicht bewusst‘, also ‚unbewusst‘. Das Bewusstsein ‚erzählt‘ uns nur ‚Bruchstücke‘ jener Geschichten, die weitgehend im ‚Nicht-Bewusstein‘ oder ‚Unbewussten‘ ablaufen.

Die weitere Entwicklung der Biologie lieferte viele Argumente, die das Bild von Freud stützen.

Der Versuch von Watson, 1913, die Psychologie als empirische Verhaltenswissenschaft zu begründen, wurde und wird oft als Gegensatz zu Psychoanalyse gesehen. Das muss aber nicht der Fall sein. Mit der Verhaltensorientierung gelang der Psychologie seither viele beeindruckende theoretische Modelle und Erklärungsleistungen.

Von heute aus gesehen, müsste man ein Biologie – Psychologie – Psychoanalyse Cluster befürworten, das sich gegenseitig die Bälle zuspielt.

Durch die Einbeziehung der Mikro- und Molekularbiologie in die Evolutionsbiologie konnten die molekularen Mechanismen der Evolution entschlüsselt werden.Mittlerweile steht ein fast komplettes Modell der biologischen Entwicklung zur Verfügung. Dies erlaubt es sowohl, Kants (als auch Descartes) Überlegungen von den biologischen Voraussetzungen her aufzuklären (z.B. Edelman!), wie auch die Psychologie samt der Psychoanalyse.

COMPUTER

Als Gödel 1931 die Unentscheidbarkeit anspruchsvoller mathematischer Theorien (das fängt bei der Arithmetik an!) beweisen konnte, wirkte dies auf den ersten Blick negativ. Um seinen Beweis führen zu können, benötigte Gödel aber sogenannte ‚endliche Mittel‘. Die moderne Logik hatte dazu ein eigenes Forschungsprogramm entwickelt, was denn ‚endliche Beweismethoden‘ sein könnten. Als Turing 1936/7 den Beweis von Gödel mit dem mathematischen Konzept eines Büroangestellten wiederholte, entpuppte sich dieses mathematische Konzept später als ein Standardfall für ‚endliche Mittel‘. Turings ‚mathematisches Konzept eines Büroangestellten‘ begründete dann die spätere moderne Automatentheorie samt Theorie der formalen Sprachen, die das Rückgrat der modernen Informatik bildet. Das ‚mathematische Konzept eines Büroangestellten‘ von Turing wurde ihm zu Ehren später ‚Turingmaschine‘ genannt und bildet bis heute den Standardfall für das, was mathematisch ein möglicher Computer berechnen kann bzw. nicht kann.

Im weiteren Verlauf zeigte sich, dass gerade das Konzept des Computers ein extrem hilfreiches Werkzeug für das menschliche Denken sein kann, um die Grenzen des menschlichen Wahrnehmens, Erinnerns und Denkens auszugleichen, auszuweiten.

Schon heute 2018 ist der Computer zu einem unverzichtbaren Bestandteil der Gesellschaft geworden. Das Wort von der ‚Digitalen Gesellschaft‘ ist keine Fiktion mehr.

ZEITGEIST

Der extrem kurze Rückblick in die Geschichte zeigt, wie schwer sich die Ausbildung und Verbreitung von Ideen immer getan hat. Und wenn wir uns die gesellschaftliche Realität heute anschauen, dann müssen wir konstatieren, dass selbst in den hochtechnisierten Ländern die gesamte Ausbildung stark schwächelt. Dazu kommt das eigentümliche Phänomen, dass das Alltagsdenken trotz Wissenschaft wieder vermehrt irrationale, gar abergläubische Züge annimmt, selbst bei sogenannten ‚Akademikern‘. Die Herrschaft von Dogmatismen ist wieder auf dem Vormarsch. Die jungen Generationen in vielen Ländern werden über mobile Endgeräte mit Bildern der Welt ‚programmiert‘, die wenig bis gar nicht zu wirklichen Erkenntnissen führen. Wissen als solches, ist ‚wehrlos‘; wenn es nicht Menschen gibt, die mit viel Motivation, Interesse und Ausdauer und entsprechenden Umgebungen zum Wissen befähigt werden, dann entstehen immer mehr ‚Wissens-Zombies‘, die nichts verstehen und von daher leicht ‚lenkbar‘ sind…

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

 

DER SPÄTE FREUD UND DAS KONZEPT DER PSYCHOANALYSE. Anmerkung 2

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 18.Sept. 2018

Korrekuren: 18.Sept.2018, 13:20h
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

KONTEXT

Nachdem ich im vorausgehenden Beitrag den letzten Text von Freud (auf Deutsch) mit dem Englischen Titel (bei Deutschem Text) ‚Some Elementary Lessons in Psycho-Analysis‘ (GW XVII, 1938-40) in der Rekonstruktion von Jürgen Hardt (1996) diskutiert hatte, hier einige weitere Überlegungen, dieses Mal mit direkter Bezugnahme auf den Text von Freud.

DISKUSSION

Modellvorschlag zu Freuds letztem Text zur Psychoanalyse
BILD: Modellvorschlag zu Freuds letztem Text zur Psychoanalyse

 

MODELL PSYCHOANALYSE

  1. Nach den bisherigen Überlegungen zu Freuds Position bietet es sich an, versuchsweise ein – noch sehr allgemeines – MODELL zu formulieren, das die wichtigen Begriffe von Freud in Beziehung setzt
  2. Im Kern geht es um den Begriff des SEELISCHEN, den Freud in die Komponenten BEWUSSTSEIN (BW) und UNBEWUSSTES (-BW) aufspaltet. In gewisser Weise kann man das Unbewusste als ‚Komplement‘ zum Bewusstsein sehen, da das Bewusstsein der einzige Referenzpunkt für das System homo sapiens darstellt, relativ zu dem alles andere unbewusst ist. Präziser wäre wohl der Ausdruck ’nicht bewusst‘ oder NICHT-BEWUSSTSEIN.
  3. Sowohl das Bewusstsein wie das Nicht-Bewusstsein gehören zum System homo sapiens, der sich in seinem KÖRPER manifestiert.
  4. Generell kann man davon ausgehen, dass das System homo sapiens INPUT-EREIGNISSE realisieren kann, die durch verschiedene STIMULI Ereignisse von außerhalb des Körpers ausgelöst werden können.
  5. Ebenso ist es so, dass bestimmte interne Körperereignisse – hier MOTORISCHE Ereignisse oder OUTPUT Ereignisse genannt – über die Körperoberfläche sich als VERÄNDERUNGEN der Körperoberfläche manifestieren können, die meistens als AKTIONEN klassifiziert werden oder gar als SPEZIFIZIERTE ANTWORTEN, RESPONSES.
  6. Interessant ist die Annahme von Freud, dass sich nur Teile des Nicht-Bewusstseins an das Bewusstsein mitteilen können (im Bild durch einen Pfeil angedeutet). Der Rest des Nicht-Bewusstseins teilt sich nicht dem Bewusstsein mit.
  7. Jetzt wird es spannend: Man könnte jetzt im Modell die weiteren Annahmen machen, dass es zwischen jenem Teil des Nicht-Bewusstseins, das sich dem Bewusstsein mitteilen kann – nennen wir es -BW+ – und jenem Teilen des Nicht-Bewusstseins, das sich nicht mitteilt – nennen wir diesen Teil -BW- –, dennoch eine Wechselwirkung gibt. Dies würde es erklären, warum Anteile des Nicht-Bewusstseins sich indirekt auf das Gesamtsystem auswirken können, ohne zunächst im Bewusstsein aufzutreten, dann aber – z.B. im Verlaufe der Therapie – plötzlich im Bewusstsein ‚greifbar‘ werden.
  8. Dieser Sachverhalt kann durch die weitere Annahme differenziert werden, dass möglicher Input von außen sich simultan beiden Komponenten des Nicht-Bewusstseins (-BW+, -BW-) mitteilen kann, wie auch umgekehrt beide Komponenten ein äußerliches Verhalten verursachen können (z.B. das Fehlverhalten, die Hypnoseexperimente, Arten des Redens und Verhaltens (Stimmfärbung, Form der Bewegung, …)), das als SIGNAL des NICHT-BEWUSSTSEINS fungieren kann. Dies würde z.B. erklären, warum Menschen in der Gegenwart anderer Menschen in ganz unterschiedliche ‚Stimmungen‘ geraten können, obgleich die ausgetauschten Worte keinerlei Hinweise für diese Gestimmtheit liefern. Vom Nicht-Bewusstsein verursachte Signale können im Nicht-Bewusstsein des Anderen innere Prozesse, Zustände verursachen, die sich dann in Form bestimmter Gefühle, Stimmungen, Emotionen äußern. Dies sind – zumindest berichten dies die Psychotherapeuten – sehr oft, fast immer ? – , dann der entscheidende Hinweis auf ‚verdeckt wirkende‘ Faktoren. Ohne das Nicht-Bewusstsein bleiben die objektiven ‚Signale‘ ‚unerkannt‘, sind dann eben keine ‚Signale‘ mit Referenz.
  9. So einfach dieses Modell ist, so weitreichend sind seine möglichen Konsequenzen.
  10. Da dieses Modell eine Arbeitshypothese ist, mit der man empirische Phänomene ‚deuten können soll‘, kann man es überprüfen und bekräftigen oder abschwächen bzw. dann ablehnen.

HIERARCHIE DER GEGENSTANDSBEREICHE

Das Schaubild deutet auch an, dass wir es mit einer impliziten Hierarchie von Gegenstandsbereichen zu tun haben. Der Homo sapiens ist Teil eines umfassenden Phänomens von biologischem Leben, das mit seiner Geschichte (der Evolution) ein Teilprozess auf dem Planet Erde ist, der sich als Teil des Sonnensystems herausgebildet hatte, das wiederum innerhalb der Galaxie Milchstraße entstanden ist, die sich wiederum im Prozess des bekannten Universums herausgebildet hat. Bedenkt man, dass die Anzahl der Galaxien irgendwo im Bereich von 200 Milliarden (2×1011) bis 2 Billionen (2×1012) liegt und eine einzelne Galaxie wiederum zwischen einige hundert Millionen (108) oder gar 100 Billionen (1014) Sterne haben kann (mit noch viel mehr Exoplaneten!), dann ist der Ausschnitt an körperlicher Wirklichkeit, die unser Sonnensystem mit der Erde bietet, atemberaubend ‚klein‘, man möchte sagen ‚winzig‘, so winzig, dass uns dafür die geeigneten Worte fehlen, da unser Alltag für solche Relationen keine direkten Beispiele bietet. Nur unser Denken und die Mathematik kann uns helfen, zumindest ansatzweise eine Vorstellung dazu auszubilden.

Allerdings, diese körperliche Kleinheit kann über etwas anderes hinweg täuschen, das möglicherweise ein noch größeres Wunder sein kann.

Wie die Wissenschaft erst seit wenigen Jahren weiß, besteht ein menschlicher Körper aus ca. 36 Billionen (10^12) Körperzellen, ca. 110 Billionen Bakterien im Darm und ca. 200 Milliarden Bakterien auf der Haut, d.h. ein menschlicher Körper besitzt an Zellen die Komplexität von ca. 700 Galaxien mit jeweils 200 Milliarden Sternen! Noch dramatischer wird der Kontrast, wenn man das Volumen eines menschlichen Körpers zu dem Volumen von 700 Galaxien in Beziehung setzt. Man kommt auf ein Verhältnis von ca. 1 : 10^64 !!! Anders gewendet, das Phänomen des Biologischen stellt eine unfassbare Verdichtung von Komplexität dar, deren Bedeutung und Konsequenz für das Verständnis von ‚Natur‘ bislang kaum so richtig (wenn überhaupt) gewürdigt wird.

Diese mit Worten gar nicht beschreibbare Verdichtung von Komplexität im Phänomen des Biologischen hat auch damit zu tun, dass wir es im Übergang von den ‚vor-biologischen‘ Strukturen zu den biologischen Strukturen mit einem grundlegenden Paradigmenwechsel zu tun haben. Während wir im Bereich physikalischer Strukturen Materieverdichtungen nur durch das bislang wenig verstandene Phänomen der ‚Gravitation‘ feststellen können (die nach sehr einfachen Regeln ablaufen), präsentiert das ‚Biologische‘ neuartige Prozesse und Strukturen, mit einer konstant zunehmenden ‚Verdichtung‘, die nach völlig neuartigen Regeln ablaufen. Mit Gravitation lässt sich hier nichts mehr erklären. Diese neue Qualität materieller Strukturen und Prozesse auf die einfacheren Gesetze der bekannten Physik zu ‚reduzieren‘, wie es oft gefordert wurde, ist nicht nur grober Unfug, sondern vernichtet gerade die Besonderheit des Biologischen. Der Übergang von Physik zur Astrobiologie und dann zur Biologie ist daher ein qualitativer: im Biologischen finden wir völlig neue Phänomene, die sich an der beobachtbaren Funktionalität manifestieren. ‚Emergenz‘ würde hier bedeuten, dass wir es hier mit qualitativ neuen Phänomenen zu tun haben, die sich nicht auf die Gesetze ihrer Bestandteile reduzieren lassen.

Aufgrund der schier unfassbaren Vielfalt und Komplexität des Biologischen, das in seiner körperlichen Winzigkeit eine universale Komplexität realisiert, die die bekannten astronomischen Größen letztlich sprengt, ist es sicher nicht verwunderlich, dass sich zum Phänomen des Biologischen viele verschiedene Wissenschaften ausgebildet haben, die versuchen, Teilaspekte irgendwie zu verstehen. Da der ‚Kuchen der Komplexität‘ so unfassbar groß ist, findet jeder etwas interessantes. Allerdings sollte man sich bewusst sein, dass diese vielen Disziplinen in ihrer heutigen Zersplitterung etwas auseinanderreißen und zerstückeln, das letztlich zusammen gehört.

So ist auch die Psychologie mit ihrer Spezialdisziplin Psychoanalyse letztlich kein Sonderbereich, wenngleich die hier anfallenden Phänomene tierischer und menschlicher Systeme anscheinend nochmals eine Steigerung an neuen funktionalen Phänomenen bieten.

HIERARCHIE DER WISSENSCHAFTEN

Es wäre die Aufgabe einer modernen Philosophie und Wissenschaftsphilosophie die Einheit der Phänomene und Wissenschaften wieder herzustellen. Sicher ist dies nichts, was eine einzelne Person schaffen kann noch kann dies in wenigen Jahren stattfinden. Vermutlich muss die ganze Wissenschaft neu organisiert werden, sodass letztlich alle kontinuierlich an dem Gesamtbild mitwirken.

Das, was für die Physik vielleicht die dunkle Materie und die dunkle Energie ist, die bislang ein wirkliches Gesamtbild entscheidend verhindert, dies ist für die Wissenschaft überhaupt das Problem, dass die Wissenschaftler und Philosophen, die sich um eine rationale Erklärung der Welt bemühen, letztlich selbst auch Bestandteil eben jener Wirklichkeit sind, die sie erklären wollen. Solange die empirischen Wissenschaften diesen fundamentalen Faktor aus ihrer Theoriebildung ausklammern, solange werden sie sich nur an der Oberfläche von Phänomenen bewegen und die wirklich interessanten Phänomene, die über Biologie, Psychologie und Philosophie ins Blickfeld geraten, werden bis auf weiteres außen vor bleiben.

QUELLEN

Hardt, Jürgen (1996), Bemerkungen zur letzten psychoanalytischen Arbeit Freuds: ‚Some Elementary Lessons in Psycho-Analysis‘, 65-85, in: Jahrbuch der Psychoanalyse, Bd.35, Frommann-holzboog

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

DER SPÄTE FREUD UND DAS KONZEPT DER PSYCHOANALYSE. Anmerkung

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 17.Sept. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

Wie im Beitrag vom vom 10.Sept. 2018 festgestellt, kann man die Praxis der Psychoanalyse, wie sie im Rahmen der Philosophiewerkstatt im Jahr 2018 vorgestellt wurde, sehr wohl in das Konzept einer empirischen Wissenschaft ‚einbetten‘, ohne den Faktor des ‚Un-Bewussten‘ aufgeben zu müssen. Nach Ansicht des Autors des Beitrags dort ist das Haupthindernis dafür, dies nicht umzusetzen, einerseits das mangelnde Verständnis der Psychoanalytiker für moderne Konzepte empirischer Theorien, andererseits sind die aktuellen Theoriekonzepte empirischer Theorien zu einfach; sie müssten weiter entwickelt werden.

Man kann dieser Diskussion weitere ‚Nahrung‘ geben, wenn man Themen der letzten Schrift von Sigmund Freud selbst aufgreift. Dieser Deutsche Text hatte den Englischen Titel ‚Some Elementary Lessons in Psycho-Analysis‘ (GW XVII, 1938-40). Ich wurde auf diesen Text aufmerksam durch Jürgen Hardt, der dazu 1996 einen historisch-systematischen Artikel verfasst hatte (Hardt 1996).

In einer sehr detaillierten textnahen Analyse kann Jürgen Hardt es plausibel erscheinen lassen, dass dieser Text ‚Some …‘ kein nachträglicher Kommentar zu dem zeitlich früheren ‚Abriß der Psychoanalyse‘ (GW VVII, 1938-40) darstellt, sondern letztlich einen methodisch neuen Ansatz bildet, wie Freud die Psychoanalyse darstellen wollte, ohne dies vollenden zu können.

Die zentrale Idee besteht darin, dass die Psychoanalyse sehr wohl am Alltagsverständnis ansetzt, beim alltäglichen Bewusstsein, der individuellen ‚Selbstbeobachtung‘, dass sie aber nicht bei der ‚Lückenhaftigkeit‘ der Phänomene stehen bleibt, sondern die Lücken einem ‚Un-Bewussten‘ zurechnet, das für die Auswahl und das Zustandekommen der bewussten Phänomene verantwortlich ist. Mit diesem Ansinnen und mit der Umsetzung dieses Ansinnens, begibt sich die Analyse in das Gebiet der ‚theoretischen Deutung‘ von ‚Erfahrbarem‘. Damit tut sich auf den ersten Blick ein Gegensatz von ‚Bewusstsein‘ und ‚Un-Bewusstem‘ auf: das Un-Bewusste ist dem Bewusstsein ‚etwas Fremdes‘. Dieser Gegensatz wird umso provozierender, wenn man – wie Freud – dieses ‚Un-Bewusste‘ mit dem ‚Seelischen‘ gleichsetzt, denn dann ist auch ‚das Seelische‘ dem Bewusstsein ‚fremd‘. Es ist dann das hehre Ziel der Psychoanalyse die ‚Lücken im Bewusstsein‘ dadurch zu schließen, dass man das ‚Un-Bewusste‘ und seinen funktionellen Beitrag für das Bewusstsein ’sichtbar macht‘. Dazu gibt es die weitere Position Freuds, dass das ‚Un-Bewusste‘ und seine Prozesse ‚zur Natur‘ gehören (über den Körper, der Teil der Natur ist). Insofern ist die Psychoanalyse nach Freud von ihrem Gegenstand her eine ‚Naturwissenschaft‘.

Soweit diese Position, wie sie sich anhand der detaillierten Analyse von Jürgen Hardt rekonstruieren lässt.

Angenommen diese meine Rekonstruktion der Interpretation von Jürgen Hardt ist zutreffend, dann kann man – speziell auch vor dem Hintergrund der vorausgehenden Diskussion – einige Fragen stellen.

  1. Beginnt man mit dem Ende der obigen Argumentation, dann scheint Freud die These von der Psychoanalyse als ‚Naturwissenschaft‘ von dem Sachverhalt herzuleiten, dass ihr ‚Gegenstandsbereich‘ (das ‚Un-Bewusste‘ als das ‚Seelische‘, dieses verortet in Prozessen des Körpers) dem geläufigen Verständnis von ‚Natur‘ zuzurechnen sei.

  2. Nun definiert sich die moderne Naturwissenschaft allerdings nicht nur über ihren Gegenstandsbereich (die diffuse, zu Beginn nicht definierte, ‚Natur‘), sondern zugleich und wesentlich auch über die ‚Methode des Gewinnens und Aufbereitens von wissenschaftlichem Wissen‘ über diese intendierte Natur.

  3. In diesen Prozessen des ‚Gewinnens und Aufbereitens von wissenschaftlichem Wissen‘ spielen ‚experimentelle empirische Messprozesse‘ eine zentrale Rolle. Nicht erst seit Galilei beginnt man etwas Neues, ein zu Untersuchendes (die Natur, Teilaspekte der Natur) mit einem zuvor festgelegten ‚objektiven Standard‘ zu vergleichen und benutzt die Ergebnisse dieses Vergleichs als ‚empirisches Faktum‘, wobei man von dem ausführenden ‚Beobachter/ Theoriemacher‘ absieht.

  4. Im von Freud proklamierten Ausgang beim ‚Alltagsbewusstsein‘, das sich primär in der ‚Selbstbeobachtung‘ erschließt, innerhalb einer Therapie aber auch parallel in einer ‚Fremdbeobachtung‘ des ‚Verhaltens‘ eines anderen, stellt sich die Frage nach einem ‚zuvor vereinbarten Standard‘ neu.

  5. An das beobachtbare Verhalten eines Anderen kann man zuvor vereinbarte Standards anlegen (man denke beispielsweise an die mehr als 100 Jahre psychologische Intelligenzforschung: ohne die einem Verhalten zugrunde liegenden Strukturen und Prozesse direkt untersuchen zu können, kann man Kataloge von Verhaltensweisen definieren, die man mit dem Begriff ‚Intelligent‘ korreliert. Dieses Verfahren hat gezeigt, dass es erstaunlich stabile Prognosen künftiger Verhaltensweisen erlaubt). So wäre denkbar, dass man Bündel von Verhaltensmerkmalen und typische Abfolgen in typischen Situationen mit bestimmten Begriffen verknüpft, die sich mit unterstellte unbewussten Prozessen assoziieren lassen.

  6. Allerdings, da ‚unbewusste‘ Prozesse per Definition ’nicht bewusst‘ sind, stellt sich die Frage, wann und wie ein psychoanalytischer Beobachter/ Theoriemacher einen Zugriff auf diese unbewussten Prozesse bekommen kann?

  7. Im Fall der Intelligenzforschung gibt es diesen Zugriff auf interne Prozesse letztlich auch nicht, da z.B. niemand direkt in die Arbeitsweise seines ‚Gedächtnisses‘ hineinschauen kann. Was wir vom Gedächtnis wissen, wissen wir nur über die ‚Reaktionen des Systems‘ in bestimmten Situationen und Situationsfolgen.

  8. Hier kann man vielleicht an dem Begriff ‚Fehlleistung‘ anknüpfen, der für Freud solche Verhaltensweisen charakterisiert, die nach ’normalem Verständnis‘ eine ‚Abweichung‘ vom ’normalen Muster‘ darstellen. Da ja – das wäre das grundlegende Axiom – keine Leistung einfach aus einem ‚Nichts‘ kommt, sondern ‚Prozesse im Innern‘ voraussetzt, würde man aufgrund des Axioms die Hypothese bilden, dass es Prozesse gibt, die von den ’normalen Prozessen‘ abweichen.

  9. In diesen Kontexten gehört dann auch die Traumanalyse, sofern man das Axiom aufstellt, dass Träume Verarbeitungsprozesse von erlebter Erfahrung darstellen, die ‚intern erlebte Spannungen, Konflikte, Ängste, …‘ widerspiegeln und ‚verarbeiten‘.

  10. Die bisherigen Überlegungen führen über das Muster einer verhaltensorientierten Psychologie nicht hinaus, wenngleich die ‚Arten des Verhaltens‘ mit ‚Fehlleistungen‘ und ‚Träumen‘ als Indikatoren schon bestimmte ‚Axiome‘ voraussetzen, die zusammen genommen ein ‚Modell des Akteurs‘ darstellen. Empirische Modelle – so auch dieses – können falsch sein.

  11. Fasst man den Begriff der ‚Fehlleistung‘ weiter indem man alles, was irgendwie ‚auffällig‘ ist (Stimmfärbung, Redeweise, Bewegungsweise, Zeit und Ort der Äußerung, …), dann ergibt sich ein weites, ‚offenes‘ Feld von potentiellen Verhaltensphänomenen, das zu jedem Beobachtungszeitpunkt ‚mehr‘, ‚größer‘ sein kann als das, was zuvor vereinbart worden ist.

  12. Schließlich, welche Verhaltensweisen auch immer man zuvor als potentielle ‚Indikatoren für unbewusste Prozesse‘ vereinbart haben mag, solange keiner der Beteiligten an irgendeiner Stelle eine ‚Verbindung‘ zu einem ‚realen unbewussten Prozess‘ herstellen kann, hängen diese Indikatoren – bildhaft gesprochen – ‚in der Luft‘. Vergleichbar wäre dies mit einem Quantenphysiker, der aufgrund seines mathematischen Modells eine bestimmte ‚Eigenschaft‘ im Quantenraum postuliert und es ihm bislang noch nicht gelungen ist, ein Experiment durchzuführen, das diese ‚theoretisch begründete Vermutung‘ ‚bestätigt‘.

  13. In der Darstellung von Jürgen Hardt bleibt offen, wie Freud sich eine Lösung dieses Bestätigungsproblems vorstellt.

  14. Aus den zurückliegenden Gesprächen mit PsychoanalyternInnen weiß ich, dass die ‚Wirkung einer hergestellten Beziehung‘ zwischen ‚bewussten Verhaltensanteilen‘ und ‚zuvor unbewussten Faktoren‘ einmal an objektiven Verbesserungen der Gesamtsituation des Anderen festgemacht wird (dazu ließe sich ein zuvor vereinbarter Katalog von Standards denken), und dieser Wirkung geht ein bestimmtes ‚Identifikations- und Erkennungserlebnis‘ voraus. Mit einem solchen Erlebnis ist gemeint, dass es irgendwann (eine nicht planbare und nicht erzwingbare Konstellation) dem Anderen gelingt, durch eine Vielzahl von Indikatoren und begleitenden Verhaltensweisen jene ‚interne Faktoren‘ ‚ans Bewusstsein‘ zu holen, die für die abweichenden Verhaltensweisen (die in der Regel mit vielfachen negativen Begleiteffekten im Alltagsleben verbunden waren) in kausaler Weise ‚verantwortlich‘ ist. Aufgrund der ungeheuren Variabilität von individuellen Persönlichkeitsstrukturen und -biographien können diese Faktoren so unterschiedlich sein, dass ein alle Fälle von vornherein beschreibendes Modell/Muster praktisch unmöglich erscheint. Nur insofern als das Alltagsleben Stereotype aufweist, die viele Menschen teilen, kann es ähnliche Phänomene im Rahmen einer Population geben.

  15. Wichtig ist hier, dass ein solches ‚Identifikations- und Erkennungserlebnis‘ ein subjektiver Prozess im Bereich der Selbstbeobachtung ist, dessen Gehalt sich nur indirekt in der Kommunikation und in den nachfolgenden ‚objektiven und subjektiven‘ Eigenschaften des Alltagslebens manifestiert.

  16. Der anhaltende Konflikt zwischen verhaltensbasierter Psychologie und Psychoanalyse, ob sich die im Rahmen einer Psychoanalyse erwirkten Verhaltensänderungen auch im Rahmen der ’normalen‘ verhaltensbasierten Psychologie ermöglichen lassen, wirkt ein bisschen künstlich. Eine verhaltensbasierte Psychologie, die ‚Fehlleistungen‘ und ‚Träume‘ als Indikator-Phänomene ernst nehmen würde, käme nicht umhin, axiomatisch unbewusste Prozesse anzunehmen (was sie ansonsten bei vielen komplexen Verhaltensweisen auch tun muss). Diese unbewussten Prozesse in ihrer ‚verursachenden Funktion‘ für das Alltagsverhalten zu ‚erschließen‘ braucht es sehr viel ‚kreatives‘ Experimentieren mit vielen Unbekannten, für das die Einbeziehung des ‚Unbewussten‘ des Therapeuten (zusätzlich zu den zuvor erarbeiteten Modellen) sich bislang als beste Strategie erweist, insbesondere dann, wenn man die Kommunikation zwischen den beiden ‚Unbewussten‘ zulässt und nutzt.

  17. Als Wissenschaftsphilosoph würde ich sagen, dass die Abgrenzung zwischen empirischer Psychologie und (empirischer) Psychoanalyse ‚künstlich ist. Die gewöhnliche verhaltensbasierte Psychologie kann sich von einer sich als ‚empirisch‘ verstehenden Psychoanalyse nur abgrenzen, wenn sie ihr eigenes Selbstverständnis in bestimmten Punkten künstlich beschneidet.

  18. Eine sich empirische verstehende Psychoanalyse (Freuds Postulat von Psychoanalyse als Naturwissenschaft) wiederum sollte die ideologisch erscheinenden Abgrenzungsversuche gegen die normale empirische Psychologie aufgeben und vielmehr konstruktiv zeigen, dass ihr psychoanalytisches Vorgehen nicht nur voll im Einklang mit einem empirisch-experimentellen Selbstverständnis steht, sondern darüber hinaus die Mainstream-Psychologie um wertvolle, grundlegende Erkenntnisse zum Menschen bereichern kann. Dann hätten alle etwas davon.

  19. Die weitere Forderung der empirischen Wissenschaft, die ‚gemessenen Fakten‘ systematisch zu ‚ordnen‘ in Form eines ‚Modells‘, einer ‚Theorie‘ ließe sich von der Psychoanalyse auch bei introspektiven Phänomenen sehr wohl einlösen. Allerdings sind bislang nur wenige Beispiele von formalisierten Modellen zu psychoanalytischen Sachverhalten bekannt (eines stammt von Balzer).

LIT:

Balzer, Wolfgang (1982), Empirische Theorien: Modelle, Strukturen, Beispiele,Friedr.Vieweg & Sohn, Wiesbaden

Hardt, Jürgen (1996), Bemerkungen zur letzten psychoanalytischen Arbeit Freuds: ‚Some Elementary Lessons in Psycho-Analysis‘, 65-85, in: Jahrbuch der Psychoanalyse, Bd.35, Frommann-holzboog

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

PSYCHOANALYSE ALS PROTOTYP EINER REFLEKTIERTEN EMPIRISCHEN WISSENSCHAFT. Bericht zur Sitzung vom 9.September 2018

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 10.Sept. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

KONTEXT

Die Sitzung am 9.September 2018 hatte eine Vorgeschichte.

ROBOTER VERLANGEN BESCHREIBUNG

In einer Sitzung im Januar 2018 hatte sich die bunt gemischte Gesprächsrunde die Frage gestellt, ob man einen Psychoanalytiker durch einen Roboter ersetzen könne. Die Analyse kam zur Erkenntnis, dass der Bau eines geeigneten Roboters voraussetzt, dass es eine hinreichend angemessene Beschreibung dessen gibt, was genau ein Psychoanalytiker im Rahmen eines therapeutischen Prozesses tut, wie die Interaktionen mit dem Analysanden sind, und welche speziellen ‚inneren Zustände‘ beim Analytiker gegeben sein müssen, damit er so handeln kann. Damit verschob sich die Aufgabenstellung hin zu einer solchen angemessenen Beschreibung des Psychoanalytikers/ der Psychoanalytikerin in einem Therapieprozess.

PSYCHOANALYSE ALS EMPIRISCHE THEORIE

In der nachfolgenden Sitzung im März 2018 wurde daher das Selbstverständnis der Psychoanalyse im Rahmen des Begriffs einer empirischen Theorie abgefragt. Das erstaunliche Ergebnis war, dass die Psychoanalyse grundsätzlich alle Anforderungen an eine empirische Wissenschaft erfüllt. Sie hat allerdings zwei Besonderheiten: (i) Der Beobachter und der Theoriemacher sind selbst Bestandteil der Theorie; (ii) die Messvorgänge laufen unter Laborbedingungen ab, die neben schon klassifizierten Phänomenen kontinuierlich auch ’neue‘ Phänomene zulässt, die für die Theoriebildung wichtig sein können (für Details siehe den Beitrag).

VON DEN DATEN ZUM MODELL

In der nachfolgenden Sitzung im April 2018 fokussierte sich das Gespräch auf das Wechselspiel zwischen ‚Daten‘ und erklärendem ‚Modell‘ (‚Theorie‘) und wie es zum Modell kommt. Speziell im Fall des Psychoanalytikers ergibt sich eine Doppelrolle: (i) als Teil des Prozesses agiert er/sie im Prozess als Mensch mit ‚Un-Bewusstem‘ und und seinen ‚Erfahrungen‘ und seinem bisherigen ‚Modell‘, andererseits (ii) ist er/sie reflektierter Profi, der seine Wahrnehmungen des Analysanden, der Umgebung und seiner selbst mit seinem ‚professionellen Modell‘ abgleichen muss. Der hier offensichtlich werdende ‚dynamische Charakter der Modellbildung‘ ist charakteristisch für jede Modellbildung, wird aber in den meisten empirischen Wissenschaften eher verdeckt. (Für Details siehe den Beitrag).

EINE PSYCHOANALYTISCHE FALLSTUDIE

In der Sitzung vom Mai 2018 wurde nach so viel vorausgehender Theorie ein konkretes Fallbeispiel betrachtet, das eine der teilnehmenden Psychoanalytikerinnen  vorstellte. Dieses Beispiel demonstrierte sehr klar, wie die Psychoanalytikerin als aktives Moment im Therapieprozess im Bereich des Un-Bewussten mit dem Analysand interagiert und dadurch diesen in die Lage versetzt, einen Zugriff auf jene Faktoren zu bekommen, die im Un-Bewussten das Verhalten über Jahrzehnte massiv beeinflusst hatten. Dadurch lies sich dann schnell und wirkungsvoll eine qualitative Verbesserung der Situation des Analysanden herstellen.

WISSENSCHAFTSPHILOSOPHISCHE AKTUALITÄT DER PSYCHOANALYSE

GEISTESWISSENSCHAFTEN VERSUS NATURWISSENSCHAFTEN

Die Gegensatzbildung zwischen ‚Geisteswissenschaften‘ einerseits und ‚Harten Wissenschaften‘ andererseits ist nicht neu und bei vielen so eine Art Stereotyp, das man gar nicht mehr hinterfragt. In den ‚harten Wissenschaften‘ selbst gibt es aber immer wieder von einzelnen selbst-kritische Überlegungen zur Problematik des ‚Beobachters‘ und des ‚Theoriemachers‘, die aus der eigentlichen Theorie ausgeklammert werden, was wissenschaftsphilosophisch zu erheblichen Problemen führt (Ein prominentes Beispiel, was ich auch gerade im Blog analysiere und diskutiere ist Edelman, ein exzellenter Erforscher des Immunsystems und des Gehirns).

INGENIEURWISSENSCHAFTEN

In den Ingenieurwissenschaften, die den empirischen Wissenschaften in Sachen Formalisierung in Nichts nachstehen, eher noch ausführlicher und in vielen Fällen erheblich detaillierter sind, gibt es dagegen schon seit vielen Jahren die wachsende Erkenntnis, dass 60 – 80% der Projekte nicht daran scheitern, dass die beteiligten Experten zu wenig wissen, sondern daran, dass die beteiligten ExpertenInnen ihre eigenen psychologischen Zustände zu wenig kennen, mit ihnen nicht umgehen können, diese in die Planung von Projekten und den zugehörigen komplexen Formalisierungen nicht einbeziehen. Statt von ‚Beobachter‘ und ‚Theoriemacher‘ spreche ich hier vom ‚Akteur‘ als jenem Moment eines Theorieprozesses, das sowohl die Theorie entwickelt als auch anwendet. Eine moderne und zukunftsfähige Theorie des Engineerings wird nicht umhin kommen, irgendwann den Akteur selbst in die Theoriebildung einzubeziehen (einen Theorieansatz in diese Richtung findet sich in dem Online-Buchprojekt ‚Actor-Actor-Interaction Anaysis‘).

PSYCHOANALYSE ALS PROTOTYP

Interessant ist, dass die Psychoanalyse eigentlich ein Prototyp einer solchen ‚Beobachter-Integrierten empirischen Theorie‘ ist, und zwar schon von Anfang an. Wie Jürgen Hardt, einer der teilnehmenden Psychoanalytiker, in Erinnerung rief, hatte der Begründer der Psychoanalyse, Freud, von Anfang an die Forderungen aufgestellt, (i) dass die Psychoanalyse eine Naturwissenschaft sein muss, allerdings (ii) mit dem methodischen Hinweis, dass man das ‚Seelische‘ nicht mit den unleugbar somatischen Parallelvorgängen (im Gehirn, im Körper) verwechseln dürfe. Aus Sicht eines verkürzten Empirieverständnisses wurde dies oft als ‚un-empirisch‘ oder gar als ‚dualistisch‘ charakterisiert. Dies ist jedoch unangemessen. Freud ging es primär darum, zunächst mal jene ‚Phänomene zu retten‘, die sich bei dem damaligen Zustand der empirischen Wissenschaften noch nicht in die aktuellen theoretischen Modelle (sofern es denn überhaupt echte empirische Modelle waren) einordnen liesen. Es zeichnet ‚wahre empirische Wissenschaft‘ schon immer aus, dass sie ‚Phänomene‘ akzeptiert, auch und gerade dann, wenn die aktuelle Theoriebildung sie noch nicht einordnen kann.

KEIN DUALISMUS

Dazu kommt, dass man die Charakterisierung von ‚Dualismus‘ selbst sehr kritisch hinterfragen muss. In der modernen Mathematik und damit auch in allen empirischen Theorien, die Mathematik benutzen (was letztlich alle empirischen Disziplinen sind, die den Anforderungen einer ‚wissenschaftlichen‘ Theorie gerecht werden wollen) gibt es nur zwei Grundbegriffe:’Menge‘ und ‚Relation (Funktion)‘. Während man für das abstrakte Konzept ‚Menge‘ in der empirischen Wirklichkeit nahezu beliebig viele konkrete ‚Objekte‘ finden kann, die als ‚Instanzen/ Beispiele‘ für Mengen dienen können, sozusagen die Prototypen für ‚Reales‘, lassen sich für ‚Relationen/ Funktionen‘ so leicht keine direkte Entsprechungen finden. ‚Relationen‘ bestehen nur ‚zwischen‘ Objekten, ‚Funktionen‘ dagegen lassen sich ‚Veränderungen‘ zuschreiben. Beides ‚Beziehungen zwischen‘ und ‚Veränderungen‘ sind keine realen Objekte; sie existieren quasi nur in unserer Wahrnehmung als ‚virtuelle‘ Objekte. Das Verhältnis zwischen ‚realen Objekten‘ und ‚virtuellen Relationen/ Funktionen‘ würde man daher nicht als ‚Dualismus‘ bezeichnen, da der Begriff des Dualismus spätestens seit Descartes  eher für die Forderung nach zwei unterschiedliche ‚Substanzen‘ (‚res extensa‘, ‚res cogitans) reserviert hat. Objekte kann man vielleicht als Substnzen (‚res extensa‘) bezeichnen, nicht aber ‚virtuelle Relationen/ Funktionen‘.

Angewendet auf die Psychoanalyse wäre die Freudsche Unterscheidung von ’somatischen Prozessen‘ (Gehirn/ Körper als ‚res extensa‘, denen zugleich aber auch ‚dynamische‘ Eigenschaften zukommen (= Funktionen)) und dem ‚Seelischen‘, das sich qualitativ im ‚Bewusstsein‘ zeigt (= Phänomene als ‚virtuelle Objekte‘ (mit virtuellen Beziehungen) in einer spezifischen Dynamik (mit virtuellen Funktionen)) dann kein klassischer Dualismus sondern eine Unterscheidung unterschiedlicher Phänomenklassen, denen unterschiedliche Gesetzmäßigkeiten zukommen.

SYSTEMISCHES KONZEPT

Was viele gern übersehen, das ist die ‚Gesamtsicht‘, die der Psychoanalyse zu eigen ist. Freud selbst tendierte in seiner Spätphase (Hinweis Jürgen Hardt) zu einem ‚organismischen‘ Denken, wie er es nannte; heute würde man es vielleicht ’systemisch‘ nennen. Durch die Anerkennung der Tatsache, dass das ‚Bewusstsein‘ nur einen Teil – heute müsste man vielleicht sagen: einen sehr kleinen Teil! – der Vorgänge im menschlichen Körper abbildet, wobei das ‚Un-Bewusste‘ letztlich den ganzen Restkörper beinhaltet, muss die Psychoanalyse jede Reaktion eines Akteurs als eine ‚Antwort des ganzen Systems‘ betrachten, die in den meisten Fällen von Prozessen und Faktoren verursacht werden, die eben un-bewusst sind. Insofern es weder aktuell eine vollständige Theorie aller Körperprozesse gibt noch man davon ausgehen kann, dass die Menge der möglichen Körperprozesse endlich und konstant ist, nicht einmal im Fall eines einzelnen Akteurs, ist die psychoanalytische Theoriebildung kontinuierlich in einer Situation, wo es eine Modellvorstellung M bis zum Zeitpunkt t gibt, die ab dem Zeitpunkt t mit einer offenen Menge von Phänomenen Ph_t+ konfrontiert werden kann, die vielfach bzw. überwiegend noch nicht Teil des bisherigen Modells M sind. Sofern das Modell M Anhaltspunkte für Interpretationen oder Verhaltensprognosen gibt, kann der Therapeut danach handeln; sofern das Modell ’schweigt‘, muss er das tun, was die Evolution seit 3.8 Milliarden Jahren tut: mangels Wissen über die Zukunft lassen biologische Populationen die Bildung von ‚Varianten‘ zu, von denen vielleicht einige dann in der Zukunft ‚passen‘, wenn alle anderen aufgrund von Veränderungen der Umgebung ’nicht mehr passen‘. Dieses ‚Handeln bei mangelndem Wissen ist der wichtigste Überlebensakt aller biologischer Systeme. Die ‚Quelle‘ für psychotherapeutische Verhaltensvarianten ist das eigene System, der Körper des Psychoanalytikers, schwerpunktmäßig sein Un-Bewusstes, das ‚aus sich heraus‘ wahrnimmt und reagiert.

Von den Psychoanalytikern wurde zahllose Beispiel angeführt, deren Phänomenologie die Arbeitshypothese nahelegt, dass es zwischen dem ‚Un-Bewussten‘ des Therapeuten und dem Un-Bewussten des Patienten offensichtlich eine Kommunikation im Nicht-Bewussten-Bereich geben muss, da unbewusste Zustände des Patienten, von denen der Therapeut bis dahin nichts wusste, sehr charakteristische Körperzustände beim Therapeut hervorriefen, die dann zum ‚Katalysator‘ dafür wurden, dass der Therapeut und der Patient dadurch einen entscheidenden Hinweis auf die zugrunde liegenden un-bewussten Faktoren im Patient gewinnen konnten.

Angesichts dieser Systemsicht und ihrer komplexen Dynamik stellt sich die Frage nach der Funktion des ‚Bewusstseins‘ ganz anders. Irgendwie erscheint das Bewusstsein wichtig (mindestens für alle sprachliche Kommunikation und explizite Planung), aber irgendwie ist das Bewusstsein nur ein kleiner Teil eines viel größeren dynamischen Systems, dessen Ausmaß und genaue Beschaffenheit weitgehend im Dunkeln liegt. Die moderne Gehirnforschung (wie auch die gesamte moderne Physiologie) könnte hier sicher viele wertvolle Erkenntnisse beisteuern, wären sie nicht bislang wissenschaftsphilosophisch so limitiert aufgestellt. Viele der möglichen interessanten Erkenntnisse ‚verpuffen‘ daher im Raum möglicher Theorien, da diese Theorien nicht ausformuliert werden.

ERFOLGSKRITERIEN

Natürlich kann und muss man die Frage stellen, inwieweit ein psychoanalytisches Modell – oder gar eine ausgebaute Theorie – ‚verifizierbar‘ bzw. ‚falsifizierbar‘ ist. Berücksichtigt man die methodischen Probleme mit dem Begriff der ‚Falsifikation‘ (siehe dazu die kurze Bemerkung Nr.18 im Blogbeitrag vom 5.September 2018) beschränken wir uns hier auf den Aspekt der ‚Verifikation‘.

Eine Verifikation wäre im allgemeinen die ‚Bestätigung‘ einer ‚Prognose‘, die man aus dem ‚bestehenden Modell‘ ‚abgeleitet‘ hatte. Da das ‚bestehende Modell‘ im Fall der Psychoanalyse im allgemeinen nicht als ‚formalisiertes Modell‘ vorliegt, kann es sich bei den möglichen ‚Prognosen‘ daher nur um ‚intuitive Schlüsse‘ des Therapeuten aus seinem ‚bewusst-unbewussten‘ Modell handeln. Im praktischen Fall bedeutet dies, dass (i) es einen ‚therapeutischen Prozess‘ gab, der alle offiziellen Anforderungen an einen psychoanalytischen Prozess erfüllt, dass (ii) ein Zustand erreicht wird, in dem der Patient einen höheren Grad an ‚Selbststeuerung‘ erreicht hat. Dies kann sich an vielerlei Phänomenen fest machen, z.B. der Patient hat weniger ‚Angst‘, sein ‚körperlicher Gesundheitszustand‘ ist besser geworden, er kann seine ‚Alltagsaufgaben besser lösen‘, er ist generell ‚weniger krank‘, er besitzt mehr ‚Selbstvertrauen‘ im Umgang mit zuvor gefürchteten Situationen, und dergleichen mehr. All diese Phänomene kann man objektivieren. Die sehr verbreiteten Auswertungen nur per Fragebogen sind eher unbrauchbar und nutzlos.

WEITERES VORGEHEN

Zum ersten Mal tauchte die Idee auf, die bisherigen Gespräche zur Psychoanalyse in einem kleinen Büchlein zusammen zu fassen und zu publizieren.

Eine spontane Fortsetzung findet sich HIER.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

ÜBER DIE MATERIE DES GEISTES. Relektüre von Edelman 1992. Teil 1

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 22.August 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

Gerald M.Edelman, Bright Air, Brilliant Fire. On the Matter of the Mind, New York: 1992, Basic Books

KONTEXT BLOG

Eine der zentralen Fragen, um die dieser Blog seit vielen Jahren kreist, ist die Frage nach dem Verhältnis von ‚Geist‘ und ‚Materie‘. Während die Tradition der Philosophie (und davon stark abhängig auch die christliche Theologie) seit den Griechen einen wesentlichen Unterschied zwischen ‚Geist‘ und ‚Materie‘ annimmt, legen die neuen Erkenntnisse der empirischen Wissenschaften mehr und mehr den Schluss nahe, dass der ‚Geist‘, das ‚Geistige‘, das ‚Psychische‘, das ‚Bewusstsein‘ Eigenschaften sind, die nur im Kontext einer hochkomplex organisierten Materie (z.B. im Kontext des Körpers des homo sapiens mit Gehirn) auftreten, die sich im Laufe von vielen Milliarden Jahren auf der Erde in Gestalt des ‚biologischen Lebens‘ entwickelt konnte. Dies ist nicht zwingend als schlichte Gleichsetzung materieller Strukturen und geistiger Eigenschaften zu verstehen, sondern möglicherweise eher in Richtung einer ‚emergenten Logik‘ derart, dass sich diese Eigenschaften anlässlich des Auftretens bestimmter komplexer materieller Strukturen ‚zeigen‘. Dies entspricht analog der Situation in der Mathematik, in der man zwischen ‚Mengen‘ und ‚Relationen‘ unterscheidet: ohne Mengen lassen sich keine Relationen definieren und aufzeigen, aber Relationen sind keine Mengen. Mengen können auch ohne Relationen auftreten, genauso wie es materieller Strukturen gibt, die keine Phänomene von ‚Geist‘ zeigen.

Hat man diese Blickweise einer emergenten Logik erst einmal eingenommen, stellen sich natürlich sehr viele neue Fragen. Einige dieser Fragen lauten, wie denn überhaupt etwas ‚Materielles‘ beschaffen sein muss, dass es etwas ‚Geistiges‘ zeigen kann? Was genau ist dann das ‚Geistige‘ in Abgrenzung vom ‚Materiellen‘? Wieso kann es materielle Strukturen geben, die keine ‚geistige‘ Phänomene zeigen, und solche, die es tun?

Und, wie so oft in der Geschichte der Philosophie und der neueren Geschichte der empirischen Wissenschaften, kann es von Bedeutung sein, die ‚Bedingungen des Erkennens‘ im Kontext des ‚vermeintlich Erkannten‘ mit zu reflektieren. Ein ‚Lebewesen‘, das ‚läuft‘ kann ich z.B. ‚träumen‘, mir ‚vorstellen‘, ‚erinnern‘, mir ‚ausdenken‘ oder ‚aktuell sehen‘. Und wenn ich es aktuell sehe, dann kann es ein Gemälde sein, eine Photographie, ein Film, ein Video, ein Computerspiel, oder ein ‚realer Gegenstand der Körperwelt’… und mein individuelles Erkennen eingebettet in einen sozialen Kontext eröffnet eine weitere große Anzahl an Varianten des wechselseitigen ‚Verstehens‘ oder ‚Nicht-Verstehens‘. Und selbst, wenn wir spontan ein ‚Verstehen‘ unterstellen, kann sich – nicht selten – später heraus stellen, dass der andere etwas anderes verstanden hat als man selber ‚meinte‘, was er ‚verstanden haben sollte‘. Viele weitere Aspekte der Art des Erkennens können benannt werden.

Diese Fragen zu klären ist ein Anliegen dieses Blogs.

KONTEXT EDELMAN

Bleibt man dem Anliegen des Blogs treu, dann kommt man an einer Gestalt wie Gerald Maurice Edelman (1929 – 2014) kaum vorbei. Gestartet als ein mit dem Nobelpreis gekrönter Erforscher des menschlichen Immunsystems wendet er sich später der Erforschung des menschlichen Gehirns und seines Geistes zu. Die vielen Bücher, die er zu diesem Thema seit 1987 geschrieben hat, sind von einer eindrücklichen Klarheit und zeugen von einem profunden Wissen. Eines dieser Bücher mit dem vieldeutigen Untertitel ‚Über die Materie des Geistes‘ oder auch ‚Über die Sache des Geistes‘ (‚On the Matter of the Mind‘) soll hier exemplarisch diskutiert werden.

GEIST (MIND)

Bei der Diskussion der Texte von Edelman werde ich seinen Begriff ‚Mind‘ mit ‚Geist‘ übersetzen, obgleich das Wortfeld von ‚Geist‘ im Deutschen möglicherweise nur partiell mit dem Wortfeld von ‚Mind‘ im Englischen übereinstimmt. Aufgrund der komplexen Bedeutungs- und Wortfeldbeziehungen aller Begriffe einer Sprache ist jedes Übersetzungsprojekt immer nur eine Annäherung. Soweit würde ich hier jedoch gar nicht gehen. Ich benutze den Begriff ‚Geist‘ hier einfach so, als ob es der Begriff ‚Mind‘ im Englischen wäre und folge dem Englischen Text. Wer sich vergewissern will, was ‚tatsächlich‘ da steht, sollte daher selbst den Englischen Text lesen, was sich im übrigen auf jeden Fall empfiehlt, da ich ja nicht den Text von Edelman hier direkt wiedergebe sondern nur bestimmte Gedanken aus seinem Text aufgreife und sie hier diskutiere.

Generell ist sich Edelman bewusst, dass der Begriff ‚Mind‘ in der Geschichte der Philosophie, überhaupt in der Kultur, und dann auch im Alltag, so vielfältig überladen ist, dass es im Einzelfall schwer bis unmöglich ist, zu einer klaren und eindeutigen Bestimmung der gemeinten Bedeutung zu kommen. Dennoch meint er, dass es im Alltag eine Art ‚gemeinsamen Bedeutungskern‘ gib, den er wie folgt umreißt (vgl. S.5):

  1. Dinge haben keinen Geist
  2. Normale Menschen haben Geist; einige Tiere verhalten sich so, als ob sie über Geist verfügen.
  3. Seiendes mit Geist kann sich auf anderes Seiendes oder auf Dinge beziehen; Dinge ohne Geist können sich nicht auf anderes Seiendes oder auf andere Dinge beziehen.

Dieses ’sich auf etwas anderes beziehen können‘ assoziiert Edelman mit dem Begriff der ‚Intentionalität‘, die der Deutsche Philosoph Franz Brentano eingeführt hat. ‚Bewusstsein‘ (‚awareness‘) wird hier so gesehen, dass es immer ein ‚bewusst sein von einem anderen als einem Objekt‘ ist. (vgl. S.5)

Ferner sieht Edelman dieses Bewusstsein als einen ‚Prozess‘, darin dem Psychologen William James folgend, für den ‚Geist ein Prozess ist, kein Zeug (’stuff‘)‘. Und da die moderne Wissenschaft ‚Materie‘ (‚matter‘) auch als einen ‚Prozess‘ sieht, der auf Energieaustausch basiert, ist diese Sicht des Geistes als Prozess nicht inkompatibel mit der generellen Sicht von Materie als Prozess.(vgl. S.6) Allerdings schränkt Edelman diese generelle Sicht insofern ein, als er ‚Geist‘ als einen ’spezielle Art von Prozess‘ ansieht, der nur mit einem ’speziellen Arrangement von Materie‘ korreliert! (vgl. S.7)

Dieses spezielle Arrangement von Materie sieht er gegeben in den Strukturen des Gehirns, das in einen Körper eingebettet ist, der sich – was seit Darwin Thema ist – im Rahmen einer evolutionären Entwicklung ‚herausgebildet‘ (‚arose‘) hat. (vgl. S.7) Vor diesem Hintergrund ist es keineswegs ausreichend, Wissenschaft auf Objekte ‚ohne Geist‘ (‚inanimate‘) zu beschränken.

Nein, Lebewesen (‚animals‘) mit Gehirnen, mit Intentionalität, müssen untersucht werden, allein auch schon deshalb, weil ‚wissenschaftliche Beobachter‘ selbst solche Lebewesen mit Gehirn, mit Intentionalität sind, die in ihr eigenes Bewusstsein ‚eingeschlossen sind‘ (‚locked into‘) und die deswegen darauf angewiesen sind, ihre eigenen Erfahrungen mit anderen Beobachtern so zu ‚kommunizieren‘, dass sie ‚objektiv‘ sind.(vgl. S.8)

Diese Forderung nach einer Rückbesinnung darauf, den ‚Geist‘ als Eigenschaft der ‚Natur‘ zu sehen, richtet sich nicht nur an die Philosophen, sondern auch an die empirischen Wissenschaftler!

DEN GEIST IN DIE NATUR ZURÜCKVERLAGERN

(PUTTING THE MIND BACK INTO NATURE)

Edelman listet eine Reihe illustrer Naturwissenschaftler auf, die alle entscheidende Beiträge zur modernen Physik geleistet haben (Galilei, Newton, Einstein, Planck, Heisenberg), die alle das Ideal der ‚invarianten Naturgesetze‘ befördert haben, (vgl. S.9-11) ‚invariant‘ in dem Sinne, dass die ‚Subjektivität des Beobachters‘ aus den Beobachtungen und Gesetzmäßigkeiten ausgeklammert werden muss.

Diese methodisch geforderte Ausgrenzung des Subjekts – und damit des Geistes – aus dem Gegenstandsbereich der Physik ähnelt äußerlich dem philosophischen Dualismus, für den der Philosoph (und Mathematiker) Descartes gerne zitiert wird. Mit seiner begrifflichen Unterscheidung von ‚res extensa‘ (frei übersetzt ‚Materie‘) und ‚res cogitans‘ (frei übersetzt ‚Geist‘) konservierte er das klassische dualistische Denken auf eine Weise, die eine Aporie aufbaute, aus der es lange kein Entkommen zu geben schien.(vgl. S.11)

Edelman klassifiziert auch die moderne, verhaltensbasierte Psychologie (‚behaviorism‘) als ‚dualistisch‘ (vgl. S.11f), obgleich deren Motivation die gleiche war wie jene der Physiker: es ging um eine methodische Ausklammerung jener subjektiven Momente des Erkennens, die eine objektive Kommunikation erschweren bis unmöglich machen.

Sehr ausführlich schildert er auch die Position der ‚Kognitionswissenchaft‘ (‚cognitive science‘, ‚cognitivism‘), die sich als Reaktion auf die radikal verhaltensorientierte Psychologie entwickelt hatte. Den Mangel an kognitiven Strukturen der frühen verhaltensbasierten Psychologie versuchte die multidisziplinär aufgestellte Kognitionswissenschaft durch umfangreichen Einsatz von mathematischen Modellen und Computersimulationen auszugleichen. (vgl. S.12-14) Allerdings kritisiert Edelman diese Position auch sehr entschieden, da sie sich – nach seiner Einschätzung – weitgehend von empirischen Grundlagen des menschlichen Geistes verabschiedet hatte. Die wahre Struktur und die wahre Entwicklung biologischer Systeme blieb dadurch auf der Strecke.

Edelman fordert demgegenüber, dass die Eigenschaften des Geistes nicht als biologiefreie Funktionen zu postulieren sind, sondern im Aufweis der biologischen Strukturen muss der Geist in die Natur ‚zurück verlagert‘ werden. (vgl. S.14f)

DISKUSSION

  1. Die generelle Idee von Edelman, den Dualismus von ‚Geist‘ und ‚Materie‘ dadurch aufzulösen, dass man der Frage nachgeht, wie der Geist überhaupt in die als ‚materiell klassifizierte Welt‘ hineinkommt, ist auch die Idee dieses Blogs.
  2. Edelman selbst liefert mehrere Hinweise, wo er ansetzen will: (i) Descartes hatte versäumt, die Grundlage seines ‚cogito ergo sum‘ zu hinterfragen, nämlich seinen Körper. Den spanischen Universal-Intellektuellen Miguel de Unamuno y Jugo (1864 – 1936 ) zitierend formulierte er das Motto von Descartes um: ’sum ergo cogito‘ (‚Ich bin, daher denke ich‘). In diesem Motto, das in diesem Blog inhaltlich schon ähnlich formuliert worden ist, ist die ‚res cogitans‘ eine Eigenschaft der ‚res extensa‘, was wiederum die Frage nach der genauen ‚Beschaffenheit‘ der res extensa aufwirft. (ii) Die moderne Physik hat den Beobachter aus ihrer Theoriebildung ausgeklammert, dabei aber fundamentale Eigenschaften der empirischen Wirklichkeit mit ausgeklammert. Die ‚geist-freie‘ Materie erscheint in dieser Hinsicht als ein ‚methodischer Artefakt‘ der Theoriemacher. (iii) Die moderne verhaltensbasierte Psychologie (oft als ‚Behaviorismus‘ bezeichnet) verhält sich synchron zur modernen Physik: sie klammert den Beobachter aus aus Angst, die ‚objektive Empirie‘ mit ’subjektiven Wahrnehmungsinhalten zu verunreinigen‘. (iv) Der wissenschaftliche Modetrend der Kognitionswissenschaft unterscheidet sich letztlich vom Behaviorismus methodisch gar nicht; die Kognitionswissenschaft hat nur freizügiger von Theorie-Erweiterungen Gebrauch gemacht, die mehr Mathematik und mehr Algorithmen einbezogen haben, ohne allerdings die empirische Basis entsprechend zu erweitern.
  3. Edelman sieht nun eine Verbesserung des Verstehens gegeben in dem Versuch, die Biologie stärker einzubeziehen: einmal mit Blick auf den Entwicklungsaspekt (Evolution), wie auch mit Blick auf die funktionalen Aspekte des Körpers und hier speziell des Gehirns (Physiologie).
  4. Obwohl Edelman die fundamentale Rolle des Beobachters und seiner Körperlichkeit sieht und unterstreicht, lässt er aber gerade den Beobachter als Ausgangspunkt und Basis jeder Theoriebildung offen. Obwohl Edelman auf das Problem der primären Subjektivität hinweist, das sich nur mühsam durch Kommunikationsprozesse mit anderen Subjektivitäten ‚vermitteln‘ lässt, lässt er es offen, was dies für die verschiedenen empirischen Disziplinen methodisch bedeutet.
  5. Wissenschaftsphilosophisch handelt es sich bei ‚introspektiven (=subjektiven)‘ Daten (Phänomenologie), ‚Verhaltensdaten‘ (Psychologie, Biologie) und ‚physiologischen‘ Daten (Physiologie, Biologie), das Ganze noch ausgedehnt in ‚Zeitreihen‘ (Evolution, Wachsen, Lernen, Biologie), um ganz unterschiedliche Daten, die eigene Theoriebildungen erfordern, die miteinander ‚korreliert‘ werden müssten. Bedenkt man weiter, dass die Verhaltensdaten und physiologischen Daten samt aller Zeitreihen primär auch subjektive Daten sind (das Gehirn sitzt ‚im Körper‘, berechnet von dort aus alles) und nur im abgeleiteten Sinne ‚objektiv‘ genannt werden können, werden hier viele Fragen aufgeworfen, von denen nicht bekannt ist, dass sie bislang irgendjemand ernsthaft verfolgt hat. Edelman liefert alle Zutaten, um die Fragen zu stellen, aber auch  er lässt diesen Komplex zunächst mal im Unbestimmten.

Fortsetzung folgt HIER.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

VOM MESSWERT ZUM MODELL – EMPIRIE UND KREATIVITÄT? MEMO: PHILOSOPHIEWERKSTATT: So, 29.April 2018

Journal: Philosophie Jetzt – Menschenbild , ISSN 2365-5062
30.April 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

INHALT

I Aufgabenstellung
II Gespräch
II-A Messwert
II-B Modell – Theorie
II-C Verstehen
III Neue Fragestellungen

ÜBERBLICK

Bericht zum Treffen der Philosophiewerkstatt vom 29.April 2018 mit weiterführenden Interpretationen vom Autor. Weitere Feedbacks, Kommentare sind willkommen.

I. AUFGABENSTELLUNG

In der Einladung zur Philosophiewerkstatt am 29.April 2018   wurde einerseits Bezug genommen auf den ausführlichen Bericht der Sitzung vom 25.März 2018, andererseits wurde eine Fragestellung formuliert, die sich aus der letzten Sitzung ergeben hatte. Die vorausgehenden intensiven Gespräche zur möglichen Ersetzung eines Psychoanalytikers durch einen Roboter hatten immer stärker das Selbstverständnis des Psychoanalytikers in das Zentrum der Überlegungen gerückt, verbunden mit den Fragen, wie denn ein Psychoanalytiker sowohl den Prozess beschreibt, in dem er mit einem Analysanden interagiert, wie auch sich selbst als jemand, der in dieser Rolle agiert Es wurde sichtbar, dass ein Psychoanalytiker natürlich nicht ohne ein ’Vor-Verständnis’ agiert und dass die Beobachtungen sehr wohl im Lichte dieses Vorverständnisses zu sehen seien. Es stellte sich die Frage, wie man denn das Wechselspiel zwischen anzunehmendem Vor-Verständnis einerseits und beobachteten Vorkommnissen genauer zu verstehen sei. Für die nachfolgende Sitzung wurde diese Fragestellung dahingehend erweitert, dass dieses Wechselspiel zwischen Vorverständnis und Beobachtungswerten auf das generelle Problem des Wechselspiels zwischen ’Messwerten’ und ’Modell’ in allen wissenschaftlichen Disziplinen ausgedehnt wurde. Den meisten Menschen ist nicht bewusst, dass es in den empirischen Wissenschaften für den Weg von einzelnen Messwerten zu einem Modell ganz allgemein keinen Automatismus gibt! Aus Messwerten folgt nicht automatisch eine irgendwie geartete Beziehung, erst recht kein Modell mit einem ganzen Netzwerk von Beziehungen. In allen empirischen Disziplinen braucht es Fantasie, Mut zum Denken, Mut zum Risiko, Kreativität und wie all diese schwer fassbaren Eigenschaften heißen, die im ’Dunkel des Nichtwissens’ (und des Unbewussten) mögliche Beziehungen, mögliche Muster, mögliche Faktorennetzwerke ’imaginieren’ können, die sich dann in der Anwendung auf Messwerte dann tatsächlich (manchmal!) als ’brauchbar’ erweisen. Und, ja, persönliche Vorlieben und Interessen (unbewusste Dynamiken) können sehr wohl dazu beitragen, dass bestimmte mögliche ’interessante Beziehungs-Hypothesen’ von vornherein ausgeschlossen oder eben gerade gefunden werden. Anhand konkreter Beispiele – auch aus der Psychoanalyse ? – soll diese Thematik diskutiert werden. Es sei auch noch angemerkt, dass das große Thema der letzten Sitzung, inwieweit man die Psychoanalyse als ’empirische Wissenschaft’ verstehen kann oder sogar verstehen muss, noch nicht völlig zu Ende diskutiert ist. Es entstand der Eindruck, als ob die ExpertenInnen der Psychoanalyse die Einstufung der Psychoanalyse als empirische Wissenschaft selbst nicht so ganz akzeptieren wollten. Es sah so aus, als ob sie die Befürchtung haben, dass dadurch wesentliche Momente der Psychoanalyse verloren gehen könnten. Umgekehrt muss man aber auch bedenken, dass möglicherweise der empirischen Wissenschaft wichtige Aspekte verlorengehen, wenn man eine Disziplin wie die Psychoanalyse von vornherein ausklammert.

II. GESPRÄCH

Gedankenskizze zur Philosophiewerkstatt 29.April 2018
Gedankenskizze zur Philosophiewerkstatt 29.April 2018

Das Gespräch nahm seinen Ausgangspunkt bei den Begriffen ’Messwert’ und ’Modell’.

Im Fall des Begriffs ’Messwert’ ergab sich recht schnell fundamentale Unterscheidungen.

A. Messwert

In den ’empirischen Wissenschaften’ geht ein ’Messwert’ in der Regel aus einer ’Vergleichsoperation’ hervor in der ein ’Zielobjekt’ (das, was gemessen werden soll), und ein ’Referenzobjekt’ (ein zuvor vereinbarter ’Standard’ wie z.B. die Längeneinheit Meter [m], oder Gewichtseinheit Kilogramm [kg] usw..) miteinander verglichen werden. Das Ergebnis solch einer Vergleichsoperation ist dann immer ein Zahlenwert kombiniert mit einer Einheit, also z.B. ’3,3 m’ oder ’5,44 kg’. Dieser Sachverhalt wird in einen geeigneten ’sprachlichen Ausdruck’ übersetzt, der seine ’Bedeutung’ aus dieser Vergleichsoperation bezieht. In den modernen Wissenschaften hängen die Messoperationen oft an komplexen technischen Vorrichtungen, die selbst schon komplexe Theorien voraussetzen, so dass das Messergebnis stark ’Theorie-belastet’ ist. Es wird dann eine Vergleichsoperation mit einem vereinbarten Standard unterstellt, die von vielen komplexen Annahmen abhängt. Eine direkte Überprüfbarkeit ’vor Ort’ ist oft kaum noch möglich.

In jenen empirischen Wissenschaften, die kollektiv als ’Lebenswissenschaften’ charakterisiert werden, ist der Messgegenstand sehr oft ein komplexes System in einem Prozesskontext, wo die punktuelle Messung eines isolierten Faktums schwer bis gar nicht möglich ist. Die ’Beobachtungen’ solcher komplexer Systeme bekommt einen ’narrativen’ Charakter, nimmt die Form von ’Fallgeschichten’ an, im Grenzfall eine ganze ’Lebensgeschichte’. Ein Narrativ enthält also viele Einzelbeobachtungen im Kontext eines komplexen Ablaufs. Einzelne Begriffe in so einem Narrativ können in sich ’komplex’ sein, d.h. viele Eigenschaften und Randbedingungen voraussetzen, die sich oft nur einem ’geschulten/ erfahrenen’ Beobachter erschließen. Desgleichen sind die Beziehungen zwischen solchen komplexen deskriptiven begriffen oft ebenfalls ’komplex’: sie umfassen viele Detailaspekte simultan.

B. Modell – Theorie

Im Gespräch wurden die Begriffe ’Modell’ und ’Theorie’ (noch) nicht explizit definiert. Als Arbeitsbegriff wurde in den Raum gestellt, dass die ’Deutung’ von einzelnen Messwerten das ’Aufstellen von Beziehungen’ voraussetzt, durch die einzelne Beobachtungen in einem Zusammenhang gestellt werden können,also z.B. ’Wenn X, dann (evtl. mit Wahrscheinlichkeiten qualifiziert) Y’. Man kann solche Beziehungen ’Regeln’ nennen oder ’Funktionen’. Ein vorläufiger Begriff von ’Modell’ wäre dann, dass ein Modell eine Menge solcher Regeln verkörpert (mindestens eine). Modell stellen dann also ’Deutungen’ her, aus denen sich begrenzt ’Voraussagen’ herleiten lassen bzw. mit denen man ansatzweise ’erklären’ kann.

Eine ’Theorie’ stellt – Arbeitsdefinition – gegenüber einem ’Modell’ eine erweiterte ’Struktur’ dar, in der nicht nur die angenommenen Regeln vorkommen, sondern zugleich auch alle beteiligten Objektmengen.

Mit Blick auf ein Modell wurden viele zusätzliche Eigenschaften genannt.

1) Der ’Verwendungszusammenhang’ eines Modells kann eine ’Erklärung’ sein oder eine ’Prognose’. Beides kann man u.U. für eine ’Prophylaxe’, für eine ’Therapie’ nutzen.

2) Ein Modell kann ferner ’globale Eigenschaften’ besitzen indem das so beschriebene Objekt (das oft ein System ist), als ’zuverlässig’ charakterisierbar ist oder als ’sicher’ oder als ’resilient’ und dergleichen mehr.

3) Man kann auch die Frage nach der ’Entstehung eines Modells’ stellen: ist es eher ein ’Produkt’ des Wirkens der biologischen Strukturen’ oder der Einwirkungen der umgebenden ’Kultur’ oder ein Zusammenspiel von beiden? Inwieweit können sich Modelle ’selbst organisieren’? In diesem Zusammenhang auch die interessante Unterscheidung zwischen ’Modellen im Alltag’, die eher unbewusst, automatisch entstehen und benutzt werden, im Kontrast zu expliziten Modellen in der Wissenschaft, die grundsätzlich ’bewusst’ konstruiert werden, ’transparent’, mit ’Dokumentationen’. Hier beobachten wir aber in der Gegenwart das Phänomen der ’Zersplitterung’ der Einzeldisziplinen, die mit spezifischen Sprachspielen und spezifischen Modellen ’für sich’ recht erfolgreich sein können, aber im ’interdisziplinären Dialog’ oft vollständig versagen. Dies ist ein reales Problem.

4) Ferner kann man fragen, inwieweit ein Modell eine geeignete ’Sprache voraus setzt’ bzw. wie das Zusammenspiel von einem ’Modell im Kopf’ ist und einer Sprache, die über dieses Modell spricht?

C. Verstehen

Mit diesen vielen Teil-Klärungen von Begrifflichkeiten stellte sich dann das Problem des Wechselspiels zwischen Beobachtungen und benutztem Modell in der Psychoanalyse so dar, dass natürlich auch die Psychoanalyse vorab zum praktischen Einsatz eine explizite ’Modellpflege’ betreibt (Anmerkung: Durch Studien, spezielles Training, Supervision, und vielem mehr ), so dass dann der ausgebildete (trainierte) Psychoanalytiker sich seines Modells so ’bewusst’ sein kann, dass er in seinem ’Narrativ’ genügend viele Einzelaspekte ’identifizieren’ kann, um sie ’im Lichte seines Modells’ so ’deuten’ zu können, dass er im Sinne des psychoanalytischen Modells ’geeignete Schlüsse’ ziehen kann, aufgrund deren er sowohl zu ’Einschätzungen’ kommen kann wie auch dann zu jeweiligen ’Interventionen’. An diesem Punkt war leider die Zeit um.

III. NEUE FRAGESTELLUNGEN

Es bestand der Wunsch aller Beteiligten, an dieser Stelle das Gespräch fortzusetzen. Ideal wäre für die nächste Sitzung ein kleines Beispiel mit einem typischen ’Narrativ’ und ’Deutungen’ auf der Basis des ’vorausgesetzten psychoanalytischen Modells’. Es wäre dann interessant, ob man aufgrund dieses Beispiels die Struktur eines psychoanalytischen Modells beispielhaft rekonstruieren und ’hinschreiben’ könnte.

Eine Fortsetzung findet sich HIER.

KONTEXTE

Einen Überblick über alle Einträge zur Philosophiewerkstatt nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs finden sich HIER.