KI UND BIOLOGIE. Blitzbericht zu einem Vortrag am 28.Nov.2018

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062
29.Nov. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

LETZTE AKTUALISIERUNG: 1.Dez.2018, Anmerkung 1

KONTEXT

Im Rahmen einer öffentlichen Veranstaltung des Fachbereichs 2 ‚Informatik & Ingenieurwissenschaften‘ der Frankfurt University of Applied Sciences am 28.November 2018 mit dem Rahmenthema „Künstliche Intelligenz – Arbeit für Alle?“ hielt Gerd Doeben-Henisch einen kurzen Vortrag zum Thema „Verändert KI die Welt?“ Voraus ging ein Vortrag von Herrn Helmut Geyer „Arbeitsmarkt der Zukunft. (Flyer zur Veranstaltung: FRA-UAS_Fb2_Karte_KI-Arbeit fuer alle_Webversion )

EINSTIEG INS KI-THEMA

Im Kontext der Überlegungen zur Arbeitswelt angesichts des technologischen Wandels gerät die Frage nach der Rolle der Technologie, speziell der digitalen Technologie — und hier noch spezieller der digitalen Technologie mit KI-Anteilen – sehr schnell zwischen die beiden Pole ‚Vernichter von Arbeit‘, ‚Gefährdung der Zukunft‘ einerseits und ‚Neue Potentiale‘, ‚Neue Arbeit‘, ‚Bessere Zukunft‘, wobei es dann auch einen dritten Pol gibt, den von den ‚übermächtigen Maschinen‘, die die Menschen sehr bald überrunden und beherrschen werden.

Solche Positionen, eine Mischungen aus quasi-Fakten, viel Emotionen und vielen unabgeklärten Klischees, im Gespräch sachlich zu begegnen ist schwer bis unmöglich, erst Recht, wenn wenig Zeit zur Verfügung steht.

Doeben-Henisch entschloss sich daher, das Augenmerk zentral auf den Begriff ‚Künstliche Intelligenz‘ zu lenken und die bislang uneinheitliche und technikintrovertierte Begrifflichkeit in einen größeren Kontext zu stellen, der das begrifflich ungeklärte Nebeneinander von Menschen und Maschinen schon im Ansatz zu überwinden sucht.

ANDERE DISZIPLINEN

Viele Probleme im Kontext der Terminologie der KI im technischen Bereich erscheinen hausgemacht, wenn man den Blick auf andere Disziplinen ausweitet. Solche andere Disziplinen sind die Biologe, die Mikrobiologie sowie die Psychologie. In diesen Disziplinen beschäftigt man sich seit z.T. deutlich mehr als 100 Jahren mit komplexen Systemen und deren Verhalten, und natürlich ist die Frage nach der ‚Leistungsfähigkeit‘ solcher Systeme im Bereich Lernen und Intelligenz dort seit langem auf der Tagesordnung.

Die zunehmenden Einsichten in die unfassbare Komplexität biologischer Systeme (siehe dazu Beiträge in diesem Blog, dort auch weitere Links), lassen umso eindrücklicher die Frage laut werden, wie sich solche unfassbar komplexen Systeme überhaupt entwickeln konnten. Für die Beantwortung dieser Frage wies Doeben-Henisch auf zwei spannende Szenarien hin.

KOMMUNIKATIONSFREIE EVOLUTION

Entwicklungslogik vor der Verfügbarkeit von Gehirnen

Entwicklungslogik vor der Verfügbarkeit von Gehirnen

In der Zeit von der ersten Zelle (ca. -3.8 Mrd Jahren) bis zur Verfügbarkeit hinreichend leistungsfähiger Nervensysteme mit Gehirnen (ab ca. -300.000, vielleicht noch etwas früher) wurde die Entwicklung der Lebensformen auf der Erde durch zwei Faktoren gesteuert: (a) die Erde als ‚Filter‘, was letztlich zu einer bestimmten Zeit geht; (b) die Biomasse mit ihrer Reproduktionsfähigkeit, die neben der angenäherten Reproduktion der bislang erfolgreichen Baupläne (DNA-Informationen) in großem Umfang mehr oder weniger starke ‚Varianten‘ erzeugte, die ‚zufallsbedingt‘ waren. Bezogen auf die Erfolge der Vergangenheit konnten die zufälligen Varianten als ’sinnlos‘ erscheinen, als ’nicht zielführend‘, tatsächlich aber waren es sehr oft diese zunächst ’sinnlos erscheinenden‘ Varianten, die bei einsetzenden Änderungen der Lebensverhältnisse ein Überleben ermöglichten. Vereinfachend könnte man also für die Phase die Formel prägen ‚(Auf der dynamischen Erde:) Frühere Erfolge + Zufällige Veränderungen = Leben‘. Da zum Zeitpunkt der Entscheidung die Zukunft niemals hinreichend bekannt ist, ist die Variantenbildung die einzig mögliche Strategie. Die Geschwindigkeit der ‚Veränderung von Lebensformen‘ war in dieser Zeit auf die Generationsfolgen beschränkt.

MIT KOMMUNIKATION ANGEREICHERTE EVOLUTION

Nach einer gewissen ‚Übergangszeit‘ von einer Kommunikationsfreien zu einer mit Kommunikation angereicherte Evolution gab es in der nachfolgenden Zeit die Verfügbarkeit von hinreichend leistungsfähigen Gehirnen (spätestens mit dem Aufkommen des homo sapiens ab ca. -300.000)[1], mittels deren die Lebensformen die Umgebung und sich selbst ‚modellieren‘ und ‚abändern‘ konnten. Es war möglich, gedanklich Alternativen auszuprobieren, sich durch symbolische Kommunikation zu ‚koordinieren‘ und im Laufe der letzten ca. 10.000 Jahren konnten auf diese Weise komplexe kulturelle und technologische Strukturen hervorgebracht werden, die zuvor undenkbar waren. Zu diesen Technologien gehörten dann auch ab ca. 1940 programmierbare Maschinen, bekannt als Computer. Der Vorteil der Beschleunigung in der Veränderung der Umwelt – und zunehmend auch der Veränderung des eigenen Körpers — lies ein neues Problem sichtbar werden, das Problem der Präferenzen (Ziele, Bewertungskriterien…). Während bislang einzig die aktuelle Erde über ‚Lebensfähig‘ ‚oder nicht Lebensfähig‘ entschied, und dies das einzige Kriterium war, konnten die  Lebewesen mit den neuen Gehirnen  jetzt eine Vielzahl von Aspekten ausbilden, ‚partielle Ziele‘, nach denen sie sich verhielten, von denen oft erst in vielen Jahren oder gar Jahrzehnten oder gar noch länger sichtbar wurde, welche nachhaltigen Effekte sie haben.

Anmerkung 1: Nach Edelman (1992) gab es einfache Formen von Bewusstsein mit den zugehörigen neuronalen Strukturen ab ca. -300 Mio Jahren.(S.123) Danach hätte es  also ca. 300 Mio Jahre gedauert, bis   Gehirne, ausgehend von einem ersten einfachen Bewusstsein, zu komplexen Denkleistungen und sprachlicher Kommunikation in der Lage waren.

LERNEN und PRÄFERENZEN

Am Beispiel von biologischen Systemen kann man fundamentale Eigenschaften wie z.B. das ‚Lernen‘ und die ‚Intelligenz‘ sehr allgemein definieren.

Systematisierung von Verhalten nach Lernen und Nicht-Lernen

Systematisierung von Verhalten nach Lernen und Nicht-Lernen

In biologischer Sicht haben wir generell Input-Output-Systeme in einer unfassbar großen Zahl an Varianten bezüglich des Körperbaus und der internen Strukturen und Abläufe. Wie solch ein Input-Output-System intern im Details funktioniert spielt für das konkrete Leben nur insoweit eine Rolle, als die inneren Zustände ein äußerlich beobachtbares Verhalten ermöglichen, das wiederum das Überleben in der verfügbaren Umgebung ermöglicht und bezüglich spezieller ‚Ziele‘ ‚erfolgreich‘ ist. Für das Überleben reicht es also zunächst, einfach dieses beobachtbare Verhalten zu beschreiben.

In idealisierter Form kann man das Verhalten betrachten als Reiz-Reaktions-Paare (S = Stimulus, R = Response, (S,R)) und die Gesamtheit des beobachtbaren Verhaltens damit als eine Sequenz von solchen (S,R)-Paaren, die mathematisch eine endliche Menge bilden.

Ein so beschriebenes Verhalten kann man dann als ‚deterministisch‘ bezeichnen, wenn die beobachtbaren (S,R)-Paare ’stabil‘ bleiben, also auf einen bestimmten Reiz S immer die gleiche Antwort R erfolgt.

Ein dazu komplementäres Verhalten, also ein ’nicht-deterministisches‘ Verhalten, wäre dadurch charakterisiert, dass entweder (i) der Umfang der Menge gleich bleibt, aber manche (S,R)-Paare sich verändern oder (ii) der Umfang der Menge kann sich ändern. Dann gibt es die beiden interessanten Unterfälle (ii.1) es kommen nach und nach neue (S,R)-Paare dazu, die ‚hinreichend lang‘ ’stabil‘ bleiben, aber ab einem bestimmten Zeitpunkt ‚t‘ sich nicht mehr vermehren (die Menge der stabilen Elemente wird ‚eingefroren‘, ‚fixiert‘, ‚gezähmt‘, …), oder (ii.2) die Menge der stabilen (S,R)-Paare expandiert ohne Endpunkt.

Bezeichnet man diese Expansion (zeitlich ‚befristet‘ oder ‚unbefristet‘) als ‚Lernen‘, dann wird sichtbar, dass die ‚Inhalte des Lernens‘ (die korrespondierenden Repräsentationen der (S,R)-Paare in den internen Zuständen des Systems) einmal davon abhängen, was die Umgebung der Systeme ‚erlaubt‘, zum anderen, was die ‚inneren Zustände‘ des Systems an ‚Verarbeitung ermöglichen‘, sowie – sehr indirekt – über welche welche ‚internen Selektionskriterien‘ ein System verfügt.

Die ‚internen Selektionskriterien‘ werden hier kurz ‚Präferenzen‘ genannt, also Strategien, ob eher ein A oder ein B ’selektiert‘ werden soll. Wonach sich solche Kriterien richten, bleibt dabei zunächst offen. Generell kann man sagen, dass solche Kriterien primär ‚endogen‘ begründet sein müssen, dass sie aber nachgeordnet auch von außen (‚exogen‘) übernommen werden können, wenn die inneren Kriterien eine solche Favorisierung des exogenen Inputs ‚befürworten‘ (Beispiel sind die vielen Imitationen im Lernen bzw. die Vielzahl der offiziellen Bildungsprozesse, durch die Menschen auf bestimmte Verhaltens- und Wissensmuster trainiert (programmiert) werden). Offen ist auch, ob die endogenen Präferenzen stabil sind oder sich im Laufe der Zeit ändern können; desgleichen bei den exogenen Präferenzen.

Am Beispiel der menschlichen Kulturen kann man den Eindruck gewinnen, dass das Finden und gemeinsame Befolgen von Präferenzen ein bislang offenes Problem ist. Und auch die neuere Forschung zu Robotern, die ohne Terminierung lernen sollen (‚developmental robotics‘), hat zur Zeit das Problem, dass nicht ersichtlich ist, mit welchen Werten man ein nicht-terminiertes Lernen realisieren soll. (Siehe: Merrick, 2017)) Das Problem mit der Präferenz-Findung ist bislang wenig bekannt, da die sogenannten intelligenten Programme in der Industrie immer nur für klar definierte Verhaltensprofile trainiert werden, die sie dann später beim realen Einsatz unbedingt einhalten müssen.  Im technischen Bereich spricht man hier oft von einer ’schwachen KI‘. (Siehe: VDI, 2018) Mit der hier eingeführten Terminologie  wären dies nicht-deterministische Systeme, die in ihrem Lernen ‚terminieren‘.

INTELLIGENZ

Bei der Analyse des Begriffs ‚Lernen‘ wird sichtbar, dass das, was gelernt wird, bei der Beobachtung des Verhaltens nicht direkt ’sichtbar‘ ist. Vielmehr gibt es eine allgemeine ‚Hypothese‘, dass dem äußerlich beobachtbaren Verhalten ‚interne Zustände‘ korrespondieren, die dafür verantwortlich sind, ob ein ’nicht-lernendes‘ oder ein ‚lernendes‘ Verhalten zu beobachten ist. Im Fall eines ‚lernenden‘ Verhaltens mit dem Auftreten von inkrementell sich mehrenden stabilen (S,R)-Paaren wird angenommen, das den (S,R)-Verhaltensformen ‚intern‘ entsprechende ‚interne Repräsentationen‘ existieren, anhand deren das System ‚entscheiden‘ kann, wann es wie antworten soll. Ob man diese abstrakten Repräsentationen ‚Wissen‘ nennt oder ‚Fähigkeiten‘ oder ‚Erfahrung‘ oder ‚Intelligenz‘ ist für die theoretische Betrachtung unwesentlich.

Die Psychologie hat um die Wende zum 20.Jahrhundert mit der Erfindung des Intelligenztests durch Binet und Simon (1905) sowie in Weiterführung durch W.Stern (1912) einen Ansatz gefunden, die direkt nicht messbaren internen Repräsentanten eines beobachtbaren Lernprozesses indirekt dadurch zu messen, dass sie das beobachtbare Verhalten mit einem zuvor vereinbarten Standard verglichen haben. Der vereinbarte Standard waren solche Verhaltensleistungen, die man Kindern in bestimmten Altersstufen als typisch zuordnete. Ein Standard war als ein Test formuliert, den ein Kind nach möglichst objektiven Kriterien zu durchlaufen hatte. In der Regel gab es eine ganze Liste (Katalog, Batterie) von solchen Tests. Dieses Vorgehensweisen waren sehr flexibel, universell anwendbar, zeigten allerdings schon im Ansatz, dass die Testlisten kulturabhängig stark variieren konnten. Immerhin konnte man ein beobachtbares Verhalten von einem System auf diese Weise relativ zu vorgegebenen Testlisten vergleichen und damit messen. Auf diese Weise konnte man die nicht messbaren hypothetisch unterstellten internen Repräsentationen indirekt qualitativ (Art des Tests) und quantitativ (Anteil an einer Erfüllung des Tests) indizieren.

Im vorliegenden Kontext wird ‚Intelligenz‘ daher als ein Sammelbegriff für die hypothetisch unterstellte Menge der korrespondierenden internen Repräsentanten zu den beobachtbaren (S,R)-Paaren angesehen, und mittels Tests kann man diese unterstellte Intelligenz qualitativ und quantitativ indirekt charakterisieren. Wie unterschiedlich solche Charakterisierung innerhalb der Psychologie modelliert werden können, kann man in der Übersicht von Rost (2013) nachlesen.

Wichtig ist hier zudem, dass in diesem Text die Intelligenz eine Funktion des Lernens ist, das wiederum von der Systemstruktur abhängig ist, von der Beschaffenheit der Umwelt sowie der Verfügbarkeit von Präferenzen.

Mehrdimensionaler Raum der Intelligenzrpräsentanen

Mehrdimensionaler Raum der Intelligenzrpräsentanen

Aus Sicht einer solchen allgemeinen Lerntheorie kann man statt biologischen Systemen auch programmierbare Maschinen betrachten. Verglichen mit biologischen Systemen kann man den programmierbaren Maschinen ein Äquivalent zum Körper und zur Umwelt spendieren. Grundlagentheoretisch wissen wir ferner schon seit Turing (1936/7), dass programmierbare Maschinen ihr eigenes Programm abändern können und sie prinzipiell lernfähig sind. Was allerdings (siehe zuvor das Thema Präferenz) bislang unklar ist, wo sie jeweils die Präferenzen herbekommen sollen, die sie für eine ’nachhaltige Entwicklung‘ benötigen.

ZUKUNFT VON MENSCH UND MASCHINE

Im Licht der Evolution erscheint die  sich beschleunigende Zunahme von Komplexität im Bereich der biologischen Systeme und deren Populationen darauf hinzudeuten, dass mit der Verfügbarkeit von programmierbaren Maschinen diese sicher nicht als ‚Gegensatz‘ zum Projekt des biologischen Lebens zu sehen sind, sondern als eine willkommene Unterstützung in einer Phase, wo die Verfügbarkeit der Gehirne eine rapide Beschleunigung bewirkt hat. Noch bauen die biologischen Systeme ihre eigenen Baupläne  nicht selbst um, aber der Umbau in Richtung von Cyborgs hat begonnen und schon heute ist der Einsatz von programmierbaren Maschinen existentiell: die real existierenden biologischen Kapazitätsgrenzen erzwingen den Einsatz von Computern zum Erhalt und für die weitere Entwicklung. Offen ist die Frage, ob die Computer den Menschen ersetzen sollen. Der Autor dieser Zeilen sieht die schwer deutbare Zukunft eher so, dass der Mensch den Weg der Symbiose intensivieren wird und versuchen sollte, den Computer dort zu nutzen, wo er Stärken hat und zugleich sich bewusst sein, dass das Präferenzproblem nicht von der Maschine, sondern von ihm selbst gelöst werden muss. Alles ‚Böse‘ kam in der Vergangenheit und kommt in der Gegenwart vom Menschen selbst, nicht von der Technik. Letztlich ist es der Mensch, der darüber entscheidet, wie er die Technik nutzt. Ingenieure machen sie möglich, die Gesellschaft muss entscheiden, was sie damit machen will.

BEISPIEL EINER NEUEN SYMBIOSE

Der Autor dieser Zeilen hat zusammen mit anderen KollegenInnen in diesem Sommer ein Projekt gestartet, das darauf abzielt, dass alle 11.000 Kommunen in Deutschland ihre Chancen haben sollten, ihre Kommunikation und Planungsfähigkeit untereinander dramatisch zu verbessern, indem sie die modernen programmierbaren Maschinen in neuer ‚intelligenter‘ Weise für ihre Zwecke nutzen.

QUELLEN

  • Kathryn Merrick, Value systems for developmental cognitive robotics: A survey, Cognitive Systems Research, 41:38 – 55, 2017
  • VDI, Statusreport Künstliche Intelligenz, Oktober 2018, URL: https://www.vdi.de/vdi-statusbericht-kuenstliche-intelligenz/ (zuletzt: 28.November 2018)
  • Detlef H.Rost, Handbuch der Intelligenz, 2013: Weinheim – Basel, Beltz Verlag
  • Joachim Funke (2006), Kap.2: Alfred Binet (1857 – 1911) und der erste Intelligenztest der Welt, in: Georg Lamberti (Hg.), Intelligenz auf dem Prüfstand. 100 Jahre Psychometrie, Vandenhoek & Ruprecht
  • Alfred Binet, Théodore Simon: Methodes nouvelles pour le diagnostiqc du niveau intellectuel des anormaux. In: L’Année Psychologique. Vol. 11, 1904, S. 191–244 (URL: https://www.persee.fr/doc/psy_0003-5033_1904_num_11_1_3675 )
  • William Stern, Die psychologischen Methoden der Intelligenzprüfung und deren Anwendung an Schulkinder, 19121: Leipzig, J.A.Barth
  • Alan M. Turing, On computable numbers, with an application to the Entscheidungsproblem. Proceedings of the London Mathematical Society, 42(2):230–265, 1936-7
  • Gerald M.Edelman, Bright Air, Brilliant Fire. On the Matter of the Mind, New York: 1992, Basic Books

ÜBER DIE MATERIE DES GEISTES. Relektüre von Edelman 1992. Teil 9

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 12.Okt. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

Gerald M.Edelman, Bright Air, Brilliant Fire. On the Matter of the Mind, New York: 1992, Basic Books

BISHER

Für die bisherige Diskussion siehe die kumulierte Zusammenfassung HIER.

KURFASSUNG

Aus wissenschaftsphilosophischer Sicht ist das Kapitel 10 sehr aufschlussreich. Der in den vorausgehenden Kapiteln immer wieder angedeutete Brückenschlag zwischen Physiologie (mit Gehirnforschung) und Psychologie (verhaltensorientiert) wird in diesem Kapitel ein wenig ‚anfassbarer‘. Allerdings nicht in dem Sinne, dass der Brückenschlag nun explizit erklärt wird, aber so, dass einerseits die Begrifflichkeit auf psychologischer Seite und andererseits die Begrifflichkeit auf physiologischer Seite etwas ausdifferenziert wird. Die Beschreibung der Beziehung zwischen beiden Begrifflichkeiten verbleibt im Bereich informeller Andeutungen bzw. in Form von Postulaten, dass die zuvor geschilderte physiologische Maschinerie in der Lage sei, die angedeuteten psychologischen Strukturen in ihrer Dynamik zu ‚erklären‘.

KAP.10 Gedächtnis und Konzepte (‚Memory and Concepts‘): Errichtung einer Brücke zum Bewusstsein (‚Building a Bridge to Consciousness‘)

  1. Nach den vorbereitenden Kapiteln 1-9 versucht Edelman mit den soweit formulierten Grundlagen nun ‚höhere‘ Hirnleistungen und ‚psychologische (=verhaltensbasierte)‘ Eigenschaften durch Rückgriff auf die evolutionären und neuronalen Mechanismen zu ‚erklären‘.

  2. Der Ausgangspunkt der Überlegungen in Kap.10 bilden die Annahmen der vorausgehenden Kapitel, dass die ‚Welt‘ ‚außerhalb‘ eines Organismus ein überwältigendes Ereignisfeld ist, das vom wahrnehmenden Organismus erst einmal ’strukturiert‘ werden muss, damit der Organismus mit diesen Ereignisfeldern konstruktiv umgehen kann. Es stellen sich in diesem Kontext folgende Fragen: (i) welche Strukturierungen nimmt ein Organismus vor, und (ii) wie konnten sich jene Mechanismen ausbilden, die solche Strukturierungen ermöglichen? Zusätzlich ist zu bedenken, dass sich die außer-organismischen Ereignisfelder – kontinuierlich wie auch disruptiv – ändern. Es reicht also nicht, die Fähigkeit der Herausbildung solcher strukturierenden Mechanismen einmalig anzunehmen, sondern (iii) es muss auch geklärt werden, wie es zu ‚dynamischen Anpassungen‘ der strukturierenden Mechanismen angesichts einer sich ändernden Umwelt kommen kann? Die bisherige Antwort auf die Fragen (i) – (iii) war der Verweis auf (a) evolutionäre Strukturbildung, auf (b) embryonale Entwicklung, sowie auf die (c) flexible Verschaltung von neuronalen Karten sowohl durch (c.1) Rückkopplungen wie auch durch (c.2) Hierarchiebildungen. Mit diesen Annahmen zu einer komplexen dynamischen Maschinerie verbindet Edelman die Überzeugung, dass sich damit alle bekannten komplexen Funktionsleistungen des Gehirns (wie z.B. ‚Gedächtnis‘ (‚memory‘) wie auch beobachtbare psychologische Eigenschaften ‚erklären‘ lassen. (vgl. S.99f)

  3. Für das, was nach Edelman ‚erklärt‘ werden soll, benutzt er die Worte ‚Bewusstsein‘, ‚Intentionalität‘, ‚Kategorisierung der Wahrnehmung‘ (‚perceptual categorization‘), ‚Gedächtnis‘ und ‚Lernen‘. Und er spricht im Zusammenhang dieser Wortmarken von ‚höheren Gehirnfunktionen‘ (‚higher brain functions‘). Damit verknüpft Edelman in dieser kurzen Beschreibung zwei methodisch unterschiedliche Betrachtungsweisen: die Begriffe ‚Bewusstsein‘, ‚Intentionalität‘, ‚Kategorisierung der Wahrnehmung‘, ‚Gedächtnis‘ und ‚Lernen‘ gehören normalerweise in den Bereich der verhaltensbasierten Psychologie; der Begriff ‚höhere Gehirnfunktionen‘ dagegen verweist auf den Bereich der Biologie mit den Spezialbereichen Physiologie und darin noch spezieller der Gehirnforschung. Damit findet sich hier die Stelle, wo er die beiden Pole Psychologie und Gehirnforschung verknüpfen möchte. Bemerkenswert ist seine ausdrückliche Feststellung, dass diese 5 mentalen Leistungen, obwohl sie oft ‚getrennt/ isoliert‘ (’separated‘) behandelt werden, doch ‚untrennbare Aspekte einer gemeinsamen mentalen Leistung‘ (‚inseparable aspects of a common mental performance‘) darstellen. Diese Feststellung geht weit über die benannten einzelnen Wortmarken hinaus. Aus dieser Feststellung folgt, dass wir es hier mit 5 unterscheidbaren mentalen ‚Leistungen‘ zu tun haben, die man als ‚Funktionen‘ {f1, …,f5} auffassen kann und sie in einer wissenschaftlichen Sicht auch so auffassen muss; dazu postuliert Edelman eine Superfunktion f*, die sich aus diesen genannten 5 Funktionen ‚zusammensetzt‘ als etwa f* = f1 u … u f5. Sind schon die einzelnen Funktionen – jede für sich – sehr ‚komplex‘ (und bis heute in der Psychologie nur unvollständig erklärt), so führt die postulierte Superfunktion f* in einen Denkbereich, der nur schwer zu fassen ist, und der bislang eigentlich von niemandem theoretisch irgendwie modelliert worden ist. (vgl. S.100) //* Falls es doch irgendwo solch eine Ausarbeitung gibt, wäre ich als Autor für einen Hinweis sehr dankbar! *//

  4. Edelman sagt ganz klar, dass es der Bereich des ‚Verhaltens‘ (‚behavior‘, ‚B‘ ) ist, an dem die Bedeutung der drei ‚fundamentalen Funktionen‘ (‚fundamental functions‘) f1 ‚Kategorisierung der Wahrnehmung‘, f2 ‚Gedächtnis‘ und f3 ‚Lernen‘ zu ‚testen‘ sind. Und er sieht auch eine funktionale Abhängigkeit zwischen diesen fundamentalen Funktionen der Art, dass f2 (Gedächtnis) die Funktion f1 (Kategoriale Wahrnehmung) voraussetzt und die Funktion f3 (Lernen) setzt sowohl f1 als auch f2 voraus. Alle drei ‚beeinflussen‘ (‚affect‘) das Verhalten ‚B‘, weil sie sich untereinander beeinflussen. Angenähert könnte man dann formulieren B = (f1,f2,f3). Nach Edelmann versorgen Wahrnehmen und Gedächtnis das System mit grundlegenden Datenstrukturen, und Lernen kann daraus neue, weiterreichende Strukturen ableiten. Dann stellt Edelman plötzlich fest, dass die beiden Funktionen f1 und f2 für das Lernen f3 zwar notwendige Voraussetzungen bilden (also: f3 = (f1,f2), aber sie alleine noch nicht ausreichend wären; es bedarf noch einer weiteren Funktionalität fx, also f3=(f1,f2,fx). Diese weitere Funktion fx verweist nach Edelman auf ein ‚Wertesystem‘ (‚value system‘), das von den Kategorisierungsleistungen des Wahrnehmens und Erinnerns unabhängig ist. Wir bekommen damit folgende Zusammenhänge: B = f*() mit f* = (f3,f4,f5) und f3 = (f1,f2,fx). (vgl. S.100)

  5. Das ‚Wertesystem‘ fx hat – aus Sicht des Verhaltens B – mehrere Eigenschaften: (i) es basiert auf unterschiedlichen Wertelieferanten fx = (fx1, …, fxn), die (ii) unterschiedliche ‚Erwartungen‘ (‚expectancy‘) als ‚Referenzpunkte‘ (’set points‘) ausbilden können. Diese Erwartungen können als Fitnesswerte in dem Sinne genutzt werden, dass ein Systemverhalten solche Referenzpunkte entweder ‚befriedigt‘ (und damit wieder ‚zurück setzt‘) oder ’nicht befriedigt‘ (und damit ’nicht zurücksetzt‘). Ein Lernen f3 ist ‚erfolgreich‘ (‚is achhieved‘), wenn das System seine ‚Systemzustände‘ (‚IS‘) so arrangieren kann, dass ‚in der Zukunft‘ das Verhalten des Systems bei Auftreten von werthaften Referenzpunkten direkt die ‚richtige Verhaltensantwort‘ findet. Dies impliziert als eine weitere Komponente eine ‚Dauer‘, eine zeitliche Erstreckung zwischen zwei ‚Zeitpunkten‘ (t,t‘) mit t‘ als ’später‘ zu t. Nur unter Voraussetzung einer ‚hinreichend langen‘ Zeitdauer (t,t‘) kann Lernen sich realisieren, also f3(f1,f2,fx,(t,t‘)) = (Success_1, …, Success_n) mit der Bedeutung, dass Lernen innerhalb einer Zeitspanne (t,t‘) dazu führt, dass werthafte Referenzpunkte von fx() mit Hilfe von Wahrnehmung, Wahrnehmungskategorien und Gedächtnis in ‚möglichst kurzer Zeit‘ so bedient werden können, dass sie auf einen ’neutralen Wert‘ zurück gehen. Das exakte Zusammenspiel zwischen einem solchen Lernen f3() und den übrigen Größen f4, f5 und Verhalten ‚B‘ bleibt zunächst offen. (vgl. S.101)

  6. Den Zusammenhang zwischen diesen verhaltensbasierten Begriffen – nennen wir sie hier ‚Begriffe_B‘ – und jenen Begriffen, die auf der Theorie der neuronalen Gruppen basiert – nennen wir sie hier ‚Begriffe_NN‘ – sieht Edelman grundsätzlich darin, dass die Begriffe_NN letztlich ein materielles System S_NN beschreiben, das als ein ‚Modell‘ dienen kann, über dem man die Begriffe_B ‚interpretieren‘ kann. Anders ausgedrückt postulirt Edelman hier eine Abbildung der Art: Interpretation_B_NN : Begriffe_B <—> Begriffe_NN. Edelman beschreibt diese Abbildung an dieser Stelle aber nicht wirklich; er unterstellt sie einfach; er nimmt sie an und illustriert sie anhand sehr vager Beispiele. (vgl. S.101)

  7. Edelman führt an dieser Stelle noch einen weiteren Prozess (eine Funktion) ‚fc‘ ein, dem er die Fähigkeit zuschreibt, dass dieser auf der Basis von Wahrnehmung (f1) und von Gedächtnis (f2) im Kontext des Lernens (f3) und möglicherweise auch — das sagt er nicht explizit – unter Berücksichtigung des Wertesystems (fx) in der Lage ist, ‚allgemeine Beziehungen‘ (‚general relational properties‘) hervorzubringen (‚to yield‘). Unter Voraussetzung dieser fünf Funktionen {f1, f2, f3, fx, fc} will er dann später zeigen, wie man damit das ‚Auftreten eines Bewusstseins‘ (‚the emergence of consciousness‘) erklären kann. //* Es sei hier darauf hingewiesen, dass die Kozeptualisierungsleistung fc im Rahmen psychologischer Modelle des Gedächtnisses oft als eine Eigenschaft des Gedächtnisses angesehen wird bzw. — was Edelman ja zuvor selbst feststellt – z.T. auch schon als eine Leistung der Wahrnehmung f1. *//

  8. Den Rest des Kapitels widmet Edelman zwei Wortmarken: ‚Gedächtnis‘ (‚memory‘) und ‚Konzepte‘ (‚concepts‘).

  9. Seine allgemeinste Bedeutungszuschreibung zur Wortmarke ‚Gedächtnis‘ geschieht in der verhaltensbasierten Perspektive der Psychologie, indem er die Wortmarke ‚Gedächtnis‘ verbindet mit der ‚Fähigkeit, ein Verhalten zu wiederholen‘ (f2) (‚ability to repeat a performance‘). Diese Fähigkeit beinhaltet die andere, kurz zuvor eingeführte, Fähigkeit zur Konzeptualisierung fc, die im Rahmen des Gedächtnisses die zu einem bestimmten Zeitpunkt t vorhandenen konzeptuellen Strukturen ISc(t) ‚erweitert‘ (‚enhancement‘), so dass zu einem späteren Zeitpunkt T‘ eine erweiterte konzeptuelle Struktur ISc(t‘) vorliegt.(vgl. S.102)

  10. Parallel und zwischen diesen vorausgehenden psychologischen Erklärungen streut Edelman immer wieder auf informelle Weise Bemerkungen ein, wie sich die so beschriebenen psychologischen Strukturen und Funktionalitäten durch seine neuronale Maschinerie S_NN erklären lassen würden. Eine wirkliche Erklärung der hier notwendigen Interpretationsleistung der Art: Interpretation_B_NN : Begriffe_B <—> Begriffe_NN mit Begriffe_NN = S_NN leistet Edelman hier aber nicht. (vgl. S.102)

  11. Edelman verweist ferner auf das sich im Verhalten manifestierende Phänomen, dass Konzeptualisierungen, die wir als ‚Kategorien‘ auffassen und nutzen, nicht statisch sondern ‚dynamisch‘ sind, d.h. der Prozess des Anordnens läuft kontinuierlich und neue Ereignisse können bisherige Anordnungen ‚überschreiben‘, ‚ergänzen‘. (vgl. S.102)

  12. Wie schon zuvor bemerkt, ist die Einführung der eigenständigen Kategorisierungsleistung (Konzeptbildung) fc im Rahmen des Gedächtnisses in ihrer Beziehung zu der vorausgehenden Kategorisierungsleistung f1 in der Wahrnehmung nicht klar beschrieben. Und auf S.104 charakterisiert er die Kategorisierungsleistung der Wahrnehmung f1 als ‚zufallsgesteuert‘ (‚probabilistic‘) und als die ‚initiale Basis‘ (‚initial basis‘) des Gedächtnisses f2 und — das muss man hier unterstellen – der weiteren Kategorisierungsleistung fc des Gedächtnisses. Allgemeine, sich im Verhalten manifestierende psychologisch begründete Begriffe wie ‚Assoziation‘, ‚Ungenauigkeit‘ (‚inexactness‘), sowie ‚Generalisierung‘, sieht Edelman als Ergebnis dieser vorausgesetzten f1, f2 und fc Leistungen.(vgl. S.104)

  13. Edelman betont ausdrücklich, dass das ‚Gedächtnis‘ f2 über die Fähigkeit verfügt, die ‚zeitliche Abfolge von Ereignissen‘ zu ’notieren‘ (‚to account of‘).(vgl. S.104)

  14. Nachdem Edelman eine Reihe von psychologisch motivierte Wortmarken – wie z.B. {f1, f2, f3, fx, fc} – eingeführt hatte, die das verhaltenspsychologische Begriffsfeld Begriffe_B bilden, führt er nun weitere, neue Wortmarken aus dem Bereich des Gehirns ein, die alle zum physiologisch motivierten Begriffsfeld Begriffe_NN gehören. Sein Motiv für diese begrifflichen Erweiterungen ist, dadurch mehr begriffliche Möglichkeiten zu bekommen, um die Interpretationsfunktion Interpretation_B_NN : Begriffe_B <—> Begriffe_NN zu differenzieren.

  15. Er beginnt mit der Einführung der Begriffe ‚Cortex‘ (Cx), ‚Cerebellum‘ (Cm), ‚Hippocampus‘ (Hp), und ‚Basal Ganglia‘ (Bg), wobei Cm, Hp und Bg den Prozess des Cortex im Bereich des ‚räumlichen und zeitlichen Ordnens‘ unterstützen, was Edelman in Verbindung sieht mit den psychologisch beschriebenen Leistungen des Gedächtnisses. (vgl. S.104) Auf der nächsten Seite erwähnt er auch noch den ‚Motor Cortex‘ (Cxm), der als Teil des Cortex eng mit den zuvor genannten Strukturen kooperiert. (vgl. S.105)

  16. Bemerkenswert ist, dass Edelman bei der Charakterisierung der Leistungen der genannten Gehirnstrukturen auf psychologische Begriffe zurückgreift, z.B. wenn er vom Cerebellum Cm sagt, dass es eine wichtige Rolle spiele bei der ‚zeitlichen Ordnung‘ und einem ‚möglichst kontinuierlichen Verlauf‘ von Bewegungen (‚timing and smoothing of successions of movements‘). Letztlich kennen wir primär nur ein beobachtbares Verhalten und dessen Eigenschaften. Und es ist natürlich ein solches beobachtbares Verhalten (Gegenstand der Psychologie) als eine Art ‚Referenzpunkt‘ zu nehmen, um zu schauen, welche physiologischen Prozesse und welche zugehörigen physiologische Strukturen – wie z.B. das Cerebellum – im Kontext eines solchen beobachtbaren Verhaltens auftreten. Sofern es gelingt (was methodisch und messtechnisch extrem schwierig ist), eine irgendwie statistisch signifikante Korrelation zwischen physiologischen Messwerten und psychologischen Beobachtungswerten zu erfassen, kann man feststellen, dass z.B. das Cerebellumg Cm ‚eine wichtige Rolle spiele bei‘. Ohne ein explizites psychologisches Referenzmodell Begriffe_B wäre eine solche Korrelation ’spielt eine Rolle bei‘ nicht möglich. Dabei reicht es auch nicht aus, irgendwelche isolierte physiologische Messwerte zu haben, sondern man benötigt ein komplettes physiologisches Referenzmodell Begriffe_NN, das von den physiologischen Messwerten motiviert wird, das man mit dem psychologischen Referenzmodell Begriffe_NN in Beziehung setzt. Man müsste dann verfeinert sagen: (i) aufgrund von psychologischen Verhaltensdaten DAT_B generieren Psychologen ein psychologisches Referenzmodell Begriffe_B; (ii) aufgrund von physiologischen Messwerten DAT_NN generieren Physiologen (Gehirnforscher) ein physiologisches Referenzmodell Begriffe_NN; (iii) In einem interdisziplinären Team wird eine Interpretationsfunktion Interpretation_B_NN : Begriffe_B <—> Begriffe_NN konstruiert, die einen Zusammenhang herstellt zwischen psychologischen Verhaltensdaten und physiologischen Messwerten.(vgl. S.104f)

  17. Auf der Verhaltensebene unterscheidet Edelman zwischen der ‚einzelnen Handlung‘ mit deren zeitlicher und kontinuierlicher Ausführung einerseits und ‚zeitlich sich erstreckenden Handlungsfolgen‘. Diese längeren, komplexeren – psychologisch charakterisierten — ‚Handlungsfolgen‘ bringt er in Verbindung mit der physiologischen Struktur genannt ‚Basal Ganglia‘ Bg. Eine solche komplexe Funktion wie ‚Handlungsplanung‘ (fd) interagiert mit sehr vielen unterschiedlichen anderen Funktionen, u.a. auch mit dem Wertesystem fx.(vgl. S.105f)

  18. Für die Charakterisierung der nächsten physiologischen Struktur Hippocampus (Hp) benötigt Edelman weitere psychologische Begriffe, die er bislang noch nicht eingeführt hatte: er unterscheidet bei der psychologischen Funktion des Gedächtnisses (f2) zwischen eine ‚Kurzzeit-Gedächtnis‘ (’short-term memory‘) (Mst) und einem ‚Langzeit-Gedächtnis‘ (‚long-term memory‘) (Mlt). Zwischen diesen beiden psychologischen Formen des Gedächtnisses gib es spezifische Interaktionsmuster. Eines hat damit zu tun, dass Elemente des Kurzzeitgedächtnisses in das Langzeitgedächtnis ‚übernommen‘ werden. Und mit Bezug auf dieses psychologische Referenzmodell sieht Edelman den Hippocampus mit beteiligt. Der Hippocampus empfängt von allen Teilen des Cortex Signale, auch vom Wertesystem fx, und schickt seine Prozesswerte auch wieder zu den sendenden Stellen zurück.(vgl. S.106f)

  19. Abschließend zu den genannten Strukturen ‚Cortex‘ (Cx), mit ‚Motor-Cortex (Cxm), ‚Cerebellum‘ (Cm), ‚Hippocampus‘ (Hp), und ‚Basal Ganglia‘ (Bg) meint Edelman, dass die Differenziertheit und Flexibilität dieser Strukturen – kondensiert in einem physiologischen begrifflichen Modell Begriffe_NN – ausreicht, um das zuvor erstellte psychologische Referenzmodell des Verhaltens zu erklären.(vgl. S.107f)

  20. An dieser Stelle kommt Edelman nochmals zurück auf die Wortmarke ‚Konzepte‘ (‚concepts‘) und grenzt seine Verwendung dieser Wortmarke ab von jener, in der ‚Konzepte‘ in einem rein linguistischen Kontext gesehen wird. Für Edelman sind ‚Konzepte‘ Ordnungsstrukturen (Kategorien), durch die der Strom der Wahrnehmungen und der Gedächtnisinhalte, immer wieder neu geordnet werden können, vorab zu jeder Sprache, als Voraussetzung für Sprache. Das System gewinnt dadurch die Möglichkeit, sein Verhalten mit Bezug auf diese Strukturen neu zu kontrollieren. (vgl. S.108)

  21. Das Besondere an der Konzeptualisierungsfähigkeit ist, dass sie auch unabhängig von aktuellen Stimuli stattfinden kann, dass sie sich auf ‚alles‘ anwenden kann, was im Wahrnehmen, Erinnern und Denken vorkommen kann. Dies bedeutet, die Konzeptualisierungsfähigkeit kann ihre eigenen Ergebnisse, so abstrakt sie auch sein mögen, zum Gegenstand einer späteren Aktivität machen. //* Mathematiker nennen solch eine Struktur ‚rekursiv‘ *// Solche ‚abstrakteren‘ Strukturen (Konzepte) benötigen auch keine ‚topographischen‘ Strukturen, wie man sie im Bereich der sensorischen Wahrnehmung findet. Dies hat zur Folge, dass auch nicht-topographische Ereignisse wie z.B. systemrelevante ‚Werte‘ (über Bedürfnisse wie Hunger, Durst,…) in die Strukturierung einbezogen und damit verhaltensrelevant werden können. (vgl. S.108-110)

  22. Erstaunlich ist, dass Edelman an dieser Stelle nun eine Wortmarke einführt, die weder dem physiologischen Sprachspiel zugehört, noch dem psychologischen, sondern dem philosophischen Sprachspiel sofern es auf den Raum subjektiver Phänomene fokussiert ist: ‚Intentionalität‚, indem er sagt, dass die konzeptuellen Strukturbildungen ‚intentional‚ (‚intentional‘) sind. Und Edelman geht noch weiter; er sieht hier einen ‚Übergang‘, eine ‚Brücke‘ (‚the bridging elements‘) von der Physiologie zum ‚Bewusstsein‚ (‚consciousness‘) und er stellt ausdrücklich fest, dass für diesen Brückenschlag ‚keine neuen theoretischen Annahmen‘ (’no new theoretical assumptions‘) gemacht werden müssen. Diese letzte Bemerkung trifft zu, wenn man sie auf die vorausgesetzte physiologische Maschinerie bezieht: das physiologische Modell Begriffe_NN wird nicht verändert. Mit der Einführung der Wortmarken ‚Intentional‘ und ‚Bewusstsein‘ aktiviert er aber ein neues (philosophisches) Sprachspiel, das er bislang nicht benutzt hat, und das er bislang in keiner Weise erklärt hat. Man müsste hierfür auch einen eigenen Begriff Begriffe_PH einführen vergleichbar zu Begriffe_B und Begriffe_NN und man müsste natürlich auch hier explizite Interpretationsfunktionen einführen wie Interpretation_B_PH : Begriffe_B <—> Begriffe_PH sowie Interpretation_NN_PH : Begriffe_NN <—> Begriffe_PH.

DISKUSSION FORTSETZUNG: KAP.10

  1. Aus wissenschaftsphilosophischer Sicht ist das Kapitel 10 sehr aufschlussreich. Der in den vorausgehenden Kapiteln immer wieder angedeutete Brückenschlag zwischen Physiologie (mit Gehirnforschung) und Psychologie (verhaltensorientiert) wird in diesem Kapitel ein wenig ‚anfassbarer‘. Allerdings nicht in dem Sinne, dass der Brückenschlag nun explizit erklärt wird, aber so, dass einerseits die Begrifflichkeit auf psychologischer Seite und andererseits die Begrifflichkeit auf physiologischer Seite etwas ausdifferenziert wird. Die Beschreibung der Beziehung zwischen beiden Begrifflichkeiten verbleibt im Bereich informeller Andeutungen bzw. in Form von Postulaten, dass die zuvor geschilderte physiologische Maschinerie in der Lage sei, die angedeuteten psychologischen Strukturen in ihrer Dynamik zu ‚erklären‘.

  2. Am Ende des Kapitels 10, mehr nur in Form einer kurzen Andeutung, in einer Art Fußbote, bringt Edelman noch die Begriffe ‚Intentionalität‘ und ‚Bewusstsein‘ ins Spiel, allerdings ohne jedwede Motivation, ohne jedwede Erklärung. Diese Begriffe entstammen einen ganz anderen Sprachspiel als dem zuvor besprochenen physiologischen oder psychologischem Sprachspiel; sie gehören zum philosophischen Sprachspiel, und die Behauptung Edelmans, dass man auch diese Wortmarken aus dem philosophischen Sprachspiel in ein Erklärungsmuster einbeziehen könnte, das seine Grundlage in dem physiologischen Modell Begriffe_NN habe, ist an dieser Stelle ein reines Postulat ohne jeglichen Begründungsansatz.

  3. Wissenschaftsphilosophisch kann man hier festhalten, dass man drei Sprachspiele unterscheiden muss:

    1. Ein psychologisches Sprachspiel, das von Verhaltensdaten DAT_B ausgeht, und relativ zu diesen Begriffsnetzwerke Begriffe_B einführt (Modelle, Theorien), um die Verhaltensdaten zu erklären.

    2. Ein physiologisches Sprachspiel, das von physiologischen Daten DAT_NN ausgeht, und relativ zu diesen Begriffsnetzwerke Begriffe_NN einführt (Modelle, Theorien), um die Prozesse der physiologischen Strukturen (Gehirn) zu erklären.

    3. Ein phänomenologisches Sprachspiel (Teilbereich der Philosophie), das von phänomenologischen Daten DAT_PH ausgeht, und relativ zu diesen Begriffsnetzwerke Begriffe_PH einführt (Modelle, Theorien), um die Prozesse der phänomenologischen Strukturen (Bewusstsein) zu erklären.

  4. Diese Sprachspiele kann man isoliert, jedes für sich betreiben. Man kann aber auch versuchen, zwischen den verschiedenen Sprachspielen ‚Brücken‘ zu bauen in Form von ‚Interpretationsfunktionen‘, also:

    1. Zwischen Psychologie und Physiologie: Interpretationsfunktion Interpretation_B_NN : Begriffe_B <—> Begriffe_NN

    2. Zwischen Psychologie und Phänomenologie: Interpretationsfunktion Interpretation_B_PH : Begriffe_B <—> Begriffe_PH

    3. Zwischen Phänomenologie und Physiologie: Interpretationsfunktion Interpretation_PH_NN : Begriffe_PH <—> Begriffe_NN

  5. Man muss festhalten, dass es bis heute (2018) solche Interpretationsfunktionen als explizite Theorien noch nicht gibt; genauso wenig gibt es die einzelnen Theorien Begriffe_X (X=B, PH, NN) als explizite Theorien, obgleich es unfassbare viele Daten und partielle (meist informelle) Beschreibungen gibt.

ANHANG: BILD VON ANGESTRICHENEN BUCHSEITEN

 

Beispiel, wie die Buchseiten aussehen, nachdem ich sie 'gelesen' habe ...

Beispiel, wie die Buchseiten aussehen, nachdem ich sie ‚gelesen‘ habe …

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

ÜBER DIE MATERIE DES GEISTES. Relektüre von Edelman 1992. Teil 8

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 27.Sept. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

Gerald M.Edelman, Bright Air, Brilliant Fire. On the Matter of the Mind, New York: 1992, Basic Books

BISHER

Für die bisherige Diskussion siehe die kumulierte Zusammenfassung HIER.

KURZFASSUNG

Mit der Skizzierung seines Modells einer neuronalen Maschinerie liefert Edelman interessante Ansatzpunkte, um in einer möglichen, noch nicht existierenden, ‚Brückentheorie‘ zwischen Psychologie und Physiologie verschiedene psychologisch definierte Eigenschaften ‚von der Maschinerie her‘ plausibel zu machen. Eher unplausibel wirkt sein Versuch, die Wertefrage in Details des Genotyps und dann in Details des Phänotyps zu verlagern. Eine alternative Sicht wird vom Autor dieses Textes angedeutet.

KAP.9 NEURONALER DARWINISMUS

  1. In diesem Kapitel will Edelman Argumente vorbringen, warum die ‚Gehirnwissenschaft‘ eine ‚Wissenschaft des Erkennens‘ bzw. ‚… der Erkennung‘ (‚recognition‘) ist.

  2. Für seine Argumentation setzt Edelman voraus, dass wir Tiere (‚animals‘) haben, die sich in einer Umgebung befinden und sich in Interaktion mit dieser langfristig ‚anpassen‘, d.h. in der Lage sind, hinreichend viele Nachkommen überlebensfähig zu erzeugen. Diese Anpassungsfähigkeit beruht NICHT auf irgendwelche Instruktionen, sondern wird von den Tieren aufgrund der ihnen innewohnenden Eigenschaften ermöglicht. Diese innewohnende Eigenschaft, sich kurzfristig im Verhalten und langfristig in der Struktur des Körpers ‚anpassen zu können‘, verbindet Edelman mit dem Begriff ‚Erkennung‘ (‚recognition‘), der gebunden ist an die Struktur eines ‚Gehirns‘. Die von Edelman gemeinte Form der Erkennung basiert nicht auf expliziten Instruktionen sondern auf ‚Selektion/ Auswahl‘, die sich im Rahmen des Verhaltens ergibt. Dieses Verhalten muss in Verbindung mit dem Gehirn von der Gehirnwissenschaft untersucht werden. (vgl. 81f)

  3. In der Umgebung, die Edelman für seine Tiere voraussetzt, gibt es Ereignisse, die ’neu‘ sind, ‚unvorhergesehen‘! Solche Ereignisse kann man nicht mit schon bekanntem Wissen oder bekannten Regeln bearbeiten. Edelman postuliert daher, dass ein System, das auf ‚Auswahl/ Selektion‘ basieren soll, in der Lage ist, vor neuen Ereignissen in der Umgebung intern, im System, ‚Varianten‘ bilden kann. Die bisherigen Forschungen zur embryonalen und anschließenden Entwicklung des Gehirns legen nahe, dass dieser Prozess der ‚Gehirnentstehung/ Gehirnwerdung‘ keine 1-zu-1 Kopie eines vorgegebenen Plans ist, sondern ein Realisierungsgeschehen umfasst, bei dem sich in einer Mischung aus Umgebungsreizen und Zufällen neue individuelle Strukturen ausbilden, so dass selbst eineiige Zwillinge über unterschiedliche Feinstrukturen verfügen. Damit liegen unterschiedliche Gehirne vor, die aufgrund ihres im Körper umgesetzten Verhaltens selektiert werden können. Solch eine Variabilität wird darüber hinaus nicht nur einmal, zu Beginn des Lebens eines Tieres benötigt, sondern während des ganzen Lebens. Wie kann ein Gehirn dies leisten? (vgl. S.82)
  4. Innerhalb der Verhaltensanforderungen benennt Edelman einige Verhaltenseigenschaften explizit, die das Gehirn zu leisten in der Lage sein muss: (i) ‚Kategorisierung‘ von Ereignissen in der Wahrnehmung — auch schon vor-sprachlich –, (ii) Kategorisierungen im Kontext des Gedächtnisses, (iii) Aufbau eines ‚Bewusstseins‘, (iv) Entwicklung von ‚Sprache‘. (vgl. S.82)
  5. Edelman formuliert dann – quasi zwischen drin – ein wissenschaftsphilosophisches Postulat, dass eine Theorie, die wissenschaftlich sein will, ausschließlich auf Prozessen und Ordnungen basieren muss, die in der physikalischen Welt (‚physical world‘) vorkommen. Und aus diesem wissenschaftsphilosophischen Postulat leitet er dann ein anderes wissenschaftsphilosophisches Postulat ab, dass nämlich eine wissenschaftliche Erklärung von ‚psychologischen‘ Prozessen aufzeigen muss, wie diese mit ‚physiologischen‘ Prozessen in Zusammenhang stehen.(vgl. S.82)

  6. Eine solche wissenschaftliche Theorie zur Erklärung des Zusammenhangs zwischen psychologischen und physiologischen Prozessen hat Edelman in der ‚Theorie der neuronalen Gruppen Selektion (TNGS)‘ formuliert. Diese Theorie wurde zudem speziell entwickelt, um das Problem des ‚Bewusstsein‘ (‚consciousness‘) in den Griff zu bekommen. (vgl. S.82f)

  7. Die beiden zentralen theoretischen Konzepte in der TNGS sind ‚TNGS Wiedereintritt‘ (‚TNGS reentry‘) und ‚Globales Abbilden‘ (‚global mapping‘). (vgl. S.83)

  8. Im Zusammenhang damit muss man die Evolution neuer Formen (‚morphologies‘) sowohl vom Körper als auch vom Gehirn berücksichtigen. (vgl. S.83)

  9. Solche neuen Formbildungen finden im wesentlichen in drei Phasen statt: (i) die Entstehung von Netzwerken von Neuronen während der Entwicklung; (ii) unterschiedliche Gewichtungen der Verbindungen unter dem Einfluss von Einwirkungen von außen (und innen); (iii) Bildung von neuronalen Karten, die untereinander durch Wiedereintrittsverbindungen verbunden sind. (vgl. S.83)
  10. Bezüglich der frühen Entstehung von Netzwerken von Neuronen während der Entwicklung (Pase 1) wiederholt er die Feststellungen von vorausgehenden Kapiteln. Die Kernbotschaft ist, dass die sich herausbildenden Netzwerke genetisch nur sehr grob vor-bestimmt sind. Jedes einzelne Gehirn ist in dieser Phase sehr individuell. Die in dieser Phase verfügbaren Funktionen des Gehirns bilden ein ‚erstes Repertoire‚. (vgl. S.83)
  11. Mit der beginnenden Interaktion der Neuronen untereinander und durch Ereignisse an den Rändern (sensorische Wahrnehmung, propriozeptive Ereignisse im Körper,…) (Phase 2) werden einige Verbindungen ‚gestärkt‘, andere bleiben schwach, und mit diesen ‚Stärkungen von Verbindungen‘ bilden sich ’neue Funktionen‘ heraus, die dann insgesamt das ‚zweite Repertoire‚ bilden. (Vgl. S.83-85)
  12. Dadurch dass neuronale Karten reziprok miteinander verknüpft sind (Phase 3) können die gleichen Ausgangsreize nicht nur parallel auf unterschiedliche Weise bearbeitet werden, sondern es ist auch möglich, dass sie sich im gleichen Zeitfenster wechselseitig beeinflussen und diese Signale in übergeordneten Karten zusammen geführt werden.(vgl. S.85)

  13. In Verbindung mit Gedächtnis (‚memory‘) sieht Edelman in diesen reziproken Karten nicht nur die Grundlage für Verhalten überhaupt sondern speziell auch für eine ‚Brücke‘ zwischen Physiologie und Psychologie. (vgl. S.85)
  14. An dieser Stelle führt Edelman nun – etwas überraschend – ‚neuronale Gruppen‚ (neuronal groups‘) ein als die eigentlichen Einheiten, die der ’neuronalen Selektion‘ unterliegen. Einzelne Neuronen eignen sich dafür schlecht, weil sie entweder nur ‚anregend‘ (‚excitatory‘) sind oder nur ‚hemmend‘ (‚inhibitory‘). Außerdem sendet ein einzelnes Neuron seine Synapsen zu vielen anderen Neuronen. Will man hier eine hinreichende Schärfe in der Adressierung realisieren, dann muss man viele Neuronen kombinieren, die sich in bestimmten Bereichen dann überlappen. Von daher können eigentlich nur ‚Gruppen von Neuronen‘ solche Anforderungen erfüllen und bieten sich von daher als natürliche Einheiten der Selektion an. (vgl. S.85-87)
  15. Edelman will diese Themen dann am Beispiel der ‚Kategorisierung in der Wahrnehmung‘ (‚perceptual categorization) weiter ausführen. Er verweist dabei auch auf das Postskript mit einem Abschnitt zur Kategorisierung (S.233f). In diesem Postskript-Abschnitt kritisiert er vor allem jene Positionen, die bei der Frage der Kategorien von festen Strukturen ausgehen, die auch als solche ‚repräsentiert werden. Mit Verweis auf Wittgenstein und einigen Psychologen argumentiert er für eine Sicht der Kategorisierung, die sich aus der direkten Interaktion mit der physischen Umgebung ergibt. Ausgehend von konkreten Beispielen bilden alle Individuen konkrete Kerne, die sich im Laufe der Zeit erweitern, überlagern, ergänzen können. Einige der Elemente in solchen induktiven-dynamischen Netzen sind dann ‚typischer‘ als andere. Zwischen den Elementen können einige ‚ähnlicher‘ sein als andere, ’näher dran‘, usw. Aufgrund des induktiv-beispielhaften Charakters dieser Bildungsprozesse sind diese Strukturen bei allen Individuen grundsätzlich verschieden.

  16. Das Phänomen der ‚Kategorisierung‘, das sich im Verhalten manifestiert (= Psychologie), gründet also in neuronalen Verschaltungen (= Physiologie), die im wesentlichen auf neuronale Karten (bestehend aus neuronalen Kernen) verweisen, die jeweils unabhängige Reize (Stimuli) empfangen, die aber aufgrund der reziproken Verbindungen sich innerhalb eines Zeitfensters wechselseitig bestärken. Mit anderen Worten, Eigenschaften A in der einen Karte werden zeitgleich mit Eigenschaften B in einer anderen Karte durch wechselseitige ‚Verstärkung‘ ’synchronisiert‘. Damit können verschiedene Eigenschaften zu einem Eigenschaftsbündel koordiniert werden. Je häufiger dies passiert, umso stärker wird diese Verbindung. Diese Synchronisierungsprozess können jederzeit mit beliebig vielen verschiedenen Karten passieren. Und, wie man erkennen kann, vollziehen sich diese Synchronisierungsprozesse nicht aufgrund eines ‚Supervisors höherer Ordnung‘, nicht aufgrund irgendwelcher ‚Instruktionen‘ von ‚außen‘, sondern aufgrund von physikalischen Außenweltereignissen (oder auch körperintern (propriozeptiv) erzeugte Ereignisse), die über Sensoren und neuronale Signalverarbeitung zu den Karten geleitet werden. Der Mechanismus der reziprok verschalteten Karten extrahiert aus diesen vor-verarbeiteten sensorischen (auch propriozeptiven) Signalen dann unterschiedliche Eigenschaften, die dann die ‚Bausteine für Kategorien‘ bilden. (vgl. S.87)

  17. Da es ja sehr viele neuronale Karten mit sehr vielen reziproken Verbindungen untereinander gibt, können die Ausgänge von bestimmten Karten auch auf die Eingänge von vorausgehenden ‚Verarbeitungsstufen‘ zurück geleitet werden, um die Verarbeitung auf diese Weise zu modifizieren, oder diese reziproke Verbindungen werden für höhere Verarbeitungen benutzt, oder, oder , … Die Vielfalt der hier möglichen wechselseitigen Beeinflussungen ist groß. Edelman verweist auf ein Computermodell, das RCI (‚reentrant cortical integration‘) Modell (das reziproke kortikale Integrationsmodell), in dem er diese Theorie modellhaft umgesetzt und getestet hatte. Details dazu hat er in seinem Buch ‚The Remembert Past‘ beschrieben).(vgl. S.87-89)

  18. Für die Kopplung des wahrgenommenen (perzeptuellen) Inputs eines Systems zu seinem Output (meist über Motorkomplexe), führt Edelman ferner noch ‚globale neuronale Karten‘ ein. Diese können den Output vieler lokaler neuronaler Karten zusammenfassen, integrieren, und damit komplexe Muster zur Steuerung von Motorkomplexen und damit dem beobachtbaren Verhalten nutzen. Zugleich können diese Outputs aber auch wieder rückgekoppelt werden auf den grundlegenden Input zum ‚(neuronalen) Vergleich‘, ob tatsächlich die ‚Wirkung‘ entsteht‘, die aufgrund des Outputs ‚(neuronal) erwartet‘ wird. Auf diese Weise kann die Gehirnwissenschaft (= Physiologie) eine neuronale Maschinerie anbieten, mit denen die Psychologie das äußerlich beobachtbare Verhalten ‚erklären‘ können.(vgl. S.87-89)

  19. An dieser Stelle führt Edelman den Aspekt des ‚angemessenen‘ Verhaltens ein, das aus Sicht der Evolution und ‚Fitness‘ ‚besser geeignet ist‘ als ein anderes. Da er den Aspekt des ‚Supervisors‘ zuvor schon ausgeschlossen hat und auch keine ‚vorgegebenen Instruktionen‘ zulassen will, ist hier nicht ganz klar, wie in diesen hochdynamische induktive Struktur genetische ‚Präferenzen für Verhalten‘ eingeführt werden können. Er postuliert hier ‚interne Kriterien (‚internal criteria of value‘) dafür, dass Verhaltensweisen ‚werthaft‘ sind. Diese internen, genetisch bedingten, Kriterien bestimmen nicht konkrete Werte, sondern sie ‚beschränken die Bereiche‘ (‚constrain the domains‘), in denen Kategorisierungen stattfinden. Und er sieht diese genetisch bedingten Beschränkungen besonders in jenen Bereichen des Gehirns verortet, wo lebenswichtige Funktionen reguliert werden. Explizit nennt er: Herzschlag, Atmung, sexuelle Reaktion, Ernährungsreaktion, Drüsenfunktionen (= Ausschüttung chemischer Signalstoffe zur Steuerung von Funktionen), autonome (‚autonomic‘) Reaktionen. Diese stark vor-geprägten Kategorisierungen soll sich in einem entsprechend lebensförderndem Verhalten manifestieren.(vgl. S.90f)

  20. Um diesen noch recht abstrakten Gedanken von ‚genetisch motivierter Präferenz‘ zu präzisieren berichtet Edelman von einem Computerexperiment ‚Darwin III‘, in dem im Rahmen des visuellen Systems solche neuronale Gruppen/ Karten ‚bevorzugt‘ wurden, die Licht verarbeiteten, das auf zentrale Bereiche des Auges traf. (vgl. S.91-93)

  21. Unklar bleibt hier, wie diese ‚Bevorzugung‘ (‚Präferenz‘) überhaupt in das System kommt, so, wie es bislang von Edelman geschildert wurde. In der weiteren Erklärung zeigt Edelman einen größeren Systemzusammenhang von einem Auge, einem Arm, und das ‚Erlernen‘, einem visuellen Reiz einer bestimmten Art zu folgen und es zu greifen. Hier wird deutlich, dass sehr viele Subsysteme sich miteinander koordinieren müssen, damit Kategorisierungsleistung und Bewegung ‚zusammen passen‘. Es gibt auch eine erste Idee, wie sich diese Subsysteme über reziproke Verbindungen wechselseitig induktiv beeinflussen können. Wie ein zusätzlicher genetisch motivierter Mechanismus der ‚Bevorzugung‘ in dieses System Eingang findet, bleibt aber weiter unklar.(vgl. S.93)

  22. Das ‚Präferenz (= Wert) System‘ (‚value system‘) ist klar zu unterscheiden von dem ‚Kategorisierung-System‘. Während das Kategorisierung-System induktiv über reziproke Karten arbeitet und darin ‚epigenetisch‘ wirksam ist, liegt das genetisch motivierte Präferenz-System dem epigenetischen Kategorisierung-System voraus. Edelman berichtet, dass im Computerexperiment, wenn man das Präferenz-System ‚heraus nimmt‘, dass dann das System nicht zum Ziel kommt. Damit postuliert er ein Axiom von der Notwendigkeit von Präferenz-Systemen für Kategorisierung-Systemen, ohne dass ganz klar wird, wie diese genetische motivierten Präferenzen in das System hineinkommen.(vgl. S.94)

  23. In den folgenden Abschnitten diskutiert Edelman diverse Kritiken an seiner TNSG Theorie und kommt auf den Seiten 96f nochmals explizit auf das genetisch motivierte Präferenz-System zurück, während er sich gegen Kritik von Crick verteidigt. Grundsätzlich sieht Edelman im Rahmen der Evolution zwei selektive Systeme: (i) das ‚Evolutive‘, das aufgrund der Selektion von Individuen durch Passung/ Nicht-Passung zur Umgebung stattfindet, und (ii) das ’somatische‘, das sich primär durch Passung/ Nicht-Passung der neuronalen Gruppen zu den Reizanforderungen. Das somatische System ist aber nicht isoliert/ neutral gegenüber den genetischen Vorgaben, die als Präferenzen (‚values‘) die Selektion von geeigneten neuronalen Gruppen und Verschaltungen mit steuern. Der Ansatzpunkt für eine Einwirkung der genetischen Präferenzen auf das somatische System ohne Direktiven im Details sieht er über die wechselseitigen Wirkungen von ‚Strukturen‘, die als solche ‚genetisch motiviert‘ sein können. Wie diese ‚Motivierung bestimmter Strukturen‘ stattfinden kann, ohne den induktiven Prozesse zu stören, ist nicht ganz klar geworden.(vgl. SS.94-97)

DISKUSSION FORTSETZUNG: HIER KAP.9

  1. Die Verwendung des Ausdrucks ‚Erkennung/ Erkennen‘ (‚recogniton‘) in Nr. 2 erscheint mir sehr gewagt, da die übliche Verwendungsweise des Ausdrucks ‚Erkennung‘ ein menschliches Subjekt voraussetzt, das im Rahmen seines Bewusstseins und dem zugehörigen – weitgehend unbewussten – ‚Kognitiven System‘ die wahrgenommenen – äußerliche (Sinnesorgane) wie innerliche (Körpersensoren) – Ereignisse ‚interpretiert‘ auf der Basis der ‚bisherigen Erfahrungen‘ und im Rahmen der spezifischen Prozeduren des ‚kognitiven Systems‘. Das von Edelman unterstellte ’selektive System‘ bezieht sich primär auf Strukturen, die sich ‚evolutiv‘ ausbilden oder aber ’somatisch‘ auf die Arbeitsweise des Gehirns, wie es sich im ‚laufenden Betrieb‘ organisiert. Das somatische System ist aber Teil des weitgehend ‚unbewussten kognitiven Systems‘, das in der alltäglichen Verwendung des Begriffs ‚Erkennung‘ ohne jegliche Bezugnahme auf die Details der Maschinerie einfach voraussetzt wird. Im Alltag liegt hier die Aufspaltung der Wirklichkeit in den bewussten Teil und den unbewussten vor, dessen wir uns – normalerweise – im alltäglichen ‚Vollzug‘ nicht bewusst sind (daher ja ‚unbewusst‘). Wenn Edelman also hier einen Ausdruck wie ‚Erkennung‘ aus dem ‚bewussten Verwendungszusammenhang‘ einfach so, ohne Kommentar, für einen ‚unbewussten Verwendungszusammenhang‘ benutzt, dann kann dies nachfolgend zu nachhaltigen Verwirrungen führen.

  2. Der Punkt (3) von Edelman ist absolut fundamental. An ihm hängt alles andere.

  3. Der Punkt (4) spiegelt ein anderes fundamentales Verhältnis wieder, das Edelman immer und immer wieder thematisiert: das Verhältnis von Psychologie (die Wissenschaft vom Verhalten) und Physiologie (die Wissenschaft vom Körper, speziell vom Gehirn). Alle Eigenschaftszuschreibungen, die die Psychologie vornimmt (wie z.B. mit dem Ausdruck ‚Intelligenz‘, ‚Intelligenzquotient‘, ‚Reflex‘, usw.), basieren auf empirischen Beobachtungen von realem Verhalten von realen Menschen, die dann im Rahmen expliziter (formaler = mathematischer) Modelle/ Theorien in Beziehungen eingebracht werden. Die Psychologie schaut nicht (!) in das ‚Innere‘ des Systems. Das tut die Physiologie. Die Physiologie untersucht die Struktur und die Dynamik des Körpers; dazu gehört auch das Gehirn. Und auch die Physiologie sammelt empirische Daten von den Körperprozessen (z.B. wie ein Neuron zusammengesetzt ist, wie es physikalisch, chemisch, mikrobiologisch usw. funktioniert) und versucht diese empirische Daten in explizite Modelle/ Theorien einzubauen. Im Idealfall haben wir dann eine psychologische Theorie T_psych über beobachtbares Verhalten mit theoretisch unterstellten möglichen Faktoren ‚hinter‘ dem Verhalten, und parallel eine physiologische Theorie T_phys über körperinterne Prozesse, die die verschiedenen Einzelbeobachtungen in einen ‚Zusammenhang‘ bringen. Was wir aber NICHT haben, das ist eine Erklärung des Zusammenhangs ZWISCHEN beiden Theorien! Die Gegenstandsbereiche ‚beobachtbares Verhalten‘ und ‚beobachtbare Körperprozesse‘ sind zunächst voneinander völlig abgeschottet. Spontan vermutet man natürlich, dass es zwischen Gehirnprozessen, hormonellen Prozessen, Atmung usw. und dem beobachtbaren Verhalten einen Zusammenhang gibt, aber diesen Zusammenhang EXPLIZIT zu machen, das ist eine eigenständige Leistung mit einer ‚Brückentheorie‘ T_physpsych(T_phys, T_psych), in der dieser Zusammenhang ausdrücklich gemacht wird. Es gibt dazu sogar Ausdrücke wie ‚Psychosomatik‘, ‚Neuropsychologie‘, aber die dazu gehörigen Texte kommen bislang nicht als explizite ‚Brückentheorie‘ daher. Und wenn Edelman hier ausdrücklich die Ausdrücke ‚Wahrnehmung, ‚Gedächtnis‘, ‚Bewusstseins‘, ‚Sprache‘ nennt, dann handelt es sich ausnahmslos um hochkomplexe Sachverhalte, zu denen es bislang keine hinreichende psychologische Theorien gibt, wenngleich beeindruckende Forschungen und Forschungsansätze. Festzustellen, dass eine physiologische Theorie des Gehirns Erklärungsansätze liefern müsse, wie diese psychologischen Phänomene zu ‚erklären‘ sein ist folgerichtig, aber aktuell schwierig, da die Psychologie diese Phänomene noch keineswegs zweifelsfrei abklären konnte. Am weitesten fortgeschritten sich möglicherweise die psychologischen Forschungen zur ‚Wahrnehmung‘, zum ‚Gedächtnis‘, und irgendwie zu ‚Sprache‘, kaum zu ‚Bewusstsein‘ und dem Verhältnis zum ‚Unbewussten‘.

  4. Die beiden in (5) aufgeführten metatheoretischen (= wissenschaftsphilosophischen) Postulate sind so, wie sie Edelman formuliert, mindestens missverständlich und darum Quelle möglicher gravierender Fehler. Die Verortung von wissenschaftlichen Aussagen in der ‚physikalischen‘ Welt und von speziell psychologischen Aussagen in den ‚physiologischen Prozessen des Körpers‘ sind als solche sicher kompatibel mit dem bisherigen Verständnis von empirischer Wissenschaft generell. Allerdings, wie gerade im vorausgehenden Punkt (C) dargelegt, gibt es empirische Datenbereiche (hier: Verhaltensdaten, Körperprozesse), die direkt zunächst nichts miteinander zu tun haben. Die auf diesen unterschiedlichen Datenbereichen beruhenden Modell-/ Theoriebildungen sind von daher zunächst UNABHÄNGIG voneinander und haben ihre wissenschaftliche Daseinsberechtigung. Zu wünschen und zu fordern, dass zwei zunächst methodisch unabhängige Modelle/ Theorien T_psych und T_phys miteinander in Beziehung gesetzt werden, das liegt ‚in der Natur des wissenschaftlichen Verstehenwollens‘, aber dies wäre eine zusätzliche Theoriedimension, die die beiden anderen Teiltheorien VORAUSSETZT. Dieser methodisch-logische Zusammenhang wird in der Formulierung von Edelmann nicht sichtbar und kann dazu führen, dass man eine wichtige Voraussetzung der gewünschten Erklärungsleistung übersieht, übergeht, und damit das Ziel schon im Ansatz verfehlt.

  5. Dass – wie in (6) behauptet – die ‚Theorie der neuronalen Gruppen Selektion (TNGS)‘ jene Erklärung liefere, die die psychologischen Theorien ‚erklärt‘ ist von daher methodisch auf jeden Fall falsch. Allerdings kann man die Position von Edelman dahingehend verstehen, dass die TNGS ein physiologisches Modell liefere (was die große Schwäche besitzt, dass weder der übrige Körper, von dem das Gehirn nur ein verschwindend kleiner Teil ist, noch die jeweilige Umgebung einbezogen sind), das im Rahmen einer T_physpsych-Brückentheorie entscheidende Beiträge für solche einen Zusammenhang liefern könnte. Letzteres scheint mir in der Tat nicht ganz ausgeschlossen.

  6. In den Punkten (7) – (12) beschreibt Edelman drei Phasen der Strukturbildung, wie es zu jenen physiologischen Strukturen kommen kann, die dann – unterstellt – dem beobachtbaren Verhalten ‚zugrunde‘ liegen. Allerdings, für das aktuell beobachtbare Verhalten spielen die verschiedenen Entstehungsphasen keine Rolle, sondern nur der ‚Endzustand‘ der Struktur, die dann das aktuelle Verhalten – unterstellt – ‚ermöglicht. Der Endzustand ist das Gehirn mit seinen neuronalen Verschaltungen, seinen Versorgungsstrukturen und seiner anhaltenden ‚Plastizität‘, die auf Ereignismengen reagiert. Aus den Punkten (7) – (12) geht nicht hervor, wo und wie diese Strukturen das ‚Bewusstsein erklären‘ können.

  7. Wenn Edelman in (13) meint, dass seine neuronalen Karten mit den reziproken Verbindungen eine Grundlage für das psychologische Konzept des Gedächtnisses liefern können, dann ist dies sicher eine interessante Arbeitshypothese für eine mögliche Brückentheorie, aber die müsste man erst einmal formulieren, was wiederum eine psychologische Theorie des Gedächtnisses voraussetzt; eine solche gibt es bislang aber nicht.

  8. Der Punkt (14) adressiert mögliche Details seiner Modellvorstellung von neuronalen Karten mit reziproken Verbindungen.

  9. Der Punkt (15) greift das Thema von Punkt (13) nochmals auf. Die ‚Kategorisierung von Wahrnehmungsereignissen‘ ist letztlich nicht von dem Thema ‚Gedächtnis isolierbar. Er zitiert im Postskript auch viele namhafte PsychologenInnen, die dazu geforscht haben. Die Kerneinsicht dieser empirischen Forschungen geht dahin, dass sich solche Strukturen, die wir ‚Kategorien‘ nennen, ‚dynamisch‘ herausbilden, getriggert von konkreten Wahrnehmungsereignissen, die bei jedem individuell verschieden sind. Natürlich liegt hier die Vermutung nahe, dass entsprechend dynamische Strukturen im Körper, im Gehirn, vorhanden sein müssen, die dies ermöglichen. Dass hier Psychologie und Physiologie Hand-in-Hand arbeiten können, liegt auch auf der Hand. Aber dies stellt erhebliche methodische Herausforderungen, die Edelman kaum bis gar nicht adressiert.

  10. In Punkt (16 – 18) beschreibt Edelman auf informelle Weise, wie er sich das Zusammenspiel von psychologischen Eigenschaften (die eine explizite psychologische Theorie T_psych voraussetzen) und seinem neuronalen Modell (für das er eine physiologische Theorie T_phys beansprucht) vorstellt. Auf dieser informellen Ebene wirkt seine Argumentation zunächst mal ‚plausibel‘.

  11. Ab Punkt (19) berührt Edelman jetzt einen weiteren Fundamentalpunkt, der bis heute generell ungeklärt erscheint. Es geht um die Frage der ‚Werte‘, die ein Verhalten in einem gegeben Möglichkeitsraum in eine bestimmte ‚Richtung‘ anregen/ drängen …. (es gibt dafür eigentlich kein richtiges Wort!), so dass das System einem neuen Zustandsraum erreicht, der für es ‚günstiger‘ ist als ein anderer, auf jeden Fall ‚das Leben ermöglicht‘. Die Evolutionstheorie hat über das Phänomen der hinreichenden ‚Nachkommen‘ ein ‚operationales Kriterium‘ gefunden, mit dem sich der Ausdruck ‚Fitness‘ mit Bedeutung aufladen lässt. Über das ‚Überleben‘ bzw. ‚Nicht-Überleben‘ wirkt sich dies indirekt auf den Genotyp aus: die ‚günstigen‘ Genotypen überleben und die ’nicht günstigen‘ sterben aus. Ein ‚überlebender‘ Genotyp – einen, den man ‚fit‘ nennt – triggert dann den embryonalen Prozess und den darin gründenden ‚Entwicklungsprozess‘, der in einer ’nicht-deterministischen‘ Weise Körper- und damit Gehirnstrukturen entstehen lässt, die auf individueller Ebene immer verschieden sind. Jene Gehirnstrukturen, die für lebenserhaltende Systeme wichtig sind (letztlich die gesamte Körperarchitektur und das Zusammenspiel aller Komponenten untereinander) werden aber – trotz des nicht-deterministischen Charakters – offensichtlich dennoch herausgebildet. In all diesem lässt sich kein ‚geheimnisvoller Faktor‘ erkennen und er erscheint auch nicht notwendig. Das System ‚als Ganzes‘ repräsentiert ein ‚Erfolgsmodell‘. Hier jetzt – wie Edelman es versucht – im konkreten Details nach ‚Orten von Präferenzen‘ zu suchen erscheint unplausibel und seine Argumentation ist auch nicht schlüssig. Wenn Edelman ‚interne Kriterien für werthaftes Verhalten‘ postuliert, die genetisch bedingt sein sollen, dann postuliert er hier Eigenschaften, die sich nicht aus der Biochemie der Prozesse herauslesen lassen. Was er hier postuliert ist so eine Art von ‚genetischem Homunculus‘. Damit widerspricht er letztlich seinen eigenen wissenschaftlichen Überzeugungen. Letztlich ist es nur ein ‚Genotyp als ganzer‘, der ein ‚bislang erfolgreichen Phänotyp‘ repräsentiert. Scheiter er irgendwann – was auf lange Sicht der Normalfall ist, da die Erde sich ändert –, dann verschwindet der Genotyp einfach; jener, der ‚überlebt‘, verkörpert als ‚Ganzer‘ ein Erfolgsmodell, nicht ein einzelner, isolierter Aspekt. Mit dieser empirisch-wissenschaftlichen Sicht verschwinden die ‚Werte‘ zwar ‚aus dem System‘, aber das übergeordnete ’system-transzendente‘ Verhältnis zwischen System und Umwelt bleibt weiter erhalten und es ist dieses Verhältnis, das alleine darüber entscheidet, ob etwas ‚Leben-Ermöglichendes‘ ist oder nicht. Damit erweitert sich die Fragestellung nach der ‚Verortung möglicher Präferenzen‘ deutlich, wenn man das empirisch neue Phänomen des Bewusstseins einbezieht (das nur in Kombination mit einem Unbewussten auftritt!). Während die Umwelt-System-Beziehung primär über das Überleben entscheidet, ermöglicht das Bewusstsein in Kombination mit dem Unbewussten (z.B. dem Gedächtnis) eine ‚Extraktion‘ von Eigenschaften, Beziehungen, Dynamiken und mit kombinatorischen Varianten von dieser Umwelt-System-Beziehung, so dass eine kommunizierende Gruppe von Homo sapiens Exemplaren von nun an mögliche Zukünfte schon in der Gegenwart bis zu einem gewissen Graf ‚voraus anschauen‘ und auf ‚Lebensfähigkeit‘ ‚testen‘ kann. Insofern stellt das Bewusstsein und die Kommunikation eine radikale Erweiterung der Überlebensfähigkeit dar, nicht nur für den Homo sapiens selbst, sondern auch für die Gesamtheit des biologischen Lebens auf der Erde! Mit dem Ereignis Homo sapiens tritt das biologische Leben auf der Erde (und damit im ganzen Universum!?) in eine radikal neue Phase. Edelmans Versuch, ‚Werte‘ in einzelnen genetischen Strukturen und dann in einzelnen Strukturen des Gehirns zu finden wirken von daher unlogisch und abwegig. Edelmans Beispiele in den Punkten (20) – (23) können nicht klarmachen, wie diese interne Präferenzsystem funktionieren soll (ich werde diesen Punkt an konkreten Systemen nochmals selbst durchspielen).

  12. Zusammenfassend würde ich für mich den Text von Edelman so interpretieren, dass (i) seine Skizze der neuronalen Maschinerie mit den reziproken Verbindungen und den unterschiedlichen Verschaltungen ganzer Karten ein interessanter Ansatzpunkt ist, für ein neuronales Modell, das in einer psychologisch-physiologischen Brückentheorie getestet werden könnte und sollte, sein Versuch aber (ii), die Wertefrage in biochemische Prozesse verorten zu wollen, ist in mehrfachem Sinne unplausibel, methodisch unklar und führt vom Problem eher weg.

 

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

 

EPISTEMISCHE SCHOCKWELLEN. Die letzten 3500 Jahre

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 20.Sept. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

KONTEXT

Die Diskussion im Kontext des letzten Textes von Freud zur Psychoanalyse lässt erkennen, wie sich das Bild von uns Menschen über uns selbst dadurch in gewisser Weise ändern kann und letztlich dann ändert, wenn wir uns auf diese Gedanken einlassen. Die Einbeziehung des ‚Unbewussten‘ in das Gesamtbild des Systems homo sapiens verschiebt so manche Beziehungen im Gefüge des menschlichen Selbstbildes, und nicht nur das, es wirkt sich auch aus auf das Gesamtbild der empirischen Wissenschaften, auf ihr Gesamtgefüge. Dies hatte sich ja auch schon angedeutet in der vorausgehenden Diskussion des Buches von Edelman, die noch nicht abgeschlossen ist.

Dies hat mich angeregt, über Freud und Edelman hinausgehenden einige der epistemischen Schockwellen zusammen zu stellen, denen das menschliche Selbstverständnis in den letzten ca. 3500 Jahren ausgesetzt war. Dabei muss man sich darüber im Klaren sein, dass es natürlich immer nur eine Minderheit war, die überhaupt an den übergreifenden Erkenntnissen teilhaben konnte, und selbst diese Minderheit zerfällt in unterschiedliche Subgruppen ohne ein kohärentes Gesamtbild.

EPISTEMISCHE SCHOCKWELLEN

Unter ‚Schockwellen‘ werden hier energetische Ereignisse verstanden, die nur gelegentlich auftreten, und die geeignet sind, bestehende Strukturen zumindest zum Schwingen, zum Erbeben zu bringen, wenn nicht gar zu ihrer Zerstörung führen. ‚Epistemisch‘ bezieht sich auf die Dimension des Erkennens, des Verstehens, zu dem Exemplare des Homo sapiens fähig sind. ‚Epistemische Schockwellen‘ sind also Ereignisse, durch die das Selbstverständnis, die Weltbilder der Menschen in Schwingungen versetzt wurden bzw. sich neu aufbauen mussten.

Die folgende Zusammenschau solcher epistemischer Schockwellen ist in keiner Weise vollständig, weitgehend nicht differenziert genug, rechtfertigt sich aber dadurch, dass es darum geht in einer überschaubaren Weise einen Grundeindruck von der Dynamik des Geistes zu vermitteln, die dem Geschehen des biologisch fundierten Lebens innewohnt.

CLUSTER RELIGION

 

Stichworte zu 'Epistemische Schockwellen', Teil 1. ca. -1500 bis ca. 1500

Stichworte zu ‚Epistemische Schockwellen‘, Teil 1. ca. -1500 bis ca. 1500

Zwischen ca. -1500 bis etwa 650 gab mindestens 8 große das Weltverstehen prägende Ereignisse – daneben viele andere, weitere –, die wir im Nachgang als ‚Religionen‘ bezeichnen. Religionen zeichnen sich aus durch ‚Gründer‘, durch ‚Botschaften‘, durch ‚Erfahrungen‘ und dann meistens nachfolgend durch ‚Regeln‘ und Bildung von ‚Organisationsformen‘. Sie erheben einen Anspruch auf ‚Deutung der Welt‘ mit ‚Sinn‘, ‚Werten‘ und ‚Spielregeln‘. Sie versprechen auch den Kontakt zu eine Letzten, Größten, Umfassenden, Endgültigen, dem alles andere unter zu ordnen ist. Vielfach gehen diese Versprechungen auch einher mit speziellen ‚außergewöhnlichen Erlebnissen‘, die im einzelnen stattfinden.

In Vorderasien und Europa waren dies vor allem das Duo Judentum-Christentum und der Islam. Während diese sich explizit auf einen ‚Schöpfer‘ bezogen, kam der indische Subkontinent neben der vielfältigen Götterwelt des Hinduismus in seinem Grundtenor — realisiert im Buddhismus — ohne einen expliziten Schöpfer aus, allerdings nicht ohne eine tiefgreifende Existenzerfahrung des einzelnen Menschen, der sich durch einen geeigneten Lebensstil und Meditation möglichst weitgehend von einem normalen Alltag und seinen vielfältigen Spannungen isolierte.

So verschieden Jugentum-Christentum, Islam auf der einen Seite und Indischer Existentialismus auf der anderen Seite auf den ersten Blick wirken können, kann man aber dennoch auffällige strukturelle Parallelen erkennen.

Die sprachliche Seite der genannten Religionen tendiert dazu, nicht die Weite und Vielfalt der Welt zu kommunizieren, keine weiterreichende Erkenntnisse, sondern die Sprache hat einzig den Zweck, eine bestimmte, abgegrenzte Idee zu kommunizieren, diese abzugrenzen von allem anderen, bis dahin, dass alle Abweichungen diskreditiert werden. Jene Menschen, die sich sprachlich von der ‚Norm‘ entfernen sind Abweichler, Dissidenten, Ungläubige, Verräter, Feinde. Die Sprache wird also nicht gesehen als ein offener, lebendiger, dynamischer Raum von ‚Wahrheit‘, die sich weiter entwickeln kann, sondern als eine symbolische Fessel, eine symbolische Mauer, die einige wenige Ideen abgrenzen sollen. Auch der Buddhismus, der eigentlich sein Fundament in einer schwer beschreibbaren individuellen Existenzerfahrung sieht, praktiziert Sprache überwiegend als Gefängnis.

Betrachtet man sich die Geschichte dieser Religionen bis heute, dann ist diese Starrheit unübersehbar. Alle modernen Erkenntnisse und Entwicklungen prallen an der Sprache dieser Religionen ab.

Neben der sprachlichen Dimension haben alle diese Religionen auch eine ‚Erlebnisdimension‘, oft auch ‚Spiritualität‘ oder ‚Mystik‘ genannt. Einzelne, Gruppierungen, Bewegungen erzähltem davon, schrieben es auf, dass sie ‚besondere, tiefgreifende Erlebnisse‘ hatten, die ihnen ‚klar gemacht haben‘, was wirklich ‚wichtig‘ ist, ‚worin der Sinn des Lebens‘ liegt, Erlebnisse, die ihnen ‚Frieden‘ geschenkt haben, ‚Erfüllung‘, ‚Wahrheit‘. Und diese Erlebnisse waren immer so stark, dass sie diese Menschen aus allen Schichten dazu bewegt haben, ihr Lebens radikal zu ändern und von da an eben ‚erleuchtet‘ zu leben. Diese Menschen gab es nicht nur im Umfeld des Buddhismus, sondern auch zu Tausenden, Zehntausenden im Umfeld des Judentum-Christentums.

Solange diese religiösen Bewegungen sich im Umfeld der etablierten religiösen Überzeugungen und Praktiken bewegen wollten, mussten sie sich – wie immer auch ihre individuellen Erlebnisse waren – diesem Umfeld anpassen. In vielen Fällen führte dies auch zu Absetzbewegungen, zur Entwicklung neuer religiöser Bewegungen. Das Problem dieser erlebnisbasierten Bewegungen war, dass sie entweder nicht die Sprache benutzen durften, die sie zur Beschreibung ihrer Erlebnisse brauchten (da nicht erlaubt), oder aber, sie benutzten eine neue Sprache, und dies führte zum Konflikt mit den etablierten Sprachspielen.

Unter den vielen hunderten Bewegungen allein im Bereich Judentum-Christentum, die z.T. viele tausend, ja zehntausend  Mitglieder hatten und dabei oft auch materiell sehr wohlhabend bis reich wurden, möchte ich zwei kurz erwähnen: die Reformation angefeuert von Martin Luther und den Jesuitenorden, angefeuert von Ignatius von Loyola. Im historischen Klischee werden beide Bewegungen oft als direkte Gegner skizziert, da der Jesuitenorden kurz nach Beginn der Reformationsbewegung gegründet wurde und der katholische Papst gerade diesen Orden auch zur ‚Bekämpfung der Reformation‘ einsetzte. Dieses Bild verdeckt aber die wirklich interessanten Sachverhalte.

Der Jesuitenorden entstand aus den spirituellen Erfahrungen eines baskischen Adligen, deren innere Logik, Beschreibung und Praxis, im Lichte der Erkenntnisse der modernen Psychologie (und Psychoanalyse) stand halten würde. Außerdem war der Orden aufgrund dieser Spiritualität extrem weltoffen, wissenschaftsaffin, und revolutionierte die damals beginnende christliche Missionierung der Welt, indem jeweils die Kultur der verschiedenen Erdteile studiert und übernommen und sogar gegen zerstörerische Praktiken der europäischen Kolonisatoren geschützt wurden. Genau dieses wahre Gesicht des Ordens mit einer radikal individuell-erlebnisbasierten Spiritualität und daraus resultierenden Weltoffenheit und Menschlichkeit führte dann zum Verbot und Aufhebung des Ordens weltweit, verbunden mit Einkerkerungen, Folter und Tod ohne Vorankündigung. Das korrupte Papsttum ließ sich damals von dem portugiesischen und spanischen Hof erpressen, die ihre menschenverachtende Geschäfte in den Kolonien, speziell Südamerika, bedroht sahen. Dies war nicht die einzige Aufhebung und Misshandlung, die der Orden seitens des Papstums erfuhr. Während Luther sich gegen das Papsttum erhob und es auf einen Konflikt ankommen ließ, blieben die Jesuiten dem Papst treu und wurden vernichtet.

Diese Minigeschichte ließe sich aber zu einem großen Thema erweitern, da eben die sprachlich fixierten Religionen generell ein Problem mit Wahrheit und damit mit jeglicher Art von Erfahrung haben. Die Akzeptanz individueller Erfahrung als möglicher Quell von ‚Wahrheit‘, möglicherweise einer weiter reichenden alternativen Wahrheit zu der sprachlich fixierten (und damit eingesperrten) Wahrheit der Religionen, eine solche Akzeptanz würde das Wahrheitsmonopol dieser Religionen aufheben. Bislang hat keine der genannten Religionen es geschafft, von sich aus ihr problematisches Wahrheitsmonopol in Frage zu stellen.

JUDENTUM – CHRISTENTUM – PHILOSOPHIE

In der Zeit vor den modernen empirischen Wissenschaften existierte wissenschaftliches Denken entweder gar nicht oder in enger Verbindung mit dem philosophischen Denken bzw. der Medizin.

In der alten und klassischen Griechischen Philosopie (ca. -800 bis -200) wurde das Weltverstehen in vielen Bereichen erstmalig sehr grundlegend reflektiert, unabhängig von bestimmten religiösen Überzeugungen, obgleich natürlich auch diese Denker nicht im luftleeren Raum lebten sondern in konkreten Kulturen mit einer damals üblichen Moral, Ethik, Spielregeln, Sprachspielen.

Unter den vielen bedeutenden Konzepten war das größte systematische Konzept wohl jenes von Aristoteles, Schüler Platons, und den an ihn anschließenden Schulen. Während dieses griechische Denken nach der Eroberung Griechenlands durch die Römer in Mittel- und Westeuropa bis zum Jahr 1000 mehr oder weniger unbekannt war (Kriege, radikal anti-wissenschaftliche Einstellung der katholischen Kirche) war der damalige Islam sehr offen für Wissen. Das griechische Denken war im Islam weitgehend bekannt, lag entsprechend in arabischen Übersetzungen vor, und durch eine Vielzahl von Schulen, Bildungsstätten und großen Bibliotheken (z.T. mehrere hundert Tausend Bücher!) wurde dieses Wissen gepflegt und weiter entwickelt (welcher Kontrast zum heutigen Islam!). Und nur über diese Umweg über den hochgebildeten Islam mit Übersetzungsschulen in Spanien kam das Wissen der Griechen ab ca. 1000 wieder in das christliche Mittel- und West-Europa.

Mit dem Entstehen eines aufgeschlosseneren Bildungssystem in Europa wanderten die griechischen Gedanken über Bücher und Gelehrte wieder in europäische Bildungsstätten ein. Es gab eine Zeit der intensiven Auseinandersetzung zwischen bisheriger christlicher Theologie und Aristoteles. Auf dem Höhepunkt der begrifflichen Integration von christlichem Glauben und Aristotelischer Weltsicht gab es aber ‚Abspaltungstendenzen‘ in mehreren Bereichen.

POLITIK – WISSENSCHAFT – SPIRITUALITÄT

Das zunehmend freie und kritische Denken begann mit der Infragestellung der bis dahin waltenden absolutistischen Machtstrukturen.

Das methodisch geschulte universitäre Denken begann, über die aristotelischen Konzepte hinaus zu denken. Anknüpfungspunkte gab es genügend.

Das individuelle Erleben der Menschen, ihre Frömmigkeit, ihre Spiritualität suchte nach neuen Wegen, benutzte eine neue Sprache, um sich besser ausdrücken zu können.

Das neue politische Denken führte später zur französischen Revolution und vielen ähnlichen politischen Erneuerungsbewegungen.

Das neue philosophische Denken führt alsbald zum Bildung der neuen empirischen Wissenschaften mit neuer Logik und Mathematik.

Die neue Spiritualität lies viele neue religiöse Bewegungen entstehen, die quer zu allen etablierten Glaubensformen lagen, u.a. auch zur Reformation.

PHILOSOPHIE – WISSENSCHAFT

Stichworte zu 'Epistemische Schockwellen', Teil2. ca. ca. 1550 bis ca.2018

Stichworte zu ‚Epistemische Schockwellen‘, Teil2. ca. ca. 1550 bis ca.2018

Aus der Vielzahl der philosophischen Denker bieten sich vier besonders an: Descartes, Kant, Wittgenstein und Carnap.

Von heute aus betrachtet markieren diese Vier entscheidende Umbrüche des philosophischen Denkens, das von den Entwicklungen in der Logik, Mathematik,Physik, Geowissenschaften, Biologie und Psychologie zusätzlich profitiert hat und noch immer profitiert.

Descartes versuchte zu klären, inwieweit sich die Wahrheitsfrage nur durch Rekurs auf das eigene Denken lösen ließe. Sein Fixpunkt in der Gewissheit des eigenen Denkens (cogito ergo sum) wurde aber erkauft durch einen fortbestehenden Dualismus zwischen Körper (res extensa) und Denken/ Geist (res cogitans), den er mit einem irrationalen Gedanken zu einer Zirbeldrüse zu kitten versuchte.

Kant führte dieses Forschungsprogramm von Descartes letztlich weiter. Sein Vermittlungsversuch zwischen fehlbarer konkreter empirischer Erfahrung und den allgemeinen Prinzipien der Mathematik und des Denkens (des Geistes) ging über Descartes insoweit hinaus, dass er auf eine Zirbeldrüsen-ähnliche Lösung verzichtete und stattdessen davon ausging, dass der Mensch in seinem Denken von vornherein in abstrakten Kategorien wahrnimmt und denkt. Unsere menschliche Konstitution ist so, dass wir so wahrnehmen und Denken. Er konstatierte damit ein Faktum, das wir heute mit all unseren Erkenntnissen nur bestätigen können. Es blieb bei ihm offen, warum dies so ist. Es zeichnet seine intellektuelle Redlichkeit aus, dass er die offenen Enden seiner erkenntnistheoretischen (epistemischen) Analysen nicht krampfhaft mit irgendwelchen Pseudo-Lösungen versucht hat zu vertuschen.

Wittgenstein war der erste, der sich mit dem Funktionieren der Sprache und ihrer Wechselwirkung mit unserem Denken ernsthaft, ja radikal beschäftigte. Während er in seinem Frühwerk noch der Statik der damaligen modernen Logik huldigte, begann er dann später alle diese statischen formalen Konstruktionen in der Luft zu zerreißen, durchlief weh-tuende detaillierte Analysen der Alltagssprache, machte vor nichts Halt, und hinterließ mit seinem frechen und angstfreien Denken einen Trümmerhaufen, dessen Verdienst es ist, den Raum frei gemacht zu haben für einen echten Neuanfang.

Carnap wirkt in diesem Zusammenhang auf den ersten Blick wie ein Antipode zu Wittgenstein, und in der Tat hat er ja das vor-wittgensteinsche Sprachverständnis in seinen Studien zu den formalen Sprachen, zur Logik, zur logischen Semantik weiter angewendet. Allerdings hat er dies dann auch im Kontext der empirischen Wissenschaften getan. Und in diesem Kontext hat sein formal-scholastisches Denken immerhin dazu beigetragen, die Grundstrukturen moderner empirische Theorien mit einem formalen Kern frei zu legen und ihre Eigenschaften zu untersuchen.

Alle diese genannten Ansätze (Kant, Wittgenstein, Carnap) wurden später mehrfach kritisiert, abgewandelt, weiter entwickelt, aber es waren diese Ansätze, die die nachfolgenden Richtungen entscheidend beeinflusst haben.

Ein interessanter Grenzfall ist Freud (s.u.). Irgendwie könnte man ihn auch zur Philosophie rechnen.

LOGIK – MATHEMATIK

Aus heutiger Sicht kann man sich gar nicht mehr vorstellen, dass es eine Zeit gegeben hat, in der die moderne Logik und Mathematik nicht verfügbar war. Nahezu alles, was unseren Alltag ausmacht setzt sehr viel Mathematik als beschreibende Sprache, als Berechnung, als Simulation voraus. Dass mathematisches Denken in den Schulen so wenig – und immer weniger – behandelt wird, ist sehr irritierend.

Logik und Mathematik sind einen weiten Weg gegangen.

Ein Meilenstein ist der Übergang von der klassischen aristotelischen Logik (eng an der Alltagssprache, Einbeziehung inhaltlichen Alltagsdenkens) zur modernen formalen Logik seit Frege (formale Sprache, formaler Folgerungsbegriff).

Eng verknüpft mit der Entwicklung der neuen formalen Logik ist auch die Entwicklung der modernen Mathematik, die entscheidend mit der Erfindung der Mengenlehre durch Cantor ihren Durchbruch fand, und dann mit Russel-Whitehead und Hilbert die Neuzeit erreichte. Keine der modernen Arbeiten in Gebieten wie z.B. Algebra, Topologie, Geometrie sind ohne diese Arbeiten denkbar, ganz zu schweigen von der modernen theoretischen Physik.

EMPIRISCHE WISSENSCHAFTEN

Erste Ausläufer empirischer Wissenschaft gab es schon vor Galilei (man denke z.B. nur an die bahnbrechenden Forschungen zur Medizin von dem islamischen Gelehrten (und Philosophen, Logiker, Theologen!) Avicenna). Doch an der Person Galileis kristallisiert sich der Konflikt zwischen neuem, offenen wissenschaftlichen Denken und dem alten, geschlossenen christlichen Denken. Zudem hat Galilei eben konsequent sowohl eine experimentelle Messmethode angewendet wie auch eine beginnende mathematische Beschreibung. Mit Newton gelang dann eine Fassung von Experiment und Theorie, die atemberaubend war: die Bewegung der Himmelskörper ließ sich nicht nur mit einfachen mathematischen Formeln beschreiben, sondern auch noch mit bis dahin unbekannter Präzision voraus sagen. Es sollte dann zwar noch fast 300 Jahre dauern, bis die moderne Physik eine erste Theorie zur Entstehung des ganzen Weltalls formulieren konnte samt ersten experimentellen Bestätigungen, aber die Befreiung des Denkens von dogmatischen Sprachbarrieren war geschafft. Die Wissenschaft insgesamt hatte sich freigeschwommen.

Schon im 17.Jahrhundert hatte Niels Stensen entdeckt, dass die unterschiedlichen Ablagerungsschichten der Erde in zeitlicher Abfolge zu interpretieren sind und man daher auf geologische Prozesse schließen kann, die die Erde durchlaufen haben muss.

Zwei Jahrhunderte später, schon im 19.Jahrhundert, wurde diese historische Sicht der Erde ergänzt durch Charles Darwin, der am Beispiel der Pflanzen- und Tierwelt auch Hinweise auf eine Entwicklung der Lebensformen fand. Sowohl die Erde als auch die biologischen Lebensformen haben eine Entwicklung durchlaufen, zudem in enger Wechselwirkung.

Fast parallel zu Darwin machte Freud darauf aufmerksam, dass unser ‚Bewusstsein‘ nicht die volle Geschichte ist. Der viel größere Anteil unseres menschlichen Systems ist ’nicht bewusst‘, also ‚unbewusst‘. Das Bewusstsein ‚erzählt‘ uns nur ‚Bruchstücke‘ jener Geschichten, die weitgehend im ‚Nicht-Bewusstein‘ oder ‚Unbewussten‘ ablaufen.

Die weitere Entwicklung der Biologie lieferte viele Argumente, die das Bild von Freud stützen.

Der Versuch von Watson, 1913, die Psychologie als empirische Verhaltenswissenschaft zu begründen, wurde und wird oft als Gegensatz zu Psychoanalyse gesehen. Das muss aber nicht der Fall sein. Mit der Verhaltensorientierung gelang der Psychologie seither viele beeindruckende theoretische Modelle und Erklärungsleistungen.

Von heute aus gesehen, müsste man ein Biologie – Psychologie – Psychoanalyse Cluster befürworten, das sich gegenseitig die Bälle zuspielt.

Durch die Einbeziehung der Mikro- und Molekularbiologie in die Evolutionsbiologie konnten die molekularen Mechanismen der Evolution entschlüsselt werden.Mittlerweile steht ein fast komplettes Modell der biologischen Entwicklung zur Verfügung. Dies erlaubt es sowohl, Kants (als auch Descartes) Überlegungen von den biologischen Voraussetzungen her aufzuklären (z.B. Edelman!), wie auch die Psychologie samt der Psychoanalyse.

COMPUTER

Als Gödel 1931 die Unentscheidbarkeit anspruchsvoller mathematischer Theorien (das fängt bei der Arithmetik an!) beweisen konnte, wirkte dies auf den ersten Blick negativ. Um seinen Beweis führen zu können, benötigte Gödel aber sogenannte ‚endliche Mittel‘. Die moderne Logik hatte dazu ein eigenes Forschungsprogramm entwickelt, was denn ‚endliche Beweismethoden‘ sein könnten. Als Turing 1936/7 den Beweis von Gödel mit dem mathematischen Konzept eines Büroangestellten wiederholte, entpuppte sich dieses mathematische Konzept später als ein Standardfall für ‚endliche Mittel‘. Turings ‚mathematisches Konzept eines Büroangestellten‘ begründete dann die spätere moderne Automatentheorie samt Theorie der formalen Sprachen, die das Rückgrat der modernen Informatik bildet. Das ‚mathematische Konzept eines Büroangestellten‘ von Turing wurde ihm zu Ehren später ‚Turingmaschine‘ genannt und bildet bis heute den Standardfall für das, was mathematisch ein möglicher Computer berechnen kann bzw. nicht kann.

Im weiteren Verlauf zeigte sich, dass gerade das Konzept des Computers ein extrem hilfreiches Werkzeug für das menschliche Denken sein kann, um die Grenzen des menschlichen Wahrnehmens, Erinnerns und Denkens auszugleichen, auszuweiten.

Schon heute 2018 ist der Computer zu einem unverzichtbaren Bestandteil der Gesellschaft geworden. Das Wort von der ‚Digitalen Gesellschaft‘ ist keine Fiktion mehr.

ZEITGEIST

Der extrem kurze Rückblick in die Geschichte zeigt, wie schwer sich die Ausbildung und Verbreitung von Ideen immer getan hat. Und wenn wir uns die gesellschaftliche Realität heute anschauen, dann müssen wir konstatieren, dass selbst in den hochtechnisierten Ländern die gesamte Ausbildung stark schwächelt. Dazu kommt das eigentümliche Phänomen, dass das Alltagsdenken trotz Wissenschaft wieder vermehrt irrationale, gar abergläubische Züge annimmt, selbst bei sogenannten ‚Akademikern‘. Die Herrschaft von Dogmatismen ist wieder auf dem Vormarsch. Die jungen Generationen in vielen Ländern werden über mobile Endgeräte mit Bildern der Welt ‚programmiert‘, die wenig bis gar nicht zu wirklichen Erkenntnissen führen. Wissen als solches, ist ‚wehrlos‘; wenn es nicht Menschen gibt, die mit viel Motivation, Interesse und Ausdauer und entsprechenden Umgebungen zum Wissen befähigt werden, dann entstehen immer mehr ‚Wissens-Zombies‘, die nichts verstehen und von daher leicht ‚lenkbar‘ sind…

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

 

DER SPÄTE FREUD UND DAS KONZEPT DER PSYCHOANALYSE. Anmerkung

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 17.Sept. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

Wie im Beitrag vom vom 10.Sept. 2018 festgestellt, kann man die Praxis der Psychoanalyse, wie sie im Rahmen der Philosophiewerkstatt im Jahr 2018 vorgestellt wurde, sehr wohl in das Konzept einer empirischen Wissenschaft ‚einbetten‘, ohne den Faktor des ‚Un-Bewussten‘ aufgeben zu müssen. Nach Ansicht des Autors des Beitrags dort ist das Haupthindernis dafür, dies nicht umzusetzen, einerseits das mangelnde Verständnis der Psychoanalytiker für moderne Konzepte empirischer Theorien, andererseits sind die aktuellen Theoriekonzepte empirischer Theorien zu einfach; sie müssten weiter entwickelt werden.

Man kann dieser Diskussion weitere ‚Nahrung‘ geben, wenn man Themen der letzten Schrift von Sigmund Freud selbst aufgreift. Dieser Deutsche Text hatte den Englischen Titel ‚Some Elementary Lessons in Psycho-Analysis‘ (GW XVII, 1938-40). Ich wurde auf diesen Text aufmerksam durch Jürgen Hardt, der dazu 1996 einen historisch-systematischen Artikel verfasst hatte (Hardt 1996).

In einer sehr detaillierten textnahen Analyse kann Jürgen Hardt es plausibel erscheinen lassen, dass dieser Text ‚Some …‘ kein nachträglicher Kommentar zu dem zeitlich früheren ‚Abriß der Psychoanalyse‘ (GW VVII, 1938-40) darstellt, sondern letztlich einen methodisch neuen Ansatz bildet, wie Freud die Psychoanalyse darstellen wollte, ohne dies vollenden zu können.

Die zentrale Idee besteht darin, dass die Psychoanalyse sehr wohl am Alltagsverständnis ansetzt, beim alltäglichen Bewusstsein, der individuellen ‚Selbstbeobachtung‘, dass sie aber nicht bei der ‚Lückenhaftigkeit‘ der Phänomene stehen bleibt, sondern die Lücken einem ‚Un-Bewussten‘ zurechnet, das für die Auswahl und das Zustandekommen der bewussten Phänomene verantwortlich ist. Mit diesem Ansinnen und mit der Umsetzung dieses Ansinnens, begibt sich die Analyse in das Gebiet der ‚theoretischen Deutung‘ von ‚Erfahrbarem‘. Damit tut sich auf den ersten Blick ein Gegensatz von ‚Bewusstsein‘ und ‚Un-Bewusstem‘ auf: das Un-Bewusste ist dem Bewusstsein ‚etwas Fremdes‘. Dieser Gegensatz wird umso provozierender, wenn man – wie Freud – dieses ‚Un-Bewusste‘ mit dem ‚Seelischen‘ gleichsetzt, denn dann ist auch ‚das Seelische‘ dem Bewusstsein ‚fremd‘. Es ist dann das hehre Ziel der Psychoanalyse die ‚Lücken im Bewusstsein‘ dadurch zu schließen, dass man das ‚Un-Bewusste‘ und seinen funktionellen Beitrag für das Bewusstsein ’sichtbar macht‘. Dazu gibt es die weitere Position Freuds, dass das ‚Un-Bewusste‘ und seine Prozesse ‚zur Natur‘ gehören (über den Körper, der Teil der Natur ist). Insofern ist die Psychoanalyse nach Freud von ihrem Gegenstand her eine ‚Naturwissenschaft‘.

Soweit diese Position, wie sie sich anhand der detaillierten Analyse von Jürgen Hardt rekonstruieren lässt.

Angenommen diese meine Rekonstruktion der Interpretation von Jürgen Hardt ist zutreffend, dann kann man – speziell auch vor dem Hintergrund der vorausgehenden Diskussion – einige Fragen stellen.

  1. Beginnt man mit dem Ende der obigen Argumentation, dann scheint Freud die These von der Psychoanalyse als ‚Naturwissenschaft‘ von dem Sachverhalt herzuleiten, dass ihr ‚Gegenstandsbereich‘ (das ‚Un-Bewusste‘ als das ‚Seelische‘, dieses verortet in Prozessen des Körpers) dem geläufigen Verständnis von ‚Natur‘ zuzurechnen sei.

  2. Nun definiert sich die moderne Naturwissenschaft allerdings nicht nur über ihren Gegenstandsbereich (die diffuse, zu Beginn nicht definierte, ‚Natur‘), sondern zugleich und wesentlich auch über die ‚Methode des Gewinnens und Aufbereitens von wissenschaftlichem Wissen‘ über diese intendierte Natur.

  3. In diesen Prozessen des ‚Gewinnens und Aufbereitens von wissenschaftlichem Wissen‘ spielen ‚experimentelle empirische Messprozesse‘ eine zentrale Rolle. Nicht erst seit Galilei beginnt man etwas Neues, ein zu Untersuchendes (die Natur, Teilaspekte der Natur) mit einem zuvor festgelegten ‚objektiven Standard‘ zu vergleichen und benutzt die Ergebnisse dieses Vergleichs als ‚empirisches Faktum‘, wobei man von dem ausführenden ‚Beobachter/ Theoriemacher‘ absieht.

  4. Im von Freud proklamierten Ausgang beim ‚Alltagsbewusstsein‘, das sich primär in der ‚Selbstbeobachtung‘ erschließt, innerhalb einer Therapie aber auch parallel in einer ‚Fremdbeobachtung‘ des ‚Verhaltens‘ eines anderen, stellt sich die Frage nach einem ‚zuvor vereinbarten Standard‘ neu.

  5. An das beobachtbare Verhalten eines Anderen kann man zuvor vereinbarte Standards anlegen (man denke beispielsweise an die mehr als 100 Jahre psychologische Intelligenzforschung: ohne die einem Verhalten zugrunde liegenden Strukturen und Prozesse direkt untersuchen zu können, kann man Kataloge von Verhaltensweisen definieren, die man mit dem Begriff ‚Intelligent‘ korreliert. Dieses Verfahren hat gezeigt, dass es erstaunlich stabile Prognosen künftiger Verhaltensweisen erlaubt). So wäre denkbar, dass man Bündel von Verhaltensmerkmalen und typische Abfolgen in typischen Situationen mit bestimmten Begriffen verknüpft, die sich mit unterstellte unbewussten Prozessen assoziieren lassen.

  6. Allerdings, da ‚unbewusste‘ Prozesse per Definition ’nicht bewusst‘ sind, stellt sich die Frage, wann und wie ein psychoanalytischer Beobachter/ Theoriemacher einen Zugriff auf diese unbewussten Prozesse bekommen kann?

  7. Im Fall der Intelligenzforschung gibt es diesen Zugriff auf interne Prozesse letztlich auch nicht, da z.B. niemand direkt in die Arbeitsweise seines ‚Gedächtnisses‘ hineinschauen kann. Was wir vom Gedächtnis wissen, wissen wir nur über die ‚Reaktionen des Systems‘ in bestimmten Situationen und Situationsfolgen.

  8. Hier kann man vielleicht an dem Begriff ‚Fehlleistung‘ anknüpfen, der für Freud solche Verhaltensweisen charakterisiert, die nach ’normalem Verständnis‘ eine ‚Abweichung‘ vom ’normalen Muster‘ darstellen. Da ja – das wäre das grundlegende Axiom – keine Leistung einfach aus einem ‚Nichts‘ kommt, sondern ‚Prozesse im Innern‘ voraussetzt, würde man aufgrund des Axioms die Hypothese bilden, dass es Prozesse gibt, die von den ’normalen Prozessen‘ abweichen.

  9. In diesen Kontexten gehört dann auch die Traumanalyse, sofern man das Axiom aufstellt, dass Träume Verarbeitungsprozesse von erlebter Erfahrung darstellen, die ‚intern erlebte Spannungen, Konflikte, Ängste, …‘ widerspiegeln und ‚verarbeiten‘.

  10. Die bisherigen Überlegungen führen über das Muster einer verhaltensorientierten Psychologie nicht hinaus, wenngleich die ‚Arten des Verhaltens‘ mit ‚Fehlleistungen‘ und ‚Träumen‘ als Indikatoren schon bestimmte ‚Axiome‘ voraussetzen, die zusammen genommen ein ‚Modell des Akteurs‘ darstellen. Empirische Modelle – so auch dieses – können falsch sein.

  11. Fasst man den Begriff der ‚Fehlleistung‘ weiter indem man alles, was irgendwie ‚auffällig‘ ist (Stimmfärbung, Redeweise, Bewegungsweise, Zeit und Ort der Äußerung, …), dann ergibt sich ein weites, ‚offenes‘ Feld von potentiellen Verhaltensphänomenen, das zu jedem Beobachtungszeitpunkt ‚mehr‘, ‚größer‘ sein kann als das, was zuvor vereinbart worden ist.

  12. Schließlich, welche Verhaltensweisen auch immer man zuvor als potentielle ‚Indikatoren für unbewusste Prozesse‘ vereinbart haben mag, solange keiner der Beteiligten an irgendeiner Stelle eine ‚Verbindung‘ zu einem ‚realen unbewussten Prozess‘ herstellen kann, hängen diese Indikatoren – bildhaft gesprochen – ‚in der Luft‘. Vergleichbar wäre dies mit einem Quantenphysiker, der aufgrund seines mathematischen Modells eine bestimmte ‚Eigenschaft‘ im Quantenraum postuliert und es ihm bislang noch nicht gelungen ist, ein Experiment durchzuführen, das diese ‚theoretisch begründete Vermutung‘ ‚bestätigt‘.

  13. In der Darstellung von Jürgen Hardt bleibt offen, wie Freud sich eine Lösung dieses Bestätigungsproblems vorstellt.

  14. Aus den zurückliegenden Gesprächen mit PsychoanalyternInnen weiß ich, dass die ‚Wirkung einer hergestellten Beziehung‘ zwischen ‚bewussten Verhaltensanteilen‘ und ‚zuvor unbewussten Faktoren‘ einmal an objektiven Verbesserungen der Gesamtsituation des Anderen festgemacht wird (dazu ließe sich ein zuvor vereinbarter Katalog von Standards denken), und dieser Wirkung geht ein bestimmtes ‚Identifikations- und Erkennungserlebnis‘ voraus. Mit einem solchen Erlebnis ist gemeint, dass es irgendwann (eine nicht planbare und nicht erzwingbare Konstellation) dem Anderen gelingt, durch eine Vielzahl von Indikatoren und begleitenden Verhaltensweisen jene ‚interne Faktoren‘ ‚ans Bewusstsein‘ zu holen, die für die abweichenden Verhaltensweisen (die in der Regel mit vielfachen negativen Begleiteffekten im Alltagsleben verbunden waren) in kausaler Weise ‚verantwortlich‘ ist. Aufgrund der ungeheuren Variabilität von individuellen Persönlichkeitsstrukturen und -biographien können diese Faktoren so unterschiedlich sein, dass ein alle Fälle von vornherein beschreibendes Modell/Muster praktisch unmöglich erscheint. Nur insofern als das Alltagsleben Stereotype aufweist, die viele Menschen teilen, kann es ähnliche Phänomene im Rahmen einer Population geben.

  15. Wichtig ist hier, dass ein solches ‚Identifikations- und Erkennungserlebnis‘ ein subjektiver Prozess im Bereich der Selbstbeobachtung ist, dessen Gehalt sich nur indirekt in der Kommunikation und in den nachfolgenden ‚objektiven und subjektiven‘ Eigenschaften des Alltagslebens manifestiert.

  16. Der anhaltende Konflikt zwischen verhaltensbasierter Psychologie und Psychoanalyse, ob sich die im Rahmen einer Psychoanalyse erwirkten Verhaltensänderungen auch im Rahmen der ’normalen‘ verhaltensbasierten Psychologie ermöglichen lassen, wirkt ein bisschen künstlich. Eine verhaltensbasierte Psychologie, die ‚Fehlleistungen‘ und ‚Träume‘ als Indikator-Phänomene ernst nehmen würde, käme nicht umhin, axiomatisch unbewusste Prozesse anzunehmen (was sie ansonsten bei vielen komplexen Verhaltensweisen auch tun muss). Diese unbewussten Prozesse in ihrer ‚verursachenden Funktion‘ für das Alltagsverhalten zu ‚erschließen‘ braucht es sehr viel ‚kreatives‘ Experimentieren mit vielen Unbekannten, für das die Einbeziehung des ‚Unbewussten‘ des Therapeuten (zusätzlich zu den zuvor erarbeiteten Modellen) sich bislang als beste Strategie erweist, insbesondere dann, wenn man die Kommunikation zwischen den beiden ‚Unbewussten‘ zulässt und nutzt.

  17. Als Wissenschaftsphilosoph würde ich sagen, dass die Abgrenzung zwischen empirischer Psychologie und (empirischer) Psychoanalyse ‚künstlich ist. Die gewöhnliche verhaltensbasierte Psychologie kann sich von einer sich als ‚empirisch‘ verstehenden Psychoanalyse nur abgrenzen, wenn sie ihr eigenes Selbstverständnis in bestimmten Punkten künstlich beschneidet.

  18. Eine sich empirische verstehende Psychoanalyse (Freuds Postulat von Psychoanalyse als Naturwissenschaft) wiederum sollte die ideologisch erscheinenden Abgrenzungsversuche gegen die normale empirische Psychologie aufgeben und vielmehr konstruktiv zeigen, dass ihr psychoanalytisches Vorgehen nicht nur voll im Einklang mit einem empirisch-experimentellen Selbstverständnis steht, sondern darüber hinaus die Mainstream-Psychologie um wertvolle, grundlegende Erkenntnisse zum Menschen bereichern kann. Dann hätten alle etwas davon.

  19. Die weitere Forderung der empirischen Wissenschaft, die ‚gemessenen Fakten‘ systematisch zu ‚ordnen‘ in Form eines ‚Modells‘, einer ‚Theorie‘ ließe sich von der Psychoanalyse auch bei introspektiven Phänomenen sehr wohl einlösen. Allerdings sind bislang nur wenige Beispiele von formalisierten Modellen zu psychoanalytischen Sachverhalten bekannt (eines stammt von Balzer).

LIT:

Balzer, Wolfgang (1982), Empirische Theorien: Modelle, Strukturen, Beispiele,Friedr.Vieweg & Sohn, Wiesbaden

Hardt, Jürgen (1996), Bemerkungen zur letzten psychoanalytischen Arbeit Freuds: ‚Some Elementary Lessons in Psycho-Analysis‘, 65-85, in: Jahrbuch der Psychoanalyse, Bd.35, Frommann-holzboog

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

ÜBER DIE MATERIE DES GEISTES. Relektüre von Edelman 1992. Teil 1

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 22.August 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

Gerald M.Edelman, Bright Air, Brilliant Fire. On the Matter of the Mind, New York: 1992, Basic Books

KONTEXT BLOG

Eine der zentralen Fragen, um die dieser Blog seit vielen Jahren kreist, ist die Frage nach dem Verhältnis von ‚Geist‘ und ‚Materie‘. Während die Tradition der Philosophie (und davon stark abhängig auch die christliche Theologie) seit den Griechen einen wesentlichen Unterschied zwischen ‚Geist‘ und ‚Materie‘ annimmt, legen die neuen Erkenntnisse der empirischen Wissenschaften mehr und mehr den Schluss nahe, dass der ‚Geist‘, das ‚Geistige‘, das ‚Psychische‘, das ‚Bewusstsein‘ Eigenschaften sind, die nur im Kontext einer hochkomplex organisierten Materie (z.B. im Kontext des Körpers des homo sapiens mit Gehirn) auftreten, die sich im Laufe von vielen Milliarden Jahren auf der Erde in Gestalt des ‚biologischen Lebens‘ entwickelt konnte. Dies ist nicht zwingend als schlichte Gleichsetzung materieller Strukturen und geistiger Eigenschaften zu verstehen, sondern möglicherweise eher in Richtung einer ‚emergenten Logik‘ derart, dass sich diese Eigenschaften anlässlich des Auftretens bestimmter komplexer materieller Strukturen ‚zeigen‘. Dies entspricht analog der Situation in der Mathematik, in der man zwischen ‚Mengen‘ und ‚Relationen‘ unterscheidet: ohne Mengen lassen sich keine Relationen definieren und aufzeigen, aber Relationen sind keine Mengen. Mengen können auch ohne Relationen auftreten, genauso wie es materieller Strukturen gibt, die keine Phänomene von ‚Geist‘ zeigen.

Hat man diese Blickweise einer emergenten Logik erst einmal eingenommen, stellen sich natürlich sehr viele neue Fragen. Einige dieser Fragen lauten, wie denn überhaupt etwas ‚Materielles‘ beschaffen sein muss, dass es etwas ‚Geistiges‘ zeigen kann? Was genau ist dann das ‚Geistige‘ in Abgrenzung vom ‚Materiellen‘? Wieso kann es materielle Strukturen geben, die keine ‚geistige‘ Phänomene zeigen, und solche, die es tun?

Und, wie so oft in der Geschichte der Philosophie und der neueren Geschichte der empirischen Wissenschaften, kann es von Bedeutung sein, die ‚Bedingungen des Erkennens‘ im Kontext des ‚vermeintlich Erkannten‘ mit zu reflektieren. Ein ‚Lebewesen‘, das ‚läuft‘ kann ich z.B. ‚träumen‘, mir ‚vorstellen‘, ‚erinnern‘, mir ‚ausdenken‘ oder ‚aktuell sehen‘. Und wenn ich es aktuell sehe, dann kann es ein Gemälde sein, eine Photographie, ein Film, ein Video, ein Computerspiel, oder ein ‚realer Gegenstand der Körperwelt’… und mein individuelles Erkennen eingebettet in einen sozialen Kontext eröffnet eine weitere große Anzahl an Varianten des wechselseitigen ‚Verstehens‘ oder ‚Nicht-Verstehens‘. Und selbst, wenn wir spontan ein ‚Verstehen‘ unterstellen, kann sich – nicht selten – später heraus stellen, dass der andere etwas anderes verstanden hat als man selber ‚meinte‘, was er ‚verstanden haben sollte‘. Viele weitere Aspekte der Art des Erkennens können benannt werden.

Diese Fragen zu klären ist ein Anliegen dieses Blogs.

KONTEXT EDELMAN

Bleibt man dem Anliegen des Blogs treu, dann kommt man an einer Gestalt wie Gerald Maurice Edelman (1929 – 2014) kaum vorbei. Gestartet als ein mit dem Nobelpreis gekrönter Erforscher des menschlichen Immunsystems wendet er sich später der Erforschung des menschlichen Gehirns und seines Geistes zu. Die vielen Bücher, die er zu diesem Thema seit 1987 geschrieben hat, sind von einer eindrücklichen Klarheit und zeugen von einem profunden Wissen. Eines dieser Bücher mit dem vieldeutigen Untertitel ‚Über die Materie des Geistes‘ oder auch ‚Über die Sache des Geistes‘ (‚On the Matter of the Mind‘) soll hier exemplarisch diskutiert werden.

GEIST (MIND)

Bei der Diskussion der Texte von Edelman werde ich seinen Begriff ‚Mind‘ mit ‚Geist‘ übersetzen, obgleich das Wortfeld von ‚Geist‘ im Deutschen möglicherweise nur partiell mit dem Wortfeld von ‚Mind‘ im Englischen übereinstimmt. Aufgrund der komplexen Bedeutungs- und Wortfeldbeziehungen aller Begriffe einer Sprache ist jedes Übersetzungsprojekt immer nur eine Annäherung. Soweit würde ich hier jedoch gar nicht gehen. Ich benutze den Begriff ‚Geist‘ hier einfach so, als ob es der Begriff ‚Mind‘ im Englischen wäre und folge dem Englischen Text. Wer sich vergewissern will, was ‚tatsächlich‘ da steht, sollte daher selbst den Englischen Text lesen, was sich im übrigen auf jeden Fall empfiehlt, da ich ja nicht den Text von Edelman hier direkt wiedergebe sondern nur bestimmte Gedanken aus seinem Text aufgreife und sie hier diskutiere.

Generell ist sich Edelman bewusst, dass der Begriff ‚Mind‘ in der Geschichte der Philosophie, überhaupt in der Kultur, und dann auch im Alltag, so vielfältig überladen ist, dass es im Einzelfall schwer bis unmöglich ist, zu einer klaren und eindeutigen Bestimmung der gemeinten Bedeutung zu kommen. Dennoch meint er, dass es im Alltag eine Art ‚gemeinsamen Bedeutungskern‘ gib, den er wie folgt umreißt (vgl. S.5):

  1. Dinge haben keinen Geist
  2. Normale Menschen haben Geist; einige Tiere verhalten sich so, als ob sie über Geist verfügen.
  3. Seiendes mit Geist kann sich auf anderes Seiendes oder auf Dinge beziehen; Dinge ohne Geist können sich nicht auf anderes Seiendes oder auf andere Dinge beziehen.

Dieses ’sich auf etwas anderes beziehen können‘ assoziiert Edelman mit dem Begriff der ‚Intentionalität‘, die der Deutsche Philosoph Franz Brentano eingeführt hat. ‚Bewusstsein‘ (‚awareness‘) wird hier so gesehen, dass es immer ein ‚bewusst sein von einem anderen als einem Objekt‘ ist. (vgl. S.5)

Ferner sieht Edelman dieses Bewusstsein als einen ‚Prozess‘, darin dem Psychologen William James folgend, für den ‚Geist ein Prozess ist, kein Zeug (’stuff‘)‘. Und da die moderne Wissenschaft ‚Materie‘ (‚matter‘) auch als einen ‚Prozess‘ sieht, der auf Energieaustausch basiert, ist diese Sicht des Geistes als Prozess nicht inkompatibel mit der generellen Sicht von Materie als Prozess.(vgl. S.6) Allerdings schränkt Edelman diese generelle Sicht insofern ein, als er ‚Geist‘ als einen ’spezielle Art von Prozess‘ ansieht, der nur mit einem ’speziellen Arrangement von Materie‘ korreliert! (vgl. S.7)

Dieses spezielle Arrangement von Materie sieht er gegeben in den Strukturen des Gehirns, das in einen Körper eingebettet ist, der sich – was seit Darwin Thema ist – im Rahmen einer evolutionären Entwicklung ‚herausgebildet‘ (‚arose‘) hat. (vgl. S.7) Vor diesem Hintergrund ist es keineswegs ausreichend, Wissenschaft auf Objekte ‚ohne Geist‘ (‚inanimate‘) zu beschränken.

Nein, Lebewesen (‚animals‘) mit Gehirnen, mit Intentionalität, müssen untersucht werden, allein auch schon deshalb, weil ‚wissenschaftliche Beobachter‘ selbst solche Lebewesen mit Gehirn, mit Intentionalität sind, die in ihr eigenes Bewusstsein ‚eingeschlossen sind‘ (‚locked into‘) und die deswegen darauf angewiesen sind, ihre eigenen Erfahrungen mit anderen Beobachtern so zu ‚kommunizieren‘, dass sie ‚objektiv‘ sind.(vgl. S.8)

Diese Forderung nach einer Rückbesinnung darauf, den ‚Geist‘ als Eigenschaft der ‚Natur‘ zu sehen, richtet sich nicht nur an die Philosophen, sondern auch an die empirischen Wissenschaftler!

DEN GEIST IN DIE NATUR ZURÜCKVERLAGERN

(PUTTING THE MIND BACK INTO NATURE)

Edelman listet eine Reihe illustrer Naturwissenschaftler auf, die alle entscheidende Beiträge zur modernen Physik geleistet haben (Galilei, Newton, Einstein, Planck, Heisenberg), die alle das Ideal der ‚invarianten Naturgesetze‘ befördert haben, (vgl. S.9-11) ‚invariant‘ in dem Sinne, dass die ‚Subjektivität des Beobachters‘ aus den Beobachtungen und Gesetzmäßigkeiten ausgeklammert werden muss.

Diese methodisch geforderte Ausgrenzung des Subjekts – und damit des Geistes – aus dem Gegenstandsbereich der Physik ähnelt äußerlich dem philosophischen Dualismus, für den der Philosoph (und Mathematiker) Descartes gerne zitiert wird. Mit seiner begrifflichen Unterscheidung von ‚res extensa‘ (frei übersetzt ‚Materie‘) und ‚res cogitans‘ (frei übersetzt ‚Geist‘) konservierte er das klassische dualistische Denken auf eine Weise, die eine Aporie aufbaute, aus der es lange kein Entkommen zu geben schien.(vgl. S.11)

Edelman klassifiziert auch die moderne, verhaltensbasierte Psychologie (‚behaviorism‘) als ‚dualistisch‘ (vgl. S.11f), obgleich deren Motivation die gleiche war wie jene der Physiker: es ging um eine methodische Ausklammerung jener subjektiven Momente des Erkennens, die eine objektive Kommunikation erschweren bis unmöglich machen.

Sehr ausführlich schildert er auch die Position der ‚Kognitionswissenchaft‘ (‚cognitive science‘, ‚cognitivism‘), die sich als Reaktion auf die radikal verhaltensorientierte Psychologie entwickelt hatte. Den Mangel an kognitiven Strukturen der frühen verhaltensbasierten Psychologie versuchte die multidisziplinär aufgestellte Kognitionswissenschaft durch umfangreichen Einsatz von mathematischen Modellen und Computersimulationen auszugleichen. (vgl. S.12-14) Allerdings kritisiert Edelman diese Position auch sehr entschieden, da sie sich – nach seiner Einschätzung – weitgehend von empirischen Grundlagen des menschlichen Geistes verabschiedet hatte. Die wahre Struktur und die wahre Entwicklung biologischer Systeme blieb dadurch auf der Strecke.

Edelman fordert demgegenüber, dass die Eigenschaften des Geistes nicht als biologiefreie Funktionen zu postulieren sind, sondern im Aufweis der biologischen Strukturen muss der Geist in die Natur ‚zurück verlagert‘ werden. (vgl. S.14f)

DISKUSSION

  1. Die generelle Idee von Edelman, den Dualismus von ‚Geist‘ und ‚Materie‘ dadurch aufzulösen, dass man der Frage nachgeht, wie der Geist überhaupt in die als ‚materiell klassifizierte Welt‘ hineinkommt, ist auch die Idee dieses Blogs.
  2. Edelman selbst liefert mehrere Hinweise, wo er ansetzen will: (i) Descartes hatte versäumt, die Grundlage seines ‚cogito ergo sum‘ zu hinterfragen, nämlich seinen Körper. Den spanischen Universal-Intellektuellen Miguel de Unamuno y Jugo (1864 – 1936 ) zitierend formulierte er das Motto von Descartes um: ’sum ergo cogito‘ (‚Ich bin, daher denke ich‘). In diesem Motto, das in diesem Blog inhaltlich schon ähnlich formuliert worden ist, ist die ‚res cogitans‘ eine Eigenschaft der ‚res extensa‘, was wiederum die Frage nach der genauen ‚Beschaffenheit‘ der res extensa aufwirft. (ii) Die moderne Physik hat den Beobachter aus ihrer Theoriebildung ausgeklammert, dabei aber fundamentale Eigenschaften der empirischen Wirklichkeit mit ausgeklammert. Die ‚geist-freie‘ Materie erscheint in dieser Hinsicht als ein ‚methodischer Artefakt‘ der Theoriemacher. (iii) Die moderne verhaltensbasierte Psychologie (oft als ‚Behaviorismus‘ bezeichnet) verhält sich synchron zur modernen Physik: sie klammert den Beobachter aus aus Angst, die ‚objektive Empirie‘ mit ’subjektiven Wahrnehmungsinhalten zu verunreinigen‘. (iv) Der wissenschaftliche Modetrend der Kognitionswissenschaft unterscheidet sich letztlich vom Behaviorismus methodisch gar nicht; die Kognitionswissenschaft hat nur freizügiger von Theorie-Erweiterungen Gebrauch gemacht, die mehr Mathematik und mehr Algorithmen einbezogen haben, ohne allerdings die empirische Basis entsprechend zu erweitern.
  3. Edelman sieht nun eine Verbesserung des Verstehens gegeben in dem Versuch, die Biologie stärker einzubeziehen: einmal mit Blick auf den Entwicklungsaspekt (Evolution), wie auch mit Blick auf die funktionalen Aspekte des Körpers und hier speziell des Gehirns (Physiologie).
  4. Obwohl Edelman die fundamentale Rolle des Beobachters und seiner Körperlichkeit sieht und unterstreicht, lässt er aber gerade den Beobachter als Ausgangspunkt und Basis jeder Theoriebildung offen. Obwohl Edelman auf das Problem der primären Subjektivität hinweist, das sich nur mühsam durch Kommunikationsprozesse mit anderen Subjektivitäten ‚vermitteln‘ lässt, lässt er es offen, was dies für die verschiedenen empirischen Disziplinen methodisch bedeutet.
  5. Wissenschaftsphilosophisch handelt es sich bei ‚introspektiven (=subjektiven)‘ Daten (Phänomenologie), ‚Verhaltensdaten‘ (Psychologie, Biologie) und ‚physiologischen‘ Daten (Physiologie, Biologie), das Ganze noch ausgedehnt in ‚Zeitreihen‘ (Evolution, Wachsen, Lernen, Biologie), um ganz unterschiedliche Daten, die eigene Theoriebildungen erfordern, die miteinander ‚korreliert‘ werden müssten. Bedenkt man weiter, dass die Verhaltensdaten und physiologischen Daten samt aller Zeitreihen primär auch subjektive Daten sind (das Gehirn sitzt ‚im Körper‘, berechnet von dort aus alles) und nur im abgeleiteten Sinne ‚objektiv‘ genannt werden können, werden hier viele Fragen aufgeworfen, von denen nicht bekannt ist, dass sie bislang irgendjemand ernsthaft verfolgt hat. Edelman liefert alle Zutaten, um die Fragen zu stellen, aber auch  er lässt diesen Komplex zunächst mal im Unbestimmten.

Fortsetzung folgt HIER.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

ONTOLOGIE DES BEWUSSTSEINS – Nachbemerkung zu Craik

PDF

Übersicht
Craik führt in seinem Buch eine breit angelegte Diskussion im Spannungsfeld von Philosophie, Psychologie, Physiologie, Physik und Technik, die einige Hauptthemen erkennen lässt: ein Plädoyer für ein kausales Verständnis der realen Welt, für die Rekonstruktion von Bewusstsein durch Rückgriff auf das Nervensystem, für die zentrale Rolle mentaler Modelle, sowie für die wichtige Rolle von Sprache in allem Erklären. Dies gibt Anlass, den ontologischen Status des Bewusstseins nochmals zu präzisieren.

I. KONTEXT

In einem vorausgehenden Blogeintrag hatte ich kurz einige der Hauptthemen aus dem Buch ’The Nature of Explanation’ (1943) von Craig vorgestellt und kurz kommentiert. In diesem Buch weist Craik zurecht darauf hin, dass eine Erklärung der geistigen/ mentalen/ kognitiven Phänomene des Menschen ohne Rückgriff auf das ermöglichende Gehirn unvollständig sind. Eine introspektive Beschreibung solcher Phänomene beschreibt die Oberfläche dieser Phänomene, wenn sie gut gemacht ist, auch noch deren Dynamik, aber sie kann sie nicht wirklich erklären, da derjenige Kontext, der kausal für diese Phänomene verantwortlich zu sein scheint (harte Beweise gibt es nicht, siehe weiter unten), das menschliche Gehirn, in solch einer phänomenalen Beschreibung nicht berücksichtigt wird (bisher nicht!).

Dieser überdeutliche Hinweis seitens Craig wird durch vielfache Überlegungen untermauert. Was aber fehlt ist ein klares Konzept, wie denn eine philosophisch-wissenschaftliche Beschreibung des Sachverhalts methodisch vorgenommen werden müsste, um allen Aspekten Rechnung zu tragen. Obwohl Craig alle wesentlich beteiligten
Disziplinen explizit nennt (Philosophie, Psychologie, Physiologie, Physik) und er sich in diesen Bereichen gut auskennt, lässt er das genaue Verhältnis dieser Disziplinen zueinander offen.

II. MULTIPLE SICHTEN

Multiple Sichten auf den Menschen und sein Umfeld

Multiple Sichten auf den Menschen und sein Umfeld

1) Vielleicht kann es in dieser Situation helfen, sich bewusst zu machen, welch Faktoren in dieser Erkenntnissituation beteiligt sind und wie diese (grob) aufeinander bezogen sind.
2) Im Schaubild 1 sind diese Faktoren angedeutet. Die Perspektive, aus der heraus dieses Bild entstanden ist, ist zunächst die der empirischen Wissenschaften, dann ergänzt um eine introspektive Perspektive.
3) Die Physik erzählt uns die Geschichte vom Universum, seiner Entstehung seit dem Big-Bang Ereignis, seiner Struktur, die u.a. unsere Heimatgalaxie, die Milchstraße, enthält. Innerhalb der Milchstraße gibt es u.a. unser Sonnensystem mit der Erde, unserem Heimatplaneten. Die Biologie erzählt uns die Geschichte von der Entstehung des biologischen Lebens auf der Erde, die Entwicklung all der unzähligen Arten (von denen die meisten wieder ausgestorben sind), bis hin zum homo sapiens, den wir repräsentieren.
4) Um den Menschen herum gibt es zahllose wissenschaftliche Disziplinen, die unterschiedliche Aspekte des homo sapiens untersuchen. Die Physiologie hat uns darüber belehrt, dass der menschliche Körper mit all seinen komplexen Organen letztlich aus einzelnen Zellen besteht, die auf unterschiedliche Weise im Körper als Zellverbände kooperieren und dabei kommunizieren.
5) Was man bei der Betrachtung der beeindruckenden Gesamtleistung aber niemals vergessen darf, ist, dass alle Zellen zu jedem Zeitpunkt aus Molekülen bestehen, diese wiederum aus Atomen, diese wiederum aus sub-atomaren Teilchen. Jede dieser identifizierbaren Einheiten folgt eigenen, spezifischen Gesetzen des Verhaltens.
Diese Verhaltensweisen sind so spezifisch, dass es sinnvoll ist, hier entsprechend den jeweiligen Einheiten von unterschiedlichen Organisationsebenen zu sprechen, mit steigender Komplexität.
6) Diese Unterscheidung nach Organisationsebenen (denen unterschiedliche Komplexitätsebenen entsprechen), ist hilfreich, wenn man die Interaktion zwischen allen Einheiten betrachtet. Das Herz z.B. ist in einer Hinsicht eine ’Pumpe’, die das Blut durch die Adern pumpt. Es ist über Zellen auch mit dem Gehirn verbunden, das den Zustand des Herzens ’kontrolliert’ und durch elektrische-chemische Impulse beeinflussen kann. Die einzelnen Zellen, die den Zellverband ’Herz’ bilden, sind ferner für sich genommen individuelle, autonome Systeme, die untereinander durch Stoffwechselprozesse (Energieversorgung, …) verbunden sind, die absterben und durch  neue ersetzt werden, und vieles mehr. Je nach Zustand der Umgebung einer Zelle, welche Moleküle, Atome
dort vorkommen, kann dies auch die Zelle stören, zerstören. Die Zelle kann auch selbst Störungen aufweisen.
7) Insofern alle Moleküle auch Atome sind mit subatomaren Einheiten, unterliegen diese Atome jederzeit den unterschiedlichen Wechselwirkungen, die zwischen Atomen und subatomaren Einheiten im gesamten Universum möglich sind. Wie die Physik uns heute erzählen kann, gibt es hier vielfältige Wechselwirkungen im quantenmechanischen Bereich, die über den Bereich eines einzelnen menschlichen Körpers weit hinausgehen,
die bis in die Dimension der Milchstraße reichen.
8) Dies alles gilt natürlich auch für den Zellverband, der unser Nervensystem mit dem Gehirn bildet. Das Gehirn ist Teil des Gesamtkörpers; es liegt im Körper. Das Gehirn, so erzählen die Gehirnforscher heute, hat trotz der Flexibilität, Plastizität seiner Zellen in sich eine Struktur, die unterschiedliche funktionelle Einheiten abgrenzen lässt, die sowohl in sich wie auch miteinander sowohl über elektro-chemische Weise kommunizieren
wie auch nur chemisch. Dabei werden die quantenmechanischen Wechselbeziehungen normalerweise nicht berücksichtigt.
9) Lässt man die quantenmechanischen Wechselbeziehungen außen vor, dann kann das Gehirn mit der Umgebung des Körpers nur über Zellen kommunizieren, die elektro-chemische oder chemische Signale austauschen. Dazu gibt es spezielle Sinneszellen, die externe Energieereignisse in interne neuronale Energieereignisse übersetzen, und diese dann auf unterschiedliche Weise von Zelle zu Zelle weiter reichen. Dieser Prozess ist niemals 1-zu-1 sondern bringt mehrfache Transformationen und Abstraktionen mit sich. In der Regel werden zudem nicht Signale von einzelnen Sinneszellen benutzt, sondern meistens viele Hunderte, Tausend, Hunderttausende oder gar Millionen gleichzeitig und parallel. Diese werden auf unterschiedliche Weise miteinander
verrechnet. Wie das Gehirn es schafft, ohne direkten Kontakt mit der externen Welt aus diesen vielen Abermillionen gleichzeitigen Einzelsignalen brauchbare Muster, Zusammenhänge und Abläufe zu extrahieren und damit ein komplexes Verhalten zu steuern, das enthüllt sich nur langsam.
10) Aus empirischer Sicht ist die Geschichte hier zu Ende. Im Schaubild 1 gibt es aber noch die Größe Bewusstsein. Wie kommt die ins Spiel?

III. BEWUSSTSEIN

1) Aus empirischer Sicht (Physiologie, Gehirnforschung, Biologie, Physik, Chemie, Molekularbiologie, Genetik, empirische Psychologie,…) kann man die Zellen, Zellverbände, ihre Eigenschaften beobachten, messen, und das Verhalten dieser Einheiten auf der Basis dieser Messwerte beschreiben, auch mit kausalen Beziehungen,
zunehmend auch mit partiellen Modellen. Dabei wurden und werden zahlreiche interessante Wechselbeziehungen aufgedeckt z.B. zwischen Zellen und deren Molekülen, gar Atomen. In dieser Perspektive gibt es aber keinerlei Phänomene, die irgendetwas mit dem sogenannten Bewusstsein zu tun haben. In einer empirischen Perspektive gibt es prinzipiell keinerlei Möglichkeiten, bewusstseinsrelevante Phänomene zu beobachten und
zu beschreiben.
2) Selbst die moderne empirische Psychologie ist methodisch beschränkt auf messbare Sachverhalte, die sie letztlich nur im Bereich des beobachtbaren Verhaltens finden kann, neuerdings erweiterbar mit physiologischen Daten, sodass man in einer neuro-psychologischen Vorgehensweise beobachtbare Verhaltensdaten mit Körperdaten und speziell Gehirndaten in Beziehung setzen kann. Dies hat zu einer erheblichen Ausweitung
der möglichen Erklärungsleistung geführt. Aber auch in der Perspektive einer Neuro-Psychologie gibt es streng genommen keinerlei Phänomene, die man als bewusstseins-relevant bezeichnen könnte.
3) Wissenschaftstheoretisch (andere sprechen von Wissenschaftsphilosophisch) beschränkt sich der Begriff Bewusstsein auf eine spezielle Form von Innensicht des Gehirns, wie wir sie bislang explizit nur von Exemplaren des homo sapiens kennen, da dieser mittels des Werkzeugs symbolische Sprache Aussagen, Beschreibungen
liefern kann, die indirekt Zeugnis geben von Sachverhalten, die sich auf diese Innensicht des Gehirns beziehen. Die Innensicht des Gehirns ist einer empirischen Beobachtung nicht direkt zugänglich (auch wenn man in zahllosen neuro-psychologischen Abhandlungen immer wieder das Wort ’Bewusstsein’ findet, auch z.B, in der
Wortschöpfung ’neuronales Korrelat des Bewusstseins’; wissenschaftsphilosophisch ist dies Unsinn; es kann aber möglicherweise einen gewissen ’heuristischen’ Wert innerhalb wissenschaftlicher Untersuchungen haben.)
4) Dass wir überhaupt von Bewusstsein sprechen liegt daran, dass alle Exemplare des homo sapiens (und vermutlich nahezu alle biologischen Systeme) über diese bemerkenswerte Fähigkeit einer Innensicht des Gehirns verfügen, die die Betroffenen mit einem kontinuierlichen Strom von Ereignissen versorgt. Um diese Ereignisse aus der Innensicht des Gehirns von den Ereignissen der empirischen Wissenschaften abzugrenzen, sprechen die Philosophen spätestens seit dem Philosophen Edmund Husserl (1859 – 1938) von phänomenalen Ereignissen statt einfach von Ereignissen. Dies hat damit zu tun, dass Edmund Husserl und alle weiteren Anhänger einer bewusstseinsbasierten Philosophie die Ereignisse in der Innensicht des Gehirns generell als Phänomene (Ph) bezeichnet haben.
5) Da jeder Mensch qua Mensch im normalen Erkenntniszustand sich primär im Modus der Innensicht des Gehirns befindet (was anderes hat er auch gar nicht zur Verfügung) hat er zwar direkten Zugang zu den Phänomenen seines Erlebnisstroms, aber er hat nahezu keine Möglichkeit, den Begriff ’Bewusstsein’ intersubjektiv, objektiv zu definieren. Der einzelne Mensch hat zwar Zugang zu seinen Phänomenen, aber eben nur zu seinen;
das gilt für jeden Menschen in gleicher Weise. Sofern verschiedene Menschen eine gemeinsame Sprache sprechen und in dieser Sprache z.B. den Begriff ’Bewusstsein’ einführen, können sie die Wortmarke ’Bewusstsein’ zwar untereinander vorstellen, sie können aber niemals ein intersubjektives Objekt aufzeigen, auf das sich die Wortmarke ’Bewusstsein’ beziehen könnte. Nach zehntausenden Jahren von menschlicher Existenz
(wissenschaftlich gibt es den homo sapiens ca. 200.000 Jahre) gibt es so etwas wie ein explizites Sprechen mit dem Begriff ’Bewusstsein’ vielleicht 400 – 500 Jahre, höchstens. Ausführlich und systematisch vielleicht erst seit ca. 150 Jahren. Und bis heute erwecken die vielen Sprachspiele, in denen die Wortmarke ’Bewusstsein’ vorkommt, nicht den Eindruck, als ob allen Beteiligten so richtig klar ist, was sie da tun.

IV. SUBJEKTIV – EMPIRISCH

1) Die Tatsache, dass Menschen sich zunächst und primär im Modus der Innensicht des Gehirns vorfinden, ist einerseits – biologisch – normal, da sich explizite und leistungsfähige Nervensysteme und Gehirne erst relativ spät entwickelt haben, aber dann für die biologischen Systeme, die darüber verfügen konnten, zu einer der wertvollsten Eigenschaften des Überlebens und dann auch überhaupt Lebens auf der Erde wurden.
Jedes biologische System bekommt durch die Innensicht seines Gehirns eine Reihe von wertvollen (allerdings meist hochkomplexe) Informationen, mittels deren es seine aktuelle Situation, seine Geschichte, und seine mögliche Zukunft immer besser ausrechnen kann. Beim homo sapiens kommt dazu eine spezielle Kommunikationsfähigkeit hinzu. Gerade die besonderen Eigenschaften des Nervensystems beim Menschen haben dem
homo sapiens eine gigantische Überlegenheit über nahezu alle anderen biologischen Systeme gegeben. Für den homo sapiens ist dies eine Erfolgsgeschichte, nicht für die anderen Arten, die der homo sapiens entweder ausgerottet oder stark dezimiert hat oder für seine Zwecke brutal knechtet.
2) Durch die immense Zunahme der Population des homo sapiens aufgrund seiner immer verfeinerten Technik und Kultur gab es, beginnend vor ca. 2500 bis 3000 Jahren und dann andauernd bis ca. vor 500 Jahren (letztlich andauernd bis heute) immer größere Konflikte mit dem Reden über die Welt. Der Reichtum der Phänomene in der Innensicht des Gehirns ermöglicht in Kombination mit der symbolischen Sprache immer komplexere
Beschreibungen von phänomenal möglichen Sachverhalten, denen aber nicht notwendigerweise etwas in der (empirischen, objektiven, intersubjektiven) Außenwelt entsprechen musste. Das menschliche Gehirn kann in der Innensicht mühelos abstrakt-virtuelle Strukturen erzeugen, denen direkt nichts in der Außenwelt entsprechen
muss. Dies kann zu Verwirrungen führen, zu Fehlern, Katastrophen (man denke z.B. an die vorwissenschaftliche Medizin oder Physik oder …).
3) An diesem – in gewisser Weise ’natürlichem’ – Kulminationspunkt von denkerisch-sprachlicher Blütezeit und Diskrepanz zwischen gedachten Bedeutungen und empirisch, realer Bedeutung entdeckten immer mehr Menschen, dass eine Unterscheidung der menschlichen Rede in jene Redewendungen, die sich auf reale Aspekte
der Welt beziehen, und jene, die ’anders’ sind, von hohem praktischen Nutzen wäre. Die Idee einer empirischen (wissenschaftlichen) Sprache wurde geboren: empirisch wissenschaftlich sollten fortan nur noch jene Redewendungen gelten, die sich auf Gegebenheiten der realen Außenwelt beziehen lassen. Und damit dies
intersubjektiv, objektiv zweifelsfrei sei, wurde zusätzlich postuliert, dass sich diese Gegebenheiten nach einem vereinbarten Vergleichsverfahren mit einem vereinbarten Standard wissenschaftlich messen lassen. Nur solche Aussagen sollten künftig als wissenschaftlich relevante Fakten/ Daten akzeptiert werden.
4) Damit gab es nun zwar wissenschaftliche Fakten, aber es war nicht verbindlich geklärt, in welcher Form man diese Fakten dann zu komplexeren Aussagen über Beziehungen, Beziehungsnetzwerken (Modelle, Theorien) nutzen könnte. Faktisch benutzen die meisten mathematische Formeln zur abstrakten Beschreibung von empirischen Sachverhalten, die dann durch die empirischen Fakten fundiert wurden. Was genau aber
eine wissenschaftliche empirische Theorie ist, dies wurde bis in die Gegenwart nicht restlos geklärt (trotz Wissenschaftstheorie oder Philosophy of Science. Noch heute kann man in jeder sogenannten wissenschaftlichen Zeitschrift Artikel finden, in denen die Autoren sichtlich keine Vorstellung haben, was letztlich eine wissenschaftlich
empirische Theorie ist!)
5) Ein negativer (wenngleich unnötiger) Nebeneffekt der Entstehung wissenschaftlich empirischer Redeformen war die (zunächst sinnvolle) Abgrenzung gegenüber den nicht-wissenschaftlichen Redeformen, die dann aber im weiteren Verlauf zu einer Aufspaltung des Denkens in wissenschaftlich und nicht wissenschaftlich führte mit dem besonderen Akzent, dass das nicht-wissenschaftliche Reden (von den empirischen Wissenschaftlern)
grundsätzlich negativ belegt wurde. Aufgrund der historischen Lebensformen, Machtausübungen, Unterdrückungen kann man diese stark abgrenzende Haltung der Wissenschaft gegenüber den nicht wissenschaftlichen Redeformen aus der Vergangenheit verstehen. Heute dagegen wirkt diese Abgrenzung mehr und mehr kontra-produktiv.
6) Man sollte sich immer wieder bewusst machen, dass die Erfindung der empirischen Redeformen durch Verknüpfung des Redens mit definierten Vergleichsverfahren im intersubjektiven Bereich die grundsätzliche Ausgangssituation des Erkennens nicht verändert hat. Auch ein empirischer Wissenschaftler lebt primär mit dem Ereignisstrom in der Innensicht des Gehirns. Da kommt er trotz Einführung der Verknüpfung mit Messverfahren auch nicht heraus. Man kann sich dies so veranschaulichen: Ausgangspunkt für jeden Menschen ist die Menge seiner phänomenalen Ereignisse (Ph) in der Innensicht. Diese differenziert sich in aktuelle sinnliche (externe wie interne) Wahrnehmung vermischt mit den aktuell verfügbaren Gedächtnisinhalten, die diese Wahrnehmungen automatisch interpretieren. Diejenigen Phänomene, die mit intersubjektiven Messverfahren korrespondieren, bleiben trotzdem Ereignisse in der Innensicht des Gehirns; nennen wir sie Ph_emp . Als Phänomene bilden sie
dann eine Teilmenge von allen Phänomenen (Ph), also Ph_emp ⊆ Ph. Der empirische Wissenschaftler steigt also nicht grundsätzlich aus dem Club der Phänomenologen aus, sondern er folgt einer methodisch motivierten Beschränkung, wann und wie er wissenschaftlich über die empirische Welt spricht.
7) Auch in dieser Betrachtungsweise wird nochmals klar, dass eine wissenschaftliche Definition eines Begriffs ’Bewusstsein’ niemals möglich sein wird, da es grundsätzlich keine intersubjektiven Messverfahren geben kann.
8) Allerdings sollte durch diese Überlegungen auch klar werden, dass eine grundsätzliche Ausklammerung einer Beschäftigung mit der Innensicht des Gehirns und des möglichen Wechselspiels zwischen phänomenalen und empirisch-phänomenalen Ereignissen von allerhöchstem Interesse sein sollte. Denn das Gesamtphänomen Innensicht
des Gehirns ist eines der erstaunlichsten Phänomene im gesamten bekannten Universum und es wäre eine Bankrotterklärung jeglichen menschlichen Erkenntnisstrebens, würde man sich dem Phänomen verschließen, nur weil die bisher vereinbarten wissenschaftlichen Redeformen dieses Phänomen ausschließen. Wissenschaft muss nicht notwendigerweise bei den empirischen Sachverhalten enden.

 KONTEXTE

Frühe Überlegungen zu diesem Thema gab es schon 2009 HIER.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

DAS NEUE ALS PROBLEM DER WAHRHEIT – Zwischenbemerkung

PDF

Überblick

Im Spannungsfeld zwischen intelligenten Maschinen und dem Menschen entwickelt sich das Bild vom Menschen in jede Richtung als atemberaubend. Hier eine kurze Werkstattnotiz beim Versuch, dies alles weiter zu denken. Hier der Punkt ’Wahrheit und Neues’.

           II. KONTEXT

Seit einiger Zeit fokussieren sich die Themen bei cagent ja auf die beiden Pole intelligente Maschinen einerseits und Menschenbild andererseits. Beides beeinflusst sich im täglichen Leben gegenseitig.

Während die Position der ’intelligenten Maschinen’ trotz aller methodischen Probleme der aktuellen Künstlichen Intelligenz Forschung – letztlich leicht abgrenzbar und überschaubar ist [(1) Anmerkung: Im Grundsätzlichen, nicht was die schier unübersehbare Fülle der Publikationen betrifft, einschließlich der Software.], erweist sich dasThema Menschenbild als umso differenzierter und komplexer, je mehr man hinschaut.

Das eine Segment des Menschenbildes repräsentieren die neuen empirischen Erkenntnisse innerhalb der Disziplinen Psychologie, Biologie (inklusive Gehirnforschung), Molekularbiologie, und Astrobiologie. Ein anderes Segment repräsentieren die Wissenschaften zum Verhalten des Menschen in historisch-kultureller Sicht. Zur Kultur rechne ich hier auch Formen des Wirtschaftens (Ökonomie), Formen der Technologie, Formen politischer Strukturen, Formen des Rechts, usw.

Sowohl die empirischen Disziplinen haben unser Wissen um den Menschen als Teil des biologischen Lebens explodieren lassen, aber auch die historisch-kulturellen Erkenntnisse. Das Eigenschaftswort atemberaubend’ ist eigentlich noch eine Untertreibung für das Gesamtbild, das sich hier andeutet.

Was bislang aber nicht – noch nicht – stattfindet, das ist eine Verknüpfung der empirischen Erkenntnisse mit den historisch-kulturellen Einsichten. Für diese Trennung gibt es sicher viele Gründe, aber letztlich kann es keine wirkliche Rechtfertigung für diese anhaltende Spaltung des Denkens geben. Das historisch-kulturelle Phänomen mit dem homo sapiens als Kernakteur ist letztlich nur möglich und verstehbar unter Voraussetzung  der empirisch erkannten Strukturen und – das wird mit dem Wort von der ’Koevolution’ bislang nur sehr schwach thematisiert – die im Historisch-Kulturellen auftretenden Phänomene sind nicht nur irgendwie Teile der biologischen Evolution’, sondern sie sind wesentliches Moment an dieser. Von daher erscheint jeder Versuch, von biologischer Evolution zu sprechen, ohne das Historisch-Kulturelle einzubeziehen, im Ansatz als  ein methodischer Fehler.

In einem längeren Artikel für ein deutschlandweites Presseorgan hatte cagent versuchsweise das Verhältnis zwischen dem Konzept der ’Künstlichen Intelligenz’ und dem ’Glauben an Gott’ ausgelotet [(2) Anmerkung: Demnächst auch hier im Blog in einer erweiterten Fassung.]  Der Begriff Glaube an Gott’ ist natürlich vom Ansatz her vieldeutig, vielschichtig, abhängig vom jeweiligen Betrachter, seinem Ort, seiner Zeit. In dem Beitrag hat cagent das Thema ’Glauben an Gott’ am Beispiel der jüdisch-christlichen Überlieferungsbasis, der Bibel, diskutiert [(3) Anmerkung: Beispiele für Übersetzungen sind einmal die deutsche ökumenische Einheitsübersetzung [BB81], die griechische Version des Alten Testamentes bekannt als Septuaginta (LXX) [Rah35], sowie eine Ausgabe in hebräischer Sprache [KKAE66]. Es gibt auch noch die berühmte lateinische Ausgabe bekannt als ’Vulgata’ [Tvv05] (Als online-Ausgabe hier http://www.wilbourhall.org/pdfs/vulgate.pdf).]

Da die Bibel selbst eine Art ’Überlieferungsmonster’ darstellt, das sich aus einer viele Jahrhunderte andauernden mündlichen Überlieferungsphase speist, die dann ca. zwischen -700 und +200 verschriftlicht wurde, um dann weitere Jahrhunderte zu brauchen, um zu fixierten Textsammlungen zu führen [(4) Anmerkung: Siehe dazu z.B. [ZO98].]  konnte die Diskussion natürlich nur exemplarisch geführt werden. Dazu bot sich das erste Buch des alten Testaments an, das als Buch ’Genesis’ bekannt ist. In den ersten 11 Kapiteln trifft der Leser auf eine Textfolge, die offensichtlich vorschriftliche Traditionsquellen verarbeitet haben. Das Besondere an den Stoffen ist ihre globale Sicht: es geht um die Welt als ganze, um die Menschheit, um ein sehr ursprüngliches Verhältnis der Menschen zu einem X genannt ’Gott’, und diese Stoffe finden sich in ganz vielen Kulturen des mittleren Ostens, Afrikas, und Indiens. Mit großer Wahrscheinlichkeit wird weitere Forschung noch mehr Parallelen in noch vielen anderen Kulturen finden (oder hat sie bereits gefunden; cagent ist kein Spezialist für vergleichende Kulturgeschichte).

Was sich unter dem Strich in all diesen wunderbaren Zeugnissen menschlichen Handelns, Verstehens und Schreibens zeigt, das ist das Ringen des Menschen, seine jeweils aktuelle Sichten der Welt mit all der aufbrechenden Vielfalt des Lebens irgendwie zu versöhnen’. Dies führt zu der angekündigten Zwischenbemerkung.

II. WAHRHEIT UND NEUES

Im Zeitalter der Fake-News kann man den Eindruck gewinnen, dass ein Begriff wie Wahrheit sehr ausgehöhlt wirkt und von daher weder die Rolle von Wahrheit noch die mit der Wahrheit einhergehende Dramatik  überhaupt wahrgenommen,  geschweige denn erkannt wird.

Es gibt viele Gründe in der Gegenwart, warum selbst angestammte Bereiche der Wahrheit wie die empirischen Wissenschaften Erosionserscheinungen aufweisen; von anderen Bereichen ganz zu schweigen. Dennoch können all diese Verformungen und Entartungen nicht gänzlich darüber hinwegtäuschen, dass – selbst wenn traditionelle Wahrheits-Begriffe möglicherweise korrigiert, adjustiert werden müssen (im öffentlichen Bewusstsein) die grundlegenden Sachverhalte der Übereinstimmung unseres virtuellen Denkens mit einer jenseits dieses Denkens unterstellten objektiven Wirklichkeit weiterhin von grundlegender Bedeutung und lebenswichtig sind.

Jenseits aller allgemein philosophischen und speziell wissenschaftsphilosophischen Überlegungen zu Wahrheit’ weiß jeder einzelne, dass er in seinem Alltag nicht weit kommt, wenn das, was er persönlich von der Welt zu wissen glaubt, nicht zutrifft. Nach dem Aufwachen folgen viele, viele Stunden von Verhaltensweisen, die sich beständig dadurch speisen, dass man Wissen über eine Welt hat, die sich in den konkreten Handlungen dann auch bestätigen. Das ist unser primärer, alltäglicher Wahrheitsbegriff: Es verhält sich im Handeln so, wie wir in unserem Denken annehmen.

Zu dieser Alltagserfahrung gehört auch, dass wir uns manchmal irren: wir haben im Kopf einen Termin, der aber z.B. Tage, Zeiten, Orte verwechselt. Wir wollen einen Gegenstand mitnehmen, und er ist nicht dort, wo wir ihn erinnern. Wir fahren einen Weg, und stellen plötzlich fest, wir sind an einem Ort, der nicht wirklich zu unserer Zielvorstellung passt; usw.

Alle diese Irrtumserfahrungen lassen uns aber nicht grundsätzlich an unserer Fähigkeit zweifeln, dass wir ein handlungstaugliches Bild von der Welt haben können. Dieses Bild, sofern es funktioniert, nennen wir wahr.

Von anderen Menschen erfahren wir gelegentlich, dass sie die Orientierung im Alltag verloren haben. Ärzte sagen uns, dass diese Menschen ’krank’ seien, dass ihre Psyche oder/ und ihr Gehirn beschädigt sei. Das haken wir dann ab als mögliche Störungen, die vorkommen können; das tangiert dann aber nicht unbedingt unsere eigene Überzeugung, dass wir Wahrheitsfähig sind.

Hier gibt es nun einen (natürlich gäbe es sehr viele) interessanten Punkt: wenn wir die Wahrheit über die Handlungstauglichkeit definieren, die eine Art von Übereinstimmung zwischen Wissen/ Denken und der erfahrbaren Welt (einschließlich des eigenen Körpers) beinhaltet, wie gehen wir dann mit Neuem um?

Neues’ definiert sich ja gerade dadurch, dass es mit dem bisher Bekannten nichts oder nur wenig zu tun hat. Wirklich ’Neues’ lässt ein Stück Wirklichkeit aufbrechen, das wir so bislang nicht kennen.

Historisch und psychologisch können wir bei uns Menschen eine gewisse Tendenz erkennen, uns eher im Bekannten einzurichten, da dies überschaubar und berechenbar ist. Je mehr Vorteile ein Mensch aus einer bestimmten gegebenen Situation zieht, je mehr Sicherheit er mit ihr verbindet, umso weniger ist der Mensch geneigt, die Situation zu verändern oder sie zu verlassen. Je schlechter es Menschen geht, umso eher sind sie bereit, das Bekannte zu verlassen, denn es kann möglicherweise nur noch besser werden. Aber auch die Wissenschaft kennt solche Beharrungstendenzen. In allen Bereichen findet man eine große Zähigkeit, erworbene Anschauungen über Jahrhunderte zu tradieren, auch wenn schon längst klar ist, dass diese Anschauungen ’vorne und hinten’ nicht so wirklich passen. Im Grunde genommen ist die gesamte Geschichte eine Geschichte des Kampfes zwischen den beharrenden Anschauungen und den Abweichlern’ (politisch, moralisch, religiös, künstlerisch, )

Wenn man sich dann klar macht, dass das biologische Leben (soweit wir es heute verstehen können) im innersten Kern einen Generator für Neues fest eingebaut hat, wenn wir wissen, wie jedes einzelne Lebewesen über Zeugung, Geburt, älter werden, Sterben kontinuierlichen Wandlungsprozessen unterworfen ist; wenn wir wissen, dass die Erde, auf der wir leben, beständig massiven Veränderungen unterliegt, dazu das Sonnensystem, unsere Heimatgalaxie, die Milchstraße, das ganze bekannte Universum, … dann müsste eigentlich klar sein, dass das Neue eigentlich der wichtigste Rohstoff des Wissens und des Handelns und aller kulturellen Systeme sein müsste. Genau das Gegenteil scheint aber bislang der Fall zu sein. Firmen kennen zwar das Problem der Innovation, um am Markt überleben zu können; im militärischen Bereich gibt es einen Innovationsdruck aufgrund unterstellter (oder auch realer) Konkurrenz um die Macht; die Unterhaltungsindustrie kommt nicht ohne Innovationen aus; und dennoch, die offizielle Kultur, die offiziellen Erziehungsprozesse sind nicht auf eine Kultur des Neuen ausgerichtet. Offizielle Literatur verdaut Vergangenheit, Gegenwart und Unmengen an subjektiven Gefühlen, nur in den kulturell eher immer noch geächteten Science- Fiction Werken blitzt Neues auf, Verarbeitung möglicher Zukunft, Auseinandersetzung zwischen Heute und Morgen, Auseinandersetzung zwischen Natur, Technik und Geist.

In einem vorausgehenden Eintrag   hatte cagent über Offenbarung geschrieben, nicht als Kategorie der Religionen, sondern vorab zu allen Religionen als Grundkategorie des menschlichen In-Der-Welt-Seins. Das hier angesprochene Neue ist ein Aspekt dieser grundlegenden Kategorie der Offenbarung als Weise, wie wir Menschen uns in dieser Welt vorfinden. Wir sind in jedem Moment vollständig in jeder Hinsicht einer Wirklichkeit ausgesetzt, die uns in jeder Hinsicht übersteigt in ihren Möglichkeiten. Unser Körper ist Teil dieser vorfindlichen Wirklichkeit und wer kann behaupten, dass wir die 5-10 Billionen (10^12) Zellen eines einzelnen homo-sapiens-Körpers wirklich verstehen? Unser Gehirn ist Teil davon und wer kann schon behaupten, er verstehe sein eigenes Gehirn, geschweige denn sein eigenes Denken? Und dies ist ja nur ein winziger Bruchteil jener Wirklichkeit, in der wir uns vorfinden.

Wer das Neue scheut, ist im realen Leben noch nicht angekommen. Was aus all dem folgt, ist natürlich entsprechend offen. Das mag niemand, es sei denn …

QUELLEN

  • [BB81] Katholisches Bibelwerk and Deutsche Bibelgesellschaft. Die Heilige Schrift. Einheitsübersetzung. Verlag Katholisches Bibelwerk & Deutsche Bibelgesellschaft, Stuttgart, 1981.
  • [KKAE66] Rudolg Kittel, P. Kahle, A. Alt, and O. Eissfeldt. Biblia Hebraica. Würthembergische Bibelanstalt, Stuttgart, 7.Aufl., 1966.
  • [Rah35] Alfred Rahlfs. Septuaginta. Würthembergische Bibelanstalt, Stuttgart, 9.Aufl., 1935.
  • [Tvv05] Michaele Tvveedale, editor. BIBLIA SACRA JUXTA VULGATAM CLEMENTINAM. Bishops’ Conference of England and Wales, London (UK), Elektronische Ausgabe, 2005.
  • [ZO98] Erich Zenger et.al.. Einleitung in das Alte Testament. W.Kohlhammer, Stuttgart, 3.Aufl., 1998.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

KÜNSTLICHE INTELLIGENZ – Newell und Simon 1976

PDF

IDEE

Im Jahr 2017 nimmt die Erwähnung von sogenannter Künstlicher Intelligenz außerhalb der Wissenschaften, im öffentlichen Bereich, fast inflatorisch zu. Zugleich muss man feststellen, dass Erklärungen des Begriffs ‚Künstliche Intelligenz‘ wie auch anderer Begriffe in seinem Umfeld Mangelware sind. Es wird daher ab jetzt mehr Blogeinträge geben, die auf diese Thematik gezielter eingehen werden. Hier ein erster Beitrag mit Erinnerung an einen wichtigen Artikel von Newell and Simon 1976.

I. INFORMATIK ALS EMPIRISCHE WISSENSCHAFT

Informatik als empirische Disziplin (nach Newell und Simon, 1976)

Informatik als empirische Disziplin (nach Newell und Simon, 1976)

Im Jahr 1975 empfingen Allen Newell und Herbert A.Simon den angesehenen ACM Turing Preis von der ACM aufgrund ihrer vielen wichtigen Beiträge zur Künstlichen Intelligenzforschung in den vorausgehenden Jahren. Die Preisrede beider Autoren wurde in den Communications of the ACM 1976 abgedruckt (siehe: NewellSimon:1976).

In dieser Rede wagen die Autoren eine generelle Sicht auf die Informatik (‚computer science‘), die Akzente erkennen lässt, die von heutigen Auffassungen von Informatik — zumindest wie sie in Deutschland üblich sind — doch deutlich abweicht.

Für die beiden Autoren ist die Informatik eine empirische Wissenschaft, deren Interesse darin besteht, das Verhalten von Menschen, dort, wo es Intelligenz erkennen lässt, in ein theoretisches Modell zu übersetzen, das sich dann als eine konkrete Maschine (ein Computer, ein Roboter) physikalisch realisieren lässt. Man kann dann diese konkrete Maschine dazu benutzen, Tests durchzuführen, durch die man überprüfen kann, ob sich die gebaute Maschine hinreichend ähnlich wie ein Mensch verhält oder aber davon deutlich abweicht. Liegen Abweichungen vor, dann muss man den Sachverhalt weiter ergründen und versuchen, ob man das theoretische Modell verbessern kann.

Für sie erscheint der Mensch als eine Art Standardmodell für Intelligenz, allerdings nicht so, dass man den Begriff ‚Intelligenz‘ mit einer einzigen Verhaltensweise oder mit einem einzigen Prinzip identifizieren könnte. Das vielfältige menschliche Verhalten verweist nach den Autoren vielmehr auf eine Vielzahl von Komponenten, deren Zusammenwirken zu einem als ‚intelligent‘ wirkenden Verhalten führt. Für das Erkennen einer möglichen ‚Intelligenz‘ ist es ferner wichtig, dass man den ganzen Kontext berücksichtigt, in dem spezifische Aufgaben vorliegen, die gelöst werden sollten.

Durch ihre Forschungsarbeiten zu symbolischen Systemen und zur heuristischen Suche haben Newell und Simon herausgefunden, dass die Klärung eines Problemraumes nur dann besser als zufällig sein kann, wenn der Problemraum minimale Regelhaftigkeiten, eine minimale Ordnung aufweist, die — sofern sie erkannt wurde — dann in Form spezieller Informationen angesammelt werden kann und dann, nach Bedarf, bei der Klärung des Problemraumes genutzt werden kann. Und es ist genau diese spezifische angesammelte Information die die Autoren mit Intelligenz gleichsetzen! Ein Mensch kann nur dann gezielter, schneller eine Aufgabe lösen, wenn er über spezielle Informationen (Wissen) verfügt, die ihn in die Lage versetzen, genau jene Verhaltensweisen zu zeigen, die schnell und effizient zum Ziel führen.

Überträgt man dies auf die theoretischen Modelle der Informatik, dann muss man Wege finden, spezifisches Bereichswissen (engl.: ‚domain knowledge‘) für ein intelligentes Verhalten in geeignete Datenstrukturen und Prozesse zu übersetzen. Auf die vielen Beispiele und Details zu diesen Überlegungen wird hier verzichtet [diese kann jeder in dem Artikel nachlesen ….].

II. DISKURS

Hier einige Überlegungen im Anschluss an den Artikel von Newell und Simon.

A. Intelligenz

Zunächst ist interessant, dass die Verwendung des Begriffs ‚Intelligenz‘ gebunden wird an das Verhalten von Menschen, wodurch der Mensch als undiskutierter Maßstab für mögliche Intelligenz gesetzt wird.

Daraus folgt nicht notwendigerweise, dass es jenseits des Menschen keine andere Formen von Intelligenz gibt, sondern nur, dass man den Typ von Intelligenz, der beim Menschen vorliegt und sichtbar wird, vorläufig als Standard benutzen möchte. Also eine Intelligenz mit Index: Intelligenz_human.

Das macht auch verständlich, dass man als wichtige empirische Wissenschaft in Begleitung der Informatik die kognitive Psychologie sieht, die sich u.a. auch mit der sogenannten ‚Informationsverarbeitung im Menschen‘ beschäftigt.

Es wundert dann allerdings, dass die Autoren den im Rahmen der Psychologie eingeführten Begriff des Intelligenz-Quotienten (IQ) samt den dazugehörigen erprobten Messverfahren nicht benutzen, nicht einmal erwähnen. Dies würde die Möglichkeit eröffnen, die Verhaltensleistung von technischen Systemen entsprechend zu messen und direkt mit Menschen zu vergleichen. Der oft zitierte Turing-Test (nicht von den beiden Autoren) ist verglichen mit den Testbatterien des IQ-Quotienten mehr als dürftig und nahezu unbrauchbar.

Durch den Verzicht auf die sehr detailliert ausgearbeiteten Testbatterien der Psychologie bleibt die Charakterisierung des Begriffs ‚Intelligenz‘ in der Informatik weitgehend vage, fast beliebig.

An dieser Stelle könnte man einwenden, dass in der Informatik andere Aufgabenstellungen untersucht werden als in der Psychologie üblich bzw. andere Aufgabenstellung, die Menschen in dieser Weise nicht angehen, dadurch wir die Verwendung des Begriffs ‚Intelligenz‘ aber noch undurchsichtiger, geradezu ominös.

Obgleich Newell und Simon betonen, dass sie die Informatik als eine empirische Theorie sehen, bleibt der ganze Komplex des tatsächlichen objektiven Messens etwas vage. Zum objektiven Messen gehören zuvor vereinbarte Standards, die beim Messen als Referenzen benutzt werden, um ein Zielobjekt zu ‚vermessen‘. Wenn das zu messende Zielobjekt ein Verhalten sein soll (nämlich das Verhalten von Maschinen), dann muss zuvor sehr klar definiert sein, was denn das Referenz-Verhalten von Menschen ist, das in einem (welchen?) Sinn als ‚intelligent‘ angesehen wird und das dazu benutzt wird, um das Maschinenverhalten damit zu vergleichen. Es ist weder bei Newell und Simon klar zu sehen, wie sie ihr Referenzverhalten von Menschen zuvor klar definiert haben, noch sind die Messprozeduren klar.

Der grundsätzliche Ansatz von Newell und Simon mit der Informatik als empirischer Disziplin (zumindest für den Bereich ‚Intelligenz) erscheint auch heute noch interessant. Allerdings ist das begriffliche Chaos im Kontext der Verwendung des Begriffs ‚Intelligenz‘ heute zu einem notorischen Dauerzustand geworden, der es in der Regel unmöglich macht, den Begriff von ‚künstlicher Intelligenz‘ in einem wissenschaftlichen Sinne zu benutzen. Jeder benutzt ihn heute gerade mal, wie es ihm passt, ohne dass man sich noch die Mühe macht, diese Verwendung irgendwie transparent zu machen.

B. Lernen

Während Newell und Simon im Fall des Begriffs ‚Intelligenz‘ zumindest ansatzweise versuchen, zu erklären, was sie damit meinen, steht es um den Begriff ‚Lernen‘ ganz schlecht.

Explizit kommt der Begriff ‚Lernen‘ bei den Autoren nicht vor, nur indirekt. Dort wo heuristische Suchprozesse beschrieben werden, die mit Hilfe von symbolischen Systemen geleistet werden, stellen sie fest, dass man aufgrund ihrer empirischen Experimente wohl (in dem theoretischen Modell) annehmen muss, dass man Informationen speichern und verändern können muss, um zu jenem Wissen kommen zu können, das dann ein optimiertes = intelligentes Verhalten ermöglicht.

Aus psychologischen Lerntheorien wissen wir, dass ‚Intelligenz‘ und ‚Lernen‘ zwei unterschiedliche Eigenschaften eines Systems sind. Ein System kann wenig intelligent sein und doch lernfähig, und es kann sehr intelligent sein und doch nicht lernfähig.

Nimmt man die Charakterisierung von Newell und Simon für ‚Intelligenz‘ dann handelt es sich um ein ’spezielles Wissen‘ zum Aufgabenraum, der das System in die Lage versetzt, durch ein ‚gezieltes Verhalten‘ schneller ans Ziel zu kommen als durch rein zufälliges Verhalten. Eine solche Intelligenz kann einem System zur Verfügung stehen, auch ohne Lernen, z.B. (i) bei biologischen Systemen als eine genetisch vererbte Verhaltensstruktur; (ii) bei technischen Systemen durch eine volle Konfiguration durch Ingenieure. Bei biologischen Systeme tritt allerdings ‚Intelligenz‘ nie isoliert auf sondern immer in Nachbarschaft zu einer Lernfähigkeit, weil die dynamische Umwelt biologischer Systeme beständig neue Anpassungen verlangt, die nicht alle vorher gesehen werden können. Im Fall technischer Systeme mit begrenzter Lebensdauer und definiertem Einsatz war dies (und ist dies) weitgehend möglich.

Wenn man von ‚Künstlicher Intelligenz‘ spricht sollte man daher die beiden Strukturen ‚Intelligenz‘ und ‚Lernen‘ sehr klar auseinander halten. Die Fähigkeit, etwas zu lernen, erfordert völlig andere Eigenschaften als die Struktur eines Wissens, durch das ein System sich ‚intelligent‘ statt ‚zufällig‘ verhalten kann.

C. Theorie

Die Forderung von Newell und Simon, die Informatik als eine ‚empirische Wissenschaft‘ zu betrachten, die richtige theoretische Modelle (= Theorien) konstruiert und diese über realisierte Modelle dann empirisch überprüft, hat im Rahmen des allgemeinen Systems Engineerings auch heute noch einen möglichen Prozess-Rahmen, der alle diese Forderungen einlösen kann. Allerdings hat es sich in der Informatik eingebürgert, dass die Informatik einen Sonderweg kreiert hat, der unter der Überschrift Softwareengineering zwar Teilaspekte des generellen Systemsengineerings abbildet, aber eben nur Teilaspekte; außerdem ist durch die Beschränkung auf die Software ohne die Hardware ein wesentlicher Aspekt des Gesamtkonzepts Computer ausgeklammert. Ferner ist der harte Aspekt einer vollen empirischen Theorie durch die Phasenbildungen ‚logisches Design‘ nur unvollständig abgebildet. Designmodelle sind kein Ersatz für eine richtige Theorie. Für das sogenannte ‚modellgetriebene Entwickeln‘ gilt das Gleiche.

D. Mensch als Maßstab

War es noch für Newell und Simon offensichtlich klar, dass man für den Begriff ‚Intelligenz‘ den Menschen als Referenzmodell benutzt, so ist dies in der heutigen Informatik weitgehend abhanden gekommen. Dies hat einmal damit zu tun, dass der Wissenschaftsbegriff der Informatik samt der meisten Methoden bislang nicht in den allgemeinen, üblichen Wissenschaftsbegriff integriert ist, zum anderen dadurch, dass die Aufgaben, die die intelligenten Maschinen lösen sollen, aus allen möglichen ad-hoc Situationen ausgewählt werden, diese keinen systematischen Zusammenhang bilden, und man in den meisten Fällen gar nicht weiß, wie man den Bezug zum Menschen herstellen könnte. Dadurch entsteht der vage Eindruck, dass die ‚Intelligenz‘ der künstlichen Intelligenzforschung irgendwie etwas anderes ist als die menschliche Intelligenz, von der menschlichen Intelligenz möglicherweise sogar ganz unabhängig ist. Man macht sich allerdings nicht die Mühe, systematisch und zusammenhängend die Verwendung des Begriffs der ‚Intelligenz‘ in der Informatik zu klären. Aktuell hat man den Eindruck, dass jeder gerade mal das behauptet, was ihm gerade gefällt. Auch eine Art von Fake News. Die Marketingabteilungen der großen Konzerne freut es, weil sie nach Belieben alles Versprechen können, was sie wollen, ohne dass irgendjemand sinnvoll nachprüfen kann, was das genau ist, ob das überhaupt geht.

Doch sollte man sich durch diese terminologische Unklarheiten, die auf eine fehlende wissenschaftliche Methodik der Informatik zurück zu führen sind, nicht davon ablenken lassen, zu konstatieren, dass trotz chaotischer Begrifflichkeit im Konkreten und Im Detail seit Newell und Simon 1976 extreme Fortschritte gemacht wurden in speziellen Algorithmen und spezieller Hardware, mit der man heute viel mehr realisieren kann, als sich Newell und Simon damals hätten träumen lassen. Die Vorteile, die man sich durch diese Fortschritte im Konkreten erarbeitet hat, werden aber weitgehend verspielt durch große Theoriedefizite, die zu gerade kuriosen Anschauungen und kuriosen Forschungsprojekten führen. In der KI ist dies aber nichts Neues: es gab sehr unterschiedliche Phasen; alle Fehler führten irgendwann dann doch zu verbesserten Einsichten.

QUELLE

Allen Newell and Herbert A. Simon. Computer science as empirical inquiry: Symbols and search. Communications of the ACM, 19(3):113–126, 1976.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

(MASCHINELLES) BEWUSSTSEIN – ALLTAGSERKENNEN – ZURÜCK AUF START

(A shorter version in English can be found HERE)

KONTEXT: WELT DER INGENIEURE

  1. Seit letztem Sommer arbeite ich bei einem Buchprojekt mit, bei dem es eigentlich um die Welt der Ingenieure geht: Wie löst ein Ingenieur ein Problem? Sozusagen vom ‚Problem‘ zum ‚fertigen Produkt‘. Zu diesem Thema gibt es viele dicke Bücher und internationale Standards, viele hundert Artikel. Dennoch gibt es hier viele offene Fragen, z.B. auch die nach den Erkenntnisprozessen, die in Ingenieuren ablaufen müssen, damit sie ein Problem in eine funktionierende Lösung transformieren können. Unter welchen Voraussetzungen kann eine Kommunikation zwischen Ingenieuren gelingen? Gibt es eine innere Logik in diesem Prozess? Und was ist mit den intelligenten Programmen und Maschinen, die immer mehr Teil dieses Prozesses sind und sein werden? Was ist eigentlich ‚Künstliche Intelligenz‘? Was kann sie wirklich? Könnte eine Maschine menschlich kommunizieren? Kann eine Maschine ein maschinelles Bewusstsein haben, das eine Kooperation mit Menschen im menschlichen Stil ermöglicht?

MASCHINELLES BEWUSSTEIN

  1. Dies sind einige der Fragen. Die Frage nach einem maschinellen Bewusstsein wurde in diesem Blog bisweilen schon angerissen. Damit zusammenhängend stellt sich – zumindest methodisch – sofort die Frage, was wir denn unter dem Begriff ‚Bewusstsein‘ verstehen können oder sollen? Macht es Sinn, von einem ‚maschinellen Bewusstsein‘ zu sprechen, wenn wir doch gar nicht wissen, was ein ‚Bewusstsein‘ sein soll? Hier stellen sich viele spannende Fragen; einige davon wurden in diesem Blog auch schon diskutiert.

BEWUSSTSEIN UND NEURONALE KORRELATE

  1. Speziell die Frage nach dem menschlichen Bewusstsein hat schon immer Philosophen beschäftigt, später, in der Neuzeit, auch Psychologen, und dann, noch später, seit einigen Jahrzehnten zunehmend die Neurowissenschaften bzw. die Neuropsychologie. Der Begriff der ’neuronalen Korrelate des Bewusstseins‘ ist mittlerweile weit verbreitet. Ganz allgemein werden damit Gehirnaktivitäten gemeint, die mit Bewusstseinsprozessen einhergehen sollen. Die Zahl der Publikationen zu diesem Thema geht in die Hunderte. Dennoch wird man sich schwer tun, in irgendeiner dieser Publikationen eine brauchbare Definition von ‚Bewusstsein‘ zu finden, die unabhängig von neurowissenschaftlichen Tatbeständen ist. Von daher bewegen sich diese Publikationen weitgehend in einem hermeneutischen Zirkel: sie versuchen neuronale Korrelate des Bewusstseins zu definieren, ohne dass sie den Begriff ‚Bewusstsein‘ unabhängig von Gehirnaktivitäten definieren. Vereinfacht wird ein Bündel von Gehirnaktivitäten genommen und erklärt, dass immer dann, wenn diese auftreten, bewusste Aktivitäten vorliegen, ohne dass diese bewussten Aktivitäten in einem selbständigen theoretischen Modell erklärt werden bzw. unabhängig von den neuronalen Aktivitäten gemessen werden.
  2. Die Methodendiskussionen im Kontext der Neurowissenschaften – auch unter Einbeziehung der Neuropsychologie – erscheinen von daher bislang eher unbefriedigend.

MACHINELLES BEWUSSTSEIN – KI

  1. Hier gibt es einen interessanten Nebenkriegsschauplatz, von dem man sich auf den ersten Blick vielleicht kaum Erkenntnisse für die Frage ‚Bewusstsein – Gehirn‘ erhofft. Das Gebiet des maschinellen Bewusstseins, einem Teilgebiet der künstlichen Intelligenz (Anmerkung: der heute oft anzutreffende Begriff der ‚Maschinellen Intelligenz‘ ist – wenn man sich an den veröffentlichten Texten orientiert – nur ein kleiner Teilbereich des weiten Gebietes der ‚Künstlichen Intelligenz‘. Allerdings ist der Sprachgebrauch von ‚Künstlicher Intelligenz‘, ‚Maschineller Intelligenz‘, ‚Computational Intelligence‘, ‚Cognitive Computation‘ usw. zur Zeit nicht sehr einheitlich.) fragt sich sehr speziell, ob und wie man das Phänomen des menschlichen Bewusstseins mittels einer Maschine soweit nachbauen könnte, dass sich alle Eigenschaften des menschlichen Bewusstseins damit reproduzieren lassen. Wie man dieses maschinelle Bewusstsein technisch realisiert ist bei dieser Fragestellung eigentlich offen, faktisch versucht aber die große Mehrheit der hier aktiven Forscher Anleihen bei der Gehirnwissenschaft und der Psychologie zu holen, weil nun mal der Prototyp eines menschlichen Bewusstseins in realen Menschen real vorliegt und es für viele einfacher erscheint, sich hier etwas abzugucken als alles aus dem Nichts neu zu erfinden.
  2. Einen der besten Überblicke, den ich zu diesem Forschungsgebiet kenne, stammt von James A.Reggia aus dem Jahr 2013 mit dem Titel „The rise of machine consciousness: Studying consciousness with computational models“ (erschienen in der Zeitschrift ‚Neural Networks‘ von Elsevier (URL: https://pdfs.semanticscholar.org/8333/603ff38df5fb8277f0ef945b3d4c6ccd672e.pdf ). In einem späteren Artikel aus 2017 hat er die grundlegende methodische Problematik unter dem Titel „Exploring the Computational Explanatory Gap‚ zusammen mit anderen nochmals weiter ausformuliert (in der Zeitschrift ‚Philosophies‘ (URL: doi:10.3390/philosophies2010005 ). Reggia zeigt viele der methodischen Schwachstellen der Rede von den neuronalen Korrelaten des Bewusstseins auf (auch sehr grundlegende Einwände) und kommt letztlich zum Ergebnis, dass die Forschung nicht wirklich weiter kommt, solange sie sich nicht dem Phänomen des ‚Bewusstseins‘ direkt stellt ohne den Umweg über Verhalten (Psychologie) oder Gehirnaktivität (Neurowissenschaft).

WIE DIE FRAGE STELLEN?

  1. Damit stellt sich die Frage, welche Chancen wir denn haben, uns direkt mit dem Bewusstsein zu beschäftigen. Die vielfachen Versuche der Philosophen aus mehr als 2000 Jahren, die der Psychologen seit ca. 150 Jahren bieten eine kaum überschaubare Fülle von Vorgehensweisen, von denen sich aber bislang keine wirklich durchsetzen konnte. Am meisten vielleicht noch (meine subjektive Einschätzungen) die Ansätze einer phänomenologischen Philosophie (Husserl, Heidegger, Merleau-Ponty…), aber so richtig durchsetzen konnten diese sich bislang auch nicht. Seit den 90iger Jahren gab es eine neue Welle von philosophischen Untersuchungen. Den Namen Thomas Metzinger kennen seitdem viele, die Zeitschrift ‚Journal of Consciousness Studies‘ bildete einen starken Impuls, in der Einbeziehung der Gehirnforschung sahen viele eine neue Option. In dem Maße aber, wie sich die Daten der Gehirnforschung mathematisch fassen und in neuartige Experimente umsetzen lassen, wird sichtbar, dass die Gehirnforschung als solche nicht automatisch jene Erkenntnisse liefert, nach denen wir fragen. Was also tun?

SYSTEMS ENGINEERING

  1. Mehr durch Zufall bin ich vor ca. 18 Jahren mit Menschen zusammen getroffen —  speziell mit einem –, die sich Ingenieure nennen, genauer, ‚Systems Engineers‘. Dies sind Menschen, die ein umfangreiches Training vorwiegend in Technologie, Mathematik und Management genommen haben, meist mindestens 20 – 25 Jahre, bis sie dann Raketen und Flugzeige planen und bauen können, Atomreaktoren mit Extremsicherheitsanforderungen, den Verkehrsfluss in Städten, die Grenzsicherung eines Landes, das Gesundheitssystem eines Landes, und vieles mehr. Systems Engineers sind gewohnt, komplex zu denken, in Prozessen, unter Einbeziehung des Faktors Mensch, und immer sehr konkret, überprüfbar, messbar, mit vielen mathematischen Modellen, unter Einbeziehung von hochentwickelten Softwarewerkzeugen.
  2. An dieser Stelle kann man mal die Frage aufwerfen, wie müsste eine Theorie des menschlichen Bewusstseins aussehen, so dass ein Systems Engineer sie real und praktisch benutzen könnte, um seine komplexen Aufgaben damit besser lösen zu können? Die meisten Publikationen zum Thema Bewusstsein reden in gewisser Weise ‚über‘ das Phänomen, eingebettet in viele spezielle Begriffe, deren Bedeutung nicht so ohne weiteres klar ist, ohne dass sich daraus ableiten lässt, wie man aus diesem Reden ‚über‘ das Bewusstsein zu konkreten Anleitungen und zu konkreten Methoden kommen kann, die geeignet sind, das reale Verhalten von Akteuren mit Bewusstsein sowohl zu beschreiben wie auch – soweit es die internen Freiheitsgrade von Akteuren erlauben – gewisse Prognosen über ihr Verhalten abzugeben. Für Ingenieure besonders wichtig sind brauchbare Erkenntnisse über die Wechselwirkung zwischen den Situationsgegebenheiten und den inneren Zuständen des Akteurs. Eine verhaltensorientierte Psychologie kann hier in der Regel von großer Hilfe sein, ersetzt aber keine ‚Theorie des Bewusstseins‘ im engeren Sinne.

ZURÜCK AUF START

  1. Die obigen Überlegungen im Hinterkopf, z.T. schon viele Jahrzehnte, habe ich mich jetzt entschlossen, die Frage nach einer geeigneten Theorie des Bewusstseins, die sich in Ingenieurkontexten praktisch nutzen lässt, nochmals neu anzugehen. Dieses Mal bewusst im Rahmen des methodischen Paradigmas des Systems Engineerings.
  2. Dabei trat die Notwendigkeit auf, die pragmatischen Umschreibungen und Handhabungen des Begriffs ‚Systems Engineering‘ im Modell einer ‚Empirischen Wissenschaft‘ mit einer ‚formalen Theorie‘ zu reformulieren und in diesem Kontext dann die Frage nach dem Bewusstsein empirisch und theoretisch zu verfolgen. Obgleich man davon ausgehen kann, dass die Ergebnisse der empirischen Psychologie, der empirischen Neurowissenschaften und einer empirischen Neuropsychologie wertvolle Korrelationen liefern können, so muss man methodisch festhalten, dass sie dies nur dann können, wenn es unabhängig vom Verhalten und den Gehirnaktivitäten eine brauchbare Theorie des Bewusstseins gibt, die sich korrelieren lässt. Ohne solch eine eigenständige Theorie des Bewusstseins bewegen sich Psychologie und Gehirnwissenschaft in einem hermeneutischen Zirkel, aus dem es keinen Notausgang gibt.
  3. Ein Ziel zu haben ist eines, den Weg zum Ziel zu finden etwas anderes.

START IM ALLTAG

  1. Nach zahllosen Versuchen in den letzten Jahren und den intensiven Diskussionen in der Fachliteratur habe ich mich entschieden, den Start der Untersuchung in den Alltag zu verlegen, in den Kontext jener Abläufe und Handlungen, die wir täglich vornehmen, die wir mehr oder weniger gemeinsam haben, und über die zwar nicht unbedingt theoretisch explizit aber dennoch pragmatisch unausgesprochen eine gewisse Einigkeit besteht.

KÖRPER ALS APRIORI

  1. Es besteht eine gewisse Wahrscheinlichkeit, dass jene Verhaltensweisen, die wir praktizieren, ohne darüber groß zu diskutieren, jene sind, die in der Dynamik und Struktur unseres Körpers, unseres Gehirns und unseres Bewusstsein biologisch angelegt sind, jene Plattform des Wahrnehmens, Fühlens, Erinnerns, Vorstellens, Entscheidens usw. bieten, mit der wir unser alltägliches Leben bestreiten, auch wenn wir über keinerlei theoretische Erkenntnisse verfügen, wie man dies alles genau verstehen kann bzw. sollte (So können Kinder lernen, sich zu bewegen und zu sprechen, ohne theoretische Kenntnisse).
  2. In der formalen Logik gibt es den Grundsatz, dass man nur jene Sachverhalte ‚beweisen‘ kann, die schon in den Voraussetzungen einer Theorie drin stecken. Im Fall unseres Alltagsverhaltens wäre dann das Alltagsverhalten zu verstehen als eine fortdauernde Manifestation von Voraussetzungen, die biologisch in unserem Körper angelegt sind. Die eigentliche theoretische Arbeit bestünde dann darin, jene Voraussetzungen sichtbar zu machen, die in unserem Körper so angelegt sind, dass wir genau zu dem beobachtbaren Verhalten fähig sind. Schwierig wird es dann nur, wenn wir in unserem beobachtbaren Verhalten nur einen Bruchteil von dem Potential ausnutzen, was ‚in uns‘ steckt. Wie wollen wir dann wissen, ‚wer‘ wir sind, wenn sich unsere potentielle Person – aus den unterschiedlichsten Gründen – nicht ‚zeigt‘? Die Geschichte der Menschheit ist voll von Beispielen, wie kulturelle Muster das Verhalten von Menschen unnötiger Weise in bestimmte Muster gepresst haben (und immer noch pressen), die die Entfaltung von Menschen behindern; umgekehrt haben immer wieder Menschen und Situationen neue Verhaltensweisen hervorgebracht, von denen man sich vorher gar nicht vorstellen konnte, dass es sie geben könnte.

BARRIEREN IM SELBST-ERKENNEN

  1. Dies zeigt, dass das ‚Erkennen unserer selbst‘ selbst wiederum in einem hermeneutischen Zirkel stattfindet, in dem wir möglicherweise nur deswegen vieles nicht erkennen, weil wir uns schlicht nicht vorstellen können,   dass es möglich ist, bzw.  dass wir als Menschen auch ganz anders sein könnten (die Art und Weise, wie noch heute in vielen Kulturen z.B. Kinder und Frauen gesehen und behandelt werden, zeigt überdeutlich, wie schwer sich der homo sapiens tut, seine Verhaltensmodelle zu ändern, und auszuweiten).

Fortsetzung folgt

 

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.