Relektüre von Edelman 1992: Welche Theorie von was?

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 5.Dez. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

Gerald M.Edelman, Bright Air, Brilliant Fire. On the Matter of the Mind, New York: 1992, Basic Books

 

DAS PROBLEM

Bei der Relektüre von Edelman (siehe Überblick über alle bisherigen Beiträge HIER) stellt sich die Frage, um welche Theorie es hier überhaupt geht?

Es ist ein großes Verdienst von Edelman, dass er versucht, die Gehirnforschung nicht isoliert zu betrachten, sondern sehr wohl im Kontext von Bewusstsein und Verhalten, sehr wohl auch im Kontext einer Evolution des Lebens bzw. auch im Kontext von ontogenetischen Wachstumsprozessen. Als wäre dies noch nicht genug, stellt er gelegentlich auch explizite philosophische Überlegungen an oder wagt sich vor in den Bereich des Engineering, insofern er konkrete materielle Modelle von Gehirnen baut (mittels künstlicher neuronaler Netze), um die Plausibilität seiner Überlegungen zum Gehirn zu überprüfen. Nimmt man all dies ernst, dann findet man sich unversehens in einer Situation wieder, wo man nicht mehr so richtig weiß, um ‚welche Theorie von was‘ es hier eigentlich geht.

PANORAMA VON PHÄNOMENEN

Vom BigBang zum homo sapiens, reflektiert in einer Vielzahl von Einzelwissenschaften

Vom BigBang zum homo sapiens, reflektiert in einer Vielzahl von Einzelwissenschaften

Versucht man die vielen Aspekte irgendwie zu ‚ordnen‘, die im Buch von Edelman aufscheinen, dann eröffnet sich ein breites Panorama von Phänomenen, die alle ineinander greifen (siehe Schaubild), und die – strenggenommen – auch genauso, in diesem dynamischen Zusammenhang, zu betrachten sind, will man die Eigenart dieser Phänomene ‚voll‘ erfassen.

Eigentlich geht es Edelman um ein besseres Verständnis des ‚Gehirns‘. Doch kommt das Gehirn ja schon im Ansatz nicht alleine, nicht isoliert vor, sondern als Teil eines übergeordneten ‚Körpers‘, der von außen betrachtet (Dritte-Person Perspektive) ein dynamisches ‚Verhalten‘ erkennen lässt. Dieses Verhalten ist – im Fall des homo sapiens, also in unserem Fall als Menschen – nicht isoliert, sondern ist sowohl durch ‚Kommunikation‘ mit anderen Menschen ‚vernetzt‘ als auch durch vielfältige Formen von Interaktionen mit einer Welt der Objekte, von Artefakten, von Maschinen, und heute sogar ‚programmierbaren Maschinen‘, wobei letztere ein Verhalten zeigen können, das zunehmend dem menschliche Verhalten ‚ähnelt‘. Ferner konstatieren wir im Fall des homo sapiens in der Ersten-Person Perspektive noch etwas, das wir ‚Bewusstsein‘ nennen, das sich aber nur schwer in seiner Beschaffenheit kommunizieren lässt.

WISSENSCHAFTLICHE DISZIPLINEN

Im Versuch, die Vielfalt der hier beobachtbaren Phänomene beschreiben zu können, hat sich eine Vielzahl von Disziplinen herausgebildet, die sich — neben der Sonderstellung der Philosophie — als ‚wissenschaftliche Disziplinen‘ bezeichnen. ‚Wissenschaftlich‘ heißt hier in erster Linie, dass man die Phänomene des Gegenstandsbereichs nach zuvor vereinbarten Standards reproduzierbar ‚misst‘ und man nur solche so vermessenen Phänomene als Basis weitergehender Überlegungen akzeptiert. Das Paradoxe an dieser Situation ist – was Edelman auf S.114 auch notiert –, dass sich dieses wissenschaftliche Paradigma nur umsetzen lässt, wenn man Beobachter mit Bewusstsein voraussetzt, dass man aber zugleich im Ergebnis der Messung und der Überlegungen von dem ermöglichenden Bewusstsein (samt Gehirn) abstrahiert.

PHILOSOPHIE FÜR DEN ‚REST‘

Eine Konsequenz dieser ‚Abstraktion von den Voraussetzungen‘ ist, dass ein Wissenschaftler letztlich keine Möglichkeit hat, in ‚offizieller‘ Weise, über sich selbst, über sein  Tun, und speziell auch nicht über die Voraussetzungen seines Tuns, zu sprechen. Ein solches sich selbst reflektierende Denken und Sprechen bleibt damit der Philosophie überlassen, die als solche bei der Entstehung der empirischen Wissenschaften offiziell vom Wissenschaftsbetrieb ausgeschlossen wurde. Als Wissenschaftsphilosophie hat die Philosophie zwar immer wieder versucht, sich dem empirischen Wissenschaftsbetrieb offiziell anzunähern, aber bis heute ist das Verhältnis von empirischen Wissenschaften und (Wissenschafts-)Philosophie aus Sicht der empirischen Wissenschaften ungeklärt. Für die empirischen Wissenschaften wundert dies nicht, da sie sich von ihrem methodischen Selbstverständnis her auf ihre isolierte Betrachtungsweisen verpflichtet haben und von diesem Selbstverständnis her sich jeder Möglichkeit beraubt haben, diese Isolation mit den typischen wissenschaftlichen Bordmitteln aufzubrechen. Allerdings produziert dieses ’selbst isolierende Paradigma‘ immer mehr Einzeldisziplinen ohne erkennbaren Zusammenhang! Es ist nur eine Frage der Zeit, bis wann sich diese Explosion der nicht-integrierten Einzelbilder selbst zerstört.

ANSPRUCH, ALLES ZU ERKLÄREN

Die Wissenschaften selbst, allen voran die Physik, kennen sehr wohl den Anspruch, mit ihrer Arbeit letztlich ‚alles aus einer Hand‘ zu erklären (z.B. formuliert als ‚Theory of Everything (ToE)‘ oder mit dem Begriff der ‚Weltformel‘), doch sowohl die konkrete Realität als auch grundlegende philosophische und meta-theoretische Untersuchungen legen eher den Schluss nahe, dass dies vom Standpunkt einer einzelnen empirischen Wissenschaft aus, nicht möglich ist.

VISION EINES RATIONALEN GESAMT-RAHMENS

Um also die Vielfalt der einzelnen wissenschaftlichen Disziplinen zu bewahren, mehr noch, um sie in ihren inhaltlichen und methodischen Beschränkungen untereinander transparent und verständlich zu machen, wird man die (philosophische) Arbeitshypothese aufstellen müssen, dass die Rationalität der Einzelwissenschaften letztlich nur aufrecht erhalten werden kann, wenn man sowohl für jede Einzelwissenschaft wie auch für ihr Zusammenspiel eine rationale Begründung sichtbar machen kann, die für alle ‚gilt‘. Ein solcher Rationalitätsanspruch ist nicht zu verwechsel mit der alten Idee einer einzelwissenschaftlichen ‚Weltformel‘ oder einer einzelwissenschaftlichen ‚Theory of Everything‘. Eher eignet sich hier das Paradigma einer kritischen Philosophie von Kant, die nach der Voraussetzung für den Wahrheitsanspruch einer Theorie fragt. Während Kant allerdings die Frage nach den Voraussetzungen bei den Grenzen des Bewusstseins mangels verfügbarem Wissens enden lassen musste, können wir heute – auch Dank der Arbeiten von Edelman und anderen – diese Grenzen weiter hinausschieben, indem wir die Voraussetzungen des Bewusstseins einbeziehen. Eine solche bewusste Erweiterung der philosophischen Frage nach den Voraussetzungen des menschlichen Erkennens über die Grenzen des Bewusstseins hinaus führt dann nicht nur zum ermöglichenden Gehirn und dem zugehörigen Körper, sondern geht dann weiter zur umgebenden Welt und ihrer Dynamik, die sich im Evolutionsgeschehen und in der Entstehung des bekannten Universums zeigt.

PHILOSOPHIE UND WISSENSCHAFTEN

Die schon immer nicht leichte Aufgabe des philosophischen Denkens wird mit diesen methodischen Erweiterungen keinesfalls einfacher, sondern erheblich schwieriger. Andererseits muss die Philosophie diese Reflexionsarbeit nicht mehr alleine leisten, sondern sie kann die ganze Fülle der einzelwissenschaftlichen Arbeiten aufgreifen, um sie dann in einem gemeinsamen Rationalitätsrahmen neu anzuordnen.

Beispiele für Integrationsbemühungen gibt es sogar seitens der Einzelwissenschaften, wenngleich meistens methodisch wenig überzeugend. So versuchen Gehirnforscher schon seit vielen Jahren Zusammenhänge zwischen messbaren Aktivitäten des Gehirns und des beobachtbaren Verhaltens (unter dem Label ‚Neuropsychologie‘) oder zwischen messbaren Aktivitäten des Gehirns und Erlebnissen des Bewusstseins (kein wirkliches Label; man würde ‚Neurophänomenologie‘ erwarten) heraus zu finden. Bislang mit begrenztem Erfolg.

Bei aller Problematik im Detail kann es aber nur darum gehen, die ungeheure Vielfalt der Phänomene, wie sie die Einzelwissenschaften bislang zutage gefördert haben, vor-sortiert in einer Vielzahl von Arbeitshypothesen, Modellen und Theoriefragmenten, in einen von allen akzeptierbaren Rationalitätsrahmen einordnen zu können, der eine Gesamt-Theorie reflektiert, die als solche möglicherweise immer unvollendet bleiben wird

WOMIT FANGEN WIR AN?

Damit stellt sich ganz praktisch die Frage, wo und wie soll man anfangen? Das Buch von Edelman kann erste Hinweise liefern.

  1. KEINE WISSENSINSELN: Am Beispiel des homo sapiens wird deutlich, dass ein Verständnis von Bewusstsein, Gehirn, Körper, Verhalten und hier insbesondere die symbolische Kommunikation je für sich nicht gelingen kann. Und Edelman demonstriert eindrücklich, dass man zusätzlich die ontogenetische und evolutive Dimension einbeziehen muss, will man zu einem befriedigenden Verständnis kommen.
  2. INTEGRATION VON EINZELWISSEN: Man muss also Wege finden, wie man diese verschiedenen Aspekte in einem gemeinsamen Rationalitätsrahmen so anordnen kann, dass sowohl die einzelwissenschaftliche Methodik gewahrt bleibt, wie auch eine ‚Integration‘ all dieser Aspekte auf einer ‚gemeinsamen Ebene‘ möglich wird, die dabei von den Einzelwissenschaften nicht ‚isoliert‘ ist.
  3. META-WISSEN ALS LEITFADEN: Das geforderte Vorgehen betrachtet die konkreten einzelwissenschaftlichen Erklärungsansätze als einen ‚Gegenstand sui generis‘, macht also die Einzelwissenschaften zu ‚Untersuchungsgegenständen‘. Dies entspricht dem Paradigma der Wissenschaftsphilosophie.
  4. NEUE WISSENSCHAFTSPHILOSOPHIE: Mit Blick auf die Geschichte der modernen Wissenschaftsphilosophie (etwa seit dem Wiener Kreis) muss man dafür offen sein, dass das Paradigma der Wissenschaftsphilosophie für diese Aufgabenstellung möglicherweise neu zu formatieren ist.
  5. KOMMUNIKATIONSPROZESS ALS RAHMEN: So liegt es nahe, zu sagen, es gehe nicht primär um einen isolierten Theoriebegriff, sondern um einen Kommunikationsprozess, der Kommunikationsinhalte generiert, die im Rahmen des Kommunikationsprozesses ‚verstehbar‘ sein sollen.
  6. SYSTEMS-ENGINEERING ALS BEISPIEL: Ein modernes Beispiel für einen problemorientierten Kommunikationsprozess findet sich im Paradigma des modernen Systems-Engineering. Auslöser des Kommunikationsprozesses ist eine ‚Frage‘ oder eine ‚Problemstellung‘, und der Kommunikationsprozess versucht nun durch Ausnutzung des Wissens und der Erfahrungen von allen Beteiligten einen gemeinsames Bild von möglichen Lösungen zu generieren. Zu Beginn werden alle Kriterien kenntlich gemacht, die für die intendierte Lösung berücksichtigt werden sollen.
  7. EINBEZIEHUNG AUTOMATISIERTEN WISSENS: Insbesondere soll der Kommunikationsprozess so ausgelegt sein, dass er den Einsatz moderner Wissenstechnologien wie z.B.. ‚Interaktive Simulationen‘, ‚Kommunikationstests‘, ‚benutzerzentrierte künstliche Intelligenz‘, sowie automatisierte ‚Simulationsbibliotheken‘ erlaubt.

Dies ist nur eine erste, noch sehr vage Formulierung. Es wird notwendig sein, diese anhand von vielen Beispielen weiter zu konkretisieren und zu verfeinern.

 

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

SPEZIALISIERUNG und INTERDISZIPLINARITÄT – Ein seltsames Paar

Anmerkung: Die folgenden Gedanken wurden angeregt durch ein Gespräch mit einem Kollegen am Mo, 14.Oktober 2013, mittags im Relax,in Frankfurt.

KOMPLEXITÄT UM UNS HERUM

1) Eine entwickelte Gesellschaft ist ein sehr vielschichtiges Gebilde. Ein einzelnes Haus verlangt zu seinem Bau verschiedene Spezialisten; bei großen Bürogebäuden und Wolkenkratzern ist es eine ganze Armada von Spezialisten. Ähnliches gilt für Fahrzeuge, Verkehrsverbindungen, Kanalsysteme, überhaupt Infrastrukturen, für das Management großer Institutionen und Firmen, für die Produktion wissensintensiver Produkte, usw.

MENSCHEN HANDELN MIT WISSEN

2) Doch, wie komplex eine Gesellschaft auch sein mag, die Handlungsknotenpunkte werden bislang noch von Menschen gebildet; Menschen die wahrnehmen, die interpretieren, die planen, die entscheiden, die Ziele formulieren usw. Nennen wir die Gesamtheit der ‚internen Faktoren‘ der handelnden Menschen vereinfachend ihr ‚Wissen‘.

BEGRENZTE KAPAZITÄTEN

3) Obwohl dieses Wissen sich im Laufe des Lebens ‚verändern‘ kann, ist die jeweils ‚aktuelle Verarbeitung‘ sehr begrenzt, endlich. Man kann pro Zeiteinheit nicht beliebig viel an Ereignissen aufnehmen und verarbeiten. Will man dennoch ‚mehr‘ Informationen verarbeiten als der vorhandene Wissensmechanismus (das darunter liegender Gehirn) zulässt, dann kann die Technik des Chunking begrenzt helfen: man führt eine Vielzahl von irgendwie zusammenhängenden Elementen unter einem neuen ‚Namen‘ zusammen. Der Name verbraucht weniger Verarbeitungskapazität, verweist aber auf seine ‚assoziierten Elemente‘.
4) Hierzu wäre sehr, sehr viel im einzelnen zu sagen. Für den aktuellen Zusammenhang ist nur wichtig, dass die Verarbeitungskapazität der Menschen sich im Laufe von Jahrhunderten bislang nur geringfügig — wenn überhaupt — verändert hat. In dem Maße also, in dem sich das ‚Wissen verfeinert‘ und zugleich die Komplexität der erfahrbaren Gesellschaft zunimmt (immer mehr Menschen, immer mehr verschiedene Objekte, immer mehr Abläufe, immer mehr Publikationen, … und das Ganze auch immer schneller) werden die endlichen Verarbeitungskapazitäten der Menschen ‚überlastet‘; er verliert den Überblick bzw. den ‚Zusammenhang‘: es wird immer unklarer, wie die einzelnen Dinge mit den anderen im Zusammenhang stehen.

SPEZIALISIERUNG ALS AUSWEG

5) Will man einem Ideal von ‚Vollständigkeit‘ und ‚Korrektheit‘ (welchem genau? Wie ist es definiert?) genügen, bleibt nur ein Ausweg: ‚Spezialisierung‘ durch Einschränkung auf Teilbereiche. Damit gewinnt man wieder etwas mehr Kontrolle über die Elemente des eingeschränkten Bereiches; andererseits gibt es dann aber auf jeden Fall auch Bereiche, die ‚außen vor‘ bleiben, es sei denn, man vermehrt die Anzahl der Spezialisten. Nehmen wir mal idealisierend an, dass eine menschliche Gesellschaft, in dem Maße, wie sie einschränkt, die Anzahl der Spezialisten vermehrt, so dass kein Bereich außerhalb der Kontrolle verbleibt.
6) Im Grenzfall haben wir dann Spezialisten für einen Bereich A mit Methoden M(A) und einen Bereich B mit Methoden M(B). Per definitionem wissen die Spezialisten von A nichts vom Bereich B und kennen auch nicht die Methoden, und umgekehrt.
7) Aus dem Alltag wissen wir auch, dass wir zunehmend Aufgaben lösen müssen, in denen sich Bereiche A, B, C, … mischen, nicht einfach nur ’nebeneinander‘, sondern in vielfältigsten Wechselwirkungen R1(A,C), R2(B,A), R3(R1(A,C), R2(B,A)) usw. Wenn man jetzt nicht will — und es wäre auch unrealistisch — dass jeder Alles kennenlernt (das war ja vor der Spezialisierung), muss ein Weg gefunden werden, wie die verschiedenen Spezialisten trotz ihrer Spezialisierung irgendwie ‚miteinander‘ kommunizieren und planen können. In einer formalen Theorie zieht man dann eine neue ‚Metaebene‘ ein, in der die Elemente von A und von B jeweils in neuer Form ‚abstrahiert‘ als ‚abstrahierte Elemente‘ vorkommen und man dann auf diese Weise quasi ‚über sich‘ sprechen kann, ohne die Details des anderen Bereiches voll verstehen zu müssen (und verstehen zu können).

INTERDISZIPLINARITÄT IST GEFORDERT

8) Eine solche gemeinsame Metaebene zu M(A) und M(B) gibt es aber nicht automatisch. Sie muss von allen Beteiligten konstruktiv ‚erarbeitet‘ werden. Das moderne Systemsengineering ist ein Beispiel für solch ein Vorgehen. Im Systemsengineering wurden allgemeine Prozessmodelle erarbeitet, in denen es unterschiedliche Rollen für Akteure gibt, bestimmte Interaktionsmuster, die nicht auf die Besonderheiten eines Bereichs eingehen, sondern nur auf die Art und Weise, wie Spezialisten miteinander interagieren sollten, damit sie gemeinsam eine Lösung finden können unter Befolgung allgemeiner Richtlinien.
9) Da wir seid Hilbert, Goedel und Turing wissen, dass es selbst im Bereich der rein formalen Systeme keine völlig abschließbaren Systeme gibt — geschweige denn im Bereich des Biologischen oder des Gesamtphysikalischen –, ist der Bezug auf eine einzelwissenschaftliche Domäne sowieso ein Kompromiss mit der Wirklichkeit, der nur durch gleichzeitige Bejahung des je größeren Ganzen akzeptiert werden kann.

INTERDISZIPLINARITÄT IST KEIN AUTOMATISMUS

10) Die Alltagserfahrung zeigt, dass die Fähigkeit zum interdisziplinären Arbeiten sich NICHT automatisch ergibt. Interdisziplinär zu arbeiten erfordert neben den fachlichen Kenntnissen ein hohes Maß an Selbstreflexion, Empathie und psychologische Balance und muss genauso mühsam gelernt werden wie alle anderen Fähigkeiten auch. Und wie generell das Vorkommen jeder Fähigkeit in einer Gesellschaft einer Normalverteilung (‚Glockenkurve‘) unterliegt, so gibt es auch nur wenige Menschen, die genügend Fähigkeiten besitzen, solche komplexen interdisziplinären Aufgaben wahrnehmen zu können.
11) Es deutet sich an, dass die Zunahme an Spezialisierung nur dann nicht in eine moderne Form von gesellschaftlicher Agonie führt, wenn parallel dazu die Fähigkeit interdisziplinär zu arbeiten verbunden mit der Entwicklung geeigneter interdisziplinärer Methoden im notwendigen Umfang mit entwickelt und ausgebaut wird. Ich habe selbst schon erlebt wie mit summa cum laude Promovierte im Rahmen von Teams und Aufgaben weitgehend versagt haben. Sie waren nicht in der Lage, ihre eigene Position als Teil eines Netzwerkes von Positionen zu erkennen, zu reflektieren und konstruktiv einzubringen; das Ergebnis war Paralyse, Stillstand, emotionaler Stress, Mobbing, Scheitern.

NOCH MEHR KOMPLEXITÄT

12) Die Entwicklung von mehr und leistungsfähigeren interdisziplinären Vorgehensmodellen verbessert einerseits die Problemlösungskapazität einer Gesellschaft, zugleich erhöht sich aber auch unweigerlich die Komplexität. Es stellt sich die Frage, wie weit kommen wir als Menschen mit unseren aktuellen Wissensstrukturen? Vermutung: wenn wir unsere menschlichen Wissensstrukturen (Gehirn, Körper) nicht substantiell ändern können (Genetisch, durch Prothesen, …) dann gibt es sehr bald eine endliche obere Schranke von Prozessen, die wir noch einigermaßen fehlerfrei managen können. Jenseits dieser realen endlichen Grenze erzeugen wir mehr Fehler als Lösungen. Gemessen an der universellen Aufgabe, das ‚Leben‘ auf der Erde über den absehbaren Wärmetod durch die Aufblähung der Sonne hinaus zu bewahren dürfte die aktuelle Leistungsfähigkeit möglicherweise zu gering sein.
13) Kulturtechnisch gibt es ja seit den 40iger Jahren des 20.Jahrhunderts programmierbare (und prinzipiell selbst lernende) Maschinen, die rechnen können (Computer). Angeregt durch die potentiellen Möglichkeiten von Computer bildete sich eine Arbeitshypothese heraus, dass die Computer irgendwann die Menschen ersetzen können und werden (Singularity Hpothese, Transhumanismus)(Dazu gab es auch einen früheren Blogeintrag) . Dies ist eine interessante Arbeitshypothese, doch sind viele wichtige Begriffe in diesen Überlegungen noch nicht hinreichend geklärt.

COMPUTER, TRANSHUMANISMUS

14) Ich persönlich sehe das ‚biologische Leben‘, den ‚Geist in allem‘ sowie die ‚Computer‘ als Produkte des Biologischen Lebens weniger gegenläufig sondern als drei verschiedene Momente einer einzigen Wirklichkeit, die sich emergent entfaltet. So großartig die Leistungen der biologischen Wissenschaften einschließlich Molekularbiologie, Genetik, Biochemie usw. im einzelnen bislang waren, so wenig ist es ihnen bislang gelungen, die Gesamtzusammenhänge als Eigenschaften eines quantenphysikalischen Raumes sichtbar zu machen, der wiederum über sich selbst hinaus weist. Die Summe ist immer mehr als ihre Teile; aber dazu braucht man eine geeignete Sprache, die man mühsam ‚erfinden‘ muss; von alleine ist sie nicht da. Und das schiere ‚einfach nicht darüber Nachdenken‘ — als eine Form von Denkverweigerung — ist kein fruchtbarer Boden für neue Erkenntnisse.

Eine Übersicht über alle bisherigen Blogbeiträge nach Titeln findet sich HIER